JP6555263B2 - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
JP6555263B2
JP6555263B2 JP2016531240A JP2016531240A JP6555263B2 JP 6555263 B2 JP6555263 B2 JP 6555263B2 JP 2016531240 A JP2016531240 A JP 2016531240A JP 2016531240 A JP2016531240 A JP 2016531240A JP 6555263 B2 JP6555263 B2 JP 6555263B2
Authority
JP
Japan
Prior art keywords
file
information
metadata
parallel processing
files
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016531240A
Other languages
English (en)
Other versions
JPWO2016002495A1 (ja
Inventor
平林 光浩
光浩 平林
央二 中神
央二 中神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016002495A1 publication Critical patent/JPWO2016002495A1/ja
Application granted granted Critical
Publication of JP6555263B2 publication Critical patent/JP6555263B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本技術は、情報処理装置および方法に関し、特に、再生側の能力に応じた再生ファイルの選択を実現することができるようにした情報処理装置および方法に関する。
近年、HTTP(HyperText Transfer Protocol)を利用したコンテンツ配信技術としてMPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP)が標準化された(例えば、非特許文献1参照)。MPEG-DASHでは、同一コンテンツが異なるビットレートで表現された複数の符号化データをコンテンツサーバに格納し、クライアントが、ネットワーク帯域に応じて複数の符号化データのいずれかの符号化データを選択しながら再生するABS(Adaptive Bitrate Streaming)技術が採用されている。
ところで、このようなコンテンツ配信のクライアントとなり得る電子機器は多様化の一途を辿っており、それによって、クライアントのコンテンツ再生の性能も多様化している。そのため、MPEG-DASHのようなコンテンツ配信技術においても、例えば、解像度やバンド幅だけでなく、符号化の並列処理タイプ等の符号化パラメータ等、より多様なパラメータについてより多様な値が適用されたより多様なファイルを用意し、クライアントに、自身の再生能力に最適なファイルを選択させるようにすることが求められている。
MPEG-DASH(Dynamic Adaptive Streaming over HTTP)(URL:http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam-1)
しかしながら、従来のMPEG-DASH規格では、ファイルに関するより多様なパラメータをクライアント側に通知する機能がなかった。
本技術は、このような状況に鑑みて提案されたものであり、再生側の能力に応じた再生ファイルの選択を実現することができるようにすることを目的とする。
本技術の一側面は、画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含む前記メタデータを生成するメタデータ生成部を備える情報処理装置である。
前記並列処理タイプを示す情報は、前記並列処理タイプがタイル分割であるか、ウェーブフロントパラレルプロセッシングであるかを識別する識別情報を含むようにすることができる。
前記並列処理タイプを示す情報は、前記並列処理タイプがスライス分割であるか、タイル分割であるか、ウェーブフロントパラレルプロセッシングであるかを識別する識別情報を含むようにすることができる。
前記メタデータは、セグメンテーションの取り得る最大サイズを示す情報をさらに含むようにすることができる。
前記メタデータ生成部は、前記並列処理タイプを示す情報を、MPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP)に準拠したMPD(Media Presentation Description)のリプレゼンテーションに設定することができる。
前記メタデータ生成部は、前記並列処理タイプを示す情報を、前記リプレゼンテーションのサプリメンタルプロパティのバリューとして設定することができる。
本技術の一側面は、また、画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含む前記メタデータを生成する情報処理方法である。
本技術の他の側面は、画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含む前記メタデータを解析するメタデータ解析部と、前記メタデータ解析部の解析結果に従って、前記複数のファイルの中から再生するファイルを選択するファイル選択部と、前記ファイル選択部により選択された前記ファイルを取得し、再生するファイル再生部とを備える情報処理装置である。
本技術の他の側面は、また、画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含む前記メタデータを解析し、解析結果に従って、前記複数のファイルの中から再生するファイルを選択し、選択された前記ファイルを取得し、再生する情報処理方法である。
本技術の一側面においては、画像データが符号化された符号化データを含む複数のファイルの情報を含み、複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含むメタデータが生成される。
本技術の他の側面においては、画像データが符号化された符号化データを含む複数のファイルの情報を含み、複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含むメタデータが解析され、解析結果に従って、複数のファイルの中から再生するファイルが選択され、選択されたファイルが取得され、再生される。
本技術によれば、情報を処理することが出来る。また本技術によれば、再生側の能力に応じた再生ファイルの選択を実現することができる。
MPEG-DASHの概要を説明する図である。 MPDの構成例を示す図である。 コンテンツの時間的区切りを説明する図である。 MPDにおけるPeriod以下の階層構造の例を示す図である。 MPDファイルの構成例を時間軸上で説明する図である。 MPDの主な構成例を示す図である。 ファイル生成装置の主な構成例を示すブロック図である。 ファイル生成処理の流れの例を説明するフローチャートである。 MPD生成処理の流れの例を説明するフローチャートである。 ファイル再生装置の主な構成例を示すブロック図である。 ファイル再生処理の流れの例を説明するフローチャートである。 MPDの主な構成例を示す図である。 HEVCデコーダコンフィギュレーションレコードの例を示す図である。 パラレリズムタイプのセマンティクスの例を示す図である。 配信システムの主な構成例を示すブロック図である。 コンピュータの主な構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(ファイル生成装置・ファイル再生装置)
2.第2の実施の形態(MPDの他の構成例)
3.第3の実施の形態(配信システム)
4.第4の実施の形態(コンピュータ)
<1.第1の実施の形態>
<DASH>
従来、HTTP(HyperText Transfer Protocol)を利用したコンテンツ配信技術として、例えば非特許文献1に記載のように、MPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP)がある。MPEG-DASHでは、同一コンテンツが異なるビットレートで表現された複数の符号化データをコンテンツサーバに格納し、クライアントが、ネットワーク帯域に応じて複数の符号化データのいずれかの符号化データを選択しながら再生するABS(Adaptive Bitrate Streaming)技術が採用されている。
DASHによるコンテンツの伝送の手順を、図1を参照して説明する。まず、コンテンツを取得する側の動画再生端末において、ストリーミング・データの制御用ソフトウエアが、所望のコンテンツのMPD(Media Presentation Description)ファイルを選択し、Webサーバから取得する。MPDは、配信する動画や音声等のコンテンツを管理するメタデータである。
MPDを取得すると、動画再生端末のストリーミング・データの制御用ソフトウエアは、そのMPDを解析し、所望のコンテンツの、通信回線の品質や動画再生端末の性能等に合ったデータ(DASHセグメント)をWebサーバから取得するように制御する。HTTPアクセス用のクライアント・ソフトウエアは、その制御に従って、そのDASHセグメントを、HTTPを用いてWebサーバから取得する。このように取得されたコンテンツを、動画再生ソフトウエアが再生する。
MPDは、例えば図2に示されるような構成を有する。MPDの解析(パース)においては、クライアントは、MPD(図2のMedia Presentation)のピリオド(Period)に含まれるリプレゼンテーション(Representation)の属性から最適なものを選択する。
クライアントは、選択したリプレゼンテーション(Representation)の先頭のセグメント(Segment)を読んでイニシャライズセグメント(Initialization Segment)を取得し、処理する。続いて、クライアントは、後続のセグメント(Segment)を取得し、再生する。
なお、MPDにおける、ピリオド(Period)、リプレゼンテーション(Representation)、およびセグメント(Segment)の関係は、図3のようになる。つまり、1つのメディアコンテンツは、時間方向のデータ単位であるピリオド(Period)毎に管理することができ、各ピリオド(Period)は、時間方向のデータ単位であるセグメント(Segment)毎に管理することができる。また、各ピリオド(Period)について、ビットレート等の属性の異なる複数のリプレゼンテーション(Representation)を構成することができる。
したがって、このMPDのファイル(MPDファイルとも称する)は、ピリオド(Period)以下において、図4に示されるような階層構造を有する。また、このMPDの構造を時間軸上に並べると図5の例のようになる。図5の例から明らかなように、同一のセグメント(Segment)に対して複数のリプレゼンテーション(Representation)が存在している。クライアントは、これらのうちのいずれかを適応的に選択することにより、通信環境や自己のデコード能力などに応じて適切なストリームデータを取得し、再生することができる。
しかしながら、従来のMPEG-DASH規格では、ファイルに関するより多様なパラメータをクライアント側に通知する機能がなかった。例えば、従来のMPEG-DASH規格のMPDには、配信する画像データの符号化の際の並列処理タイプを示す情報をクライアント側に通知する仕組みが存在しなかった。そのため、クライアントは、自身の性能にとって適切でないファイルを選択してしまうおそれがあった。このようにクライアントの性能と、再生するファイルの特徴との間にミスマッチが生じると、クライアントにおいて再生処理の負荷が不要に増大したり、不要に再生画像の画質が低減してしまうおそれがあった。
そこで、画像データが符号化された符号化データを含む複数のファイルの情報を含み、その複数のファイルの再生を制御するメタデータであって、各ファイルの符号化パラメータに関する情報を含むメタデータを生成するようにする。
その符号化パラメータに関する情報が、画像データの符号化の並列処理タイプを示す情報を含むようにしてもよい。
また、その並列処理タイプを示す情報が、並列処理タイプがタイル分割であるか、ウェーブフロントパラレルプロセッシングであるかを識別する識別情報を含むようにしてもよい。
また、符号化パラメータに関する情報がMPDのリプレゼンテーションに設定されるようにしてもよい。さらに、符号化パラメータに関する情報が、サプリメンタルプロパティのバリューとして設定されるようにしてもよい。
<MPD構成例>
より具体的な例について説明する。図6は、本技術を適用して生成されたMPDの主な構成例を示す図である。この例の場合、バンド幅(bandwidth)が1mbpsと3mbpsとの2種類用意され、さらに、並列処理タイプが、タイル分割(Tile)と、ウェーブフロントパラレルプロセッシング(wavefront)との2種類用意されている。つまり、4つのファイルが用意されている。1mbps_tile.mp4は、バンド幅が1mbpsで並列処理タイプがタイル分割の符号化データを格納するMP4ファイルである。1mbps_wavefront.mp4は、バンド幅が1mbpsで並列処理タイプがウェーブフロントパラレルプロセッシングの符号化データを格納するMP4ファイルである。3mbps_tile.mp4は、バンド幅が3mbpsで並列処理タイプがタイル分割の符号化データを格納するMP4ファイルである。3mbps_wavefront.mp4は、バンド幅が3mbpsで並列処理タイプがウェーブフロントパラレルプロセッシングの符号化データを格納するMP4ファイルである。
図6に示されるように、このMPDにおいては、ピリオド(Period)の下位にアダプテーションセット(AdaptationSet)が設定され、その下位にリプレゼンテーションが4つ設定され、各リプレゼンテーションの下位にセグメントが設定され、1mbps_tile.mp4、1mbps_wavefront.mp4、3mbps_tile.mp4、3mbps_wavefront.mp4が互いに異なるセグメントに設定(登録)されている。
各リプレゼンテーションには、MP4ファイルに格納される符号化データの符号化方式を示す情報(<codecs="hvc1">)が格納される。"hvc1"は、符号化方式がHEVC(High Efficiency Video Coding)であることを示す識別情報である。符号化データが他の符号化方式により符号化されている場合、この値が他の値となる。例えば、SHVC(Scalable High Efficiency Video Coding)の場合、値"lhv1"が格納される。
また、各リプレゼンテーションには、MP4ファイルのバンド幅(bandwidth)が設定されている(<bandwidth="1mbps">, <bandwidth="3mbps">)。
さらに、各リプレゼンテーションには、サプリメンタルプロパティ(SupplementalProperty)が設定され、そのエレメントとしてタイル用のスキーマ(schemeIdUri="urn:mpeg:DASH:hevc:vui:2014")が設定され、そのバリュー(value)として、MP4ファイルの並列処理タイプを示す識別情報が設定されている。図6において、値「1」(value="1")は、並列処理タイプがタイル分割であることを示し、値「2」(value="2")は、並列処理タイプがウェーブフロントパラレルプロセッシングであることを示す。
例えば、以下のような情報が設定される。
<SupplementalProperty schemeIdUri="urm:mpeg:DASH:hevc:vui:2014" value="1">
または、
<SupplementalProperty schemeIdUri="urm:mpeg:DASH:hevc:vui:2014" value="2">
クライアントは、このようなリプレゼンテーションに設定された各種情報を参照して、再生するファイルを選択する。クライアントがリプレゼンテーションを選択すると、そのリプレゼンテーションに属するセグメントに登録されているMP4ファイルが再生するファイルとして選択され、取得される。
このように、リプレゼンテーションに各種情報を設定することにより、クライアントにその情報を提示することができる。したがって、クライアントは、その提示された情報に基づいて、自身の能力により適したファイルを選択することができる。つまり、再生側の能力に応じた再生ファイルの選択を実現することができる。
例えば、並列処理タイプがタイル分割の場合、ハードウェアのデコーダによる復号に適しており、並列処理タイプがウェーブフロントパラレルプロセッシングの場合、ソフトウェアのデコーダによる復号に適している。したがって、自身のデコーダがハードウェアであるかソフトウェアであるかによって、クライアントにとってより適切なファイルが決定する。
なお、リプレゼンテーションに設定される情報は任意であり、図6の例に示される並列処理タイプのような符号化に関する情報であってもよいし、符号化以外に関する情報であってもよい。例えば、符号化対象の画像に関する情報であってもよい。
<ファイル生成装置>
次に、このようなファイルを生成する装置について説明する。図7は、本技術を適用した情報処理装置の一実施の形態であるファイル生成装置の主な構成例を示すブロック図である。図7において、ファイル生成装置100は、画像符号化部A、画像符号化部B、画像符号化部C、・・・のように、互いに異なる方法で符号化する複数の符号化部を有し、それらを用いて、画像を複数の方法で符号化し、画像または符号化に関するパラメータの少なくとも一部が互いに異なる複数の符号化データ(符号化データA、符号化データB、符号化データC、・・・)を生成する。画像符号化部101は、生成したこれらの符号化データをMP4ファイル生成部102に供給する。
MP4ファイル生成部102は、供給された複数の符号化データをそれぞれMP4ファイル化し、互いに異なる符号化データを格納する複数のMP4ファイルを生成する。MP4ファイル生成部102は、生成した複数のMP4ファイル(MP4ファイルA、MP4ファイルB、MP4ファイルC、・・・)を出力する。また、MP4ファイル生成部102は、生成した複数のMP4ファイル(MP4ファイルA、MP4ファイルB、MP4ファイルC、・・・)をMPD生成部103にも供給する。
MPD生成部103は、供給される複数のMP4ファイルを制御するMPDを生成する。このMPDには、複数のMP4ファイルに格納される、少なくとも一部が互いに異なる画像または符号化に関するパラメータの情報が設定される。MPD生成部103は、このように生成したMPDを出力する。
<ファイル生成処理の流れ>
次に、図8のフローチャートを参照して、図7のファイル生成装置100により実行されるファイル生成処理の流れの例を説明する。
ファイル生成処理が開始されると、画像符号化部101は、ステップS101において、画像を複数の方法で符号化する。
ステップS102において、MP4ファイル生成部102は、ステップS101において生成された複数の符号化データをそれぞれMP4ファイル化する。
互いに異なる符号化データを格納する複数のMP4ファイルが生成されると、ステップS103において、MP4ファイル生成部102は、生成したMP4ファイルを出力する。
ステップS104において、MPD生成部103は、ステップS102において生成された各MP4ファイルから、そのMP4ファイルに含まれる符号化データの画像・符号化情報を取得する。
ステップS105において、MPD生成部103は、各符号化データの画像・符号化情報を用いて全MP4ファイルの情報を含むMPDを生成する。
ステップS106において、MPD生成部103は、ステップS105において生成したMPDを出力する。
ステップS106の処理が終了すると、ファイル生成処理が終了する。
<MPD生成処理の流れ>
次に、図9のフローチャートを参照して、図8のステップS105において実行されるMPD生成処理の詳細な流れの例を説明する。
MPD生成処理が開始されると、MPD生成部103は、ステップS121において、アダプテーションセットを設定する。
ステップS122において、MPD生成部103は、MP4ファイル毎にリプレゼンテーションを設定する。
ステップS123において、MPD生成部103は、各セグメントにMP4ファイルを設定する。
ステップS124において、MPD生成部103は、各リプレゼンテーションに、そのMP4ファイルの画像・符号化情報を設定する。例えば、図6の場合、画像・符号化情報として、MP4ファイルに格納される符号化データの符号化方式を示す情報(codecs)、MP4ファイルのバンド幅(bandwidth)、並びに、サプリメンタルプロパティ(SupplementalProperty)が設定される。また、サプリメンタルプロパティ(SupplementalProperty)には、そのエレメントとしてタイル用のスキーマ(schemeIdUri="urn:mpeg:DASH:hevc:vui:2014")が設定され、そのバリュー(value)として、MP4ファイルの並列処理タイプを示す識別情報が設定されている。図6において、値「1」(value="1")は、並列処理タイプがタイル分割であることを示し、値「2」(value="2")は、並列処理タイプがウェーブフロントパラレルプロセッシングであることを示す。もちろん、画像・符号化情報の内容は任意であり、画像・符号化情報にこれら以外の情報が含まれていてもよい。
ステップS124の処理が終了すると、MPD生成処理が終了し、図8に処理が戻る。
以上のように各処理を実行することにより、ファイル生成装置100は、画像や符号化に関するパラメータを、リプレゼンテーションに設定し、再生側に提示することができる。したがって、ファイル生成装置100は、再生側が、その提示された情報に基づいて、自身の能力により適したファイルを選択することができるようにすることができる。つまり、再生側の能力に応じた再生ファイルの選択を実現することができる。
<ファイル再生装置>
次に、ファイル生成装置100により生成されたMP4ファイルやMPDを再生する装置について説明する。図10は、本技術を適用した情報処理装置の一実施の形態であるファイル再生装置の主な構成例を示すブロック図である。図10において、ファイル再生装置200は、図7のファイル生成装置100により上述したように生成されたMP4ファイルやMPDを再生して復号画像を生成し、出力する装置である。
図10に示されるように、ファイル再生装置200は、MPD解析部201、MP4ファイル選択部202、MP4ファイル再生部203、および画像復号部204を有する。
<ファイル再生処理の流れ>
図10のファイル再生装置200は、ファイル再生処理を実行することにより、入力されるMPDを解析し、その情報に基づいて自身の能力により適した符号化データを格納するMP4ファイルを選択して取得し、そのMP4ファイルを再生して復号画像を生成する。図11のフローチャートを参照して、このファイル再生処理の流れの例を説明する。
ファイル再生処理が開始されると、MPD解析部201は、ステップS201において、MPDを取得する。
ステップS202において、MPD解析部201は、ステップS201において取得したMPDから各MP4ファイルの画像・符号化情報を抽出し、MP4ファイル選択部202に供給する。
ステップS203において、MP4ファイル選択部202は、供給された画像・符号化情報に基づいて、自身の能力により適したMP4ファイルを再生するMP4ファイルとして選択する。
ステップS204において、MP4ファイル選択部202は、ステップS203の処理により選択されたMP4ファイルを、その格納先に要求する。
ステップS205において、MP4ファイル再生部203は、ステップS204の要求に応じて供給されたMP4ファイルを取得する。
ステップS206において、MP4ファイル再生部203は、ステップS205において取得したMP4ファイルを再生し、符号化データを抽出し、画像復号部204に供給する。
ステップS207において、画像復号部204は、ステップS206において供給された符号化データを復号し、復号画像データを生成する。
ステップS208において、画像復号部204は、ステップS207において生成された復号画像データを出力する。
復号画像データが出力されるとファイル再生処理が終了する。
以上のようにファイル作成処理を実行することにより、ファイル再生装置200は、MPDのリプレゼンテーションに設定された画像や符号化に関するパラメータを参照することにより、より容易に、符号化データの特徴を把握することができる。したがって、ファイル再生装置200は、その提示された情報に基づいて、自身の能力により適したファイルを選択することができる。つまり、再生側の能力に応じた再生ファイルの選択を実現することができる。
<2.第2の実施の形態>
<MPD構成例>
並列処理タイプを示す情報は、並列処理タイプがスライス分割であるか、タイル分割であるか、ウェーブフロントパラレルプロセッシングであるかを識別する識別情報を含むようにしてもよい。
また、符号化パラメータに関する情報が、セグメンテーションの取り得る最大サイズを示す情報を含むようにしてもよい。
図12は、本技術を適用して生成されたMPDの他の構成例を示す図である。図12に示される構成例は、図6を参照して説明した例と基本的に同様であるが、サプリメンタルプロパティのバリューの値が異なる。例えば、以下のように設定されている。
<SupplementalProperty schemeIdUri="urm:mpeg:DASH:hevc:vui:pd:2014" value="4,2">
または、
<SupplementalProperty schemeIdUri="urm:mpeg:DASH:hevc:vui:pd:2014" value="4,3">
この場合、バリュー(value)として、セグメンテーションの取り得る最大サイズを示す情報(min_spatial_segmentation_idc)と、MP4ファイルの並列処理タイプを示す識別情報(parallelism Type)が設定されている。
このmin_spatial_segmentation_idcと、parallelism Typeは、例えば符号化データ(HEVC)のVUI(Video Usability Information)において定義されるパラメータである。図13に、このVUIに生成されるHEVCデコーダコンフィギュレーションレコード(HEVC DecoderConfigurationRecord)のシンタクスの例を示す。図13に示されるように、HEVCデコーダコンフィギュレーションレコードにおいて、min_spatial_segmentation_idcと、parallelism Typeが設定されている。parallelism Typeのセマンティクスの例を図14に示す。例えば、このparallelism Typeの値が「1」の場合、並列処理タイプがスライス分割であることを示し、値が「2」場合、並列処理タイプがタイル分割であることを示し、値が「3」の場合、並列処理タイプがウェーブフロントパラレルプロセッシングであることを示す。
このように、本実施の形態の場合、MPD生成部103は、符号化データに含まれる画像・符号化情報を抽出し、値を変えずに、MPDのリプレゼンテーションに各種情報に設定する。つまり、既存のパラメータを再生側に提示する。したがって、MPD生成部103は、新たにパラメータを定義する必要無いので、より容易に、画像・符号化情報を再生側に提示することができる。したがって、クライアントは、その提示された情報に基づいて、自身の能力により適したファイルを選択することができる。つまり、再生側の能力に応じた再生ファイルの選択を実現することができる。
なお、この場合のファイル生成処理やファイル再生処理等の各種処理は、上述した例と基本的に同様であるので、その説明は省略する。
以上のようにMPDのリプレゼンテーションに設定される情報は任意である。例えば、レイヤ間でのピクチャータイプのアライン(制約)情報(Pic_type/IRAP align)であってもよいし、ビットレートやフレームレートの情報(Bit_rate/pic_rate)であってもよいし、カラープライマリ、トランスファーCharacteristic、Matrix係数等の画像データに関する情報(video_signal)であってもよいし、アダプティブレゾリューションコントロール(Adaptive Resolution Control)であってもよいし、higher_layer_irap_skip_flagやvert_pahse_position_in_use_flag等の各種フラグ情報であってもよいし、bistream partition 等のHRD関連の情報であってもよい。もちろん、これら以外の情報であってもよい。
また、以上においては、ファイル再生装置200が、複数のMP4ファイルの中から、再生側の能力に応じた再生ファイルの選択を実現するように説明したが、この再生側の能力は、復号画像データの生成までの処理の能力であってもよいし、それ以外の能力であってもよい。例えば、MP4ファイル選択部202が、得られた復号画像を表示するディスプレイの性能(例えば、解像度、色域、フレームレート等)に対してより適切なMP4ファイルを選択するようにしてもよい。また、MP4ファイル選択部202がディスプレイの性能を把握することができるのであれば、このディスプレイがファイル再生装置200と異なる装置であってもよい。
<3.第3の実施の形態>
<配信システム>
各実施の形態において上述した各装置は、例えば、静止画像や動画像を配信する配信システムに利用することができる。以下において、その場合について説明する。
図15は、本技術を適用した配信システムの主な構成例を示す図である。図15に示される配信システム300は、静止画像および動画像を配信するシステムである。図15に示されるように、配信システム300は、配信データ生成装置301、配信サーバ302、ネットワーク303、端末装置304、および端末装置305を有する。
配信データ生成装置301は、配信する静止画像や動画像のデータから配信用のフォーマットの配信データを生成する。配信データ生成装置301は、生成した配信データを配信サーバ302に供給する。配信サーバ302は、配信データ生成装置301が生成した配信データを記憶部などに記憶して管理し、ネットワーク303を介して端末装置304や端末装置305に対して、その配信データの配信サービスを提供する。
ネットワーク303は、通信媒体となる通信網である。ネットワーク303は、どのような通信網であってもよく、有線通信網であってもよいし、無線通信網であってもよいし、それらの両方であってもよい。例えば、有線LAN(Local Area Network)、無線LAN、公衆電話回線網、所謂3G回線や4G回線等の無線移動体用の広域通信網、またはインターネット等であってもよいし、それらの組み合わせであってもよい。また、ネットワーク303は、単数の通信網であってもよいし、複数の通信網であってもよい。また、例えば、ネットワーク303は、その一部若しくは全部が、例えばUSB(Universal Serial Bus)ケーブルやHDMI(登録商標)(High-Definition Multimedia Interface)ケーブル等のような、所定の規格の通信ケーブルにより構成されるようにしてもよい。
配信サーバ302、端末装置304、および端末装置305は、このネットワーク303に接続されており、互いに通信可能な状態になされている。これらのネットワーク303への接続方法は任意である。例えば、これらの装置が、ネットワーク303に、有線通信により接続されるようにしてもよいし、無線通信により接続されるようにしてもよい。また、例えば、これらの装置が、アクセスポイント、中継装置、基地局等、任意の通信装置(通信設備)を介してネットワーク303に接続されるようにしてもよい。
端末装置304および端末装置305は、それぞれ、例えば、携帯型電話機、スマートフォン、タブレット型コンピュータ、ノート型コンピュータのような、通信機能を有する任意の電子機器である。端末装置304や端末装置305は、例えばユーザ等の指示に基づいて、配信ファイルの配信を配信サーバ302に対して要求する。
配信サーバ302は、要求された配信データを要求元に送信する。配信を要求した端末装置304若しくは端末装置305は、その配信データを受信し、再生する。
このような配信システム300において、配信データ生成装置301として、各実施の形態において上述した本技術を適用する。すなわち、上述したファイル生成装置100を、配信データ生成装置301として用いるようにする。
また、端末装置304や端末装置305として、各実施の形態において上述した本技術を適用する。すなわち、上述したファイル再生装置200を、端末装置304や端末装置305として用いるようにする。
このようにすることにより、配信データ生成装置301、端末装置304、および端末装置305は、上述した各実施の形態と同様の効果を得ることができる。つまり、配信システム300は、再生側の能力に応じた再生ファイルの選択を実現することができる。
<4.第4の実施の形態>
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図16は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
図16に示されるコンピュータ400において、CPU(Central Processing Unit)401、ROM(Read Only Memory)402、RAM(Random Access Memory)403は、バス404を介して相互に接続されている。
バス404にはまた、入出力インタフェース410も接続されている。入出力インタフェース410には、入力部411、出力部412、記憶部413、通信部414、およびドライブ415が接続されている。
入力部411は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部412は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部413は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部414は、例えば、ネットワークインタフェースよりなる。ドライブ415は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア421を駆動する。
以上のように構成されるコンピュータでは、CPU401が、例えば、記憶部413に記憶されているプログラムを、入出力インタフェース410およびバス404を介して、RAM403にロードして実行することにより、上述した一連の処理が行われる。RAM403にはまた、CPU401が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU401)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア421に記録して適用することができる。その場合、プログラムは、リムーバブルメディア421をドライブ415に装着することにより、入出力インタフェース410を介して、記憶部413にインストールすることができる。
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部414で受信し、記憶部413にインストールすることができる。
その他、このプログラムは、ROM402や記憶部413に、あらかじめインストールしておくこともできる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、上述した各ステップの処理は、上述した各装置、若しくは、上述した各装置以外の任意の装置において、実行することができる。その場合、その処理を実行する装置が、上述した、その処理を実行するのに必要な機能(機能ブロック等)を有するようにすればよい。また、処理に必要な情報を、適宜、その装置に伝送するようにすればよい。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本技術は、これに限らず、このような装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。
なお、本技術は以下のような構成も取ることができる。
(1) 画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの符号化パラメータに関する情報を含む前記メタデータを生成するメタデータ生成部
を備える情報処理装置。
(2) 前記符号化パラメータに関する情報は、前記画像データの符号化の並列処理タイプを示す情報を含む
(1)に記載の情報処理装置。
(3) 前記並列処理タイプを示す情報は、前記並列処理タイプがタイル分割であるか、ウェーブフロントパラレルプロセッシングであるかを識別する識別情報を含む
(2)に記載の情報処理装置。
(4) 前記並列処理タイプを示す情報は、前記並列処理タイプがスライス分割であるか、タイル分割であるか、ウェーブフロントパラレルプロセッシングであるかを識別する識別情報を含む
(2)または(3)に記載の情報処理装置。
(5) 前記符号化パラメータに関する情報は、セグメンテーションの取り得る最大サイズを示す情報を含む
(1)乃至(4)に記載の情報処理装置。
(6) 前記メタデータ生成部は、前記符号化パラメータに関する情報を、リプレゼンテーションに設定する
(1)乃至(5)に記載の情報処理装置。
(7) 前記メタデータ生成部は、前記符号化パラメータに関する情報を、サプリメンタルプロパティのバリューとして設定する
(6)に記載の情報処理装置。
(8) 画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの符号化パラメータに関する情報を含む前記メタデータを生成する
情報処理方法。
(9) 画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの符号化パラメータに関する情報を含む前記メタデータを解析するメタデータ解析部と、
前記メタデータ解析部の解析結果に従って、前記複数のファイルの中から再生するファイルを選択するファイル選択部と、
前記ファイル選択部により選択された前記ファイルを取得し、再生するファイル再生部と
を備える情報処理装置。
(10) 画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの符号化パラメータに関する情報を含む前記メタデータを解析し、
解析結果に従って、前記複数のファイルの中から再生するファイルを選択し、
選択された前記ファイルを取得し、再生する
情報処理方法。
100 ファイル生成装置, 101 画像符号化部, 102 MP4ファイル生成部, 103 MPD生成部, 200 ファイル再生装置, 201 MPD解析部, 202 MP4ファイル選択部, 203 MP4ファイル再生部, 300 配信システム, 301 配信データ生成装置, 302 配信サーバ, 303 ネットワーク, 304および305 端末装置, 400 コンピュータ

Claims (9)

  1. 画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含む前記メタデータを生成するメタデータ生成部
    を備える情報処理装置。
  2. 前記並列処理タイプを示す情報は、前記並列処理タイプがタイル分割であるか、ウェーブフロントパラレルプロセッシングであるかを識別する識別情報を含む
    請求項1に記載の情報処理装置。
  3. 前記並列処理タイプを示す情報は、前記並列処理タイプがスライス分割であるか、タイル分割であるか、ウェーブフロントパラレルプロセッシングであるかを識別する識別情報を含む
    請求項2に記載の情報処理装置。
  4. 前記メタデータは、セグメンテーションの取り得る最大サイズを示す情報をさらに含む
    請求項1に記載の情報処理装置。
  5. 前記メタデータ生成部は、前記並列処理タイプを示す情報を、MPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP)に準拠したMPD(Media Presentation Description)のリプレゼンテーションに設定する
    請求項1に記載の情報処理装置。
  6. 前記メタデータ生成部は、前記並列処理タイプを示す情報を、前記リプレゼンテーションのサプリメンタルプロパティのバリューとして設定する
    請求項5に記載の情報処理装置。
  7. 画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含む前記メタデータを生成する
    情報処理方法。
  8. 画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含む前記メタデータを解析するメタデータ解析部と、
    前記メタデータ解析部の解析結果に従って、前記複数のファイルの中から再生するファイルを選択するファイル選択部と、
    前記ファイル選択部により選択された前記ファイルを取得し、再生するファイル再生部と
    を備える情報処理装置。
  9. 画像データが符号化された符号化データを含む複数のファイルの情報を含み、前記複数のファイルの再生を制御するメタデータであって、各ファイルの前記画像データの符号化の並列処理タイプを示す情報を含む前記メタデータを解析し、
    解析結果に従って、前記複数のファイルの中から再生するファイルを選択し、
    選択された前記ファイルを取得し、再生する
    情報処理方法。
JP2016531240A 2014-06-30 2015-06-16 情報処理装置および方法 Expired - Fee Related JP6555263B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014134877 2014-06-30
JP2014134877 2014-06-30
PCT/JP2015/067233 WO2016002495A1 (ja) 2014-06-30 2015-06-16 情報処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2016002495A1 JPWO2016002495A1 (ja) 2017-04-27
JP6555263B2 true JP6555263B2 (ja) 2019-08-07

Family

ID=55019042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531240A Expired - Fee Related JP6555263B2 (ja) 2014-06-30 2015-06-16 情報処理装置および方法

Country Status (5)

Country Link
US (1) US20170127073A1 (ja)
EP (1) EP3148200B1 (ja)
JP (1) JP6555263B2 (ja)
CN (1) CN106464943B (ja)
WO (1) WO2016002495A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200014281A (ko) * 2017-05-30 2020-02-10 소니 주식회사 화상 처리 장치 및 방법, 파일 생성 장치 및 방법, 그리고 프로그램
CN109309879A (zh) * 2017-07-27 2019-02-05 飞狐信息技术(天津)有限公司 一种解码方法、装置及设备
RU2020122086A (ru) * 2018-01-12 2022-01-04 Сони Корпорейшн Способ и устройство обработки информации
CN108513141A (zh) * 2018-03-26 2018-09-07 深圳市景阳信息技术有限公司 一种数据的收发方法、装置及设备
EP3780628A1 (en) * 2018-03-29 2021-02-17 Sony Corporation Information processing device, information processing method, and program
EP3982638A4 (en) * 2019-06-25 2023-03-29 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, REPRODUCTION PROCESSING DEVICE AND REPRODUCTION PROCESSING METHOD
EP3972270A1 (en) 2020-09-17 2022-03-23 Lemon Inc. Picture dimension indication in decoder configuration record
CN113766235B (zh) * 2021-08-30 2023-10-17 聚好看科技股份有限公司 一种全景视频传输方法及设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009064401A2 (en) * 2007-11-15 2009-05-22 Thomson Licensing System and method for encoding video
JP2011087103A (ja) * 2009-10-15 2011-04-28 Sony Corp コンテンツ再生システム、コンテンツ再生装置、プログラム、コンテンツ再生方法、およびコンテンツサーバを提供
JP2011160077A (ja) * 2010-01-29 2011-08-18 Sony Corp 復号装置および方法
TWI447709B (zh) * 2010-02-11 2014-08-01 Dolby Lab Licensing Corp 用以非破壞地正常化可攜式裝置中音訊訊號響度之系統及方法
JP2012186763A (ja) * 2011-03-08 2012-09-27 Mitsubishi Electric Corp 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
KR101465977B1 (ko) * 2012-04-15 2014-12-01 삼성전자주식회사 병렬 처리를 위한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US9161039B2 (en) * 2012-09-24 2015-10-13 Qualcomm Incorporated Bitstream properties in video coding
CN110139130B (zh) * 2012-10-12 2022-09-20 佳能株式会社 流传输数据的方法、发送和接收视频数据的方法和设备
KR102149959B1 (ko) * 2013-01-04 2020-08-31 지이 비디오 컴프레션, 엘엘씨 효율적인 확장가능한 코딩 개념
EP4362466A3 (en) * 2013-07-15 2024-06-26 GE Video Compression, LLC Cluster-based dependency signaling
CN103699585B (zh) * 2013-12-06 2017-04-19 华为技术有限公司 文件的元数据存储以及文件恢复的方法、装置和系统
US10148969B2 (en) * 2015-02-11 2018-12-04 Qualcomm Incorporated Of sample entry and operation point signalling in a layered video file format

Also Published As

Publication number Publication date
CN106464943A (zh) 2017-02-22
CN106464943B (zh) 2020-09-11
JPWO2016002495A1 (ja) 2017-04-27
EP3148200A4 (en) 2018-01-03
EP3148200A1 (en) 2017-03-29
EP3148200B1 (en) 2020-06-17
US20170127073A1 (en) 2017-05-04
WO2016002495A1 (ja) 2016-01-07

Similar Documents

Publication Publication Date Title
JP6555263B2 (ja) 情報処理装置および方法
JP7103402B2 (ja) 情報処理装置および情報処理方法
US10187668B2 (en) Method, system and server for live streaming audio-video file
JP6908098B2 (ja) 情報処理装置および方法
JP6508206B2 (ja) 情報処理装置および方法
WO2018142946A1 (ja) 情報処理装置および方法
JP7287454B2 (ja) 情報処理装置、再生処理装置、情報処理方法及び再生処理方法
US20180109585A1 (en) Information processing apparatus and information processing method
CA2802264A1 (en) Remote viewing of media content using layered video encoding
JP6501127B2 (ja) 情報処理装置および方法
EP3579568A1 (en) Information processing device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R151 Written notification of patent or utility model registration

Ref document number: 6555263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees