JPWO2019138929A1 - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
JPWO2019138929A1
JPWO2019138929A1 JP2019564651A JP2019564651A JPWO2019138929A1 JP WO2019138929 A1 JPWO2019138929 A1 JP WO2019138929A1 JP 2019564651 A JP2019564651 A JP 2019564651A JP 2019564651 A JP2019564651 A JP 2019564651A JP WO2019138929 A1 JPWO2019138929 A1 JP WO2019138929A1
Authority
JP
Japan
Prior art keywords
picture
information
sub
file
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019564651A
Other languages
English (en)
Other versions
JP7396047B2 (ja
Inventor
遼平 高橋
遼平 高橋
平林 光浩
光浩 平林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019138929A1 publication Critical patent/JPWO2019138929A1/ja
Priority to JP2023194210A priority Critical patent/JP2024003189A/ja
Application granted granted Critical
Publication of JP7396047B2 publication Critical patent/JP7396047B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本開示は、サブピクチャのストリームの選択をより容易に行うことができるようにする情報処理装置および方法に関する。全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、そのサブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、画像符号化データの配信制御に用いられる制御ファイルを生成する。本開示は、例えば、情報処理装置、画像処理装置、画像符号化装置、ファイル生成装置、ファイル送信装置、配信装置、ファイル受信装置、画像復号装置、または再生装置等に適用することができる。

Description

本開示は、情報処理装置および方法に関し、特に、サブピクチャのストリームの選択をより容易に行うことができるようにした情報処理装置および方法に関する。
従来、HTTP(Hypertext Transfer Protocol)プロトコルによるアダプティブなコンテンツ配信技術の標準化規格として、MPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP)がある(例えば、非特許文献1、非特許文献2参照)。
また、このMPEG-DASHのファイルフォーマットとして、動画圧縮の国際標準技術「MPEG-4(Moving Picture Experts Group - 4)」のファイルコンテナ仕様であるISOBMFF(International Organization for Standardization Base Media File Format)がある(例えば、非特許文献3参照)。
ところで、所謂全天球映像のような、水平方向の周囲360度および垂直方向の周囲180度の画像を立体構造に投影した画像である立体構造画像を、平面画像にマッピングした全天球画像(投影平面画像とも称する)の配信にMPEG-DASHを利用することが考えられている。例えば、立体構造画像を単数の平面にマッピングし、その立体構造画像が平面にマッピングされた投影平面画像として配信することにより、MPEG-DASHを適用することができる。その際、1つの全天球映像の投影平面画像(全体ピクチャとも称する)を複数のサブピクチャ(sub-picture)に分割し、複数のトラック(track)に格納することも提案されている。なお、sub-pictureの表示領域を識別する場合には、まずsub-picture分割情報をもとにsub-pictureから全体ピクチャを構築したのちに、region-wise packing情報をもとにregion-wise packingされた全体ピクチャを配置しなおす処理が必要である(例えば、非特許文献4参照)。
しかしながら、現在提案されている方法では、sub-picture化がなされた場合、ピクチャ領域毎にサイズ・位置を変更した配置情報(分割前の全体ピクチャのregion-wise packing情報)は、Sub Picture Composition Boxの下のRegion Wise Packing Boxにシグナルされる。その為、sub-picture trackを選択・再生する場合、sub-picture trackのprojected picture上の表示領域を識別するために、Sub Picture Composition Boxをパースし、region-wise packing情報とsub-picture分割情報とを識別する必要があり、sub-picture trackではないtrackを選択・再生する場合に比べて、その処理の負荷が増大するおそれがあった。
本開示は、このような状況に鑑みてなされたものであり、サブピクチャのストリームの選択をより容易に行うことができるようにするものである。
本技術の一側面の情報処理装置は、全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成するファイル生成部を備える情報処理装置である。
本技術の一側面の情報処理方法は、全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成する情報処理方法である。
本技術の他の側面の情報処理装置は、全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得するファイル取得部と、前記ファイル取得部により取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部とを備える情報処理装置である。
本技術の他の側面の情報処理方法は、全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得し、取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う情報処理方法である。
本技術の一側面の情報処理装置および方法においては、全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、そのサブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、画像符号化データの配信制御に用いられる制御ファイルが生成される。
本技術の他の側面の情報処理装置および方法においては、全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、そのサブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、画像符号化データの配信制御に用いられる制御ファイルが取得され、その取得された制御ファイルに含まれるその領域に関する情報に基づいて、画像符号化データのストリームの選択が行われる。
本開示によれば、情報を処理することができる。特に、サブピクチャのストリームの選択をより容易に行うことができる。
ISOBMFFのsub-picture trackのBox階層構造の例を示す図である。 ISOBMFFのsub-picture trackでないtrackのBox階層構造の例を示す図である。 Sub Picture Composition Boxのシンタックスの例を示す図である。 Sub Picture Region Boxのシンタックスの例を示す図である。 Sub Picture Region Box内で定義されるフィールドのセマンティクスの例を示す図である。 Region Wise Packing Boxのシンタックスの例を示す図である。 Region Wise Packing Structのシンタックスの例を示す図である。 Region Wise Packing Struct内で定義されるフィールドのセマンティクスの例を示す図である。 RectRegionPackingのシンタックスの例を示す図である。 RectRegionPacking内で定義されるフィールドのセマンティクスの例を示す図である。 ファイル生成装置の主な構成例を示すブロック図である。 クライアント装置の主な構成例を示すブロック図である。 表示領域情報の例を示す図である。 アップロード処理の流れの例を説明するフローチャートである。 コンテンツ再生処理の流れの例を説明するフローチャートである。 2D Coverage Information Boxのシンタックスの例を示す図である。 2D Coverage Information Box内で定義されるフィールドのセマンティクスの例を示す図である。 表示領域情報の例を示す図である。 不連続な領域を含むsub-pictureの例を示す図である。 2D Coverage Information Boxのシンタックスの例を示す図である。 この場合に追加されるフィールドのセマンティクスの例を示す図である。 Region Wise Packing Structのシンタックスの例を示す図である。 この場合に追加されるフィールドのセマンティクスの例を示す図である。 RectProjectedRegionのシンタックスの例を示す図である。 RectProjectedRegion内で定義されるフィールドのセマンティクスの例を示す図である。 Region Wise Packing Structのシンタックスの例を示す図である。 RectRegionPackingのシンタックスの例を示す図である。 Coverage Information Boxのシンタックスの例を示す図である。 Coverage Information Box内で定義されるフィールドのセマンティクスの例を示す図である。 Spherical offset projection SEI messageのシンタックスの例を示す図である。 Spherical offset projection SEI message内で定義されるフィールドのセマンティクスの例を示す図である。 2D Coverage Information Sample Entryのシンタックスの例を示す図である。 2D Coverage Information Sampleのシンタックスの例を示す図である。 Sample Table Boxの例を示す図である。 2D Coverage Information Sample Group Entryのシンタックスの例を示す図である。 アップロード処理の流れの例を説明するフローチャートである。 コンテンツ再生処理の流れの例を説明するフローチャートである。 2D coverage information descriptorの属性値の例を示す図である。 2D coverage information descriptorの属性値の例を示す図である。 データタイプの例を示す図である。 Region Wise Packing descriptorの属性値の例を示す図である。 Region Wise Packing descriptorの属性値の例を示す図である。 Content coverage descriptorの属性値の例を示す図である。 Content coverage descriptorの属性値の例を示す図43に続く図である。 データタイプの例を示す図である。 データタイプの例を示す、図45に続く図である。 データタイプの例を示す、図46に続く図である。 sub-picture化の例を示す図である。 sub-picture化の例を示す図である。 sub-picture化の例を示す図である。 アップロード処理の流れの例を説明するフローチャートである。 コンテンツ再生処理の流れの例を説明するフローチャートである。 Original Stereo Video Boxのシンタックスの例を示す図である。 Original Stereo Video Box内で定義されるフィールドのセマンティクスの例を示す図である。 表示サイズのシグナルの例を示す図である。 Pixel Aspect Ratio Boxのシンタックスの例を示す図である。 Pixel Aspect Ratio Box内で定義されるフィールドのセマンティクスの例を示す図である。 表示時のピクセル縦横比のシグナルの例を示す図である。 Original Scheme Information Boxのシンタックスの例を示す図である。 2D Coverage Information Boxのシンタックスの例を示す図である。 2D Coverage Information Box内で定義されるフィールドのセマンティクスの例を示す図である。 stereo_presentation_suitableのシグナルの例を示す図である。 Track Stereo Video Boxのシンタックスの例を示す図である。 2D Coverage Information Boxのシンタックスの例を示す図である。 2D Coverage Information Box内で定義されるフィールドのセマンティクスの例を示す図である。 view_idcのシグナルの例を示す図である。 アップロード処理の流れの例を説明するフローチャートである。 コンテンツ再生処理の流れの例を説明するフローチャートである。 2D coverage information descriptorの属性値の例を示す図である。 2D coverage information descriptorの属性値の例を示す、図69に続く図である。 データタイプの例を示す図である。 コンピュータの主な構成例を示すブロック図である。 Sub Picture Composition Boxのシンタクスの例を示す図である。 Supplemental Propertyのシンタクスの例を示す図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.sub-pictureに関する情報のシグナル
2.第1の実施の形態(sub-pictureの表示領域のシグナル、ISOBMFFの拡張)
3.第2の実施の形態(sub-pictureの表示領域のシグナル、MPDの拡張)
4.第3の実施の形態(全体ピクチャのステレオ情報のシグナル、ISOBMFFの拡張)
5.第4の実施の形態(全体ピクチャのステレオ情報のシグナル、MPDの拡張)
6.付記
<1.sub-pictureに関する情報のシグナル>
<技術内容・技術用語をサポートする文献等>
本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の非特許文献に記載されている内容も含まれる。
非特許文献1:(上述)
非特許文献2:(上述)
非特許文献3:(上述)
非特許文献4:(上述)
つまり、上述の非特許文献に記載されている内容もサポート要件を判断する際の根拠となる。例えば、パース(Parsing)、シンタックス(Syntax)、セマンティクス(Semantics)等の技術用語についても同様に、実施の形態において直接的な記載がない場合でも、本技術の開示範囲内であり、請求の範囲のサポート要件を満たすものとする。
<MPEG-DASH>
従来、例えば非特許文献1や非特許文献2に記載のように、HTTP(Hypertext Transfer Protocol)プロトコルによるアダプティブなコンテンツ配信技術の標準化規格として、MPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP)がある。
このMPEG-DASHにより、例えば、ウェブサイトからインターネットのウェブページをダウンロードする場合と同様の通信プロトコルであるHTTPを用いて、ネットワーク帯域の変動に応じた最適なビットレートでのビデオ再生を実現することができる。
この標準規格により、動画配信サービスのためのインフラや動画再生クライアント向けの技術開発をより容易にすることができる。特に、配信サービスを手掛ける事業者にとっては、動画配信サービスと動画再生クライアントとの間の互換性が向上する他、既存のコンテンツ資産を活用しやすい利点があり、市場の成長を促進する効果が期待される。
MPEG-DASHは、主に、2つの技術企画で構成されている。動画や音声ファイルを管理するメタデータを記述したMPD(Media Presentation Description)と称するマニュフェストファイル仕様を定めた規格と、実際に動画コンテンツを伝達するためのセグメントフォーマット(segment format)と称するファイルフォーマットの運用規格である。
このファイルフォーマットとして、例えば非特許文献3に記載のように、動画圧縮の国際標準技術「MPEG-4(Moving Picture Experts Group - 4)」のファイルコンテナ仕様であるISOBMFF(International Organization for Standardization Base Media File Format)がある。ISOBMFFには、MPEG-DASHの要件を満たすための機能拡張がISO/IEC(International Organization for Standardization / International Electrotechnical Commission) 14496-12の拡張仕様として加えられた。
<MPEG-DASHを用いた全天球映像の配信>
ところで、所謂全天球映像のように、水平方向の周囲360度および垂直方向の周囲180度の画像を立体構造に投影した立体構造画像を、平面画像にマッピングした投影平面画像がある。例えば、視点から見た周辺の画像(全天球映像)をその視点を中心とする立体構造にレンダリングして立体構造画像とすることにより、視点の周辺の画像をより自然に表現したり、その立体構造画像から所望の視線方向の画像を容易に生成したりすることができる。
近年、この投影平面画像(全天球映像等)の配信にMPEG-DASHを利用することが考えられている。例えば非特許文献4に記載のように、立体構造画像を単数の平面にマッピングし、その立体構造画像が平面にマッピングされた投影平面画像として配信することにより、MPEG-DASHを適用することができる。
立体構造に投影し、平面へマッピングする方法(プロジェクションフォーマット(projection format)とも称する)として、例えば、ERP(Equirectangular projection(正距円筒))やCMP(Cubemap projection(キューブマップ))等がある。例えば、ERPの場合、水平方向の周囲360度および垂直方向の周囲180度の画像が球状の立体構造に投影された立体構造画像が、単数の平面に、球状の立体構造の緯度方向と経度方向とが直交するようにマッピングされる。また、例えばCMPの場合、水平方向の周囲360度および垂直方向の周囲180度の画像が立方体の各面に投影された立体構造画像の各面が展開され、単数の平面に所定の順に並べるようにマッピングされる。
このように全天球映像が投影・マッピングされた投影平面画像をプロジェクテドピクチャ(projected picture)とも称する。つまり、projected pictureとは、projection format毎に決まる、全天球映像を表現する2次元画像(2次元picture)のことである。
非特許文献4に記載のMPEG-I Part2 Omnidirectional Media Format(ISO/IEC 23090-2)FDIS(Final Draft International Standards)(以下、OMAFとも称する)では、1つの全天球映像の投影平面画像(全体ピクチャとも称する)を複数のサブピクチャ(sub-picture)に分割し、複数のトラック(track)に格納する技術の議論がなされている。
例えば、特定の視野領域ごとに、視野に対応するサブピクチャトラック(sub-picture track)を構成し、クライアントは自身の視野領域に応じてそのsub-picture trackを選択・再生する、といったユースケースがある。
<ISOBMFFファイルのBox階層構造>
図1のBox階層構造11は、全天球映像をsub-picture track化する場合のISOBMFFファイルのBox階層構造の例を示す。
Box階層構造11に示されるように、この場合、Track Group Boxの下に全体ピクチャについての情報が格納される。例えば、Sub Picture Composition Box(spco)には、ピクチャがsub-picture化されているか等の、sub-picture trackのgroupingに使用される情報が格納される。また、その下には、Sub Picture Region Box(sprg)、Region Wise Packing Box(rwpk)、Stereo Video Box(stvi)等のBoxが形成される。
Sub Picture Region Boxには、sub-pictureの分割の仕方等を示すsub-picture分割情報が格納される。また、Region Wise Packing Boxには、分割前の全体ピクチャのregion-wise packing情報が格納される。また、Stereo Video Boxには、全体ピクチャのステレオ表示(立体視表示)に関する情報(ステレオ情報)が格納される。ステレオ情報とは、例えばサイドバイサイド(side by side)やトップアンドボトム(top & bottom)等、立体視表示用画像の種類などを示す情報である。
また、Media Box(mdia)の下のMedia Information Box(minf)の下のSample Table Box(stbl)の下のSample Description Box(stsd)の下のRestricted Sample Entry(resv)(Sample Entryの一種)の下のRestricted Scheme Information Box(rinf)の下のScheme Information Box(schi)の下には、Projected Omnidirectional Video Box(povd)、StereoVideoBox(stvi)等のBoxが形成される。
Projected Omnidirectional Video Boxには、全天球映像に関連するメタデータが格納される。StereoVideoBoxには、そのBoxが対応するsub-pictureについてのステレオ情報が格納される。
図2のBox階層構造12は、全天球映像をsub-picture track化しない場合のISOBMFFファイルのBox階層構造の例を示す。
Box階層構造12に示されるように、この場合、Track Group Boxは形成されず、Region Wise Packing Boxは、Projected Omnidirectional Video Boxの下に形成される。
つまり、sub-picture化がなされた場合、ピクチャ領域ごとにサイズ・位置を変更した配置情報を示すRegion Wise Packing Boxは、Sub Picture Composition Boxのみにシグナルされ、分割前の全体ピクチャのregion-wise packing情報を有する。これに対して、sub-picture化がなされていない場合、Region Wise Packing Boxは、Projected Omnidirectional Video Boxにシグナルされ、trackに格納されたピクチャのregion-wise packing情報を有する。以下において、Sub Picture Composition Boxを有するtrackをsub-picture trackと称する。
<sub-picture trackの選択>
その為、トラック(track)がsub-picture trackであるか、sub-picture化がなされていない通常のtrackであるかによって、クライアントがそのtrackの画像の、投影平面画像(projected picture)上における表示領域を識別するための処理が異なる。例えば、sub-picture trackを選択・再生する場合、sub-picture trackのprojected picture上の表示領域を識別するために、Sub Picture Composition Boxをパースし、region-wise packing情報とsub-picture分割情報とを識別する必要がある。これに対して、sub-picture trackではないtrackを選択・再生する場合、この処理は不要である。
図3のシンタックス21は、Sub Picture Composition Boxのシンタックスの例を示す。シンタックス21に示されるように、このSub Picture Composition Boxにおいて、Sub Picture Region BoxとRegion Wise Packing Boxとがセットされる。
図4のシンタックス22は、Sub Picture Region Boxのシンタックスの例を示す。シンタックス22に示されるように、このSub Picture Region Boxにおいて、track_x、track_y、track_width、track_height、composition_width、composition_height等のフィールドが定義される。
図5のセマンティクス23は、Sub Picture Region Box内で定義されるフィールドのセマンティクスの例を示す。セマンティクス23に示されるように、track_xは、trackに格納されるsub-pictureの、全体ピクチャ上での水平方向位置を示す。track_yは、trackに格納されるsub-pictureの、全体ピクチャ上での垂直方向位置を示す。track_widthは、trackに格納されるsub-pictureの幅を示す。track_heightは、trackに格納されるsub-pictureの高さを示す。composition_widthは、全体ピクチャの幅を示す。composition_heightは、全体ピクチャの高さを示す。
図6のシンタックス24は、Region Wise Packing Boxのシンタックスの例を示す。シンタックス24に示されるように、このRegion Wise Packing Boxにおいて、Region Wise Packing Structがセットされる。
図7のシンタックス25は、Region Wise Packing Structのシンタックスの例を示す。シンタックス25に示されるように、このRegion Wise Packing Structにおいて、constituent_picture_matching_flag、num_regions、proj_picture_width、proj_picture_height、packed_picture_width、packed_picture_height、guard_band_flag[i]、packing_type[i]、GuardBand(i)等のフィールドがセットされる。
図8のセマンティクス26は、Region Wise Packing Struct内で定義されるフィールドのセマンティクスの例を示す。セマンティクス26に示されるように、constituent_picture_matching_flagは、ピクチャがステレオの場合、左目用ビュー(Left view)および右目用ビュー(Right view)に対して同じregion-wise packingが適用されるか否かを示すフラグ情報である。例えば、このフィールドの値が0の場合、モノ(単視点ビュー)であるか、または、Left viewおよびRight viewに互いに異なるpackingが適用されることを示す。また、このフィールドの値が1の場合、Left viewおよびRight viewに対して同じpackingが適用されることを示す。
また、num_regionsは、packed regionの数を示す。proj_picture_widthは、projected pictureの幅を示す。proj_picture_heightは、projected pictureの高さを示す。packed_picture_widthは、packed picture(region-wise packingされたpicture)の幅を示す。packed_picture_heightは、packed pictureの高さを示す。
また、guard_band_flag[i]は、ガードバンドが存在するか否かを示すフラグ情報である。例えば、このフィールドの値が0の場合、packed regionにガードバンドが存在しないことを示し、このフィールドの値が1の場合、packed regionにガードバンドが存在することを示す。packing_type[i]は、packed regionの形状を示す。例えばこのフィールドの値が0の場合、packed regionが矩形であることを示す。GuardBand(i)は、領域周囲のガードバンド情報である。
また、シンタックス25に示されるように、Region Wise Packing Structにおいては、さらに、RectRegionPackingがセットされる。図9のシンタックス27は、このRectRegionPackingのシンタックスの例を示す。シンタックス27に示されるように、このRectRegionPackingにおいて、proj_reg_width[i]、proj_reg_height[i]、proj_reg_top[i]、proj_reg_left[i]、transform_type[i]、packed_reg_width[i]、packed_reg_height[i]、packed_reg_top[i]、packed_reg_left[i]等のフィールドがセットされる。
図10のセマンティクス28は、RectRegionPacking内で定義されるフィールドのセマンティクスの例を示す。セマンティクス28に示されるように、proj_reg_width[i]は、region-wise packing適用元のprojected regionの幅を示す。proj_reg_height[i]は、region-wise packing適用元のprojected regionの高さを示す。proj_reg_top[i]は、region-wise packing適用元のprojected regionの垂直方向位置を示す。proj_reg_left[i]は、region-wise packing適用元のprojected regionの水平方向位置を示す。transform_type[i]は、packed regionの回転やミラーリングを示す。packed_reg_width[i]は、region-wise packingで再配置されたpacked regionの幅を示す。packed_reg_height[i]は、region-wise packingで再配置されたpacked regionの高さを示す。packed_reg_top[i]は、region-wise packingで再配置されたpacked regionの垂直方向位置を示す。packed_reg_left[i]は、region-wise packingで再配置されたpacked regionの水平方向位置を示す。
つまり、例えばクライアントがユーザの視野に応じてsub-picture trackを選択するような場合、これらの情報をパースする必要があり、sub-picture trackではないtrackを選択・再生する場合に比べて、その処理の負荷が増大するおそれがあった。
<ステレオ情報の識別>
また、ステレオ全天球映像の全体ピクチャをsub-picture化した場合、全体ピクチャのステレオ情報(全体ピクチャがどのような種類の立体視表示用画像であるか等)を示すStereo Video Boxは、Sub Picture Composition Boxにシグナルされ、sub-pictureのステレオ情報(sub-pictureがどのような種類の立体視表示用画像であるか等)を示すStereo Video Boxは、trackのSample EntryのScheme Information Box下にシグナルされる。これに対して、sub-picture化がなされていない場合、Stereo Video Boxは、Scheme Information Box下のみにシグナルされ、trackに格納されたピクチャのステレオ情報を有する。
その為、trackがsub-picture trackか、sub-picture化がなされていない通常のtrackかによって、クライアントがそのtrackのステレオ情報を識別するための処理が異なる。例えば、全体ピクチャがステレオ画像(立体視用画像)である場合、分割されたsub-picture trackは、L viewおよびR viewを含むが、フレームパッキングアレンジメントがtop & bottomでもside by sideでもない場合がある。
したがって、このようなsub-pictureがステレオで表示可能か否かを識別する場合、Sub Picture Composition Boxをパースし、region-wise packing情報とsub-picture分割情報、およびステレオ情報を識別する処理が必要となる。これに対して、sub-picture trackではないtrackを選択・再生する場合、この処理は不要である。
つまり、例えばクライアントが自身のステレオ表示能力に応じてsub-picture trackを選択する場合、sub-picture trackではないtrackを選択・再生する場合に比べて、その処理の負荷が増大するおそれがあった。
以上においては、ISOBMFFファイルにおけるsub-picture trackの選択について説明したが、MPDファイルでは、sub-pictureは、アダプテーションセット(Adaptation Set)として管理される。このMPDファイルにおけるsub-pictureを参照するAdaptation Setの選択についても同様の理由により、処理の負荷が増大するおそれがあった。つまり、ISOBMFFファイルの場合またはMPDファイルの場合に関わらず、ストリームの選択の負荷が増大するおそれがあった。
<sub-pictureの表示領域のシグナル>
そこで、全体ピクチャをサブピクチャ(sub-picture)化する場合、そのsub-pictureの表示領域に関する情報をシグナルする(コンテンツの再生側に提供する)ようにする。表示領域とは、全体ピクチャにおける領域のことを示す。すなわち、sub-pictureの表示領域に関する情報とは、そのsub-pictureに対応するピクチャ全体における領域に関する情報、つまり、sub-pictureが全体ピクチャのどの部分の画像であるかを示す情報である。この情報により、例えば、sub-pictureに対応する領域の位置、大きさ、形状等が示される。領域の表現方法は任意であり、例えば、領域の範囲が座標等により示されるようにしてもよい。
このようにすることにより、コンテンツを再生するクライアントは、この情報に基づいて、sub-pictureが全天球映像において何処に表示されるかを把握することができる。
その際、このsub-pictureの表示領域に関する情報を、sub-picture毎の情報としてシグナルするようにする。このようにすることにより、クライアントは、容易にこの情報を得ることができる。したがって、クライアントは、所望のサブピクチャのストリームを容易に選択することができる。例えば、ユーザの視野に応じてストリームを選択する場合に、クライアントは、その視野の方向や範囲に対応する適切なストリームを容易に選択することができる。
<sub-picture化される全体ピクチャのステレオ情報のシグナル>
また、sub-picture化されるピクチャ全体のステレオ表示に関する情報であるステレオ情報をシグナルするようにする。このようにすることにより、コンテンツを再生するクライアントは、この情報に基づいて全体ピクチャがステレオ画像(立体視用画像)であるか否かや、ステレオ画像である場合はその種類(タイプ)等を容易に把握することができる。これにより、クライアントは、sub-pictureに含まれる画像がどのような画像であるか(例えばどのようなタイプのステレオ画像(またはモノ画像(単視点画像))のどの部分に対応するのか等)を容易に把握することができる。
したがって、クライアントは、所望のストリームを容易に選択することができる。例えば自身の能力(capability)に応じてストリームを選択する場合に、クライアントは、その自身の能力(capability)に応じた適切なストリームを容易に選択することができる。
<ファイル生成装置>
次に、sub-pictureに関するシグナルを行う装置の構成について説明する。図11は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図11に示されるファイル生成装置100は、ISOBMFFファイル(セグメントファイル)やMPDファイルを生成する装置である。例えば、ファイル生成装置100は、非特許文献1乃至非特許文献4に記載されている技術を実装し、MPEG-DASHに準拠した方法で、ストリームを含むISOBMFFファイルや、ストリームの配信制御に用いられる制御ファイルであるMPDファイルを生成し、それらのファイルを、ネットワークを介して、それらのファイルを配信するサーバにアップロード(送信)する。
なお、図11においては、処理部やデータの流れ等の主なものを示しており、図11に示されるものが全てとは限らない。つまり、ファイル生成装置100において、図11においてブロックとして示されていない処理部が存在したり、図11において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図11に示されるようにファイル生成装置100は、制御部101、メモリ102、およびファイル生成部103を有する。
制御部101は、ファイル生成装置100全体の動作を制御する。例えば制御部101は、ファイル生成部103を制御して、ISOBMFFファイルやMPDファイルを生成させたり、生成されたISOBMFFファイルやMPDファイルをアップロードさせたりする。制御部101は、このような制御に関する処理を、メモリ102を利用して行う。例えば、制御部101は、所望のプログラム等をメモリ102にロードして実行することにより、上述のような制御に関する処理を行う。
ファイル生成部103は、制御部101の制御に従って、ISOBMFFファイルやMPDファイルの生成やアップロード(送信)に関する処理を行う。図11に示されるように、ファイル生成部103は、データ入力部111、データ符号化・生成部112、MPDファイル生成部113、記録部114、およびアップロード部115を有する。
データ入力部111は、データ入力の受け付けに関する処理を行う。例えば、データ入力部111は、テクスチャやメッシュの生成に必要な画像等のデータや、MPDファイルの生成に必要なメタデータ等の入力を受け付ける。また、データ入力部111は、受け付けたデータを、データ符号化・生成部112やMPDファイル生成部113に供給する。
データ符号化・生成部112は、データの符号化やファイルの生成に関する処理を行う。例えば、データ符号化・生成部112は、データ入力部111から供給された画像等のデータに基づいて、テクスチャやメッシュ等のストリームを生成する。また、データ符号化・生成部112は、生成したストリームを格納するISOBMFFファイルを生成する。また、データ符号化・生成部112は、生成したISOBMFFファイルを記録部114に供給する。
図11に示されるように、データ符号化・生成部112は、前処理部121、エンコード部122、およびセグメントファイル生成部123を有する。
前処理部121は、符号化前の画像等のデータに対する処理を行う。例えば、前処理部121は、データ入力部111から供給された画像等のデータに基づいて、テクスチャやメッシュのストリームを生成する。また、例えば、前処理部121は、その生成したストリームをエンコード部122に供給する。
エンコード部122は、ストリームの符号化に関する処理を行う。例えば、エンコード部122は、前処理部121から供給されたストリームを符号化する。また、例えば、エンコード部122は、その符号化により得られた符号化データを、セグメントファイル生成部123に供給する。
セグメントファイル生成部123は、セグメントファイルの生成に関する処理を行う。例えば、セグメントファイル生成部123は、データ入力部111から供給されたメタデータ等に基づいて、エンコード部122から供給された符号化データをセグメント単位でファイル化する(セグメントファイルを生成する)。また、例えば、セグメントファイル生成部123は、セグメントファイルの生成に関する処理として、以上のように生成したISOBMFFファイルを記録部114に供給する。例えば、セグメントファイル生成部123は、セグメントファイルとしてISOBMFFファイルを生成し、生成したISOBMFFファイルを記録部114に供給する。
MPDファイル生成部113は、MPDファイルの生成に関する処理を行う。例えば、MPDファイル生成部113は、データ入力部111から供給されたメタデータ等に基づいて、MPDファイルを生成する。また、例えば、MPDファイル生成部113は、生成したMPDファイルを記録部114に供給する。なお、MPDファイル生成部113は、MPDファイルの生成に必要なメタデータ等をセグメントファイル生成部123から取得するようにしてもよい。
記録部114は、例えば、ハードディスクや半導体メモリ等の任意の記録媒体を有し、データの記録等に関する処理を行う。例えば、記録部114は、MPDファイル生成部113から供給されたMPDファイルを記録する。また、例えば、記録部114は、セグメントファイル生成部123から供給されたセグメントファイル(例えばISOBMFFファイル)を記録する。
アップロード部115は、ファイルのアップロード(送信)に関する処理を行う。例えば、アップロード部115は、記録部114に記録されているMPDファイルを読み出す。また、例えば、アップロード部115は、読み出したMPDファイルを、ネットワーク等を介して、MPDファイルをクライアント等に配信するサーバ(図示せず)にアップロード(送信)する。
また、例えば、アップロード部115は、記録部114に記録されているセグメントファイル(例えばISOBMFFファイル)を読み出す。また、例えば、アップロード部115は、読み出したそれらのセグメントファイルを、ネットワーク等を介して、セグメントファイルをクライアント等に配信するサーバ(図示せず)にアップロード(送信)する。
つまり、アップロード部115は、MPDファイルやセグメントファイル(例えばISOBMFFファイル)をサーバに送信する通信部として機能する。なお、アップロード部115によるMPDファイルの送信先とセグメントファイル(例えばISOBMFFファイル)の送信先は、互いに同一であってもよいし、互いに異なっていてもよい。また、ここでは、ファイル生成装置100が、MPDファイルやセグメントファイル(例えばISOBMFFファイル)を、それらのファイルをクライアントに配信するサーバにアップロードする装置として機能する例について説明するが、ファイル生成装置100がそのサーバとして機能するようにしてもよい。その場合、ファイル生成装置100のアップロード部115が、ネットワークを介してMPDファイルやセグメントファイル(例えばISOBMFFファイル)をクライアントに配信するようにすればよい。
<クライアント装置>
図12は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図12に示されるクライアント装置200は、MPDファイルやセグメントファイル(例えばISOBMFFファイル)を取得し、それらのファイルに基づいて、コンテンツを再生する装置である。例えば、クライアント装置200は、非特許文献1乃至非特許文献4に記載されている技術を実装し、MPEG-DASHに準拠した方法でセグメントファイルをサーバ(または上述のファイル生成装置100)より取得し、そのセグメントファイルに含まれるストリーム(コンテンツ)を再生する。その際、クライアント装置200は、MPDファイルをサーバ(または上述のファイル生成装置100)より取得し、そのMPDファイルを利用して所望のセグメントファイルを選択し、サーバより取得するようにしてもよい。
なお、図12においては、処理部やデータの流れ等の主なものを示しており、図12に示されるものが全てとは限らない。つまり、クライアント装置200において、図12においてブロックとして示されていない処理部が存在したり、図12において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図12に示されるようにクライアント装置200は、制御部201、メモリ202、および再生処理部203を有する。
制御部201は、クライアント装置200全体の動作を制御する。例えば制御部201は、再生処理部203を制御して、サーバからMPDファイルやセグメントファイル(例えばISOBMFFファイル)を取得させたり、セグメントファイルに含まれるストリーム(コンテンツ)を再生させたりする。制御部201は、このような制御に関する処理を、メモリ202を利用して行う。例えば、制御部201は、所望のプログラム等をメモリ202にロードして実行することにより、上述のような制御に関する処理を行う。
再生処理部203は、制御部201の制御に従って、セグメントファイルに含まれるストリーム(コンテンツ)の再生に関する処理を行う。図12に示されるように、再生処理部203は、計測部211、MPDファイル取得部212、MPDファイル処理部213、セグメントファイル取得部214、表示制御部215、データ解析・復号部216、および表示部217を有する。
計測部211は、計測に関する処理を行う。例えば、計測部211は、クライアント装置200とサーバとの間のネットワークの伝送帯域を計測する。また、例えば、計測部211は、その計測結果をMPDファイル処理部213に供給する。
MPDファイル取得部212は、MPDファイルの取得に関する処理を行う。例えば、MPDファイル取得部212は、所望のコンテンツ(再生するコンテンツ)に対応するMPDファイルを、ネットワークを介してサーバから取得する。また、例えば、MPDファイル取得部212は、取得したMPDファイルをMPDファイル処理部213に供給する。
MPDファイル処理部213は、MPDファイルに基づく処理を行う。例えば、MPDファイル処理部213は、MPDファイル取得部212から供給されたMPDファイルに基づいて、取得するストリームを選択する。また、例えば、MPDファイル処理部213は、その選択結果をセグメントファイル取得部214に供給する。なお、取得するストリームの選択にあたっては、計測部211から供給された計測結果や、表示制御部215から供給されたユーザの視点位置や視線方向に関する情報も適宜利用される。
セグメントファイル取得部214は、セグメントファイル(例えばISOBMFFファイル)の取得に関する処理を行う。例えば、セグメントファイル取得部214は、所望のコンテンツの再生に必要なストリームが格納されたセグメントファイルを、ネットワークを介してサーバから取得する。また、例えば、セグメントファイル取得部214は、取得したセグメントファイルをデータ解析・復号部216に供給する。
なお、セグメントファイル取得部214がセグメントファイル(例えばISOBMFFファイル)を取得するサーバは、MPDファイル取得部212がMPDファイルを取得するサーバと同一であってもよいし、異なっていてもよい。また、セグメントファイル取得部214が、MPDファイル処理部213から供給されるストリームの選択結果に基づいて、セグメントファイルを取得するようにしてもよい。つまり、セグメントファイル取得部214が、MPDファイル等に基づいて選択されたストリームが格納されたセグメントファイルをサーバから取得するようにしてもよい。
表示制御部215は、コンテンツの再生(表示)の制御に関する処理を行う。例えば、表示制御部215は、コンテンツを視聴するユーザの視点位置や視線方向の検出結果を取得する。また、例えば、表示制御部215は、その取得した検出結果(ユーザの視点位置や視線方向に関する情報)をMPDファイル処理部213やデータ解析・復号部216に供給する。
データ解析・復号部216は、データの解析や復号等に関する処理を行う。例えば、データ解析・復号部216は、セグメントファイル取得部214から供給されたISOBMFFファイルを処理し、コンテンツの表示用画像を生成する。また、データ解析・復号部216は、その表示用画像のデータを表示部217に供給する。
図12に示されるように、データ解析・復号部216は、セグメントファイル処理部221、デコード部222、および表示情報生成部223を有する。
セグメントファイル処理部221は、セグメントファイル(例えばISOBMFFファイル)に対する処理を行う。例えば、セグメントファイル処理部221は、セグメントファイル取得部214から供給されたISOBMFFファイルから所望のストリームの符号化データを抽出する。また、例えば、セグメントファイル処理部221は、抽出した符号化データをデコード部222に供給する。
なお、セグメントファイル処理部221が、表示制御部215から供給されたユーザの視点位置や視線方向に関する情報や計測部211において計測された伝送帯域等に基づいて、ストリームを選択し、そのストリームの符号化データをセグメントファイルから抽出するようにしてもよい。
デコード部222は、復号に関する処理を行う。例えば、デコード部222は、セグメントファイル処理部221から供給された符号化データを復号する。また、例えば、デコード部222は、その復号により得られたストリームを表示情報生成部223に供給する。
表示情報生成部223は、表示用画像のデータの生成に関する処理を行う。例えば、表示情報生成部223は、表示制御部215から供給されたユーザの視点位置や視線方向に関する情報と、デコード部222から供給されたストリームとに基づいて、ユーザの視点位置や視線方向に応じた表示用画像のデータを生成する。また、例えば、表示情報生成部223は、生成された表示用画像のデータを、表示部217に供給する。
表示部217は、例えば液晶表示パネル等を用いたディスプレイやプロジェクタ等の任意の表示デバイスを有し、その表示デバイスを用いた画像表示に関する処理を行う。例えば、表示部217は、表示情報生成部223から供給されたデータに基づいて、画像表示等のコンテンツ再生を行う。
<2.第1の実施の形態>
<ISOBMFFによるsub-pictureの表示領域情報のシグナル>
上述したsub-pictureの表示領域に関する情報のシグナルを、セグメントファイルであるISOBMFFファイルにおいて行うようにしてもよい。
つまり、格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、そのサブピクチャが符号化された画像符号化データを含むファイルを生成するようにしてもよい。
例えば、情報処理装置であるファイル生成装置100において、セグメントファイル生成部123が、格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、そのサブピクチャが符号化された画像符号化データを含むファイルを生成するファイル生成部として機能するようにしてもよい。つまり情報処理装置(例えばファイル生成装置100)が、ファイル生成部(例えばセグメントファイル生成部123)を備えるようにしてもよい。
このようにすることにより、上述したように、クライアントは、この情報に基づいてストリームの選択をより容易に行うことができる。
なお、ISOBMFFファイルにおいては、ストリームはトラック(track)として管理される。つまり、ISOBMFFファイルを用いる場合、trackを選択することにより、ストリームの選択が行われる。
また、上述のピクチャ(全体ピクチャ)は、全天球映像(水平方向の周囲360度および垂直方向の周囲180度の画像を投影・マッピングした投影平面画像)の全部、または一部であるようにしてもよい。全天球映像は、視点を中心とする全方位の画像(つまり、視点から見た周辺の画像)である。この全天球映像は、立体構造にレンダリングして水平方向の周囲360度および垂直方向の周囲180度の画像とすることができる。上述のように、立体構造画像を単数の平面にマッピングして投影平面画像とすることにより、MPEG-DASHを適用したストリーム配信制御が可能になる。つまり、ファイル生成装置100が、このような投影平面画像の全部、または一部を全体ピクチャとし、それをsub-picture化する場合において、上述のように本技術を適用することができる。なお、投影平面画像の一部を全体ピクチャとした場合においても、sub-pictureの投影平面画像全部における表示領域に関する情報がシグナルされる。
例えば、図13に示されるように、水平方向の周囲360度および垂直方向の周囲180度の画像がCubemap projectionにより立体構造(立方体)に投影されて立体構造画像301が生成される。また、その立体構造画像301が所定の方法で単数の平面にマッピングされ、投影平面画像(projected picture)302が生成される。ファイル生成装置100は、このような投影平面画像302をsub-picture化して、sub-pictures(sub-picture303乃至sub-picture308)を生成し、それぞれを互いに異なるtrackに格納するISOBMFFファイルを生成する。
その際、ファイル生成装置100は、矢印311に示されるように、どのsub-pictureが、全体ピクチャ(投影平面画像302)のどの部分に対応するかを示す情報(表示領域情報)をISOBMFFファイルにおいてシグナルする。
このようにすることにより、全天球映像を配信する場合においても、上述したようにクライアントは、この情報に基づいてストリームの選択をより容易に行うことができる。
なお、この領域に関する情報(表示領域情報)は、サブピクチャ(sub-picture)毎の情報としてISOBMFFファイルに含まれるようにしてもよい。このようにすることにより、クライアントは、sub-picture trackの情報を参照するだけで、そのsub-pictureが全体ピクチャのどの部分に対応するかを容易に把握することができる。
<アップロード処理の流れ>
その場合の図11のファイル生成装置100により実行されるアップロード処理の流れの例を、図14のフローチャートを参照して説明する。
アップロード処理が開始されると、ファイル生成装置100のデータ入力部111は、ステップS101において、画像とメタデータを取得する。
ステップS102において、セグメントファイル生成部123は、sub-picture毎の情報として、projected pictureにおける表示領域情報を含むISOBMFFファイルを生成する。
ステップS103において、記録部114は、ステップS102の処理により生成されたISOBMFFファイルを記録する。
ステップS104において、アップロード部115は、ステップS103において記録されたISOBMFFファイルを記録部114より読み出し、それをサーバにアップロードする。
ステップS104の処理が終了すると、アップロード処理が終了する。
以上のようにアップロード処理を行うことにより、ファイル生成装置100は、sub-picture毎の情報として、projected pictureにおける表示領域情報を含むISOBMFFファイルを生成することができる。
したがって、クライアントは、その情報に基づいて、ユーザの視野等に応じた適切なストリームをより容易に選択し、再生することができる。
<ISOBMFFにシグナルされたsub-pictureの表示領域情報の利用>
また、ISOBMFFファイルにシグナルされたsub-pictureの表示領域に関する情報を利用してストリームの選択や再生を行うようにしてもよい。
つまり、格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、そのサブピクチャが符号化された画像符号化データを含むファイルを取得し、その取得されたファイルに含まれるその領域に関する情報に基づいて、画像符号化データのストリームの選択を行うようにしてもよい。
例えば、情報処理装置であるクライアント装置200において、セグメントファイル取得部214が、格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、そのサブピクチャが符号化された画像符号化データを含むファイルを取得するファイル取得部として機能し、データ解析・復号部216が、そのファイル取得部により取得されたファイルに含まれるその領域に関する情報に基づいて、画像符号化データのストリームの選択を行う画像処理部として機能するようにしてもよい。つまり、情報処理装置(例えばクライアント装置200)が、ファイル取得部(例えばセグメントファイル取得部214)と、画像処理部(例えばデータ解析・復号部216)とを備えるようにしてもよい。
このようにすることにより、クライアント装置200は、ストリームの選択をより容易に行うことができる。
なお、上述のピクチャ(全体ピクチャ)は、全天球映像(水平方向の周囲360度および垂直方向の周囲180度の画像を投影・マッピングした投影平面画像)の全部、または一部であるようにしてもよい。つまり、クライアント装置200が、投影平面画像の全部、または一部を全体ピクチャとしてそれをsub-picture化したストリームを取得し、再生する場合においても、上述のように本技術を適用することができる。
また、この領域に関する情報(表示領域情報)は、サブピクチャ(sub-picture)毎の情報としてISOBMFFファイルに含まれるようにしてもよい。このようにすることにより、クライアント装置200は、sub-picture trackの情報を参照するだけで、そのsub-pictureが全体ピクチャのどの部分に対応するかを容易に把握することができる。
<コンテンツ再生処理の流れ>
その場合のクライアント装置200により実行されるコンテンツ再生処理の流れの例を、図15のフローチャートを参照して説明する。
コンテンツ再生処理が開始されると、クライアント装置200のセグメントファイル取得部214は、ステップS121において、sub-picture毎の情報としてprojected pictureにおける表示領域情報を含むISOBMFFファイルを取得する。
ステップS122において、表示制御部215は、ユーザの視点位置(および視線方向)の計測結果を取得する。
ステップS123において、計測部211は、サーバとクライアント装置200との間のネットワークの伝送帯域幅を計測する。
ステップS124において、セグメントファイル処理部221は、クライアント装置200のユーザの視野に相当する(対応する)sub-picture trackを、そのsub-pictureのprojected pictureにおける表示領域情報を基に選択する。
ステップS125において、セグメントファイル処理部221は、ステップS124において選択されたtrackのストリームの符号化データを、ステップS121において取得されたISOBMFFファイルから抽出する。
ステップS126において、デコード部222は、ステップS125において抽出されたストリームの符号化データを復号する。
ステップS127において、表示情報生成部223は、ステップS126において復号されて得られたストリーム(コンテンツ)を再生する。より具体的には、表示情報生成部223は、そのストリームから表示用画像のデータを生成し、それを表示部217に供給し、表示させる。
ステップS127の処理が終了すると、コンテンツ再生処理が終了する。
以上のようにコンテンツ再生処理を行うことにより、クライアント装置200は、ISOBMFFファイルに含まれるsub-pictureの表示領域に関する情報を利用して、より容易にストリームを選択することができる。例えば、クライアント装置200は、その情報に基づいて、ユーザの視野に応じた適切なストリームを容易に選択することができる。
<2D Coverage Information Boxによる定義>
上述のように、ファイル生成装置100のセグメントファイル生成部123は、OMAFのISOBMFFファイルにおいて、sub-pictureがprojected pictureにおいてどの部分の表示に相当するかを示すsub-pictureの表示領域情報を新規定義し、trackにシグナルする。つまり、セグメントファイル生成部123は、sub-pictureの表示領域情報をサブピクチャ毎の情報として定義する。
例えば、セグメントファイル生成部123は、そのsub-pictureの表示領域情報として2D Coverage Information Boxを定義し、Region Wise Packing Boxと異なるBoxとしてシグナルする。例えば、セグメントファイル生成部123は、その2D Coverage Information Boxを、Scheme Information Boxに定義する。例えば、セグメントファイル生成部123が、その2D Coverage Information Boxを、Scheme Information Boxの下のProjected Omnidirectional Video Boxに定義するようにしてもよい。また、セグメントファイル生成部123が、その2D Coverage Information Boxを、その他のBoxに定義するようにしてもよい。
つまり、sub-pictureの表示領域情報(トラックに格納されるサブピクチャに対応するピクチャ全体における領域に関する情報)は、Region Wise Packing Boxとは異なる、ISOBMFFファイルのScheme Information Box、または、そのScheme Information Boxの下階層のBoxに格納されるようにしてもよい。
このようにすることにより、クライアント装置200は、Sub Picture Composition Boxをパースせずに、容易にsub-picture trackを選択し、再生することができる。
なお、この2D Coverage Information Box は、trackに格納されるピクチャ(picture)がsub-pictureでない場合や、Region Wise Packing Boxが存在しない場合(ピクチャがRegion Wise Packingされない場合)にも、表示領域情報のシグナルに使用可能である。
図16のシンタックス331は、この2D Coverage Information Boxのシンタックスの例を示す。シンタックス331に示されるように、2D Coverage Information Boxにおいては、proj_picture_width、proj_picture_height、proj_reg_width、proj_reg_height、proj_reg_top、proj_reg_left等のフィールドがセットされる。
図17のセマンティクス332は、この2D Coverage Information Boxにおいて定義されるフィールドのセマンティクスの例を示す。セマンティクス332に示されるように、proj_picture_widthは、projected pictureの幅を示す。proj_picture_heightは、projected pictureの高さを示す。proj_reg_widthは、trackのpictureが対応する、projected picture上における領域の幅を示す。proj_reg_heightは、trackのpictureが対応する、projected picture上における領域の高さを示す。proj_reg_topは、trackのpictureが対応する、projected picture上における領域の垂直方向座標を示す。proj_reg_leftは、trackのpictureが対応する、projected picture上における領域水平方向座標を示す。
つまり、図18に示されるような各種情報が、2D Coverage Information Boxにおいて定義される。
なお、これらの各フィールドは、実際のピクセル数で示されるようにしてもよいし、proj_reg_width、proj_reg_height、proj_reg_top、およびproj_reg_leftが、proj_picture_widthおよびproj_picture_heightに対する相対値で示されるようにしてもよい。実際のピクセル数で示される場合、クライアントのディスプレイの解像度に応じてtrackを選択する場合に有用である。
クライアント装置200は、このような構成のsub-picture trackの2D Coverage Information Boxを参照することで、Sub Picture Composition Boxをパースすることなくsub-picture trackの表示領域を容易に識別することができる。それによって、クライアント装置200は、例えば、ユーザの視野に応じたsub-picture trackの選択をより容易に行うことができる。なお、sub-picture trackでないtrackについても、クライアント装置200は、同様の処理により選択することができる。
また、図3のシンタックス21に示すSub Picture Composition Boxにおいて、図73のシンタックス1001に示すようにidentical_to_proj_pic_flagフィールドを追加で定義し、全体ピクチャがprojected pictureに同一か否かを示し、全体ピクチャがprojected pictureに同一である場合において、図4のシンタックス22に示すSub Picture Region Boxがsub-picture trackの表示領域情報を示す、としてもよい。identical_to_proj_pic_flagフィールドの値は、例えば0が全体ピクチャがprojected pictureと異なることを示し、1が全体ピクチャがprojected pictureと同一であることを示す。
このとき、identical_to_proj_pic_flagフィールドが1の場合において全体ピクチャはregion-wise packing処理がなされておらず、図5のセマンティクス23に示すSub Picture Region Boxのtrack_x、track_y、track_width、track_height、composition_width、composition_heightフィールドのセマンティクスは、それぞれ図17のセマンティクス332に示される2D Coverage Information Boxのproj_reg_left、proj_reg_top、proj_reg_width、proj_reg_height、proj_picture_width、proj_picture_heightフィールドのセマンティクスと同一となる。
なお、identical_to_proj_pic_flagフィールドはSub Picture Region Boxに追加で定義されてもよいし、その他のBoxで定義してもよい。また、特定のBoxの有無で、全体ピクチャがprojected pictureに同一か否かを示してもよい。
また、Sub Picture Composition Boxや、FullBoxを拡張したその他のBoxが共通に持つ24bitのflagsの1bitを利用し、全体ピクチャがprojected pictureに同一か否かを示してもよい。
<sub-pictureに不連続となる領域が含まれる場合>
なお、図16のシンタックス331では、図19のようにsub-pictureがprojected picture上で不連続となる領域を含む場合には対応することができない。図19の例の場合、projected picture351がsub-picture化されて、sub-picture352乃至sub-picture355が形成される。この場合、sub-picture352には、立体構造画像におけるLeft面およびRight面が含まれている(Left面およびRight面が隣接している)。このLeft面およびRight面は、projected picture351において不連続である。また、sub-picture353には、立体構造画像におけるTop面およびBottom面が含まれている(Top面およびBottom面が隣接している)。このTop面およびBottom面は、projected picture351において不連続である。
図16のシンタックス331では、projected pictureの1つのまとまった領域しか指定することができないので、このような不連続な複数の領域を指定することができない。
そこで、2D Coverage Information Boxにおいて、複数の領域を指定することができるようにし、projected pictureにおける不連続な複数の領域を指定することができるようにしてもよい。
図20のシンタックス371は、この場合の2D Coverage Information Boxのシンタックスの例を示す。シンタックス371に示されるように、この場合、num_regionsフィールドが、定義されるフィールドに追加される。図21のセマンティクス372は、この場合の2D Coverage Information Boxにおいて追加されるフィールドのセマンティクスの例を示す。セマンティクス372に示されるように、num_regionsは、そのsub-pictureに含まれるprojected picture上の領域数を示す。
つまり、この場合、2D Coverage Information Boxにおいて、num_regionsフィールドを用いて、projected pictureの領域毎に(互いに独立して)、図17に示される各フィールドを定義するようにしている。したがって、projected pictureの複数の領域を指定することができる。これにより、projected pictureの不連続な表示領域のシグナルが可能となる。
なお、2D Coverage Information BoxがSub Picture Composition Boxにシグナルされた場合、全体ピクチャ(projected picture)における表示領域をシグナルするようにしてもよい。
また、2D Coverage Information BoxがtrackのProjected Omnidirectional Video Boxに存在しなければ、そのtrackが360°全天球の映像を格納していることを示すものとしてもよい。同様に、2D Coverage Information BoxがSub Picture Composition Boxに存在しなければ、sub-picture trackが構成する全体ピクチャは360°全天球の映像であることを示すものとしてもよい。
<Region Wise Packing Boxの拡張>
OMAFで規定されているRegion Wise Packing Box内のRegion Wise Packing Structを拡張し、trackのsub-pictureが、projected pictureのどの部分の表示領域に相当するかをシグナルするようにしてもよい。Region Wise Packing Boxのシグナル場所は、sub-picture trackのSample EntryのProjected Omnidirectional Video Box下である。なお、このRegion Wise Packing Boxが、その他の場所にシグナルされるようにしてもよい。
例えば、新たにsub-pictureの表示領域情報をシグナルすることを示すフラグと、sub-pictureの表示領域情報をシグナルするRect Projected Region構造を定義し、Region Wise Packing Structでシグナルする。なお、このRegion Wise Packing Structは、trackに格納されるpictureがsub-pictureでない場合にも、この表示領域情報のシグナルに使用可能である。
図22のシンタックス373は、その場合のRegion Wise Packing Structのシンタックスの例を示す。シンタックス373に示されるように、この場合、2D_coverage_flagフィールドが、Region Wise Packing Structにおいて定義されるフィールドに追加される。図23のセマンティクス374は、この場合のRegion Wise Packing Structにおいて追加的に定義されるフィールドのセマンティクスの例を示す。セマンティクス374に示されるように、2D_coverage_flagは、projected picture上での表示領域のみをシグナルするか否かを示すフラグ情報である。例えば、このフィールドの値が0の場合、region-wise packing情報をシグナルすることを示す。また、このフィールドの値が1の場合、projected picture上での表示領域をシグナルすることを示す。
なお、この場合のRegion Wise Packing Structにおいては、さらに、RectProjetedRegionが定義される。図24のシンタックス375は、そのRectProjetedRegionのシンタックスの例を示す。シンタックス375に示されるように、このRectProjetedRegionにおいては、proj_reg_width[i]、proj_reg_height[i]、proj_reg_top[i]、proj_reg_left[i]等のフィールドが定義される。
図25のセマンティクス376は、このRectProjetedRegionにおいて定義されるフィールドのセマンティクスの例を示す。セマンティクス376に示されるように、proj_reg_widthは、trackのpictureが対応する、projected picture上における領域の幅を示す。proj_reg_heightは、trackのpictureが対応する、projected picture上における領域の高さを示す。proj_reg_topは、trackのpictureが対応する、projected picture上における領域の垂直方向座標を示す。proj_reg_leftは、trackのpictureが対応する、projected picture上における領域水平方向座標を示す。
なお、上記各フィールドは、実際のピクセル数で示されるようにしてもよいし、proj_reg_width, proj_reg_height, proj_reg_topおよびproj_reg_leftがRegion Wise Packing Structでシグナルされるproj_picture_widthおよびproj_picture_heightに対する相対値で示されるようにしてもよい。
また、Rect Wise Packing Structを拡張し、2D_coverage_flag==1のときにprojected pictureにおける表示領域情報のみをシグナルするようにしてもよい。
図26のシンタックス377は、その場合のRect Wise Packing Structのシンタックスの例を示す。図27のシンタックス378は、この場合のRect Wise Packing StructにおいてセットされるRectRegionPackingのシンタックスの例を示す図である。
<Coverage Information Boxの拡張>
OMAFで定義されたtrackの球面上における表示領域を示すCoverage Information Boxを拡張し、新たに定義する2D Content Coverage Structによりprojected picture上における表示領域をシグナル可能にするようにしてもよい。
つまり、sub-pictureの表示領域情報(トラックに格納されるサブピクチャに対応するピクチャ全体における領域に関する情報)は、ISOBMFFファイルの、トラックの球面上における表示領域を示すCoverage Information Boxに格納されるようにしてもよい。
図28のシンタックス379は、拡張したCoverage Information Boxのシンタックスの例を示す。シンタックス379に示されるように、この場合のCoverage Information Boxにおいて、2D_coverage_flag、ContentCoverageStruct()、2DContentCoverageStruct()が定義される。
図29のセマンティクス380は、これらのフィールドのセマンティクスの例を示す。セマンティクス380に示されるように、2D_coverage_flagは、表示領域情報のタイプをシグナルするフラグ情報である。この値が0の場合、球面上表示領域情報をシグナルすることを示し、この値が1の場合、projected picture上での表示領域をシグナルすることを示す。ContentCoverageStruct()は、trackの球面上表示領域をシグナルする。2DContentCoverageStruct()は、trackのprojected picture上での表示領域をシグナルする。2D Content Coverage Struct内のフィールドは、図20の場合の2D Coverage Information Boxと同様である。
なお、Content Coverage Structを拡張し、球面上表示領域の他に、projected picture上での表示領域をシグナルするようにしてもよい。
<sub-pictureの分割方法が動的に変化する場合のシグナリング>
以上においては、sub-pictureの分割方法がストリーム中で動的に変化しない場合のシグナリングについて説明した。これに対して、分割方法が動的に変化する場合、projected pictureにおけるsub-pictureの表示領域情報がストリーム中で動的に変化する。その場合、上述の例では対応することができない。
そこで、sub-pictureの動的に変化する表示領域情報をシグナルするための追加シグナリング例を以下に説明する。なお、シグナルされる情報は、上述の2D Coverage Information Boxでシグナルされる情報(例えば、図16等)と同一である。
<Supplemental Enhancement Information (SEI) message>
HEVC、AVCにおいて、2D Coverage Information SEI messageを新規定義し、その中において、ストリーム中で動的に変化するsub-pictureの表示領域情報をアクセスユニット単位でシグナルするようにしてもよい。
つまり、sub-pictureの表示領域情報(トラックに格納されるサブピクチャに対応するピクチャ全体における領域に関する情報)は、ISOBMFFファイルのSupplemental Enhancement information messageに格納されるようにしてもよい。
図30のシンタックス381は、その場合の2D Coverage Information SEI messageのシンタックスの例を示す。シンタックス381に示されるように、2D Coverage Information SEI messageにおいては、2D_coverage_information_cancel_flag、2D_coverage_information_persistence_flag、2D_coverage_information reserved_zero_6bits、proj_picture_width、proj_picture_height、num_regions、proj_reg_width[i]、proj_reg_height[i]、proj_reg_top[i]、proj_reg_left[i]等がセットされる。
図31のセマンティクス382は、その2D Coverage Information SEI messageにおいて定義されるフィールドのセマンティクスの例を示す。セマンティクス382に示されるように、2D_coverage_information_cancel_flagは、2D_coverage_informationのキャンセルに関するフラグ情報である。この値が1の場合、出力順で先行するSEIの持続的適用がキャンセルされる。また、この値が0の場合、2D coverage情報がシグナルされる。
2D_coverage_information_persitence_flagは、SEIの適用範囲に関するフラグ情報である。この値が0の場合、SEIが含まれるピクチャのみに、SEIの情報が適用される。また、この値が1の場合、SEIの適用は、新たなcoded video sequenceが開始されるか、ストリームの末尾に到達するかまで持続する。
2D_coverage_information_reserved_zero_6bitsは、0で埋められる。proj_picture_widthは、projected pictureの幅を示す。proj_picture_heightは、projected pictureの高さを示す。num_regionsは、projected picture上の領域数を示す。proj_reg_widthは、ストリームが対応する、projected picture上における領域の幅を示す。proj_reg_heightは、ストリームが対応する、projected picture上における領域の高さを示す。proj_reg_topは、ストリームが対応する、projected picture上における領域の垂直方向座標を示す。proj_reg_leftは、ストリームが対応する、projected picture上における領域水平方向座標を示す。
なお、上記各フィールドは、実際のピクセル数で示されるようにしてもよいし、proj_reg_width, proj_reg_height, proj_reg_topおよびproj_reg_leftがproj_picture_widthおよびproj_picture_heightに対する相対値で示されるようにしてもよい。
<Timed metadata>
また、時系列で変化するメタデータを格納するストリームであるtimed metadataの仕組みを利用し、2D Coverage Information timed metadataを新規定義し、その中において、参照するストリーム内で動的に変化するsub-pictureの表示領域情報をシグナルするようにしてもよい。2D Coverage Information timed metadataが紐づくtrackに対するtrack reference typeとしては、例えば'2dco'を用いる。
つまり、sub-pictureの表示領域情報(トラックに格納されるサブピクチャに対応するピクチャ全体における領域に関する情報)は、ISOBMFFファイルのtimed metadataに格納されるようにしてもよい。
timed metadataを使用することで、クライアントはsub-pictureストリームをデコードせずとも、動的に変わる表示領域を事前に識別し、どのストリームを選択するかの基準とすることができる。
図32のシンタックス383は、2D Coverage Information Sample Entryのシンタックスの例を示す。図33のシンタックス384は、2D Coverage Information Sampleのシンタックスの例を示す。
2D Coverage Information Sample Entryには、一般的にストリーム中で不変となるproj_picture_width, proj_picture_heightがシグナルされる。なお、これらがストリーム中で変化する場合には、2DCoverageInformationSample内においてシグナルされるようにしてもよい。
なお、2D Coverage Information Sample Entryおよび2D Coverage Information Sample内の各フィールド(field)のセマンティクスは、図17および図21と同様である。
<Sample Group>
ISOBMFFで定義される、sample単位でメタ情報を紐づける仕組みであるSample Groupというツールを使用して、ストリーム内で動的に変化するsub-pictureの表示領域情報を、sample単位でシグナルするようにしてもよい。
メタ情報が記述されるSample Groupは、図34に示されるように、サンプルテーブルボックス(Sample Table Box)のサンプルグループディスクリプションボックス(Sample Group Description Box)にグループエントリ(Group Entry)としてシグナルされ、サンプルトゥグループボックス(Sample To Group Box)を介して、sampleと紐づけられる。
図34に示されるように、Sample To Group Boxのグルーピングタイプ(grouping_type)は、紐づけられるSample Group Description Boxのgrouping_typeを示す。1エントリ(1 entry)につき、サンプルカウント(sample_count)とグループディスクリプションインデックス(group_description_index)がシグナルされ、そのgroup_description_indexは、紐づくグループエントリ(Group Entry)のインデックス(index)を示し、sample_countはそのGroup Entryに属するサンプル(sample)の数を示す。
例えば、新たに2D Coverage Information Sample Group Entryを定義し、ストリーム内で動的に変化するsub-pictureの表示領域情報を、その中に格納するようにしてもよい。
つまり、sub-pictureの表示領域情報(トラックに格納されるサブピクチャに対応するピクチャ全体における領域に関する情報)は、ISOBMFFファイルのSample Group Entryに格納されるようにしてもよい。
図35のシンタックス391は、その2D Coverage Information Sample Group Entryのシンタックスの例を示す。このSample Group Entryは、上述したように、Sample Group Description Boxにシグナルされ、Sample To Group Boxによって、sampleとSample Group Entryが紐づけられる。grouping_typeは'2cgp'となる。
なお、この2D Coverage Information Sample Group Entry内の各フィールドのセマンティクスは、図16および図21と同様である。
なお、上述した3つの例(Supplemental Enhancement Information (SEI) message、Timed metadata、Sample Group)は、trackに格納されるpictureがsub-pictureでない場合においても、動的に変化する表示領域情報のシグナルに使用することができる。
また、以上のようにsub-pictureのprojected picture上における表示領域が動的に変化する場合、Projected Omnidirectional Video Boxにシグナルされる2D Coverage Information Boxの情報は、ストリームの表示領域の初期値とすることができる。
また、ストリーム中でsub-pictureのprojected pictureにおける表示領域が動的に変化することを示すフラグを2D Coverage Information Box、またはその他のBox内でシグナルするようにしてもよい。この情報により、クライアントは、容易に、動的に表示領域が変化するストリームであることを識別することができる。
<3.第2の実施の形態>
<MPDファイルによるsub-pictureの表示領域に関する情報のシグナル>
上述したsub-pictureの表示領域に関する情報のシグナルを、MPDファイルにおいて行うようにしてもよい。つまり、クライアントが、sub-pictureを参照するAdaptation Setを例えばユーザの視野に応じて選択・再生することを可能にするために、MPDファイルにおいて、sub-pictureのprojected picture上における表示領域情報を新規定義し、Adaptation Setにシグナルするようにしてもよい。
つまり、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、そのサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、画像符号化データの配信制御に用いられる制御ファイルを生成するようにしてもよい。
例えば、情報処理装置であるファイル生成装置100において、MPDファイル生成部113が、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、そのサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、画像符号化データの配信制御に用いられる制御ファイルを生成するファイル生成部として機能するようにしてもよい。つまり情報処理装置(例えばファイル生成装置100)が、ファイル生成部(例えばMPDファイル生成部113)を備えるようにしてもよい。
このようにすることにより、上述したように、クライアントは、この情報に基づいてストリームの選択をより容易に行うことができる。
なお、MPDファイルにおいては、ストリーム毎のメタデータはアダプテーションセット(Adaptation Set)やリプレゼンテーション(Representation)として管理される。つまり、MPDファイルを用いる場合、アダプテーションセット(Adaptation Set)やリプレゼンテーション(Representation)を選択することにより、ストリームの選択が行われる。
また、上述のピクチャ(全体ピクチャ)は、全天球映像(水平方向の周囲360度および垂直方向の周囲180度の画像を投影・マッピングした投影平面画像)の全部、または一部であるようにしてもよい。つまり、ファイル生成装置100が、このような投影平面画像の全部、または一部を全体ピクチャとし、それをsub-picture化する場合において、上述のように本技術を適用することができる。
このようにすることにより、全天球映像を配信する場合においても、上述したようにクライアントは、この情報に基づいてストリームの選択をより容易に行うことができる。
なお、この領域に関する情報(表示領域情報)は、サブピクチャ(sub-picture)毎の情報としてMPDファイルに含まれるようにしてもよい。このようにすることにより、クライアントは、Adaptation Setが参照するsub-pictureの情報を参照するだけで、そのsub-pictureが全体ピクチャのどの部分に対応するかを容易に把握することができる。
<アップロード処理の流れ>
その場合の図11のファイル生成装置100により実行されるアップロード処理の流れの例を、図36のフローチャートを参照して説明する。
アップロード処理が開始されると、ファイル生成装置100のデータ入力部111は、ステップS201において、画像とメタデータを取得する。
ステップS202において、セグメントファイル生成部123は、その画像のセグメントファイルを生成する。
ステップS203において、MPDファイル生成部113は、sub-picture毎の情報として、projected pictureにおける表示領域情報を含むMPDファイルを生成する。
ステップS204において、記録部114は、ステップS202の処理により生成されたセグメントファイルを記録する。また、記録部114は、ステップS203の処理により生成されたMPDファイルを記録する。
ステップS205において、アップロード部115は、ステップS204において記録されたセグメントファイルを記録部114より読み出し、それをサーバにアップロードする。また、アップロード部115は、ステップS204において記録されたMPDファイルを記録部114より読み出し、それをサーバにアップロードする。
ステップS204の処理が終了すると、アップロード処理が終了する。
以上のようにアップロード処理を行うことにより、ファイル生成装置100は、sub-picture毎の情報として、projected pictureにおける表示領域情報を含むMPDファイルを生成することができる。
したがって、クライアントは、その表示領域情報に基づいて、例えばユーザの視野に応じた適切なストリームをより容易に選択し、再生することができる。
<MPDファイルにシグナルされたsub-pictureの表示領域に関する情報の利用>
また、MPDファイルにシグナルされたsub-pictureの表示領域に関する情報を利用してストリームの選択を行うようにしてもよい。
つまり、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、そのサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、画像符号化データの配信制御に用いられる制御ファイルを取得し、その取得された制御ファイルに含まれるその領域に関する情報に基づいて、画像符号化データのストリームの選択を行うようにしてもよい。
例えば、情報処理装置であるクライアント装置200において、MPDファイル取得部212が、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、そのサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、画像符号化データの配信制御に用いられる制御ファイルを取得するファイル取得部として機能し、MPDファイル処理部213が、そのファイル取得部により取得された制御ファイルに含まれるその領域に関する情報に基づいて、画像符号化データのストリームの選択を行う画像処理部として機能するようにしてもよい。つまり、情報処理装置(例えばクライアント装置200)が、ファイル取得部(例えばMPDファイル取得部212)と、画像処理部(例えばMPDファイル処理部213)とを備えるようにしてもよい。
このようにすることにより、クライアント装置200は、ストリームの選択をより容易に行うことができる。
なお、上述のピクチャ(全体ピクチャ)は、全天球映像(水平方向の周囲360度および垂直方向の周囲180度の画像を投影・マッピングした投影平面画像)の全部、または一部であるようにしてもよい。つまり、クライアント装置200が、投影平面画像の全部、または一部を全体ピクチャとしてそれをsub-picture化したストリームを取得し、再生する場合においても、上述のように本技術を適用することができる。
また、この領域に関する情報(表示領域情報)は、サブピクチャ(sub-picture)毎の情報としてMPDファイルに含まれるようにしてもよい。このようにすることにより、クライアント装置200は、Adaptation Setが参照するsub-pictureの情報を参照するだけで、そのsub-pictureが全体ピクチャのどの部分に対応するかを容易に把握することができる。
<コンテンツ再生処理の流れ>
その場合のクライアント装置200により実行されるコンテンツ再生処理の流れの例を、図37のフローチャートを参照して説明する。
コンテンツ再生処理が開始されると、クライアント装置200のMPDファイル取得部212は、ステップS221において、sub-picture毎の情報としてprojected pictureにおける表示領域情報を含むMPDファイルを取得する。
ステップS222において、表示制御部215は、ユーザの視点位置(および視線方向)の計測結果を取得する。
ステップS223において、計測部211は、サーバとクライアント装置200との間のネットワークの伝送帯域幅を計測する。
ステップS224において、MPDファイル処理部213は、クライアント装置200のユーザの視野に相当する(対応する)sub-pictureを参照するAdaptation Setを、そのsub-pictureのprojected pictureにおける表示領域情報を基に選択する。
ステップS225において、MPDファイル処理部213は、ステップS224において選択されたAdaptation Setの中から、ユーザの視点位置および視線方向やクライアントとサーバとの間のネットワークの伝送帯域幅等に応じたリプレゼンテーション(Representation)を選択する。
ステップS226において、セグメントファイル取得部214は、ステップS225において選択されたリプレゼンテーション(Representation)に対応するセグメントファイルを取得する。
ステップS227において、セグメントファイル処理部221は、ステップS226において取得されたセグメントファイルから符号化データを抽出する。
ステップS228において、デコード部222は、ステップS227において抽出されたストリームの符号化データを復号する。
ステップS229において、表示情報生成部223は、ステップS228において復号されて得られたストリーム(コンテンツ)を再生する。より具体的には、表示情報生成部223は、そのストリームから表示用画像のデータを生成し、それを表示部217に供給し、表示させる。
ステップS229の処理が終了すると、コンテンツ再生処理が終了する。
以上のようにコンテンツ再生処理を行うことにより、クライアント装置200は、MPDファイルに含まれるsub-pictureの表示領域に関する情報を利用して、より容易にストリームを選択することができる。例えば、クライアント装置200は、その情報に基づいて、ユーザの視野に応じた適切なストリームを容易に選択することができる。
<2D Coverage Information descriptorによる定義>
上述のように、ファイル生成装置100のMPDファイル生成部113は、OMAFのMPDファイルにおいて、Adaptation setが参照するsub-pictureがprojected pictureにおいてどの部分の表示に相当するかを示すsub-pictureの表示領域情報を新規定義し、シグナルする。つまり、MPDファイル生成部113は、sub-pictureの表示領域情報をサブピクチャ毎の情報として定義する。
例えば、MPDファイル生成部113は、そのsub-pictureの表示領域情報として2D Coverage Information descriptorを定義し、Region wise packing descriptorと異なるdescriptorとしてシグナルする。例えば、MPDファイル生成部113は、@schemeIdUri="urn:mpeg:mpegI:omaf:2017:2dco"のSupplemental Propertyを2D coverage information descriptorとして定義する。なお、MPDファイル生成部113が、同じschemeIdUriのEssential Propertyを用いて2D coverage information descriptorを定義するようにしてもよい。
つまり、サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、sub-pictureの表示領域情報(アダプテーションセットにより参照されるサブピクチャに対応するピクチャ全体における領域に関する情報)は、MPDファイルのSupplemental PropertyまたはEssential Propertyに定義されるようにしてもよい。
なお、EssentialPropertyのschemeIdUriに対応していないDASHクライアントは、このPropertyの書かれているAdaptation Set(Representation等でもよい)は無視しなければならない。また、SupplementalPropertyのschemeIdUriに対応していないDASHクライアントは、このProperty値を無視して、AdaptationSet(Representation等でもよい)を利用してもよい。
なお、この2D Coverage Information descriptorは、Adaptation Set以外に、MPDやRepresentationに存在するようにしてもよい。また、この2D Coverage Information descriptorは、Adaptation Setが参照するpictureがsub-pictureでなくても、または、region-wise packing処理がなされていなくても、適用可能である。
図38の属性値411は、この2D coverage information descriptorの属性値の例を示す。属性値411に示されるように、omaf:@proj_picture_widthは、データタイプがxs:unsignedIntであり、projected pictureの幅を示す。omaf:@proj_picture_heightは、データタイプがxs:unsignedIntであり、projected pictureの高さを示す。omaf:@proj_reg_widthは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の幅を示す。omaf:@proj_reg_heightは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の高さを示す。omaf:@proj_reg_topは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の垂直方向座標を示す。omaf:@proj_reg_leftは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域水平方向座標を示す。
上記各属性値は、実際のピクセル数で示されるようにしてもよいし、omaf:@proj_reg_width, omaf:@proj_reg_height, omaf:@proj_reg_topおよびomaf:@proj_reg_leftがomaf:@proj_picture_widthおよびomaf:@proj_picture_heightに対する相対値で示されるようにしてもよい。
また、全体ピクチャがprojected pictureに同一であることを示す情報を、MPDファイルのSupplemental PropertyまたはEssential Propertyに定義されるようにしてもよい。例えば、MPDファイル生成部113は、図74に示す@schemeIdUri="urn:mpeg:mpegI:omaf:2017:prid"のSupplemental PropertyをProjected picture identical descriptorとして定義する。例えばこのdescriptorがAdaptationSetに存在する場合、AdaptationSetが参照するsub-pictureから構成される全体ピクチャはregion-wise packing処理がなされておらず、projected pictureと同一であることを示す。
このとき、Projected picture identical descriptorが存在するAdaptationSetが参照するsub-pictureの表示領域を、例えば、全体ピクチャを2以上の領域に分割して独立して符号化したときの各領域の表示領域を示すMPEG-DASH SRD(Spatial Relationship Description)で示してもよい。図示はしないが、SRDでは、図4のシンタックス22に示すSub Picture Region Boxと同様に、sub-pictureの分割の仕方等を示すsub-picture分割情報が示される。
このとき、Projected picture identical descriptorが存在するAdaptationSetにおいて、図示はしないが、SRDの属性値であるobject_x、object_y、object_width、object_height、total_width、total_heightのセマンティクスは、それぞれ図38の属性値441に示される2D coverage information descriptorの属性値であるomaf:@proj_reg_left、omaf:@proj_reg_top、omaf:@proj_reg_width、omaf:@proj_reg_height、omaf:@proj_picture_width、omaf:@proj_picture_heightのセマンティクスと同一となる。
なお、このProjected picture identical descriptorは、Adaptation Set以外に、MPDやRepresentationに存在するようにしてもよいし、全体ピクチャがprojected pictureに同一であることを示す情報をその他のdescriptor、要素、属性によって定義されるようにしてもよい。
<sub-pictureに不連続となる領域が含まれる場合>
なお、上記の例では、sub-pictureがprojected picture上で不連続となる領域を含む場合の表示領域情報をシグナルできない。そこで、2D Coverage Information descriptorが、sub-pictureがprojected picture上で不連続となる領域を含む場合にも対応することができるようにしてもよい。
図39の属性値412は、その場合の2D Coverage Information descriptorの属性値の例を示す。属性値412に示されるように、twoDCoverageは、データタイプがomaf:twoDCoverageTypeのコンテナ要素である。twoDCoverage@proj_picture_widthは、データタイプがxs:unsignedIntであり、projected pictureの幅を示す。twoDCoverage@proj_picture_heightは、データタイプがxs:unsignedIntであり、projected pictureの高さを示す。
twoDCoverage.twoDCoverageInfoは、データタイプが、omaf:twoDCoverageInfoTypeであり、projected picture上における領域情報を示す要素を示す。この属性値は、複数シグナルすることができる。twoDCoverage.twoDCoverageInfo@proj_reg_widthは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の幅を示す。twoDCoverage.twoDCoverageInfo@proj_reg_heightは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の高さを示す。
twoDCoverage.twoDCoverageInfo@proj_reg_topは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の垂直方向座標を示す。twoDCoverage.twoDCoverageInfo@proj_reg_leftは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域水平方向座標を示す。
図40のデータタイプ413は、この2D Coverage Information descriptorのデータタイプの定義の例を示す。
以上のように、projected picture上の複数領域をシグナル可能にすることで、projected picture上で不連続な表示領域のシグナルが可能となる。
<Region-wise packing descriptorの拡張>
OMAFで定義されているRegion-wise packing descriptorを拡張し、Adaptation Setが参照するsub-pictureの、projected picture上における表示領域情報をシグナルするようにしてもよい。
図41の属性値414は、図38の属性値411のシグナルをもとに拡張したRegion-wise packing descriptorの属性値の例を示す。データタイプは、図40と同様である。
属性値414に示されるように、omaf: @packing_typeは、データタイプがomaf:OptionallistofUnsignedByteであり、region-wise packingのパッキングタイプを示す。この属性値が0の場合、矩形領域のパッキングであることを示す。
omaf:@proj_picture_widthは、データタイプがxs:unsignedIntであり、projected pictureの幅を示す。omaf:@proj_picture_heightは、データタイプがxs:unsignedIntであり、projected pictureの高さを示す。omaf:@proj_reg_widthは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の幅を示す。omaf:@proj_reg_heightは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の高さを示す。
omaf:@proj_reg_topは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の垂直方向座標を示す。omaf:@proj_reg_leftは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域水平方向座標である。
上記各属性値は、実際のピクセル数で示されるようにしてもよいし、omaf:@proj_reg_width, omaf:@proj_reg_height, omaf:@proj_reg_topおよびomaf:@proj_reg_leftがomaf:@proj_picture_widthおよびomaf:@proj_picture_heightに対する相対値で示されるようにしてもよい。
図42の属性値415は、図39の属性値412のシグナルをもとに拡張したRegion-wise packing descriptorの属性値、すなわち、不連続な領域を含む場合に対応したRegion-wise packing descriptorの属性値の例を示す。データタイプは、図40と同様である。
属性値415に示されるように、omaf: @packing_typeは、データタイプがomaf:OptionallistofUnsignedByteであり、region-wise packingのパッキングタイプを示す。この属性値が0の場合、矩形領域のパッキングであることを示す。
twoDCoverageは、データタイプがomaf:twoDCoverageTypeであるコンテナ要素である。twoDCoverage@proj_picture_widthは、データタイプがxs:unsignedIntであり、projected pictureの幅を示す。twoDCoverage@proj_picture_heightは、データタイプがxs:unsignedIntであり、projected pictureの高さを示す。twoDCoverage.twoDCoverageInfoは、データタイプがomaf:twoDCoverageInfoTypeであり、projected picture上における領域情報を示す要素を示す。この属性値は、複数シグナルすることができる。
twoDCoverage.twoDCoverageInfo@proj_reg_widthは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の幅を示す。twoDCoverage.twoDCoverageInfo@proj_reg_heightは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の高さを示す。
twoDCoverage.twoDCoverageInfo@proj_reg_topは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の垂直方向座標を示す。twoDCoverage.twoDCoverageInfo@proj_reg_leftは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域水平方向座標を示す。
<Content coverage descriptorの拡張>
また、OMAFで定義された、Adaptation Setの球面上における表示領域を示すContent coverage descriptorを拡張し、projected picture上における表示領域をシグナル可能にするようにしてもよい。
つまり、サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、sub-pictureの表示領域情報(アダプテーションセットに参照されるサブピクチャに対応するピクチャ全体における領域に関する情報)は、MPDファイルの、Adaptation Setの球面上における表示領域を示すCoverage Information descriptorにおいて定義されるようにしてもよい。
図43の属性値416および図44の属性値417は、拡張したContent coverage descriptorの属性値の例を示す。Content coverage descriptorを拡張する場合、上述したISOBMFFファイルにおいてContent coverage Boxを拡張する場合と同様に、2D_coverage_flag属性によって、球面上領域をシグナルするか、projected picture上における表示領域をシグナルするかの切り替えを行う。
属性値416に示されるように、ccは、データタイプがomaf:CCTypeであるコンテナ要素である。cc@2D_coverage_flagは、データタイプがxs:booleanであり、表示領域が球面上で定義されるか、projected picture上で定義されるか、を示すフラグ情報である。この属性値が0の場合、球面上で定義されることを示し、この値が1の場合、projected picture上で定義されることを示す。
cc.sphericalCoverageは、データタイプがomaf:sphericalCoverageTypeである、球面上表示領域情報のコンテナ要素である。この要素は、cc@2D_coverage_flag=0のときのみ存在する。cc.sphericalCoverage @shape_typeは、データタイプがxs:unsignedByteであり、球面上領域の形状を示す。この属性値が0の場合、4 great circlesで囲まれる領域であることを示す。また、この属性値が1の場合、2つのazimuth circleと2つのelevation angleで囲まれる領域であることを示す。
cc.sphericalCoverage @view_idc_presence_flagは、データタイプがxs:booleanであり、view_idc属性が存在するか否かを示すフラグ情報である。この属性値が0の場合、view_idc属性が存在しないことを示し、この属性値が1の場合、view_idc属性が存在することを示す。
cc.sphericalCoverage @default_view_idcは、データタイプがomaf:ViewTypeであり、領域全てに共通なviewを示す。例えば、この属性値が0の場合、sub-pictureに含まれるすべての領域のビュータイプ(view_idc)がモノビュー(mono view)であることを示す。また、この属性値が1の場合、sub-pictureに含まれるすべての領域のビュータイプ(view_idc)がレフトビュー(left view)であることを示す。また、この属性値が2の場合、sub-pictureに含まれるすべての領域のビュータイプ(view_idc)がライトビュー(right view)であることを示す。また、この属性値が3の場合、sub-pictureに含まれるすべての領域のビュータイプ(view_idc)がステレオビュー(stereo view)であることを示す。この属性値は、cc@view_idc_presence_flag=0のとき、必ず存在する。また、cc@view_idc_presence_flag=1のとき、この属性は存在してはいけない。
cc.sphericalCoverage.coverageInfoは、データタイプがomaf:coverageInfoTypeであり、球面上領域情報を示す要素である。この要素は、複数シグナルすることができる。
cc.sphericalCoverage.coverageInfo@view_idcは、データタイプがomaf:ViewTypeであり、領域毎のviewを示す。例えば、この属性値が0の場合、その属性値が対応する領域のビュータイプ(view_idc)がモノビュー(mono view)であることを示す。また、この属性値が1の場合、その属性値が対応する領域のビュータイプ(view_idc)がレフトビュー(left view)であることを示す。また、この属性値が2の場合、その属性値が対応する領域のビュータイプ(view_idc)がライトビュー(right view)であることを示す。また、この属性値が3の場合、その属性値が対応する領域のビュータイプ(view_idc)がステレオビュー(stereo view)であることを示す。この属性値は、cc@view_idc_presence_flag=0のとき、存在してはいけない。また、cc@view_idc_presence_flag=1のとき、この属性は必ず存在する。
cc.sphericalCoverage.coverageInfo@center_azimuthは、データタイプがomaf:Range1であり、球面上表示領域中心の方位角を示す。cc.sphericalCoverage.coverageInfo@center_elevationは、データタイプがomaf:Range2であり、球面上表示領域中心の仰角を示す。cc.sphericalCoverage.coverageInfo@center_tiltは、データタイプがomaf:Range1であり、球面上表示領域中心のチルト角を示す。cc.sphericalCoverage.coverageInfo@azimuth_rangeは、データタイプがomaf:HRangeであり、球面上表示領域の方位角レンジを示す。cc.sphericalCoverage.coverageInfo@elevation_rangeは、データタイプがomaf:VRangeであり、球面上表示領域の仰角レンジを示す。
cc.twoDCoverageは、データタイプがomaf:twoDCoverageTypeであるprojected picture上における表示領域情報のコンテナ要素である。cc@2D_coverage_flag=1のときのみ存在する。
cc.twoDCoverage@proj_picture_widthは、データタイプがxs:unsignedIntであり、projected pictureの幅を示す。cc.twoDCoverage@proj_picture_heightは、データタイプがxs:unsignedIntであり、projected pictureの高さを示す。cc.twoDCoverage.twoDCoverageInfoは、データタイプがomaf:twoDCoverageInfoTypeであり、projected picture上における領域情報を示す要素である。この要素は、複数シグナルすることができる。
cc.twoDCoverage.twoDCoverageInfo@proj_reg_widthは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の幅を示す。cc.twoDCoverage.twoDCoverageInfo@proj_reg_heightは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の高さを示す。
cc.twoDCoverage.twoDCoverageInfo@proj_reg_topは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の垂直方向座標を示す。cc.twoDCoverage.twoDCoverageInfo@proj_reg_leftは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域水平方向座標を示す。
図45のデータタイプ418、図46のデータタイプ419、および図47のデータタイプ420は、この拡張したContent coverage descriptorのデータタイプの定義の例を示す。
<sub-pictureの分割方法が動的に変化する場合のシグナリング>
なお、ストリーム中でprojected pictureにおける表示領域が動的に変化する場合、上述のシグナリングに加え、2D coverage information descriptor, region-wise packing descriptorおよびContent coverage descriptorに追加でフラグをシグナルし、projected pictureにおける表示領域が動的に変化するストリームであることを示すようにしてもよい。
<4.第3の実施の形態>
<ステレオ情報のシグナル>
<1.sub-pictureに関する情報のシグナル>の<ステレオ情報の識別>において上述したように、ステレオ全天球映像の全体ピクチャをsub-picture化した場合、全体ピクチャのステレオ情報はSub Picture Composition Box下にシグナルされるStereo Video Boxでシグナルされ、sub-pictureのステレオ情報はSample EntryのScheme Information Box下のStereo Video Boxでシグナルされる。
全体ピクチャがステレオ画像である場合、生成可能なsub-pictureのバリエーションとして例えば以下の3パターンがある。
図48は、sub-picture化の第1のパターンの様子の例を示す図である。この場合、projected picture(全体ピクチャ)431がsub-picture化されて、sub-picture432乃至sub-picture437が生成される。projected picture431は、サイドバイサイド(side by side)のステレオ画像により構成される。sub-picture432乃至sub-picture437は、それぞれ、projected picture431上で同一の表示領域となるLeft viewとRight viewを含み、top & bottomやside by sideといったStereo Video Boxでシグナル可能なフレームパッキングアレンジメントとなっている。
図49は、sub-picture化の第2のパターンの様子の例を示す図である。この場合、projected picture(全体ピクチャ)441がsub-picture化されて、sub-picture442乃至sub-picture446が生成される。projected picture441は、サイドバイサイド(side by side)のステレオ画像により構成される。sub-picture442乃至sub-picture446は、それぞれ、Left viewおよびRight viewを含むが、各viewのprojected picture441上の表示領域が一致せず、top & bottomやside by sideといったStereo Video Boxでシグナル可能なフレームパッキングアレンジメントとならない。
図50は、sub-picture化の第3のパターンの様子の例を示す図である。この場合、projected picture(全体ピクチャ)451がsub-picture化されて、sub-picture452およびsub-picture453が生成される。projected picture451は、サイドバイサイド(side by side)のステレオ画像により構成される。sub-picture452は、Left viewのみを含むモノピクチャとなっている。sub-picture453は、Right viewのみを含むモノピクチャとなっている。
第1のパタンーンの場合、sub-picture trackのSample Entry/rinf/schiにStereo Video Boxがシグナルされ、適切なフレームパッキングアレンジメント情報がシグナルされる。例えば図48の場合、side by sideとなる。なお、sub-pictureのフレームパッキングアレンジメント情報ではなく、全体ピクチャのフレームパッキングアレンジメント情報がシグナルされてもよい。
第2のパターンの場合、Sample Entry/rinf/schiにはStereo Video Boxがシグナルされない。したがって、クライアントは、sub-pictureがモノピクチャなのか、Left viewおよびRight viewを含んでいるがtop & bottomやside by sideといったフレームパッキングアレンジメントが適用されていないのかを識別することができないおそれがあった。
第3のパターンの場合、Sample Entry/rinf/schiにはStereo Video Boxがシグナルされない。したがって、クライアントは、分割前の全体ピクチャがモノピクチャであるのかステレオ画像であるのかを識別することができないおそれがあった。レンダリング時のアップスケール(upscale)が必要であるか否かは、分割前の全体ピクチャがモノピクチャであるのかステレオ画像であるのかによって異なるため、その識別ができないと、クライアントが適切にレンダリングすることができないおそれがあった。
例えば、図50のように、全体ピクチャがside by sideのステレオ画像であり、そのうちのLeft viewのみを持つsub-pictureについては、レンダリングの際、水平方向に2倍のupscaleが必要である。これに対して、全体ピクチャがモノピクチャである場合、この処理は不要である。
<ISOBMFFによるsub-picture化される全体ピクチャのステレオ情報のシグナル>
そこで、sub-picture化されるピクチャ全体のステレオ表示に関する情報であるステレオ情報を、セグメントファイルであるISOBMFFファイルにおいて行うようにしてもよい。
つまり、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、そのピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを生成するようにしてもよい。
例えば、情報処理装置であるファイル生成装置100において、セグメントファイル生成部123が、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、そのピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを生成するファイル生成部として機能するようにしてもよい。つまり情報処理装置(例えばファイル生成装置100)が、ファイル生成部(例えばセグメントファイル生成部123)を備えるようにしてもよい。
このようにすることにより、上述したように、クライアントは、この情報に基づいてストリームの選択をより容易に行うことができる。
また、上述のピクチャ(全体ピクチャ)は、全天球映像(水平方向の周囲360度および垂直方向の周囲180度の画像を投影・マッピングした投影平面画像)の全部、または一部であるようにしてもよい。つまり、ファイル生成装置100が、投影平面画像の全部、または一部を全体ピクチャとし、それをsub-picture化する場合において、上述のように本技術を適用することができる。
このようにすることにより、全天球映像を配信する場合においても、上述したようにクライアントは、この情報に基づいてストリームの選択をより容易に行うことができる。
なお、この全体ピクチャのステレオ情報は、サブピクチャ(sub-picture)毎の情報としてISOBMFFファイルに含まれるようにしてもよい。このようにすることにより、クライアントは、sub-picture trackの情報を参照するだけで、その全体ピクチャのステレオ情報(例えば、全体ピクチャステレオ画像であるか否かや、どのようなタイプのステレオ画像であるか等)を容易に把握することができる。
<アップロード処理の流れ>
その場合の図11のファイル生成装置100により実行されるアップロード処理の流れの例を、図51のフローチャートを参照して説明する。
アップロード処理が開始されると、ファイル生成装置100のデータ入力部111は、ステップS301において、画像とメタデータを取得する。
ステップS302において、セグメントファイル生成部123は、sub-picture毎の情報として、全体ピクチャ(projected picture)のステレオ情報を含むISOBMFFファイルを生成する。
ステップS303において、記録部114は、ステップS302の処理により生成されたISOBMFFファイルを記録する。
ステップS304において、アップロード部115は、ステップS303において記録されたISOBMFFファイルを記録部114より読み出し、それをサーバにアップロードする。
ステップS304の処理が終了すると、アップロード処理が終了する。
以上のようにアップロード処理を行うことにより、ファイル生成装置100は、sub-picture毎の情報として、projected pictureのステレオ情報を含むISOBMFFファイルを生成することができる。
したがって、クライアントは、その情報に基づいて、自身の能力(capability)等に応じた適切なストリームをより容易に選択し、再生することができる。
<ISOBMFFにシグナルされたsub-picture化される全体ピクチャのステレオ情報の利用>
また、ISOBMFFファイルにシグナルされた、sub-picture化される全体ピクチャのステレオ情報を利用してストリームの選択や再生を行うようにしてもよい。
つまり、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、そのピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを取得し、その取得されたファイルに含まれるステレオ情報に基づいて、画像符号化データのストリームの選択を行うようにしてもよい。
例えば、情報処理装置であるクライアント装置200において、セグメントファイル取得部214が、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、そのピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを取得するファイル取得部と、として機能し、データ解析・復号部216が、そのファイル取得部により取得されたファイルに含まれるステレオ情報に基づいて、画像符号化データのストリームの選択を行う画像処理部として機能するようにしてもよい。つまり、情報処理装置(例えばクライアント装置200)が、ファイル取得部(例えばセグメントファイル取得部214)と、画像処理部(例えばデータ解析・復号部216)とを備えるようにしてもよい。
このようにすることにより、クライアント装置200は、ストリームの選択をより容易に行うことができる。
なお、上述のピクチャ(全体ピクチャ)は、全天球映像(水平方向の周囲360度および垂直方向の周囲180度の画像を投影・マッピングした投影平面画像)の全部、または一部であるようにしてもよい。つまり、クライアント装置200が、投影平面画像の全部、または一部を全体ピクチャとしてそれをsub-picture化したストリームを取得し、再生する場合においても、上述のように本技術を適用することができる。
また、この全体ピクチャのステレオ情報は、サブピクチャ(sub-picture)毎の情報としてISOBMFFファイルに含まれるようにしてもよい。このようにすることにより、クライアント装置200は、sub-picture trackの情報を参照するだけで、その全体ピクチャのステレオ情報(例えば、全体ピクチャステレオ画像であるか否かや、どのようなタイプのステレオ画像であるか等)を容易に把握することができる。
<コンテンツ再生処理の流れ>
その場合のクライアント装置200により実行されるコンテンツ再生処理の流れの例を、図52のフローチャートを参照して説明する。
コンテンツ再生処理が開始されると、クライアント装置200のセグメントファイル取得部214は、ステップS321において、sub-picture毎の情報として全体ピクチャ(projected picture)のステレオ情報を含むISOBMFFファイルを取得する。
ステップS322において、表示制御部215は、ユーザの視点位置(および視線方向)の計測結果を取得する。
ステップS323において、計測部211は、サーバとクライアント装置200との間のネットワークの伝送帯域幅を計測する。
ステップS324において、セグメントファイル処理部221は、クライアント装置200がステレオ再生を行うか否か(またはステレオ再生を行う機能(capability)を有するか否か)を判定する。ステレオ再生を行う(またはステレオ再生の機能を有する)と判定された場合、処理はステップS325に進む。
ステップS325において、セグメントファイル処理部221は、ステレオ表示可能なsub-picture trackを選択候補とする。その際、セグメントファイル処理部221は、ステップS321において取得されたISOBMFFファイルに含まれる全体ピクチャのステレオ情報を参照することにより、第2のパターンのフレームパッキングアレンジメントが適用されていないステレオ表示可能なsub-picture track(例えば、図49のsub-picture445やsub-picture446)も選択候補に含めることができる。ステップS325の処理が終了すると、処理はステップS327に進む。
また、ステップS324において、クライアント装置200がステレオ再生を行わない(またはステレオ再生の機能を有していない)と判定された場合、処理はステップS326に進む。
ステップS326において、セグメントファイル処理部221は、ステップS321において取得されたISOBMFFファイルに含まれる全体ピクチャのステレオ情報等に基づいて、モノピクチャのsub-picture trackを選択候補とする。その際、セグメントファイル処理部221は、ステップS321において取得されたISOBMFFファイルに含まれる全体ピクチャのステレオ情報を参照することにより、第3のパターンのsub-picture track(例えば、図50のsub-picture452やsub-picture453)について、レンダリングの際に水平方向に2倍のアップスケール(upscale)が必要であることを把握することができる。ステップS326の処理が終了すると、処理はステップS327に進む。
ステップS327において、セグメントファイル処理部221は、ステップS325またはステップS326において設定した候補の中から、クライアント装置200のユーザの視野に応じたsub-picture trackを選択する。
ステップS328において、セグメントファイル処理部221は、ステップS327において選択されたsub-picture trackのストリームの符号化データを、ステップS321において取得されたISOBMFFファイルから抽出する。
ステップS329において、デコード部222は、ステップS328において抽出されたストリームの符号化データを復号する。
ステップS330において、表示情報生成部223は、ステップS329において復号されて得られたストリーム(コンテンツ)を再生する。より具体的には、表示情報生成部223は、そのストリームから表示用画像のデータを生成し、それを表示部217に供給し、表示させる。
ステップS330の処理が終了すると、コンテンツ再生処理が終了する。
以上のようにコンテンツ再生処理を行うことにより、クライアント装置200は、ISOBMFFファイルに含まれるsub-picture化される全体ピクチャのステレオ情報を利用して、より容易にストリームを選択することができる。例えば、クライアント装置200は、その情報に基づいて、自身の能力(capability)等に応じた適切なストリームをより容易に選択し、再生することができる。
<全体ピクチャのステレオ情報をSample Entryにシグナル>
例えば、分割前の全体ピクチャがステレオ画像である場合、ファイル生成装置100のセグメントファイル生成部123が、sub-picture trackのSample Entryにおいて、全体ピクチャのステレオ情報をシグナルするようにしてもよい。
例えば、ISOBMFFファイルの、そのSample Entryの下のScheme Information Box、または、そのScheme Information Boxの下階層のBoxに、全体ピクチャのステレオ情報が格納されるようにしてもよい。
<Original Stereo Video Box>
例えば、分割前の全体ピクチャのステレオ情報をシグナルするために、ファイル生成装置100のセグメントファイル生成部123が、Original Stereo Video Boxを新規定義し、sub-picture trackのSample EntryのScheme Information Box(schi)の下に、そのBoxをシグナルするようにしてもよい。つまり、このOriginal Stereo Video Boxに、分割前の全体ピクチャのステレオ情報が格納されるようにしてもよい。
なお、このOriginal Stereo Video Boxの場所は任意であり、上述のScheme Information Boxに限定されない。また、Original Stereo Video Boxでシグナルされる情報は、Stereo Video Boxと同様である。
図53のシンタックス461は、このOriginal Stereo Video Boxのシンタックスの例を示す。シンタックス461に示されるように、Original Stereo Video Boxにおいては、single_view_allowed、stereo_scheme、length、stereo_indication_type等のフィールドが定義される。
図54のセマンティクス462は、このOriginal Stereo Video Boxにおいて定義されるフィールドのセマンティクスの例を示す。セマンティクス462に示されるように、single_view_allowedは、許容されるビューの種類を示す情報である。例えばこのフィールドの値が0の場合、コンテンツはステレオスコピック対応のディスプレイでのみ表示されることを意図していることを示す。また、このフィールドの値が1の場合、コンテンツはモノスコピックディスプレイでright viewの表示が許されていることを示す。また、このフィールドの値が2の場合、コンテンツはモノスコピックディスプレイでleft viewの表示が許されていることを示す。
stereo_schemeは、フレームパッキング方法に関する情報である。例えば、このフィールドの値が1の場合、フレームパッキング方法は、ISO/IEC 14496-10のFrame packing arrangement SEIに従うことを示す。また、このフィールドの値が2の場合、フレームパッキング方法は、ISO/IEC 13818-2のAnnex.Lに従うことを示す。また、このフィールドの値が3の場合、フレームパッキング方法は、ISO/IEC 23000-11のframe/sevice compatible および2D/3D Mixed seviceに従うことを示す。
lengthは、stereo_indication_typeのバイト長を示す。また、stereo_indication_typeは、stereo_shcemeに従った、フレームパッキング方法を示す。
クライアント装置200のセグメントファイル処理部221は、Original Stereo Video Boxおよび2D Coverage Information Boxを参照することで、全体ピクチャのステレオ情報を取得することができる。そして、セグメントファイル処理部221は、この情報に基づいて、sub-picture trackのSample EntryにStereo Video Boxがシグナルされていない場合、sub-pictureがモノなのか、Left viewおよびRight viewを含むものの、Stereo Video Boxでシグナルされるフレームパッキングアレンジメントが適用されていないのか、をSub Picture Composition Boxをパースせずに、容易に識別することができる。つまり、sub-picture trackでないtrackの場合と同様、Sample Entryに格納された情報のみからステレオ情報の識別が可能となる。
つまりクライアント装置200は、Sub Picture Composition Boxをパースせず、sub-picture track単独の選択・再生することができる。
<表示サイズのシグナル>
さらに、ステレオである全体ピクチャを分割して生成したモノsub-picture(モノピクチャであるsub-picture)を格納するsub-picture trackのTrack Headerのwidthおよびheightに、全体ピクチャのフレームパッキングアレンジメントをもとにupscaleした表示サイズをシグナルするようにしてもよい。
つまり、ISOBMFFファイルに、sub-pictureの表示サイズに関する情報が含まれるようにしてもよい。
その様子の例を図55に示す。図55に示されるように、ステレオ画像の全体ピクチャから生成されたsub-picture471およびsub-picture472は、各領域の画像が水平方向にダウンスケールされている。したがって、表示時(レンダリング)の際には、水平方向にupscaleする必要がある。そこで、この表示時の画像473の表示サイズをTrack Headerのwidthおよびheightとしてシグナルするようにする。これにより、クライアント装置200が、モノsub-pictureを適切にレンダリングすることができる。
なお、このTrack Headerのwidthおよびheightにおけるシグナリングの代わりに、ISOBMFFで定義される、表示時のピクセル縦横比情報をシグナルするPixel Aspect Ratio Box(pasp)をVisual Sample Entryにシグナルするようにしてもよい。この場合も、上述のTrack Headerのwidthおよびheightにおいてシグナルする場合と同等の効果を得ることができる。
図56のシンタックス481は、Pixel Aspect Ratio Boxのシンタックスの例を示す。シンタックス481に示されるように、Pixel Aspect Ratio Boxにおいては、例えば、hSpacing、vSpacing等のフィールドが定義される。
図57のセマンティクス482は、このPixel Aspect Ratio Boxにおいて定義されるフィールドのセマンティクスの例を示す。セマンティクス482に示されるように、hSpacingおよびvSpacingは、相対的なピクセル高さ、幅を示す情報である。レンダリングの際には、この情報に基づいて、ピクセル幅がvSpace/hSpace倍されて表示される。
その様子の例を図58に示す。図58に示されるsub-picture491およびsub-picture492は、ステレオ画像の全体ピクチャから生成されたsub-pictureであり、各領域の画像が水平方向にダウンスケールされている。そこで、hSpace=1、vSpase=2をシグナルすることにより、クライアント装置200は、例えば、sub-picture491を表示(レンダリング)する際に、これらの情報に基づいて、ピクセル幅を2倍にしてレンダリングして、画像493のように、適切なアスペクト比で画像を表示させることができる。つまり、クライアント装置200が、モノsub-picture(モノ画像からなるsub-picture)を適切にレンダリングすることができる。
<Original Scheme Information Box>
また、sub-picture trackのSample EntryのRestricted Scheme Information Box(rinf)下に、Original Scheme Information Boxを新規定義し、そのBox内に分割前の全体ピクチャのステレオ情報をシグナルするようにしてもよい。なお、Original Scheme Information Boxを定義する場所は、任意であり、上述のrinfに限定されない。
図59のシンタックス501は、その場合のOriginal Scheme Information Boxのシンタックスの例を示す。シンタックス501に示されるように、Original Scheme Information Boxにおいては、例えば、scheme_specific_dataが定義される。
このscheme_specific_dataには、sub-pictureに分割される前の全体ピクチャについての情報がシグナルされる。例えば、全体ピクチャがステレオであった場合には、全体ピクチャのステレオ情報を持つStereo Video Boxがシグナルされるようにしてもよい。このようにすることにより、クライアント装置200は、Sub Picture Composition Boxをパースせず、sub-picture track単独の選択・再生することができる。
なお、このscheme_specific_dataには、Stereo Video Boxに限らず、全体ピクチャに関するポストプロセッシング情報がシグナルされるようにしてもよい(例えば、Region Wise Packing Boxなど)。
<sub-picture track選択を容易にする追加情報>
さらに、2D Coverage Information Boxを拡張し、track選択を容易にするステレオ関連情報をシグナルするようにしてもよい。
例えば、2D Coverage Information Boxにstereo_presentation_suitable_flagを追加し、sub-picture trackがステレオ表示可能か否かをシグナルするようにしてもよい。この情報を参照することで、クライアント装置200は、第3の実施の形態において上述した全体ピクチャのステレオ情報と、第1の実施の形態において定義した2D Coverage Information Boxでシグナルされるprojected picture上における領域情報に基づいてステレオ表示が可能であるか否かを識別する処理を行わずとも、ステレオ表示が可能であるか否かを識別することができる。
つまり、ISOBMFFファイルが、サブピクチャ毎のステレオ表示に関する情報であるサブステレオ情報をさらに含むようにしてもよい。
図60のシンタックス502は、この場合の2D Coverage Information Boxの例を示す。シンタックス502に示されるように、この場合、さらにstereo_presentation_suitableが定義される(定義されるフィールドにstereo_presentation_suitableが追加される)。
図61のセマンティクス503は、この追加されるフィールドのセマンティクスの例を示す。セマンティクス503に示されるように、stereo_presentation_suitableは、trackのピクチャのステレオ表示に関する情報である。このフィールドの値が0の場合、trackのピクチャがモノであるか、または、L view、R viewを含むがステレオ表示不可能であることを示す。このフィールドの値が1の場合、trackのピクチャは、一部領域のステレオ表示が可能であることを示す。このフィールドの値が2の場合、trackのピクチャは全ての領域がステレオ表示可能であることを示す。
図62は、stereo_presentation_suitableのシグナル例を示す図である。例えば、図62の上側に示されるように、side by sideのステレオ画像である全体ピクチャ(projected picture)511を、sub-picture化して生成された、sub-picture512乃至sub-picture517は、L viewとR viewを含み、ステレオ表示可能である。したがって、これらのsub-pictureには、stereo_presentation_suitable=2がセットされる。
これに対して、図62の下側に示されるように、side by sideのステレオ画像である全体ピクチャ(projected picture)521を、sub-picture化して生成された、sub-picture522乃至sub-picture526は、L viewとR viewを含む。ただし、sub-picture522乃至sub-picture524は、ステレオ表示することができない。したがって、これらのsub-pictureには、stereo_presentation_suitable=0がセットされる。
また、sub-picture525およびsub-picture526は、一部の領域をステレオ表示することができる。したがって、これらのsub-pictureには、stereo_presentation_suitable=1がセットされる。
なお、ステレオ表示可能か否かの情報を、個別のBox(その情報を格納する為の専用のBox)、例えばTrack Stereo Video Boxを新規定義して、sub-picture trackのschi下にシグナルするようにしてもよい。
図63のシンタックス531は、その場合のTrack Stereo Video Boxのシンタックスの例を示す。
また、sub-picture trackのSample EntryのProjected Omnidirectional Video Box下でシグナルされるRegion Wise Packing Box、または、第1の実施の形態において上述したRectProjected Region構造を拡張し、stereo_presentation_suitable_flagをシグナルするようにしてもよい。また、その他のBoxにstereo_presentation_suitable_flagをシグナルするようにしてもよい。
さらに、ステレオ表示が不可能である場合においては、Track Header Boxのtrack_not_intended_for_presentation_aloneフラグを用い、sub-picture単独再生が望ましくないことをシグナルするようにしてもよい。
なお、上述の各種情報は、trackに格納されるpictureがsub-pictureでない場合においても適用可能である。
<view情報のシグナル>
また、2D Coverage Information Boxを拡張し、sub-pictureのprojected picture上における表示領域に対し、view情報を追加でシグナルするようにしてもよい。この情報を参照することで、クライアント装置200は、第3の実施の形態において上述した全体ピクチャのステレオ情報と、第3の実施の形態において定義した2D Coverage Information Boxでシグナルされるprojected picture上における領域情報から各領域のview情報を識別する処理を行わずとも、sub-pictureがモノ画像であるか、L viewおよびR viewを含むのかを容易に識別することができる。
つまり、ISOBMFFファイルが、サブピクチャのビュータイプを示すビュー情報をさらに含むようにしてもよい。
図64のシンタックス532は、この場合の2D Coverage Information Boxのシンタックスの例を示す図である。シンタックス532に示されるように、この場合、2D Coverage Information Boxにおいて、view_idc_presence_flag、default_view_idc、view_idc等のフィールドが追加的に定義される。
図65のセマンティクス533は、この2D Coverage Information Boxにおいて追加的に定義されるフィールドのセマンティクスの例を示す。セマンティクス533に示されるように、view_idc_presense_flagは、各領域に個別のview_idcが存在するか否かを示す。例えば、このフィールドの値が0の場合、各領域に個別のview_idcが存在しないことを示す。また、このフィールドの値が1の場合、各領域に個別のview_idcが存在することを示す。
つまり、ISOBMFFファイルが、ビュー情報が領域毎に存在するかを示す情報をさらに含むようにしてもよい。
default_view_idcは、領域全てに共通なviewを示す。例えば、このフィールドの値が0の場合、このsub-picture内の全ての領域がmono viewであることを示す。また、このフィールドの値が1の場合、このsub-picture内の全ての領域がleft viewであることを示す。また、このフィールドの値が2の場合、このsub-picture内の全ての領域がright viewであることを示す。また、このフィールドの値が3の場合、このsub-picture内の全ての領域がstereo viewであることを示す。
view_idcは、領域毎のviewを示す。例えば、このフィールドの値が0の場合、その領域がmono viewであることを示す。また、このフィールドの値が1の場合、その領域がleft viewであることを示す。また、このフィールドの値が2の場合、その領域がright viewであることを示す。また、このフィールドの値が3の場合、その領域がstereo viewであることを示す。また、このフィールドが存在しない場合、default_view_idcが各領域のviewを示すことを示す。
つまり、ビュー情報は、サブピクチャに含まれる領域毎の情報であってもよい。
図66は、このview_idcをシグナルする様子の例を示す図である。図66に示されるように、side by sideの全体ピクチャ541を、sub-picture542およびsub-picture543のようにsub-picture化する場合、これらのsub-pictureには、それぞれ、view_idc=3がセットされる。
これに対して、全体ピクチャ541を、sub-picture544およびsub-picture545のようにsub-picture化する場合、sub-picture544に対しては、view_idc=1がセットされ、sub-picture545に対しては、view_idc=2がセットされる。
なお、trackに格納されるpictureがsub-pictureでない場合においても、これらの追加情報を適用することができる。
同様に、Region Wise Packing Box、および第1の実施の形態において定義したRect Projected Region構造を拡張し、view情報をシグナルするようにしてもよい。
<5.第4の実施の形態>
<MPDファイルによるsub-picture化される全体ピクチャのステレオ情報のシグナル>
上述したsub-picture化される全体ピクチャのステレオ情報のシグナルを、MPDファイルにおいて行うようにしてもよい。つまり、クライアントが、sub-pictureを参照するAdaptation Setを例えばクライアントの能力(capability)に応じて選択・再生することを可能にするために、MPDファイルにおいて、sub-picture化される全体ピクチャのステレオ情報を新規定義し、Adaptation Setにシグナルするようにしてもよい。
つまり、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、そのアダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、画像符号化データの配信制御に用いられる制御ファイルを生成するようにしてもよい。
例えば、情報処理装置であるファイル生成装置100において、MPDファイル生成部113が、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、そのアダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、画像符号化データの配信制御に用いられる制御ファイルを生成するファイル生成部として機能するようにしてもよい。つまり情報処理装置(例えばファイル生成装置100)が、ファイル生成部(例えばMPDファイル生成部113)を備えるようにしてもよい。
このようにすることにより、上述したように、クライアントは、この情報に基づいてストリームの選択をより容易に行うことができる。
また、上述のピクチャ(全体ピクチャ)は、全天球映像(水平方向の周囲360度および垂直方向の周囲180度の画像を投影・マッピングした投影平面画像)の全部、または一部であるようにしてもよい。つまり、ファイル生成装置100が、このような投影平面画像の全部、または一部を全体ピクチャとし、それをsub-picture化する場合において、上述のように本技術を適用することができる。
このようにすることにより、全天球映像を配信する場合においても、上述したようにクライアントは、この情報に基づいてストリームの選択をより容易に行うことができる。
なお、この領域に関する情報(表示領域情報)は、サブピクチャ(sub-picture)毎の情報としてMPDファイルに含まれるようにしてもよい。このようにすることにより、クライアントは、Adaptation Setが参照するsub-pictureの情報を参照するだけで、そのsub-pictureが全体ピクチャのどの部分に対応するかを容易に把握することができる。
<アップロード処理の流れ>
その場合の図11のファイル生成装置100により実行されるアップロード処理の流れの例を、図67のフローチャートを参照して説明する。
アップロード処理が開始されると、ファイル生成装置100のデータ入力部111は、ステップS401において、画像とメタデータを取得する。
ステップS402において、セグメントファイル生成部123は、その画像のセグメントファイルを生成する。
ステップS403において、MPDファイル生成部113は、sub-picture毎の情報として、全体ピクチャ(projected picture)のステレオ情報を含むMPDファイルを生成する。
ステップS404において、記録部114は、ステップS402の処理により生成されたセグメントファイルを記録する。また、記録部114は、ステップS403の処理により生成されたMPDファイルを記録する。
ステップS405において、アップロード部115は、ステップS404において記録されたセグメントファイルを記録部114より読み出し、それをサーバにアップロードする。また、アップロード部115は、ステップS404において記録されたMPDファイルを記録部114より読み出し、それをサーバにアップロードする。
ステップS404の処理が終了すると、アップロード処理が終了する。
以上のようにアップロード処理を行うことにより、ファイル生成装置100は、sub-picture毎の情報として、全体ピクチャのステレオ情報を含むMPDファイルを生成することができる。
したがって、クライアントは、その表示領域情報に基づいて、例えばクライアント装置200の機能(capability)に応じた適切なストリームをより容易に選択し、再生することができる。
<MPDファイルにシグナルされたsub-picture化される全体ピクチャのステレオ情報の利用>
また、MPDファイルにシグナルされた、sub-picture化される全体ピクチャのステレオ情報を利用してストリームの選択を行うようにしてもよい。
つまり、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、そのアダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、画像符号化データの配信制御に用いられる制御ファイルを取得し、その取得された制御ファイルに含まれるステレオ情報に基づいて、画像符号化データのストリームの選択を行うようにしてもよい。
例えば、情報処理装置であるクライアント装置200において、MPDファイル取得部212が、ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、そのアダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、画像符号化データの配信制御に用いられる制御ファイルを取得するファイル取得部として機能し、MPDファイル処理部213が、その取得された制御ファイルに含まれるステレオ情報に基づいて、画像符号化データのストリームの選択を行う画像処理部として機能するようにしてもよい。つまり、情報処理装置(例えばクライアント装置200)が、ファイル取得部(例えばMPDファイル取得部212)と、画像処理部(例えばMPDファイル処理部213)とを備えるようにしてもよい。
このようにすることにより、クライアント装置200は、ストリームの選択をより容易に行うことができる。
なお、上述のピクチャ(全体ピクチャ)は、全天球映像(水平方向の周囲360度および垂直方向の周囲180度の画像を投影・マッピングした投影平面画像)の全部、または一部であるようにしてもよい。つまり、クライアント装置200が、投影平面画像の全部、または一部を全体ピクチャとしてそれをsub-picture化したストリームを取得し、再生する場合においても、上述のように本技術を適用することができる。
また、この領域に関する情報(表示領域情報)は、サブピクチャ(sub-picture)毎の情報としてMPDファイルに含まれるようにしてもよい。このようにすることにより、クライアント装置200は、Adaptation Setが参照するsub-pictureの情報を参照するだけで、そのsub-pictureが全体ピクチャのどの部分に対応するかを容易に把握することができる。
<コンテンツ再生処理の流れ>
その場合のクライアント装置200により実行されるコンテンツ再生処理の流れの例を、図68のフローチャートを参照して説明する。
コンテンツ再生処理が開始されると、クライアント装置200のMPDファイル取得部212は、ステップS421において、sub-picture毎の情報として全体ピクチャ(projected picture)のステレオ情報を含むMPDファイルを取得する。
ステップS422において、表示制御部215は、ユーザの視点位置(および視線方向)の計測結果を取得する。
ステップS423において、計測部211は、サーバとクライアント装置200との間のネットワークの伝送帯域幅を計測する。
ステップS424において、MPDファイル処理部213は、クライアント装置200がステレオ再生を行うか否か(またはステレオ再生を行う機能(capability)を有するか否か)を判定する。ステレオ再生を行う(またはステレオ再生の機能を有する)と判定された場合、処理はステップS425に進む。
ステップS425において、MPDファイル処理部213は、ステレオ表示可能なsub-pictureを参照するAdaptation Setを選択候補とする。その際、MPDファイル処理部213は、ステップS421において取得されたMPDファイルに含まれる全体ピクチャのステレオ情報を参照することにより、第2のパターンのフレームパッキングアレンジメントが適用されていないステレオ表示可能なsub-picture(例えば、図49のsub-picture445やsub-picture446)を参照するAdaptation Setも選択候補に含めることができる。ステップS425の処理が終了すると、処理はステップS427に進む。
また、ステップS424において、クライアント装置200がステレオ再生を行わない(またはステレオ再生の機能を有していない)と判定された場合、処理はステップS426に進む。
ステップS426において、MPDファイル処理部213は、ステップS421において取得されたMPDファイルに含まれる全体ピクチャのステレオ情報等に基づいて、モノピクチャのsub-pictureを参照するAdaptation Setを選択候補とする。その際、MPDファイル処理部213は、ステップS421において取得されたMPDファイルに含まれる全体ピクチャのステレオ情報を参照することにより、第3のパターンのsub-picture(例えば、図50のsub-picture452やsub-picture453)について、レンダリングの際に水平方向に2倍のアップスケール(upscale)が必要であることを把握することができる。ステップS426の処理が終了すると、処理はステップS427に進む。
ステップS427において、MPDファイル処理部213は、ステップS425またはステップS426において設定した候補の中から、クライアント装置200のユーザの視野に相当する(対応する)sub-pictureを参照するAdaptation Setを選択する。
ステップS428において、MPDファイル処理部213は、ステップS424において選択されたAdaptation Setの中から、ユーザの視点位置および視線方向やクライアントとサーバとの間のネットワークの伝送帯域幅等に応じたリプレゼンテーション(Representation)を選択する。
ステップS429において、セグメントファイル取得部214は、ステップS428において選択されたリプレゼンテーション(Representation)に対応するセグメントファイルを取得する。
ステップS430において、セグメントファイル処理部221は、ステップS429において取得されたセグメントファイルから符号化データを抽出する。
ステップS431において、デコード部222は、ステップS430において抽出されたストリームの符号化データを復号する。
ステップS432において、表示情報生成部223は、ステップS431において復号されて得られたストリーム(コンテンツ)を再生する。より具体的には、表示情報生成部223は、そのストリームから表示用画像のデータを生成し、それを表示部217に供給し、表示させる。
ステップS432の処理が終了すると、コンテンツ再生処理が終了する。
以上のようにコンテンツ再生処理を行うことにより、クライアント装置200は、MPDファイルに含まれるsub-pictureの表示領域に関する情報を利用して、より容易にストリームを選択することができる。例えば、クライアント装置200は、その情報に基づいて、自身の能力(capability)等に応じた適切なストリームをより容易に選択し、再生することができる。
<MPDファイルにおけるステレオ情報のシグナル詳細>
例えば、2D coverage information descriptorを拡張し、第3の実施の形態において説明した場合と同様に、stereo_presentation_suitableフィールド、およびview情報をシグナルするようにしてもよい。
つまり、MPDファイルは、サブピクチャのビュータイプを示すビュー情報をさらに含むようにしてもよい。
また、そのビュー情報は、サブピクチャに含まれる領域毎の情報であるようにしてもよい。
さらに、MPDファイルは、そのビュー情報が領域毎に存在するかを示す情報をさらに含むようにしてもよい。
図69の属性値551および図70の属性値552は、拡張した2D coverage information descriptorの属性値の例を示す。属性値551および属性値552に示されるように、twoDCoverageは、データタイプがomaf:twoDCoverageTypeであるコンテナ要素である。twoDCoverage@stereo_presentation_suitableは、データタイプがomaf:StereoPresentationTypeであり、Adaptation Setがステレオ表示可能かどうか示す。例えば、この属性値が0の場合、Adaptation Setが参照するピクチャがモノであるか、または、ステレオ表示不可能であることを示す。また、この属性値が1の場合、Adaptation Setが参照するピクチャは、一部の領域のステレオ表示が可能であることを示す。また、この属性値が2の場合、Adaptation Setが参照するピクチャは、全ての領域のステレオ表示が可能であることを示す。
twoDCoverage@view_idc_presence_flagは、データタイプがxs:booleanであり、各領域に個別のview_idcが存在するか否かを示す。例えばこの属性値が0の場合、各領域に個別のview_idcが存在しないことを示す。また、この属性値が1の場合、各領域に個別のview_idcが存在することを示す。twoDCoverage@default_view_idcは、データタイプがomaf:ViewTypeであり、領域全てに共通なviewを示す。例えば、この属性値が0の場合、mono viewであることを示し、この属性値が1の場合、left viewであることを示し、この属性値が2の場合、right viewであることを示し、この属性値が3の場合、stereo viewであることを示す。なお、twoDCoverage@view_idc_presence_flag=0のとき、この属性は必ず存在する。また、twoDCoverage@view_idc_presence_flag=1のとき、この属性は存在してはいけない。
twoDCoverage@proj_picture_widthは、データタイプがxs:unsignedIntであり、projected pictureの幅を示す。twoDCoverage@proj_picture_heightは、データタイプがxs:unsignedIntであり、projected pictureの高さを示す。twoDCoverage.twoDCoverageInfoは、データタイプがomaf:twoDCoverageInfoTypeであり、projected picture上における領域情報を示す要素である。この要素は、複数シグナルすることができる。
twoDCoverage.twoDCoverageInfo@view_idcは、データタイプがomaf:ViewTypeであり、領域ごとのviewを示す。例えば、この属性値が0の場合、mono viewであることを示し、この属性値が1の場合、left viewであることを示し、この属性値が2の場合、right viewであることを示し、この属性値が3の場合、stereo viewであることを示す。なお、twoDCoverage@view_idc_presence_flag=0のとき、この属性は存在してはいけない。また、twoDCoverage@view_idc_presence_flag=1のとき、この属性は必ず存在する。
twoDCoverage.twoDCoverageInfo@proj_reg_widthは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の幅を示す。twoDCoverage.twoDCcoverageInfo@proj_reg_heightは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の高さを示す。
twoDCoverage.twoDCoverageInfo@proj_reg_topは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域の垂直方向座標を示す。twoDCoverage.twoDCoverageInfo@proj_reg_leftは、データタイプがxs:unsignedIntであり、Adaptation Setが参照するpictureが対応する、projected picture上における領域水平方向座標を示す。
図71のデータタイプ553は、この場合のデータタイプの定義の例を示す。
なお、第2の実施の形態において説明した、拡張したRegion-wise packing descriptorおよびContent coverage descriptorをさらに拡張し、stereo_presentation_suitableおよびview情報をシグナルするようにしてもよい。また、その他のdescriptorを用いてこれらの情報をシグナルするようにしてもよい。
<6.付記>
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図72は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
図72に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
<本技術の適用対象>
以上においては、ISOBMFFファイルまたはMPDファイルに本技術を適用する場合について説明したが、本技術は、これらの例に限らず、立体構造画像を単数の平面にマッピングした投影平面画像のストリームを配信する、任意の規格のファイルに対して適用することができる。つまり、上述した本技術と矛盾しない限り、配信制御、ファイル形式、符号化・復号方式等の各種処理の仕様は任意である。また、本技術と矛盾しない限り、上述した一部の処理や仕様を省略してもよい。
また、以上においては、本技術の適用例としてファイル生成装置100やクライアント装置200について説明したが、本技術は、任意の構成に適用することができる。
例えば、本技術は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、およびセルラー通信による端末への配信などにおける送信機や受信機(例えばテレビジョン受像機や携帯電話機)、または、光ディスク、磁気ディスクおよびフラッシュメモリなどの媒体に画像を記録したり、これら記憶媒体から画像を再生したりする装置(例えばハードディスクレコーダやカメラ)などの、様々な電子機器に適用され得る。
また、例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、または、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等、装置の一部の構成として実施することもできる。
また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
<本技術を適用可能な分野・用途>
本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。
<その他>
なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
また、符号化データ(ビットストリーム)に関する各種情報(メタデータ等)は、符号化データに関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
なお、本技術は以下のような構成も取ることができる。
(1) 格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、前記サブピクチャが符号化された画像符号化データを含むファイルを生成するファイル生成部
を備える情報処理装置。
(2) 前記ピクチャは、全天球映像である
(1)に記載の情報処理装置。
(3) 前記領域に関する情報は、前記サブピクチャ毎の情報として前記ファイルに含まれる
(1)または(2)に記載の情報処理装置。
(4) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記ピクチャ領域ごとの配置情報は、Region Wise Packing Boxにシグナルされる情報であり、
前記領域に関する情報は、Region Wise Packing Boxとは異なる、前記ISOBMFFファイルのScheme Information Box、または、前記Scheme Information Boxの下階層のBoxに格納される
(3)に記載の情報処理装置。
(5) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、トラックの球面上における表示領域を示すCoverage Information Boxに格納される
(3)に記載の情報処理装置。
(6) 前記領域に関する情報は、ストリーム中で動的に変化する
(1)乃至(5)のいずれかに記載の情報処理装置。
(7) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、Supplemental Enhancement information messageに格納される
(6)に記載の情報処理装置。
(8) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、timed metadataに格納される
(6)に記載の情報処理装置。
(9) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、Sample Group Entryに格納される
(6)に記載の情報処理装置。
(10) 格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、前記サブピクチャが符号化された画像符号化データを含むファイルを生成する
情報処理方法。
(11) 格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、前記サブピクチャが符号化された画像符号化データを含むファイルを取得するファイル取得部と、
前記ファイル取得部により取得された前記ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。
(12) 前記ピクチャは、全天球映像である
(11)に記載の情報処理装置。
(13) 前記領域に関する情報は、前記サブピクチャ毎の情報として前記ファイルに含まれる
(11)または(12)に記載の情報処理装置。
(14) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、前記ISOBMFFファイルのScheme Information Box、または、前記Scheme Information Boxの下階層のBoxに格納される
(13)に記載の情報処理装置。
(15) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、トラックの球面上における表示領域を示すCoverage Information Boxに格納される
(13)に記載の情報処理装置。
(16) 前記領域に関する情報は、ストリーム中で動的に変化する
(11)乃至(15)のいずれかに記載の情報処理装置。
(17) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、Supplemental Enhancement information messageに格納される
(16)に記載の情報処理装置。
(18) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、timed metadataに格納される
(16)に記載の情報処理装置。
(19) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、Sample Group Entryに格納される
(16)に記載の情報処理装置。
(20) 格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、前記サブピクチャが符号化された画像符号化データを含むファイルを取得し、
取得された前記ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
(21) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、前記ピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを生成するファイル生成部
を備える情報処理装置。
(22) 前記ピクチャは、全天球映像である
(21)に記載の情報処理装置。
(23) 前記ステレオ情報は、前記サブピクチャ毎の情報として前記ファイルに含まれる
(21)または(22)に記載の情報処理装置。
(24) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記ステレオ情報は、前記ISOBMFFファイルのScheme Information Box、または、前記Scheme Information Boxの下階層のBoxに格納される
(23)に記載の情報処理装置。
(25) 前記ファイルは、前記サブピクチャの表示サイズに関する情報をさらに含む
(21)乃至(24)のいずれかに記載の情報処理装置。
(26) 前記ファイルは、前記サブピクチャ毎のステレオ表示に関する情報であるサブステレオ情報をさらに含む
(21)乃至(25)のいずれかに記載の情報処理装置。
(27) 前記ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
(21)乃至(26)のいずれかに記載の情報処理装置。
(28) 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
(27)に記載の情報処理装置。
(29) 前記ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
(28)に記載の情報処理装置。
(30) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、前記ピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを生成する
情報処理方法。
(31) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、前記ピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを取得するファイル取得部と、
前記ファイル取得部により取得された前記ファイルに含まれる前記ステレオ情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。
(32) 前記ピクチャは、全天球映像である
(31)に記載の情報処理装置。
(33) 前記ステレオ情報は、前記サブピクチャ毎の情報として前記ファイルに含まれる
(31)または(32)に記載の情報処理装置。
(34) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記ステレオ情報は、前記ISOBMFFファイルのScheme Information Box、または、前記Scheme Information Boxの下階層のBoxに格納される
(33)に記載の情報処理装置。
(35) 前記ファイルは、前記サブピクチャの表示サイズに関する情報をさらに含む
(31)乃至(34)のいずれかに記載の情報処理装置。
(36) 前記ファイルは、前記サブピクチャ毎のステレオ表示に関する情報であるサブステレオ情報をさらに含む
(31)乃至(35)のいずれかに記載の情報処理装置。
(37) 前記ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
(31)乃至(36)のいずれかに記載の情報処理装置。
(38) 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
(37)に記載の情報処理装置。
(39) 前記ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
(38)に記載の情報処理装置。
(40) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、前記ピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを取得し、
取得された前記ファイルに含まれる前記ステレオ情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
(41) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成するファイル生成部
を備える情報処理装置。
(42) 前記ピクチャは、全天球映像である
(41)に記載の情報処理装置。
(43) 前記領域に関する情報は、前記サブピクチャ毎の情報として前記制御ファイルに含まれる
(41)または(42)に記載の情報処理装置。
(44) 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのSupplemental PropertyまたはEssential Propertyに定義される
(43)に記載の情報処理装置。
(45) 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのContent coverage descriptorに定義される
(43)に記載の情報処理装置。
(46) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成する
情報処理方法。
(51) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得するファイル取得部と、
前記ファイル取得部により取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。
(52) 前記ピクチャは、全天球映像である
(51)に記載の情報処理装置。
(53) 前記領域に関する情報は、前記サブピクチャ毎の情報として前記制御ファイルに含まれる
(51)または(52)に記載の情報処理装置。
(54) 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのSupplemental PropertyまたはEssential Propertyに定義される
(53)に記載の情報処理装置。
(55) 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのContent coverage descriptorに定義される
(53)に記載の情報処理装置。
(56) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得し、
取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
(61) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、前記アダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成するファイル生成部
を備える情報処理装置。
(62) 前記ピクチャは、全天球映像である
(61)に記載の情報処理装置。
(63) 前記制御ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
(61)または(62)に記載の情報処理装置。
(64) 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
(63)に記載の情報処理装置。
(65) 前記制御ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
(63)または(64)に記載の情報処理装置。
(66) 前記制御ファイルは、アダプテーションセットがステレオ表示可能かどうか示す情報をさらに含む
(63)乃至(65)のいずれかに記載の情報処理装置。
(67) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、前記アダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成する
情報処理方法。
(71) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、前記アダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得するファイル取得部と、
前記ファイル取得部により取得された前記制御ファイルに含まれる前記ステレオ情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。
(72) 前記ピクチャは、全天球映像である
(71)に記載の情報処理装置。
(73) 前記制御ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
(71)または(72)に記載の情報処理装置。
(74) 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
(73)に記載の情報処理装置。
(75) 前記制御ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
(73)または(74)に記載の情報処理装置。
(76) 前記制御ファイルは、アダプテーションセットがステレオ表示可能かどうか示す情報をさらに含む
(73)乃至(75)のいずれかに記載の情報処理装置。
(77) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、前記アダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得し、
取得された前記制御ファイルに含まれる前記ステレオ情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
100 ファイル生成装置, 101 制御部, 102 メモリ, 103 ファイル生成部, 111 データ入力部, 112 データ符号化・生成部, 113 MPDファイル生成部, 114 記録部, 115 アップロード部, 121 前処理部, 122 エンコード部, 123 セグメントファイル生成部, 200 クライアント装置, 201 制御部, 202 メモリ, 203 再生処理部, 211 計測部, 212 MPDファイル取得部, 213 MPDファイル処理部, 214 セグメントファイル取得部, 215 表示制御部, 216 データ解析・復号部, 217 表示部, 221 セグメントファイル処理部, 222 デコード部, 223 表示情報生成部, 900 コンピュータ

Claims (20)

  1. 全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成するファイル生成部
    を備える情報処理装置。
  2. 前記全体ピクチャは、全天球映像である
    請求項1に記載の情報処理装置。
  3. 前記領域に関する情報は、前記サブピクチャ毎の情報として前記制御ファイルに含まれる
    請求項1に記載の情報処理装置。
  4. 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
    前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
    前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
    前記領域に関する情報は、前記MPDファイルのSupplemental PropertyまたはEssential Propertyに定義される
    請求項3に記載の情報処理装置。
  5. 前記制御ファイルは、アダプテーションセットのステレオ表示に関する情報であるステレオ情報をさらに含む
    請求項1に記載の情報処理装置。
  6. 前記全体ピクチャは、全天球映像である
    請求項5に記載の情報処理装置。
  7. 前記制御ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
    請求項1に記載の情報処理装置。
  8. 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
    請求項7に記載の情報処理装置。
  9. 前記制御ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
    請求項8に記載の情報処理装置。
  10. 前記制御ファイルは、アダプテーションセットがステレオ表示可能かどうか示す情報をさらに含む
    請求項7のいずれかに記載の情報処理装置。
  11. 全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成する
    情報処理方法。
  12. 全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得するファイル取得部と、
    前記ファイル取得部により取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
    を備える情報処理装置。
  13. 前記全体ピクチャは、全天球映像である
    請求項12に記載の情報処理装置。
  14. 前記領域に関する情報は、前記サブピクチャ毎の情報として前記制御ファイルに含まれる
    請求項12に記載の情報処理装置。
  15. 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
    前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
    前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
    前記領域に関する情報は、前記MPDファイルのSupplemental PropertyまたはEssential Propertyに定義される
    請求項14に記載の情報処理装置。
  16. 前記制御ファイルは、アダプテーションセットのステレオ表示に関する情報であるステレオ情報をさらに含む
    請求項12に記載の情報処理装置。
  17. 前記全体ピクチャは、全天球映像である
    請求項16に記載の情報処理装置。
  18. 前記制御ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
    請求項12に記載の情報処理装置。
  19. 前記制御ファイルは、アダプテーションセットがステレオ表示可能かどうか示す情報をさらに含む
    請求項18のいずれかに記載の情報処理装置。
  20. 全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得し、
    取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う
    情報処理方法。
JP2019564651A 2018-01-12 2018-12-28 情報処理装置および方法 Active JP7396047B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023194210A JP2024003189A (ja) 2018-01-12 2023-11-15 情報処理装置および方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018003796 2018-01-12
JP2018003796 2018-01-12
JP2018127665 2018-07-04
JP2018127665 2018-07-04
PCT/JP2018/048424 WO2019138929A1 (ja) 2018-01-12 2018-12-28 情報処理装置および方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023194210A Division JP2024003189A (ja) 2018-01-12 2023-11-15 情報処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2019138929A1 true JPWO2019138929A1 (ja) 2021-01-21
JP7396047B2 JP7396047B2 (ja) 2023-12-12

Family

ID=67218624

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019564651A Active JP7396047B2 (ja) 2018-01-12 2018-12-28 情報処理装置および方法
JP2023194210A Pending JP2024003189A (ja) 2018-01-12 2023-11-15 情報処理装置および方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023194210A Pending JP2024003189A (ja) 2018-01-12 2023-11-15 情報処理装置および方法

Country Status (11)

Country Link
US (2) US20210084282A1 (ja)
EP (1) EP3734982A4 (ja)
JP (2) JP7396047B2 (ja)
KR (1) KR20200107945A (ja)
CN (1) CN111567057B (ja)
BR (1) BR112020013705A2 (ja)
MX (1) MX2020007074A (ja)
RU (1) RU2020122086A (ja)
SG (1) SG11202005090TA (ja)
TW (1) TW201937937A (ja)
WO (1) WO2019138929A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220114088A (ko) * 2019-12-31 2022-08-17 노키아 테크놀로지스 오와이 비디오 인코딩 및 비디오 디코딩을 위한 방법, 장치 및 컴퓨터 프로그램 제품
JPWO2022210661A1 (ja) * 2021-03-30 2022-10-06

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015008775A1 (ja) * 2013-07-19 2015-01-22 ソニー株式会社 情報処理装置および方法
WO2017202699A1 (en) * 2016-05-23 2017-11-30 Canon Kabushiki Kaisha Method, device, and computer program for adaptive streaming of virtual reality media content
JP2019024197A (ja) * 2017-07-07 2019-02-14 ノキア テクノロジーズ オーユー ビデオの符号化・復号の方法、装置、およびコンピュータプログラムプロダクト
JP2019062390A (ja) * 2017-09-26 2019-04-18 キヤノン株式会社 情報処理装置、情報提供装置、制御方法、及びプログラム
JP2020521348A (ja) * 2017-10-24 2020-07-16 エルジー エレクトロニクス インコーポレイティド 魚眼ビデオ情報を含む360度ビデオを送受信する方法及びその装置
JP2020537367A (ja) * 2017-10-12 2020-12-17 キヤノン株式会社 メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4266737B2 (ja) * 2003-07-31 2009-05-20 キヤノン株式会社 画像処理方法および装置
JP2006107163A (ja) * 2004-10-06 2006-04-20 Konica Minolta Photo Imaging Inc 受付端末及びファイル編集プログラム並びに注文処理方法
JP4993578B2 (ja) * 2007-01-15 2012-08-08 オリンパスイメージング株式会社 画像ファイル再生装置,画像ファイル加工編集装置
KR100962696B1 (ko) * 2007-06-07 2010-06-11 주식회사 이시티 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법
EP2395772A3 (en) * 2008-09-30 2013-09-18 Panasonic Corporation Glasses and display device
JP5089658B2 (ja) * 2009-07-16 2012-12-05 株式会社Gnzo 送信装置及び送信方法
JP5144789B2 (ja) * 2011-06-24 2013-02-13 楽天株式会社 画像提供装置、画像処理方法、画像処理プログラム及び記録媒体
CN104113632B (zh) * 2013-04-22 2016-12-28 联想(北京)有限公司 一种信息处理方法及电子设备
EP3148200B1 (en) * 2014-06-30 2020-06-17 Sony Corporation Information processing device and method selecting content files based on encoding parallelism type
EP3451675A4 (en) * 2016-04-26 2019-12-04 LG Electronics Inc. -1- METHOD FOR TRANSFERRING 360 DEGREE VIDEOS, METHOD FOR RECEIVING 360 DEGREE VIDEOS, DEVICE FOR TRANSMITTING 360 DEGREE VIDEOS AND DEVICE FOR RECEIVING 360 DEGREE VIDEOS
US10554981B2 (en) * 2016-05-10 2020-02-04 Qualcomm Incorporated Methods and systems for generating regional nesting messages for video pictures
US10547879B2 (en) 2016-07-14 2020-01-28 Mediatek Inc. Method and apparatus for streaming video content
WO2018043905A1 (ko) * 2016-08-29 2018-03-08 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
KR102305633B1 (ko) 2017-03-17 2021-09-28 엘지전자 주식회사 퀄리티 기반 360도 비디오를 송수신하는 방법 및 그 장치
US10523913B2 (en) * 2017-06-30 2019-12-31 Apple Inc. Packed image format for multi-directional video
US10587883B2 (en) * 2017-07-14 2020-03-10 Qualcomm Incorporated Region-wise packing, content coverage, and signaling frame packing for media content
KR102188270B1 (ko) * 2018-07-06 2020-12-09 엘지전자 주식회사 360 비디오 데이터의 서브픽처 기반 처리 방법 및 그 장치
WO2020050577A1 (ko) * 2018-09-07 2020-03-12 엘지전자 주식회사 비디오 송신 방법, 비디오 송신 장치, 비디오 수신 방법 및 비디오 수신 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015008775A1 (ja) * 2013-07-19 2015-01-22 ソニー株式会社 情報処理装置および方法
WO2017202699A1 (en) * 2016-05-23 2017-11-30 Canon Kabushiki Kaisha Method, device, and computer program for adaptive streaming of virtual reality media content
JP2019024197A (ja) * 2017-07-07 2019-02-14 ノキア テクノロジーズ オーユー ビデオの符号化・復号の方法、装置、およびコンピュータプログラムプロダクト
JP2019062390A (ja) * 2017-09-26 2019-04-18 キヤノン株式会社 情報処理装置、情報提供装置、制御方法、及びプログラム
JP2020537367A (ja) * 2017-10-12 2020-12-17 キヤノン株式会社 メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム
JP2020521348A (ja) * 2017-10-24 2020-07-16 エルジー エレクトロニクス インコーポレイティド 魚眼ビデオ情報を含む360度ビデオを送受信する方法及びその装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"DRAFT GUIDELINES", vol. Version 0.0 draft 010, JPN6019003919, 8 October 2017 (2017-10-08), pages 1 - 68, ISSN: 0004953527 *
R. SKUPIN, ET AL.: ""Standardization Status of 360 degree Video Coding and Delivery"", PROCEEDINGS OF 2017 IEEE VISUAL COMMUNICATIONS AND IMAGE PROCESSING (VCIP), JPN6019003911, 13 December 2017 (2017-12-13), pages 1 - 4, XP033325761, ISSN: 0004953528, DOI: 10.1109/VCIP.2017.8305083 *

Also Published As

Publication number Publication date
CN111567057A (zh) 2020-08-21
EP3734982A4 (en) 2020-11-25
JP7396047B2 (ja) 2023-12-12
WO2019138929A1 (ja) 2019-07-18
BR112020013705A2 (pt) 2020-12-01
US11729366B2 (en) 2023-08-15
KR20200107945A (ko) 2020-09-16
EP3734982A1 (en) 2020-11-04
SG11202005090TA (en) 2020-06-29
MX2020007074A (es) 2020-09-09
JP2024003189A (ja) 2024-01-11
RU2020122086A (ru) 2022-01-04
CN111567057B (zh) 2022-11-04
US20220224874A1 (en) 2022-07-14
TW201937937A (zh) 2019-09-16
US20210084282A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
JP6960528B2 (ja) メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム
KR102559862B1 (ko) 미디어 콘텐츠 전송을 위한 방법, 디바이스, 및 컴퓨터 프로그램
US20240040170A1 (en) Method, device, and computer program for transmitting media content
US11582496B2 (en) Method, device, and computer program for transmitting media content
JP7487742B2 (ja) 画像処理装置および方法
JP2020529149A (ja) イメージ処理方法、端末およびサーバ
JP2024003189A (ja) 情報処理装置および方法
WO2021251173A1 (ja) 情報処理装置および方法
WO2019138928A1 (ja) 情報処理装置および方法
JP2019125865A (ja) 情報処理装置および方法
WO2019138927A1 (ja) 情報処理装置および方法
WO2023169003A1 (zh) 点云媒体的解码方法、点云媒体的编码方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R151 Written notification of patent or utility model registration

Ref document number: 7396047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151