JPWO2019138929A1 - 情報処理装置および方法 - Google Patents
情報処理装置および方法 Download PDFInfo
- Publication number
- JPWO2019138929A1 JPWO2019138929A1 JP2019564651A JP2019564651A JPWO2019138929A1 JP WO2019138929 A1 JPWO2019138929 A1 JP WO2019138929A1 JP 2019564651 A JP2019564651 A JP 2019564651A JP 2019564651 A JP2019564651 A JP 2019564651A JP WO2019138929 A1 JPWO2019138929 A1 JP WO2019138929A1
- Authority
- JP
- Japan
- Prior art keywords
- picture
- information
- sub
- file
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title abstract description 116
- 238000012545 processing Methods 0.000 claims abstract description 124
- 238000012856 packing Methods 0.000 claims description 108
- 230000006978 adaptation Effects 0.000 claims description 86
- 230000000153 supplemental effect Effects 0.000 claims description 15
- 238000003672 processing method Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 description 84
- 238000005516 engineering process Methods 0.000 description 51
- 230000006870 function Effects 0.000 description 25
- 239000000203 mixture Substances 0.000 description 22
- 230000008520 organization Effects 0.000 description 15
- 238000005259 measurement Methods 0.000 description 14
- 238000007405 data analysis Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000013507 mapping Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 11
- 230000011664 signaling Effects 0.000 description 11
- 238000009877 rendering Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 244000144972 livestock Species 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100386623 Mus musculus Amd2 gene Proteins 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/23439—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
- H04N13/359—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234345—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26258—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/61—Network physical structure; Signal processing
- H04N21/6106—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
- H04N21/6125—Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
1.sub-pictureに関する情報のシグナル
2.第1の実施の形態(sub-pictureの表示領域のシグナル、ISOBMFFの拡張)
3.第2の実施の形態(sub-pictureの表示領域のシグナル、MPDの拡張)
4.第3の実施の形態(全体ピクチャのステレオ情報のシグナル、ISOBMFFの拡張)
5.第4の実施の形態(全体ピクチャのステレオ情報のシグナル、MPDの拡張)
6.付記
<技術内容・技術用語をサポートする文献等>
本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の非特許文献に記載されている内容も含まれる。
非特許文献2:(上述)
非特許文献3:(上述)
非特許文献4:(上述)
従来、例えば非特許文献1や非特許文献2に記載のように、HTTP(Hypertext Transfer Protocol)プロトコルによるアダプティブなコンテンツ配信技術の標準化規格として、MPEG-DASH(Moving Picture Experts Group - Dynamic Adaptive Streaming over HTTP)がある。
ところで、所謂全天球映像のように、水平方向の周囲360度および垂直方向の周囲180度の画像を立体構造に投影した立体構造画像を、平面画像にマッピングした投影平面画像がある。例えば、視点から見た周辺の画像(全天球映像)をその視点を中心とする立体構造にレンダリングして立体構造画像とすることにより、視点の周辺の画像をより自然に表現したり、その立体構造画像から所望の視線方向の画像を容易に生成したりすることができる。
図1のBox階層構造11は、全天球映像をsub-picture track化する場合のISOBMFFファイルのBox階層構造の例を示す。
その為、トラック(track)がsub-picture trackであるか、sub-picture化がなされていない通常のtrackであるかによって、クライアントがそのtrackの画像の、投影平面画像(projected picture)上における表示領域を識別するための処理が異なる。例えば、sub-picture trackを選択・再生する場合、sub-picture trackのprojected picture上の表示領域を識別するために、Sub Picture Composition Boxをパースし、region-wise packing情報とsub-picture分割情報とを識別する必要がある。これに対して、sub-picture trackではないtrackを選択・再生する場合、この処理は不要である。
また、ステレオ全天球映像の全体ピクチャをsub-picture化した場合、全体ピクチャのステレオ情報(全体ピクチャがどのような種類の立体視表示用画像であるか等)を示すStereo Video Boxは、Sub Picture Composition Boxにシグナルされ、sub-pictureのステレオ情報(sub-pictureがどのような種類の立体視表示用画像であるか等)を示すStereo Video Boxは、trackのSample EntryのScheme Information Box下にシグナルされる。これに対して、sub-picture化がなされていない場合、Stereo Video Boxは、Scheme Information Box下のみにシグナルされ、trackに格納されたピクチャのステレオ情報を有する。
そこで、全体ピクチャをサブピクチャ(sub-picture)化する場合、そのsub-pictureの表示領域に関する情報をシグナルする(コンテンツの再生側に提供する)ようにする。表示領域とは、全体ピクチャにおける領域のことを示す。すなわち、sub-pictureの表示領域に関する情報とは、そのsub-pictureに対応するピクチャ全体における領域に関する情報、つまり、sub-pictureが全体ピクチャのどの部分の画像であるかを示す情報である。この情報により、例えば、sub-pictureに対応する領域の位置、大きさ、形状等が示される。領域の表現方法は任意であり、例えば、領域の範囲が座標等により示されるようにしてもよい。
また、sub-picture化されるピクチャ全体のステレオ表示に関する情報であるステレオ情報をシグナルするようにする。このようにすることにより、コンテンツを再生するクライアントは、この情報に基づいて全体ピクチャがステレオ画像(立体視用画像)であるか否かや、ステレオ画像である場合はその種類(タイプ)等を容易に把握することができる。これにより、クライアントは、sub-pictureに含まれる画像がどのような画像であるか(例えばどのようなタイプのステレオ画像(またはモノ画像(単視点画像))のどの部分に対応するのか等)を容易に把握することができる。
次に、sub-pictureに関するシグナルを行う装置の構成について説明する。図11は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図11に示されるファイル生成装置100は、ISOBMFFファイル(セグメントファイル)やMPDファイルを生成する装置である。例えば、ファイル生成装置100は、非特許文献1乃至非特許文献4に記載されている技術を実装し、MPEG-DASHに準拠した方法で、ストリームを含むISOBMFFファイルや、ストリームの配信制御に用いられる制御ファイルであるMPDファイルを生成し、それらのファイルを、ネットワークを介して、それらのファイルを配信するサーバにアップロード(送信)する。
図12は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図12に示されるクライアント装置200は、MPDファイルやセグメントファイル(例えばISOBMFFファイル)を取得し、それらのファイルに基づいて、コンテンツを再生する装置である。例えば、クライアント装置200は、非特許文献1乃至非特許文献4に記載されている技術を実装し、MPEG-DASHに準拠した方法でセグメントファイルをサーバ(または上述のファイル生成装置100)より取得し、そのセグメントファイルに含まれるストリーム(コンテンツ)を再生する。その際、クライアント装置200は、MPDファイルをサーバ(または上述のファイル生成装置100)より取得し、そのMPDファイルを利用して所望のセグメントファイルを選択し、サーバより取得するようにしてもよい。
<ISOBMFFによるsub-pictureの表示領域情報のシグナル>
上述したsub-pictureの表示領域に関する情報のシグナルを、セグメントファイルであるISOBMFFファイルにおいて行うようにしてもよい。
その場合の図11のファイル生成装置100により実行されるアップロード処理の流れの例を、図14のフローチャートを参照して説明する。
また、ISOBMFFファイルにシグナルされたsub-pictureの表示領域に関する情報を利用してストリームの選択や再生を行うようにしてもよい。
その場合のクライアント装置200により実行されるコンテンツ再生処理の流れの例を、図15のフローチャートを参照して説明する。
上述のように、ファイル生成装置100のセグメントファイル生成部123は、OMAFのISOBMFFファイルにおいて、sub-pictureがprojected pictureにおいてどの部分の表示に相当するかを示すsub-pictureの表示領域情報を新規定義し、trackにシグナルする。つまり、セグメントファイル生成部123は、sub-pictureの表示領域情報をサブピクチャ毎の情報として定義する。
なお、図16のシンタックス331では、図19のようにsub-pictureがprojected picture上で不連続となる領域を含む場合には対応することができない。図19の例の場合、projected picture351がsub-picture化されて、sub-picture352乃至sub-picture355が形成される。この場合、sub-picture352には、立体構造画像におけるLeft面およびRight面が含まれている(Left面およびRight面が隣接している)。このLeft面およびRight面は、projected picture351において不連続である。また、sub-picture353には、立体構造画像におけるTop面およびBottom面が含まれている(Top面およびBottom面が隣接している)。このTop面およびBottom面は、projected picture351において不連続である。
OMAFで規定されているRegion Wise Packing Box内のRegion Wise Packing Structを拡張し、trackのsub-pictureが、projected pictureのどの部分の表示領域に相当するかをシグナルするようにしてもよい。Region Wise Packing Boxのシグナル場所は、sub-picture trackのSample EntryのProjected Omnidirectional Video Box下である。なお、このRegion Wise Packing Boxが、その他の場所にシグナルされるようにしてもよい。
OMAFで定義されたtrackの球面上における表示領域を示すCoverage Information Boxを拡張し、新たに定義する2D Content Coverage Structによりprojected picture上における表示領域をシグナル可能にするようにしてもよい。
以上においては、sub-pictureの分割方法がストリーム中で動的に変化しない場合のシグナリングについて説明した。これに対して、分割方法が動的に変化する場合、projected pictureにおけるsub-pictureの表示領域情報がストリーム中で動的に変化する。その場合、上述の例では対応することができない。
HEVC、AVCにおいて、2D Coverage Information SEI messageを新規定義し、その中において、ストリーム中で動的に変化するsub-pictureの表示領域情報をアクセスユニット単位でシグナルするようにしてもよい。
また、時系列で変化するメタデータを格納するストリームであるtimed metadataの仕組みを利用し、2D Coverage Information timed metadataを新規定義し、その中において、参照するストリーム内で動的に変化するsub-pictureの表示領域情報をシグナルするようにしてもよい。2D Coverage Information timed metadataが紐づくtrackに対するtrack reference typeとしては、例えば'2dco'を用いる。
ISOBMFFで定義される、sample単位でメタ情報を紐づける仕組みであるSample Groupというツールを使用して、ストリーム内で動的に変化するsub-pictureの表示領域情報を、sample単位でシグナルするようにしてもよい。
<MPDファイルによるsub-pictureの表示領域に関する情報のシグナル>
上述したsub-pictureの表示領域に関する情報のシグナルを、MPDファイルにおいて行うようにしてもよい。つまり、クライアントが、sub-pictureを参照するAdaptation Setを例えばユーザの視野に応じて選択・再生することを可能にするために、MPDファイルにおいて、sub-pictureのprojected picture上における表示領域情報を新規定義し、Adaptation Setにシグナルするようにしてもよい。
その場合の図11のファイル生成装置100により実行されるアップロード処理の流れの例を、図36のフローチャートを参照して説明する。
また、MPDファイルにシグナルされたsub-pictureの表示領域に関する情報を利用してストリームの選択を行うようにしてもよい。
その場合のクライアント装置200により実行されるコンテンツ再生処理の流れの例を、図37のフローチャートを参照して説明する。
上述のように、ファイル生成装置100のMPDファイル生成部113は、OMAFのMPDファイルにおいて、Adaptation setが参照するsub-pictureがprojected pictureにおいてどの部分の表示に相当するかを示すsub-pictureの表示領域情報を新規定義し、シグナルする。つまり、MPDファイル生成部113は、sub-pictureの表示領域情報をサブピクチャ毎の情報として定義する。
なお、上記の例では、sub-pictureがprojected picture上で不連続となる領域を含む場合の表示領域情報をシグナルできない。そこで、2D Coverage Information descriptorが、sub-pictureがprojected picture上で不連続となる領域を含む場合にも対応することができるようにしてもよい。
OMAFで定義されているRegion-wise packing descriptorを拡張し、Adaptation Setが参照するsub-pictureの、projected picture上における表示領域情報をシグナルするようにしてもよい。
また、OMAFで定義された、Adaptation Setの球面上における表示領域を示すContent coverage descriptorを拡張し、projected picture上における表示領域をシグナル可能にするようにしてもよい。
なお、ストリーム中でprojected pictureにおける表示領域が動的に変化する場合、上述のシグナリングに加え、2D coverage information descriptor, region-wise packing descriptorおよびContent coverage descriptorに追加でフラグをシグナルし、projected pictureにおける表示領域が動的に変化するストリームであることを示すようにしてもよい。
<ステレオ情報のシグナル>
<1.sub-pictureに関する情報のシグナル>の<ステレオ情報の識別>において上述したように、ステレオ全天球映像の全体ピクチャをsub-picture化した場合、全体ピクチャのステレオ情報はSub Picture Composition Box下にシグナルされるStereo Video Boxでシグナルされ、sub-pictureのステレオ情報はSample EntryのScheme Information Box下のStereo Video Boxでシグナルされる。
そこで、sub-picture化されるピクチャ全体のステレオ表示に関する情報であるステレオ情報を、セグメントファイルであるISOBMFFファイルにおいて行うようにしてもよい。
その場合の図11のファイル生成装置100により実行されるアップロード処理の流れの例を、図51のフローチャートを参照して説明する。
また、ISOBMFFファイルにシグナルされた、sub-picture化される全体ピクチャのステレオ情報を利用してストリームの選択や再生を行うようにしてもよい。
その場合のクライアント装置200により実行されるコンテンツ再生処理の流れの例を、図52のフローチャートを参照して説明する。
例えば、分割前の全体ピクチャがステレオ画像である場合、ファイル生成装置100のセグメントファイル生成部123が、sub-picture trackのSample Entryにおいて、全体ピクチャのステレオ情報をシグナルするようにしてもよい。
例えば、分割前の全体ピクチャのステレオ情報をシグナルするために、ファイル生成装置100のセグメントファイル生成部123が、Original Stereo Video Boxを新規定義し、sub-picture trackのSample EntryのScheme Information Box(schi)の下に、そのBoxをシグナルするようにしてもよい。つまり、このOriginal Stereo Video Boxに、分割前の全体ピクチャのステレオ情報が格納されるようにしてもよい。
さらに、ステレオである全体ピクチャを分割して生成したモノsub-picture(モノピクチャであるsub-picture)を格納するsub-picture trackのTrack Headerのwidthおよびheightに、全体ピクチャのフレームパッキングアレンジメントをもとにupscaleした表示サイズをシグナルするようにしてもよい。
また、sub-picture trackのSample EntryのRestricted Scheme Information Box(rinf)下に、Original Scheme Information Boxを新規定義し、そのBox内に分割前の全体ピクチャのステレオ情報をシグナルするようにしてもよい。なお、Original Scheme Information Boxを定義する場所は、任意であり、上述のrinfに限定されない。
さらに、2D Coverage Information Boxを拡張し、track選択を容易にするステレオ関連情報をシグナルするようにしてもよい。
また、2D Coverage Information Boxを拡張し、sub-pictureのprojected picture上における表示領域に対し、view情報を追加でシグナルするようにしてもよい。この情報を参照することで、クライアント装置200は、第3の実施の形態において上述した全体ピクチャのステレオ情報と、第3の実施の形態において定義した2D Coverage Information Boxでシグナルされるprojected picture上における領域情報から各領域のview情報を識別する処理を行わずとも、sub-pictureがモノ画像であるか、L viewおよびR viewを含むのかを容易に識別することができる。
<MPDファイルによるsub-picture化される全体ピクチャのステレオ情報のシグナル>
上述したsub-picture化される全体ピクチャのステレオ情報のシグナルを、MPDファイルにおいて行うようにしてもよい。つまり、クライアントが、sub-pictureを参照するAdaptation Setを例えばクライアントの能力(capability)に応じて選択・再生することを可能にするために、MPDファイルにおいて、sub-picture化される全体ピクチャのステレオ情報を新規定義し、Adaptation Setにシグナルするようにしてもよい。
その場合の図11のファイル生成装置100により実行されるアップロード処理の流れの例を、図67のフローチャートを参照して説明する。
また、MPDファイルにシグナルされた、sub-picture化される全体ピクチャのステレオ情報を利用してストリームの選択を行うようにしてもよい。
その場合のクライアント装置200により実行されるコンテンツ再生処理の流れの例を、図68のフローチャートを参照して説明する。
例えば、2D coverage information descriptorを拡張し、第3の実施の形態において説明した場合と同様に、stereo_presentation_suitableフィールド、およびview情報をシグナルするようにしてもよい。
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
以上においては、ISOBMFFファイルまたはMPDファイルに本技術を適用する場合について説明したが、本技術は、これらの例に限らず、立体構造画像を単数の平面にマッピングした投影平面画像のストリームを配信する、任意の規格のファイルに対して適用することができる。つまり、上述した本技術と矛盾しない限り、配信制御、ファイル形式、符号化・復号方式等の各種処理の仕様は任意である。また、本技術と矛盾しない限り、上述した一部の処理や仕様を省略してもよい。
本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
(1) 格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、前記サブピクチャが符号化された画像符号化データを含むファイルを生成するファイル生成部
を備える情報処理装置。
(2) 前記ピクチャは、全天球映像である
(1)に記載の情報処理装置。
(3) 前記領域に関する情報は、前記サブピクチャ毎の情報として前記ファイルに含まれる
(1)または(2)に記載の情報処理装置。
(4) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記ピクチャ領域ごとの配置情報は、Region Wise Packing Boxにシグナルされる情報であり、
前記領域に関する情報は、Region Wise Packing Boxとは異なる、前記ISOBMFFファイルのScheme Information Box、または、前記Scheme Information Boxの下階層のBoxに格納される
(3)に記載の情報処理装置。
(5) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、トラックの球面上における表示領域を示すCoverage Information Boxに格納される
(3)に記載の情報処理装置。
(6) 前記領域に関する情報は、ストリーム中で動的に変化する
(1)乃至(5)のいずれかに記載の情報処理装置。
(7) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、Supplemental Enhancement information messageに格納される
(6)に記載の情報処理装置。
(8) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、timed metadataに格納される
(6)に記載の情報処理装置。
(9) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、Sample Group Entryに格納される
(6)に記載の情報処理装置。
(10) 格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、前記サブピクチャが符号化された画像符号化データを含むファイルを生成する
情報処理方法。
前記ファイル取得部により取得された前記ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。
(12) 前記ピクチャは、全天球映像である
(11)に記載の情報処理装置。
(13) 前記領域に関する情報は、前記サブピクチャ毎の情報として前記ファイルに含まれる
(11)または(12)に記載の情報処理装置。
(14) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、前記ISOBMFFファイルのScheme Information Box、または、前記Scheme Information Boxの下階層のBoxに格納される
(13)に記載の情報処理装置。
(15) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、トラックの球面上における表示領域を示すCoverage Information Boxに格納される
(13)に記載の情報処理装置。
(16) 前記領域に関する情報は、ストリーム中で動的に変化する
(11)乃至(15)のいずれかに記載の情報処理装置。
(17) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、Supplemental Enhancement information messageに格納される
(16)に記載の情報処理装置。
(18) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、timed metadataに格納される
(16)に記載の情報処理装置。
(19) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記領域に関する情報は、Sample Group Entryに格納される
(16)に記載の情報処理装置。
(20) 格納されるサブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含み、さらに、前記サブピクチャが符号化された画像符号化データを含むファイルを取得し、
取得された前記ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
を備える情報処理装置。
(22) 前記ピクチャは、全天球映像である
(21)に記載の情報処理装置。
(23) 前記ステレオ情報は、前記サブピクチャ毎の情報として前記ファイルに含まれる
(21)または(22)に記載の情報処理装置。
(24) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記ステレオ情報は、前記ISOBMFFファイルのScheme Information Box、または、前記Scheme Information Boxの下階層のBoxに格納される
(23)に記載の情報処理装置。
(25) 前記ファイルは、前記サブピクチャの表示サイズに関する情報をさらに含む
(21)乃至(24)のいずれかに記載の情報処理装置。
(26) 前記ファイルは、前記サブピクチャ毎のステレオ表示に関する情報であるサブステレオ情報をさらに含む
(21)乃至(25)のいずれかに記載の情報処理装置。
(27) 前記ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
(21)乃至(26)のいずれかに記載の情報処理装置。
(28) 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
(27)に記載の情報処理装置。
(29) 前記ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
(28)に記載の情報処理装置。
(30) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、前記ピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを生成する
情報処理方法。
前記ファイル取得部により取得された前記ファイルに含まれる前記ステレオ情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。
(32) 前記ピクチャは、全天球映像である
(31)に記載の情報処理装置。
(33) 前記ステレオ情報は、前記サブピクチャ毎の情報として前記ファイルに含まれる
(31)または(32)に記載の情報処理装置。
(34) 前記ファイルは、ISOBMFF(International Organization for Standardization Base Media File Format)ファイルであり、
前記ステレオ情報は、前記ISOBMFFファイルのScheme Information Box、または、前記Scheme Information Boxの下階層のBoxに格納される
(33)に記載の情報処理装置。
(35) 前記ファイルは、前記サブピクチャの表示サイズに関する情報をさらに含む
(31)乃至(34)のいずれかに記載の情報処理装置。
(36) 前記ファイルは、前記サブピクチャ毎のステレオ表示に関する情報であるサブステレオ情報をさらに含む
(31)乃至(35)のいずれかに記載の情報処理装置。
(37) 前記ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
(31)乃至(36)のいずれかに記載の情報処理装置。
(38) 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
(37)に記載の情報処理装置。
(39) 前記ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
(38)に記載の情報処理装置。
(40) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像データを互いにトラックに格納し、前記ピクチャ全体のステレオ表示に関する情報であるステレオ情報を含むファイルを取得し、
取得された前記ファイルに含まれる前記ステレオ情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
を備える情報処理装置。
(42) 前記ピクチャは、全天球映像である
(41)に記載の情報処理装置。
(43) 前記領域に関する情報は、前記サブピクチャ毎の情報として前記制御ファイルに含まれる
(41)または(42)に記載の情報処理装置。
(44) 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのSupplemental PropertyまたはEssential Propertyに定義される
(43)に記載の情報処理装置。
(45) 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのContent coverage descriptorに定義される
(43)に記載の情報処理装置。
(46) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成する
情報処理方法。
前記ファイル取得部により取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。
(52) 前記ピクチャは、全天球映像である
(51)に記載の情報処理装置。
(53) 前記領域に関する情報は、前記サブピクチャ毎の情報として前記制御ファイルに含まれる
(51)または(52)に記載の情報処理装置。
(54) 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのSupplemental PropertyまたはEssential Propertyに定義される
(53)に記載の情報処理装置。
(55) 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのContent coverage descriptorに定義される
(53)に記載の情報処理装置。
(56) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応するピクチャ全体における領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得し、
取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
を備える情報処理装置。
(62) 前記ピクチャは、全天球映像である
(61)に記載の情報処理装置。
(63) 前記制御ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
(61)または(62)に記載の情報処理装置。
(64) 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
(63)に記載の情報処理装置。
(65) 前記制御ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
(63)または(64)に記載の情報処理装置。
(66) 前記制御ファイルは、アダプテーションセットがステレオ表示可能かどうか示す情報をさらに含む
(63)乃至(65)のいずれかに記載の情報処理装置。
(67) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、前記アダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成する
情報処理方法。
前記ファイル取得部により取得された前記制御ファイルに含まれる前記ステレオ情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。
(72) 前記ピクチャは、全天球映像である
(71)に記載の情報処理装置。
(73) 前記制御ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
(71)または(72)に記載の情報処理装置。
(74) 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
(73)に記載の情報処理装置。
(75) 前記制御ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
(73)または(74)に記載の情報処理装置。
(76) 前記制御ファイルは、アダプテーションセットがステレオ表示可能かどうか示す情報をさらに含む
(73)乃至(75)のいずれかに記載の情報処理装置。
(77) ピクチャ全体が複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データをアダプテーションセット毎に管理し、前記アダプテーションセットのステレオ表示に関する情報であるステレオ情報を含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得し、
取得された前記制御ファイルに含まれる前記ステレオ情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
Claims (20)
- 全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成するファイル生成部
を備える情報処理装置。 - 前記全体ピクチャは、全天球映像である
請求項1に記載の情報処理装置。 - 前記領域に関する情報は、前記サブピクチャ毎の情報として前記制御ファイルに含まれる
請求項1に記載の情報処理装置。 - 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのSupplemental PropertyまたはEssential Propertyに定義される
請求項3に記載の情報処理装置。 - 前記制御ファイルは、アダプテーションセットのステレオ表示に関する情報であるステレオ情報をさらに含む
請求項1に記載の情報処理装置。 - 前記全体ピクチャは、全天球映像である
請求項5に記載の情報処理装置。 - 前記制御ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
請求項1に記載の情報処理装置。 - 前記ビュー情報は、前記サブピクチャに含まれる領域毎の情報である
請求項7に記載の情報処理装置。 - 前記制御ファイルは、前記ビュー情報が前記領域毎に存在するかを示す情報をさらに含む
請求項8に記載の情報処理装置。 - 前記制御ファイルは、アダプテーションセットがステレオ表示可能かどうか示す情報をさらに含む
請求項7のいずれかに記載の情報処理装置。 - 全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを生成する
情報処理方法。 - 全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得するファイル取得部と、
前記ファイル取得部により取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う画像処理部と
を備える情報処理装置。 - 前記全体ピクチャは、全天球映像である
請求項12に記載の情報処理装置。 - 前記領域に関する情報は、前記サブピクチャ毎の情報として前記制御ファイルに含まれる
請求項12に記載の情報処理装置。 - 前記制御ファイルは、MPD(Media Presentation Description)ファイルであり、
前記サブピクチャ毎の画像符号化データは、アダプテーションセット毎に管理され、
前記ピクチャ領域毎の配置情報は、Region-wise packing descripitorに格納され、
前記領域に関する情報は、前記MPDファイルのSupplemental PropertyまたはEssential Propertyに定義される
請求項14に記載の情報処理装置。 - 前記制御ファイルは、アダプテーションセットのステレオ表示に関する情報であるステレオ情報をさらに含む
請求項12に記載の情報処理装置。 - 前記全体ピクチャは、全天球映像である
請求項16に記載の情報処理装置。 - 前記制御ファイルは、前記サブピクチャのビュータイプを示すビュー情報をさらに含む
請求項12に記載の情報処理装置。 - 前記制御ファイルは、アダプテーションセットがステレオ表示可能かどうか示す情報をさらに含む
請求項18のいずれかに記載の情報処理装置。 - 全体ピクチャが複数のサブピクチャに分割されて符号化されたサブピクチャ毎の画像符号化データを管理し、前記サブピクチャに対応する全体ピクチャにおける領域に関する情報を、ピクチャ領域毎の配置情報とは異なる情報として含む、前記画像符号化データの配信制御に用いられる制御ファイルを取得し、
取得された前記制御ファイルに含まれる前記領域に関する情報に基づいて、前記画像符号化データのストリームの選択を行う
情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023194210A JP2024003189A (ja) | 2018-01-12 | 2023-11-15 | 情報処理装置および方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003796 | 2018-01-12 | ||
JP2018003796 | 2018-01-12 | ||
JP2018127665 | 2018-07-04 | ||
JP2018127665 | 2018-07-04 | ||
PCT/JP2018/048424 WO2019138929A1 (ja) | 2018-01-12 | 2018-12-28 | 情報処理装置および方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023194210A Division JP2024003189A (ja) | 2018-01-12 | 2023-11-15 | 情報処理装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019138929A1 true JPWO2019138929A1 (ja) | 2021-01-21 |
JP7396047B2 JP7396047B2 (ja) | 2023-12-12 |
Family
ID=67218624
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564651A Active JP7396047B2 (ja) | 2018-01-12 | 2018-12-28 | 情報処理装置および方法 |
JP2023194210A Pending JP2024003189A (ja) | 2018-01-12 | 2023-11-15 | 情報処理装置および方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023194210A Pending JP2024003189A (ja) | 2018-01-12 | 2023-11-15 | 情報処理装置および方法 |
Country Status (11)
Country | Link |
---|---|
US (2) | US20210084282A1 (ja) |
EP (1) | EP3734982A4 (ja) |
JP (2) | JP7396047B2 (ja) |
KR (1) | KR20200107945A (ja) |
CN (1) | CN111567057B (ja) |
BR (1) | BR112020013705A2 (ja) |
MX (1) | MX2020007074A (ja) |
RU (1) | RU2020122086A (ja) |
SG (1) | SG11202005090TA (ja) |
TW (1) | TW201937937A (ja) |
WO (1) | WO2019138929A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220114088A (ko) * | 2019-12-31 | 2022-08-17 | 노키아 테크놀로지스 오와이 | 비디오 인코딩 및 비디오 디코딩을 위한 방법, 장치 및 컴퓨터 프로그램 제품 |
JPWO2022210661A1 (ja) * | 2021-03-30 | 2022-10-06 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015008775A1 (ja) * | 2013-07-19 | 2015-01-22 | ソニー株式会社 | 情報処理装置および方法 |
WO2017202699A1 (en) * | 2016-05-23 | 2017-11-30 | Canon Kabushiki Kaisha | Method, device, and computer program for adaptive streaming of virtual reality media content |
JP2019024197A (ja) * | 2017-07-07 | 2019-02-14 | ノキア テクノロジーズ オーユー | ビデオの符号化・復号の方法、装置、およびコンピュータプログラムプロダクト |
JP2019062390A (ja) * | 2017-09-26 | 2019-04-18 | キヤノン株式会社 | 情報処理装置、情報提供装置、制御方法、及びプログラム |
JP2020521348A (ja) * | 2017-10-24 | 2020-07-16 | エルジー エレクトロニクス インコーポレイティド | 魚眼ビデオ情報を含む360度ビデオを送受信する方法及びその装置 |
JP2020537367A (ja) * | 2017-10-12 | 2020-12-17 | キヤノン株式会社 | メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4266737B2 (ja) * | 2003-07-31 | 2009-05-20 | キヤノン株式会社 | 画像処理方法および装置 |
JP2006107163A (ja) * | 2004-10-06 | 2006-04-20 | Konica Minolta Photo Imaging Inc | 受付端末及びファイル編集プログラム並びに注文処理方法 |
JP4993578B2 (ja) * | 2007-01-15 | 2012-08-08 | オリンパスイメージング株式会社 | 画像ファイル再生装置,画像ファイル加工編集装置 |
KR100962696B1 (ko) * | 2007-06-07 | 2010-06-11 | 주식회사 이시티 | 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법 |
EP2395772A3 (en) * | 2008-09-30 | 2013-09-18 | Panasonic Corporation | Glasses and display device |
JP5089658B2 (ja) * | 2009-07-16 | 2012-12-05 | 株式会社Gnzo | 送信装置及び送信方法 |
JP5144789B2 (ja) * | 2011-06-24 | 2013-02-13 | 楽天株式会社 | 画像提供装置、画像処理方法、画像処理プログラム及び記録媒体 |
CN104113632B (zh) * | 2013-04-22 | 2016-12-28 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
EP3148200B1 (en) * | 2014-06-30 | 2020-06-17 | Sony Corporation | Information processing device and method selecting content files based on encoding parallelism type |
EP3451675A4 (en) * | 2016-04-26 | 2019-12-04 | LG Electronics Inc. -1- | METHOD FOR TRANSFERRING 360 DEGREE VIDEOS, METHOD FOR RECEIVING 360 DEGREE VIDEOS, DEVICE FOR TRANSMITTING 360 DEGREE VIDEOS AND DEVICE FOR RECEIVING 360 DEGREE VIDEOS |
US10554981B2 (en) * | 2016-05-10 | 2020-02-04 | Qualcomm Incorporated | Methods and systems for generating regional nesting messages for video pictures |
US10547879B2 (en) | 2016-07-14 | 2020-01-28 | Mediatek Inc. | Method and apparatus for streaming video content |
WO2018043905A1 (ko) * | 2016-08-29 | 2018-03-08 | 엘지전자 주식회사 | 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치 |
KR102305633B1 (ko) | 2017-03-17 | 2021-09-28 | 엘지전자 주식회사 | 퀄리티 기반 360도 비디오를 송수신하는 방법 및 그 장치 |
US10523913B2 (en) * | 2017-06-30 | 2019-12-31 | Apple Inc. | Packed image format for multi-directional video |
US10587883B2 (en) * | 2017-07-14 | 2020-03-10 | Qualcomm Incorporated | Region-wise packing, content coverage, and signaling frame packing for media content |
KR102188270B1 (ko) * | 2018-07-06 | 2020-12-09 | 엘지전자 주식회사 | 360 비디오 데이터의 서브픽처 기반 처리 방법 및 그 장치 |
WO2020050577A1 (ko) * | 2018-09-07 | 2020-03-12 | 엘지전자 주식회사 | 비디오 송신 방법, 비디오 송신 장치, 비디오 수신 방법 및 비디오 수신 장치 |
-
2018
- 2018-12-28 JP JP2019564651A patent/JP7396047B2/ja active Active
- 2018-12-28 CN CN201880085282.6A patent/CN111567057B/zh active Active
- 2018-12-28 EP EP18900371.8A patent/EP3734982A4/en not_active Ceased
- 2018-12-28 SG SG11202005090TA patent/SG11202005090TA/en unknown
- 2018-12-28 US US16/959,687 patent/US20210084282A1/en not_active Abandoned
- 2018-12-28 WO PCT/JP2018/048424 patent/WO2019138929A1/ja unknown
- 2018-12-28 BR BR112020013705-7A patent/BR112020013705A2/pt not_active Application Discontinuation
- 2018-12-28 MX MX2020007074A patent/MX2020007074A/es unknown
- 2018-12-28 RU RU2020122086A patent/RU2020122086A/ru unknown
- 2018-12-28 KR KR1020207018530A patent/KR20200107945A/ko unknown
-
2019
- 2019-01-03 TW TW108100148A patent/TW201937937A/zh unknown
-
2022
- 2022-04-04 US US17/712,191 patent/US11729366B2/en active Active
-
2023
- 2023-11-15 JP JP2023194210A patent/JP2024003189A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015008775A1 (ja) * | 2013-07-19 | 2015-01-22 | ソニー株式会社 | 情報処理装置および方法 |
WO2017202699A1 (en) * | 2016-05-23 | 2017-11-30 | Canon Kabushiki Kaisha | Method, device, and computer program for adaptive streaming of virtual reality media content |
JP2019024197A (ja) * | 2017-07-07 | 2019-02-14 | ノキア テクノロジーズ オーユー | ビデオの符号化・復号の方法、装置、およびコンピュータプログラムプロダクト |
JP2019062390A (ja) * | 2017-09-26 | 2019-04-18 | キヤノン株式会社 | 情報処理装置、情報提供装置、制御方法、及びプログラム |
JP2020537367A (ja) * | 2017-10-12 | 2020-12-17 | キヤノン株式会社 | メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム |
JP2020521348A (ja) * | 2017-10-24 | 2020-07-16 | エルジー エレクトロニクス インコーポレイティド | 魚眼ビデオ情報を含む360度ビデオを送受信する方法及びその装置 |
Non-Patent Citations (2)
Title |
---|
"DRAFT GUIDELINES", vol. Version 0.0 draft 010, JPN6019003919, 8 October 2017 (2017-10-08), pages 1 - 68, ISSN: 0004953527 * |
R. SKUPIN, ET AL.: ""Standardization Status of 360 degree Video Coding and Delivery"", PROCEEDINGS OF 2017 IEEE VISUAL COMMUNICATIONS AND IMAGE PROCESSING (VCIP), JPN6019003911, 13 December 2017 (2017-12-13), pages 1 - 4, XP033325761, ISSN: 0004953528, DOI: 10.1109/VCIP.2017.8305083 * |
Also Published As
Publication number | Publication date |
---|---|
CN111567057A (zh) | 2020-08-21 |
EP3734982A4 (en) | 2020-11-25 |
JP7396047B2 (ja) | 2023-12-12 |
WO2019138929A1 (ja) | 2019-07-18 |
BR112020013705A2 (pt) | 2020-12-01 |
US11729366B2 (en) | 2023-08-15 |
KR20200107945A (ko) | 2020-09-16 |
EP3734982A1 (en) | 2020-11-04 |
SG11202005090TA (en) | 2020-06-29 |
MX2020007074A (es) | 2020-09-09 |
JP2024003189A (ja) | 2024-01-11 |
RU2020122086A (ru) | 2022-01-04 |
CN111567057B (zh) | 2022-11-04 |
US20220224874A1 (en) | 2022-07-14 |
TW201937937A (zh) | 2019-09-16 |
US20210084282A1 (en) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6960528B2 (ja) | メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム | |
KR102559862B1 (ko) | 미디어 콘텐츠 전송을 위한 방법, 디바이스, 및 컴퓨터 프로그램 | |
US20240040170A1 (en) | Method, device, and computer program for transmitting media content | |
US11582496B2 (en) | Method, device, and computer program for transmitting media content | |
JP7487742B2 (ja) | 画像処理装置および方法 | |
JP2020529149A (ja) | イメージ処理方法、端末およびサーバ | |
JP2024003189A (ja) | 情報処理装置および方法 | |
WO2021251173A1 (ja) | 情報処理装置および方法 | |
WO2019138928A1 (ja) | 情報処理装置および方法 | |
JP2019125865A (ja) | 情報処理装置および方法 | |
WO2019138927A1 (ja) | 情報処理装置および方法 | |
WO2023169003A1 (zh) | 点云媒体的解码方法、点云媒体的编码方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231113 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7396047 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |