JP2019521583A - イメージ中の最も関心のある領域の高度なシグナリング - Google Patents
イメージ中の最も関心のある領域の高度なシグナリング Download PDFInfo
- Publication number
- JP2019521583A JP2019521583A JP2018561468A JP2018561468A JP2019521583A JP 2019521583 A JP2019521583 A JP 2019521583A JP 2018561468 A JP2018561468 A JP 2018561468A JP 2018561468 A JP2018561468 A JP 2018561468A JP 2019521583 A JP2019521583 A JP 2019521583A
- Authority
- JP
- Japan
- Prior art keywords
- regions
- interest
- data
- representing
- interesting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011664 signaling Effects 0.000 title claims description 31
- 238000000034 method Methods 0.000 claims description 125
- 239000012634 fragment Substances 0.000 claims description 49
- 238000003860 storage Methods 0.000 claims description 29
- 230000003044 adaptive effect Effects 0.000 claims description 15
- 230000000153 supplemental effect Effects 0.000 claims description 9
- 238000005538 encapsulation Methods 0.000 description 31
- 230000000875 corresponding effect Effects 0.000 description 30
- 238000002360 preparation method Methods 0.000 description 19
- 230000002123 temporal effect Effects 0.000 description 15
- 239000010410 layer Substances 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 230000006978 adaptation Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000001419 dependent effect Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000011144 upstream manufacturing Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- FMYKJLXRRQTBOR-UBFHEZILSA-N (2s)-2-acetamido-4-methyl-n-[4-methyl-1-oxo-1-[[(2s)-1-oxohexan-2-yl]amino]pentan-2-yl]pentanamide Chemical group CCCC[C@@H](C=O)NC(=O)C(CC(C)C)NC(=O)[C@H](CC(C)C)NC(C)=O FMYKJLXRRQTBOR-UBFHEZILSA-N 0.000 description 1
- 101000595548 Homo sapiens TIR domain-containing adapter molecule 1 Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 102100036073 TIR domain-containing adapter molecule 1 Human genes 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4343—Extraction or processing of packetized elementary streams [PES]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234327—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234345—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440227—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by decomposing into layers, e.g. base layer and one or more enhancement layers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440245—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Computer Security & Cryptography (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
class MostInterestedRegions() extends VisualSampleGroupEntry ('mir ') {
unsigned int(16) entry_count;
for (i=1; i<= entry_count; i++) {
unsigned int(16) left_horizontal_offset;
unsigned int(16) top_vertical_offset;
unsigned int(16) region_width;
unsigned int(16) region_height;
}
}
class MostInterestedRegions() extends VisualSampleGroupEntry ('mir ') {
unsigned int(32) regionbase_track_id;
unsigned int(16) entry_count;
for (i=1; i<= entry_count; i++) {
unsigned int(16) left_horizontal_offset;
unsigned int(16) top_vertical_offset;
unsigned int(16) region_width;
unsigned int(16) region_height;
}
}
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオについての情報を決定する方法であって、前記方法は、
デバイスのプロセッサが、ここで、前記プロセッサは、回路中にインプリメントされ、1つまたは複数の最も関心のある領域を表すデータからビデオデータのイメージの複数の領域のうちの前記1つまたは複数の最も関心のある領域を決定することと、
前記プロセッサが、前記1つまたは複数の最も関心のある領域を表す前記データを使用して前記1つまたは複数の最も関心のある領域を指定する要求を生成することと、
前記プロセッサが、サーバデバイスに前記要求を出力することと
を備える、方法。
[C2]
前記プロセッサが、ユーザの視野(FOV)を使用して前記イメージの1つまたは複数の他の領域を指定する要求を生成することと、
前記プロセッサが、前記サーバデバイスに前記イメージの前記1つまたは複数の他の領域を指定する前記要求を出力することと
をさらに備える、C1に記載の方法。
[C3]
前記1つまたは複数の最も関心のある領域を決定することは、補足エンハンスメント情報(SEI)メッセージから最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C1に記載の方法。
[C4]
前記1つまたは複数の最も関心のある領域を決定することは、ファイルフォーマットヘッダ情報中に含まれるサンプルグループボックスから最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C1に記載の方法。
[C5]
前記1つまたは複数の最も関心のある領域を決定することは、ファイルフォーマットヘッダ情報中に含まれるサンプルテーブルボックスまたはトラックフラグメントから最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C1に記載の方法。
[C6]
前記1つまたは複数の最も関心のある領域を決定することは、ファイルフォーマットヘッダ情報中に含まれるセグメントインデックスボックスから最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C1に記載の方法。
[C7]
前記1つまたは複数の最も関心のある領域を決定することは、HTTPを通した動的適応型ストリーミング(DASH)メディアプレゼンテーション記述(MPD)から最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C1に記載の方法。
[C8]
前記1つまたは複数の最も関心のある領域を決定することは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、ベース領域に対するそれぞれの最も関心のある領域の位置と、前記ベース領域に対する前記それぞれの最も関心のある領域のサイズとを表す複数のシンタックス要素についての複数の値を決定することを備える、C1に記載の方法。
[C9]
前記複数のシンタックス要素についての前記複数の値を決定することは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、
前記ベース領域に対する前記それぞれの最も関心のある領域の左水平オフセットを表す第1のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の上部垂直オフセットを表す第2のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の幅を表す第3のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の高さを表す第4のシンタックス要素についての値を抽出することと
を備える、C8に記載の方法。
[C10]
前記1つまたは複数の最も関心のある領域を決定することは、前記イメージの1つまたは複数のタイルを表す1つまたは複数のタイル識別子を抽出することを備え、前記1つまたは複数のタイルは、前記1つまたは複数の最も関心のある領域と空間的にコロケートされる、C1に記載の方法。
[C11]
前記1つまたは複数の最も関心のある領域を決定することは、前記イメージの前記複数の領域のうちの1つまたは複数の領域を表す1つまたは複数のグループ識別子を抽出することを備える、C1に記載の方法。
[C12]
前記1つまたは複数の最も関心のある領域を決定することは、1つまたは複数のトラックを表す1つまたは複数のトラック識別子を抽出することを備え、前記1つまたは複数のトラックの各トラックは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、C1に記載の方法。
[C13]
前記1つまたは複数の最も関心のある領域を決定することは、前記イメージの1つまたは複数のリプレゼンテーションを表す1つまたは複数のリプレゼンテーション識別子を抽出することを備え、前記1つまたは複数のリプレゼンテーションの各リプレゼンテーションは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、C1に記載の方法。
[C14]
前記1つまたは複数の最も関心のある領域を決定することは、
1つまたは複数のベースタイルトラックを表す1つまたは複数のベースタイルトラック識別子を抽出することと、
前記1つまたは複数のベースタイルトラック識別子を使用して前記1つまたは複数のベースタイルトラックから最も関心のある領域データを抽出することと
を備える、C1に記載の方法。
[C15]
前記1つまたは複数の最も関心のある領域を決定することは、イメージ順序カウントを表す1つまたは複数のシンタックス要素を決定することを備え、前記イメージ順序カウントは、前記1つまたは複数の最も関心のある領域を表す前記データが前記イメージに適用されることを示す、C1に記載の方法。
[C16]
ビデオデータについての情報を決定するためのデバイスであって、前記デバイスは、
1つまたは複数の最も関心のある領域を表すデータからビデオデータのイメージの複数の領域のうちの前記1つまたは複数の最も関心のある領域を決定することと、
前記1つまたは複数の最も関心のある領域を表す前記データを使用して前記1つまたは複数の最も関心のある領域を指定する要求を生成することと、
サーバデバイスに前記要求を出力することと
を行うように構成された、回路中にインプリメントされた1つまたは複数のプロセッサを備える、デバイス。
[C17]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、補足エンハンスメント情報(SEI)メッセージから最も関心のある領域データを抽出するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C16に記載のデバイス。
[C18]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、ファイルフォーマットヘッダ情報中に含まれるサンプルグループボックス、サンプルテーブルボックス、トラックフラグメント、またはセグメントインデックスボックスから最も関心のある領域データを抽出するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C16に記載のデバイス。
[C19]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、HTTPを通した動的適応型ストリーミング(DASH)メディアプレゼンテーション記述(MPD)から最も関心のある領域データを抽出するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C16に記載のデバイス。
[C20]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、ベース領域に対するそれぞれの最も関心のある領域の位置と、前記ベース領域に対する前記それぞれの最も関心のある領域のサイズとを表す複数のシンタックス要素についての複数の値を決定するようにさらに構成される、C16に記載のデバイス。
[C21]
前記複数のシンタックス要素についての前記複数の値を決定するために、前記1つまたは複数のプロセッサは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、
前記ベース領域に対する前記それぞれの最も関心のある領域の左水平オフセットを表す第1のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の上部垂直オフセットを表す第2のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の幅を表す第3のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の高さを表す第4のシンタックス要素についての値を抽出することと
を行うようにさらに構成される、C20に記載のデバイス。
[C22]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、前記イメージの1つまたは複数のタイルを表す1つまたは複数のタイル識別子を抽出するようにさらに構成され、前記1つまたは複数のタイルは、前記1つまたは複数の最も関心のある領域と空間的にコロケートされる、C16に記載のデバイス。
[C23]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、前記イメージの前記複数の領域のうちの1つまたは複数の領域を表す1つまたは複数のグループ識別子を抽出するようにさらに構成される、C16に記載のデバイス。
[C24]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、1つまたは複数のトラックを表す1つまたは複数のトラック識別子を抽出するようにさらに構成され、前記1つまたは複数のトラックの各トラックは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、C16に記載のデバイス。
[C25]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、前記イメージの1つまたは複数のリプレゼンテーションを表す1つまたは複数のリプレゼンテーション識別子を抽出するようにさらに構成され、前記1つまたは複数のリプレゼンテーションの各リプレゼンテーションは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、C16に記載のデバイス。
[C26]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、
1つまたは複数のベースタイルトラックを表す1つまたは複数のベースタイルトラック識別子を抽出することと、
前記1つまたは複数のベースタイルトラック識別子を使用して前記1つまたは複数のベースタイルトラックから最も関心のある領域データを抽出することと
を行うようにさらに構成される、C16に記載のデバイス。
[C27]
前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、イメージ順序カウントを表す1つまたは複数のシンタックス要素を決定するようにさらに構成され、前記イメージ順序カウントは、前記1つまたは複数の最も関心のある領域を表す前記データが前記イメージに適用されることを示す、C16に記載のデバイス。
[C28]
ビデオデータについての情報を決定するためのデバイスであって、前記デバイスは、
1つまたは複数の最も関心のある領域を表すデータからビデオデータのイメージの複数の領域のうちの前記1つまたは複数の最も関心のある領域を決定するための手段と、
前記1つまたは複数の最も関心のある領域を表す前記データを使用して前記1つまたは複数の最も関心のある領域を指定する要求を生成する手段と、
サーバデバイスに前記要求を出力するための手段と
を備える、デバイス。
[C29]
実行されると、プロセッサに、
1つまたは複数の最も関心のある領域を表すデータからビデオデータのイメージの複数の領域のうちの前記1つまたは複数の最も関心のある領域を決定することと、
前記1つまたは複数の最も関心のある領域を表す前記データを使用して前記1つまたは複数の最も関心のある領域を指定する要求を生成することと、
サーバデバイスに前記要求を出力することと
を行わせる命令を記憶した、コンピュータ可読記憶媒体。
[C30]
ビデオデータについての情報をシグナリングする方法であって、前記方法は、
ソースデバイスのプロセッサが、ここで、前記プロセッサは、回路中にインプリメントされ、ビデオデータのイメージの複数の領域のうちの1つまたは複数の最も関心のある領域を決定することと、前記1つまたは複数の最も関心のある領域は、クライアントデバイスによって検索される可能性が最も高い1つまたは複数の領域を備える、
前記プロセッサが、前記1つまたは複数の最も関心のある領域を表すデータを出力することと、ここにおいて、前記1つまたは複数の最も関心のある領域を表す前記データは、前記ビデオデータを含むビットストリーム中に含まれる、
前記プロセッサが、前記1つまたは複数の最も関心のある領域を表す前記データを出力した後に、前記ビデオデータを出力することと
を備える、方法。
[C31]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、最も関心のある領域データを含む補足エンハンスメント情報(SEI)メッセージを生成することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C30に記載の方法。
[C32]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、ファイルフォーマットヘッダ情報中で、最も関心のある領域データを含むサンプルグループボックス、サンプルテーブルボックス、トラックフラグメント、またはセグメントインデックスボックスを生成することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C30に記載の方法。
[C33]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、最も関心のある領域データを含むHTTPを通した動的適応型ストリーミング(DASH)メディアプレゼンテーション記述(MPD)を生成することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C30に記載の方法。
[C34]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、ベース領域に対するそれぞれの最も関心のある領域の位置と、前記ベース領域に対する前記それぞれの最も関心のある領域のサイズとを表す複数のシンタックス要素についての複数の値を生成する、C30に記載の方法。
[C35]
前記複数のシンタックス要素についての前記複数の値を出力することは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、
前記ベース領域に対する前記それぞれの最も関心のある領域の左水平オフセットを表す第1のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の上部垂直オフセットを表す第2のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の幅を表す第3のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の高さを表す第4のシンタックス要素についての値を生成することと
を備える、C34に記載の方法。
[C36]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、前記イメージの1つまたは複数のタイルを表す1つまたは複数のタイル識別子を生成することを備え、前記1つまたは複数のタイルは、前記1つまたは複数の最も関心のある領域と空間的にコロケートされる、C30に記載の方法。
[C37]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、前記イメージの前記複数の領域のうちの1つまたは複数の領域を表す1つまたは複数のグループ識別子を生成することを備える、C30に記載の方法。
[C38]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、1つまたは複数のトラックを表す1つまたは複数のトラック識別子を生成することを備え、前記1つまたは複数のトラックの各トラックは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、C30に記載の方法。
[C39]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、前記イメージの1つまたは複数のリプレゼンテーションを表す1つまたは複数のリプレゼンテーション識別子を生成することを備え、前記1つまたは複数のリプレゼンテーションの各リプレゼンテーションは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、C30に記載の方法。
[C40]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、
1つまたは複数のベースタイルトラックにおいて最も関心のある領域データを生成することと、
前記1つまたは複数の最も関心のある領域を表す前記データにおいて、前記1つまたは複数のベースタイルトラックを表す1つまたは複数のベースタイルトラック識別子を生成することと
を備える、C30に記載の方法。
[C41]
前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、イメージ順序カウントを表す1つまたは複数のシンタックス要素を生成することを備え、前記イメージ順序カウントは、前記1つまたは複数の最も関心のある領域を表す前記データが前記イメージに適用されることを示す、C30に記載の方法。
[C42]
前記1つまたは複数の最も関心のある領域を決定することは、ディレクターの意図またはユーザ統計のうちの1つまたは複数を使用して前記1つまたは複数の最も関心のある領域を決定することを備える、C30に記載の方法。
[C43]
ビデオデータについての情報をシグナリングするためのデバイスであって、前記デバイスは、
ビデオデータのイメージの複数の領域のうちの1つまたは複数の最も関心のある領域を決定することと、前記1つまたは複数の最も関心のある領域は、クライアントデバイスによって検索される可能性が最も高い1つまたは複数の領域を備える、
前記1つまたは複数の最も関心のある領域を表すデータを出力することと、ここにおいて、前記1つまたは複数の最も関心のある領域を表す前記データは、前記ビデオデータを含むビットストリーム中に含まれる、
前記1つまたは複数の最も関心のある領域を表す前記データを出力した後に、前記ビデオデータを出力することと
を行うように構成された、回路中にインプリメントされた1つまたは複数のプロセッサを備える、デバイス。
[C44]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、最も関心のある領域データを含む補足エンハンスメント情報(SEI)メッセージを生成するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C43に記載のデバイス。
[C45]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、ファイルフォーマットヘッダ情報中で、最も関心のある領域データを含むサンプルグループボックス、サンプルテーブルボックス、トラックフラグメント、またはセグメントインデックスボックスを生成するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C43に記載のデバイス。
[C46]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、最も関心のある領域データを含むHTTPを通した動的適応型ストリーミング(DASH)メディアプレゼンテーション記述(MPD)を生成するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、C43に記載のデバイス。
[C47]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、ベース領域に対するそれぞれの最も関心のある領域の位置と、前記ベース領域に対する前記それぞれの最も関心のある領域のサイズとを表す複数のシンタックス要素についての複数の値を生成するようにさらに構成される、C43に記載のデバイス。
[C48]
前記複数のシンタックス要素についての前記複数の値を出力するために、前記1つまたは複数のプロセッサは、
前記ベース領域に対する前記それぞれの最も関心のある領域の左水平オフセットを表す第1のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の上部垂直オフセットを表す第2のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の幅を表す第3のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の高さを表す第4のシンタックス要素についての値を生成することと
を行うようにさらに構成される、C47に記載のデバイス。
[C49]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、前記イメージの1つまたは複数のタイルを表す1つまたは複数のタイル識別子を生成するようにさらに構成され、前記1つまたは複数のタイルは、前記1つまたは複数の最も関心のある領域と空間的にコロケートされる、C43に記載のデバイス。
[C50]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、前記イメージの前記複数の領域のうちの1つまたは複数の領域を表す1つまたは複数のグループ識別子を生成するようにさらに構成される、C43に記載のデバイス。
[C51]
前記1つまたは複数の最も関心のある領域を表す前記データを出力定するために、前記1つまたは複数のプロセッサは、1つまたは複数のトラックを表す1つまたは複数のトラック識別子を生成するようにさらに構成され、前記1つまたは複数のトラックの各トラックは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、C43に記載のデバイス。
[C52]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、前記イメージの1つまたは複数のリプレゼンテーションを表す1つまたは複数のリプレゼンテーション識別子を生成するようにさらに構成され、前記1つまたは複数のリプレゼンテーションの各リプレゼンテーションは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、C43に記載のデバイス。
[C53]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、
1つまたは複数のベースタイルトラックにおいて最も関心のある領域データを生成することと、
前記1つまたは複数の最も関心のある領域を表す前記データにおいて、前記1つまたは複数のベースタイルトラックを表す1つまたは複数のベースタイルトラック識別子を生成することと
を行うようにさらに構成される、C43に記載のデバイス。
[C54]
前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、イメージ順序カウントを表す1つまたは複数のシンタックス要素を生成するようにさらに構成され、前記イメージ順序カウントは、前記1つまたは複数の最も関心のある領域を表す前記データが前記イメージに適用されることを示す、C43に記載のデバイス。
[C55]
ビデオデータについての情報をシグナリングするためのデバイスであって、前記デバイスは、
ビデオデータのイメージの複数の領域のうちの1つまたは複数の最も関心のある領域を決定するための手段と、前記1つまたは複数の最も関心のある領域は、クライアントデバイスによって検索される可能性が最も高い1つまたは複数の領域を備える、
前記1つまたは複数の最も関心のある領域を表すデータを出力するための手段と、ここにおいて、前記1つまたは複数の最も関心のある領域を表す前記データは、前記ビデオデータを含むビットストリーム中に含まれる、
前記1つまたは複数の最も関心のある領域を表す前記データを出力した後に、前記ビデオデータを出力するための手段と
を備える、デバイス。
[C56]
実行されると、プロセッサに、
ビデオデータのイメージの複数の領域のうちの1つまたは複数の最も関心のある領域を決定することと、前記1つまたは複数の最も関心のある領域は、クライアントデバイスによって検索される可能性が最も高い1つまたは複数の領域を備える、
前記1つまたは複数の最も関心のある領域を表すデータを出力することと、ここにおいて、前記1つまたは複数の最も関心のある領域を表す前記データは、前記ビデオデータを含むビットストリーム中に含まれる、
前記1つまたは複数の最も関心のある領域を表す前記データを出力した後に、前記ビデオデータを出力することと
を行わせる命令を記憶した、コンピュータ可読記憶媒体。
Claims (56)
- ビデオについての情報を決定する方法であって、前記方法は、
デバイスのプロセッサが、ここで、前記プロセッサは、回路中にインプリメントされ、1つまたは複数の最も関心のある領域を表すデータからビデオデータのイメージの複数の領域のうちの前記1つまたは複数の最も関心のある領域を決定することと、
前記プロセッサが、前記1つまたは複数の最も関心のある領域を表す前記データを使用して前記1つまたは複数の最も関心のある領域を指定する要求を生成することと、
前記プロセッサが、サーバデバイスに前記要求を出力することと
を備える、方法。 - 前記プロセッサが、ユーザの視野(FOV)を使用して前記イメージの1つまたは複数の他の領域を指定する要求を生成することと、
前記プロセッサが、前記サーバデバイスに前記イメージの前記1つまたは複数の他の領域を指定する前記要求を出力することと
をさらに備える、請求項1に記載の方法。 - 前記1つまたは複数の最も関心のある領域を決定することは、補足エンハンスメント情報(SEI)メッセージから最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、ファイルフォーマットヘッダ情報中に含まれるサンプルグループボックスから最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、ファイルフォーマットヘッダ情報中に含まれるサンプルテーブルボックスまたはトラックフラグメントから最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、ファイルフォーマットヘッダ情報中に含まれるセグメントインデックスボックスから最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、HTTPを通した動的適応型ストリーミング(DASH)メディアプレゼンテーション記述(MPD)から最も関心のある領域データを抽出することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、ベース領域に対するそれぞれの最も関心のある領域の位置と、前記ベース領域に対する前記それぞれの最も関心のある領域のサイズとを表す複数のシンタックス要素についての複数の値を決定することを備える、請求項1に記載の方法。
- 前記複数のシンタックス要素についての前記複数の値を決定することは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、
前記ベース領域に対する前記それぞれの最も関心のある領域の左水平オフセットを表す第1のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の上部垂直オフセットを表す第2のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の幅を表す第3のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の高さを表す第4のシンタックス要素についての値を抽出することと
を備える、請求項8に記載の方法。 - 前記1つまたは複数の最も関心のある領域を決定することは、前記イメージの1つまたは複数のタイルを表す1つまたは複数のタイル識別子を抽出することを備え、前記1つまたは複数のタイルは、前記1つまたは複数の最も関心のある領域と空間的にコロケートされる、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、前記イメージの前記複数の領域のうちの1つまたは複数の領域を表す1つまたは複数のグループ識別子を抽出することを備える、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、1つまたは複数のトラックを表す1つまたは複数のトラック識別子を抽出することを備え、前記1つまたは複数のトラックの各トラックは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、前記イメージの1つまたは複数のリプレゼンテーションを表す1つまたは複数のリプレゼンテーション識別子を抽出することを備え、前記1つまたは複数のリプレゼンテーションの各リプレゼンテーションは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、請求項1に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、
1つまたは複数のベースタイルトラックを表す1つまたは複数のベースタイルトラック識別子を抽出することと、
前記1つまたは複数のベースタイルトラック識別子を使用して前記1つまたは複数のベースタイルトラックから最も関心のある領域データを抽出することと
を備える、請求項1に記載の方法。 - 前記1つまたは複数の最も関心のある領域を決定することは、イメージ順序カウントを表す1つまたは複数のシンタックス要素を決定することを備え、前記イメージ順序カウントは、前記1つまたは複数の最も関心のある領域を表す前記データが前記イメージに適用されることを示す、請求項1に記載の方法。
- ビデオデータについての情報を決定するためのデバイスであって、前記デバイスは、
1つまたは複数の最も関心のある領域を表すデータからビデオデータのイメージの複数の領域のうちの前記1つまたは複数の最も関心のある領域を決定することと、
前記1つまたは複数の最も関心のある領域を表す前記データを使用して前記1つまたは複数の最も関心のある領域を指定する要求を生成することと、
サーバデバイスに前記要求を出力することと
を行うように構成された、回路中にインプリメントされた1つまたは複数のプロセッサを備える、デバイス。 - 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、補足エンハンスメント情報(SEI)メッセージから最も関心のある領域データを抽出するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項16に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、ファイルフォーマットヘッダ情報中に含まれるサンプルグループボックス、サンプルテーブルボックス、トラックフラグメント、またはセグメントインデックスボックスから最も関心のある領域データを抽出するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項16に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、HTTPを通した動的適応型ストリーミング(DASH)メディアプレゼンテーション記述(MPD)から最も関心のある領域データを抽出するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項16に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、ベース領域に対するそれぞれの最も関心のある領域の位置と、前記ベース領域に対する前記それぞれの最も関心のある領域のサイズとを表す複数のシンタックス要素についての複数の値を決定するようにさらに構成される、請求項16に記載のデバイス。
- 前記複数のシンタックス要素についての前記複数の値を決定するために、前記1つまたは複数のプロセッサは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、
前記ベース領域に対する前記それぞれの最も関心のある領域の左水平オフセットを表す第1のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の上部垂直オフセットを表す第2のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の幅を表す第3のシンタックス要素についての値を抽出することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の高さを表す第4のシンタックス要素についての値を抽出することと
を行うようにさらに構成される、請求項20に記載のデバイス。 - 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、前記イメージの1つまたは複数のタイルを表す1つまたは複数のタイル識別子を抽出するようにさらに構成され、前記1つまたは複数のタイルは、前記1つまたは複数の最も関心のある領域と空間的にコロケートされる、請求項16に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、前記イメージの前記複数の領域のうちの1つまたは複数の領域を表す1つまたは複数のグループ識別子を抽出するようにさらに構成される、請求項16に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、1つまたは複数のトラックを表す1つまたは複数のトラック識別子を抽出するようにさらに構成され、前記1つまたは複数のトラックの各トラックは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、請求項16に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、前記イメージの1つまたは複数のリプレゼンテーションを表す1つまたは複数のリプレゼンテーション識別子を抽出するようにさらに構成され、前記1つまたは複数のリプレゼンテーションの各リプレゼンテーションは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、請求項16に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、
1つまたは複数のベースタイルトラックを表す1つまたは複数のベースタイルトラック識別子を抽出することと、
前記1つまたは複数のベースタイルトラック識別子を使用して前記1つまたは複数のベースタイルトラックから最も関心のある領域データを抽出することと
を行うようにさらに構成される、請求項16に記載のデバイス。 - 前記1つまたは複数の最も関心のある領域を決定するために、前記1つまたは複数のプロセッサは、イメージ順序カウントを表す1つまたは複数のシンタックス要素を決定するようにさらに構成され、前記イメージ順序カウントは、前記1つまたは複数の最も関心のある領域を表す前記データが前記イメージに適用されることを示す、請求項16に記載のデバイス。
- ビデオデータについての情報を決定するためのデバイスであって、前記デバイスは、
1つまたは複数の最も関心のある領域を表すデータからビデオデータのイメージの複数の領域のうちの前記1つまたは複数の最も関心のある領域を決定するための手段と、
前記1つまたは複数の最も関心のある領域を表す前記データを使用して前記1つまたは複数の最も関心のある領域を指定する要求を生成する手段と、
サーバデバイスに前記要求を出力するための手段と
を備える、デバイス。 - 実行されると、プロセッサに、
1つまたは複数の最も関心のある領域を表すデータからビデオデータのイメージの複数の領域のうちの前記1つまたは複数の最も関心のある領域を決定することと、
前記1つまたは複数の最も関心のある領域を表す前記データを使用して前記1つまたは複数の最も関心のある領域を指定する要求を生成することと、
サーバデバイスに前記要求を出力することと
を行わせる命令を記憶した、コンピュータ可読記憶媒体。 - ビデオデータについての情報をシグナリングする方法であって、前記方法は、
ソースデバイスのプロセッサが、ここで、前記プロセッサは、回路中にインプリメントされ、ビデオデータのイメージの複数の領域のうちの1つまたは複数の最も関心のある領域を決定することと、前記1つまたは複数の最も関心のある領域は、クライアントデバイスによって検索される可能性が最も高い1つまたは複数の領域を備える、
前記プロセッサが、前記1つまたは複数の最も関心のある領域を表すデータを出力することと、ここにおいて、前記1つまたは複数の最も関心のある領域を表す前記データは、前記ビデオデータを含むビットストリーム中に含まれる、
前記プロセッサが、前記1つまたは複数の最も関心のある領域を表す前記データを出力した後に、前記ビデオデータを出力することと
を備える、方法。 - 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、最も関心のある領域データを含む補足エンハンスメント情報(SEI)メッセージを生成することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項30に記載の方法。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、ファイルフォーマットヘッダ情報中で、最も関心のある領域データを含むサンプルグループボックス、サンプルテーブルボックス、トラックフラグメント、またはセグメントインデックスボックスを生成することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項30に記載の方法。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、最も関心のある領域データを含むHTTPを通した動的適応型ストリーミング(DASH)メディアプレゼンテーション記述(MPD)を生成することを備え、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項30に記載の方法。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、ベース領域に対するそれぞれの最も関心のある領域の位置と、前記ベース領域に対する前記それぞれの最も関心のある領域のサイズとを表す複数のシンタックス要素についての複数の値を生成する、請求項30に記載の方法。
- 前記複数のシンタックス要素についての前記複数の値を出力することは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、
前記ベース領域に対する前記それぞれの最も関心のある領域の左水平オフセットを表す第1のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の上部垂直オフセットを表す第2のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の幅を表す第3のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の高さを表す第4のシンタックス要素についての値を生成することと
を備える、請求項34に記載の方法。 - 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、前記イメージの1つまたは複数のタイルを表す1つまたは複数のタイル識別子を生成することを備え、前記1つまたは複数のタイルは、前記1つまたは複数の最も関心のある領域と空間的にコロケートされる、請求項30に記載の方法。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、前記イメージの前記複数の領域のうちの1つまたは複数の領域を表す1つまたは複数のグループ識別子を生成することを備える、請求項30に記載の方法。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、1つまたは複数のトラックを表す1つまたは複数のトラック識別子を生成することを備え、前記1つまたは複数のトラックの各トラックは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、請求項30に記載の方法。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、前記イメージの1つまたは複数のリプレゼンテーションを表す1つまたは複数のリプレゼンテーション識別子を生成することを備え、前記1つまたは複数のリプレゼンテーションの各リプレゼンテーションは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、請求項30に記載の方法。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、
1つまたは複数のベースタイルトラックにおいて最も関心のある領域データを生成することと、
前記1つまたは複数の最も関心のある領域を表す前記データにおいて、前記1つまたは複数のベースタイルトラックを表す1つまたは複数のベースタイルトラック識別子を生成することと
を備える、請求項30に記載の方法。 - 前記1つまたは複数の最も関心のある領域を表す前記データを出力することは、イメージ順序カウントを表す1つまたは複数のシンタックス要素を生成することを備え、前記イメージ順序カウントは、前記1つまたは複数の最も関心のある領域を表す前記データが前記イメージに適用されることを示す、請求項30に記載の方法。
- 前記1つまたは複数の最も関心のある領域を決定することは、ディレクターの意図またはユーザ統計のうちの1つまたは複数を使用して前記1つまたは複数の最も関心のある領域を決定することを備える、請求項30に記載の方法。
- ビデオデータについての情報をシグナリングするためのデバイスであって、前記デバイスは、
ビデオデータのイメージの複数の領域のうちの1つまたは複数の最も関心のある領域を決定することと、前記1つまたは複数の最も関心のある領域は、クライアントデバイスによって検索される可能性が最も高い1つまたは複数の領域を備える、
前記1つまたは複数の最も関心のある領域を表すデータを出力することと、ここにおいて、前記1つまたは複数の最も関心のある領域を表す前記データは、前記ビデオデータを含むビットストリーム中に含まれる、
前記1つまたは複数の最も関心のある領域を表す前記データを出力した後に、前記ビデオデータを出力することと
を行うように構成された、回路中にインプリメントされた1つまたは複数のプロセッサを備える、デバイス。 - 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、最も関心のある領域データを含む補足エンハンスメント情報(SEI)メッセージを生成するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項43に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、ファイルフォーマットヘッダ情報中で、最も関心のある領域データを含むサンプルグループボックス、サンプルテーブルボックス、トラックフラグメント、またはセグメントインデックスボックスを生成するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項43に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、最も関心のある領域データを含むHTTPを通した動的適応型ストリーミング(DASH)メディアプレゼンテーション記述(MPD)を生成するようにさらに構成され、前記最も関心のある領域データは、前記1つまたは複数の最も関心のある領域を表す、請求項43に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、前記1つまたは複数の最も関心のある領域の各最も関心のある領域について、ベース領域に対するそれぞれの最も関心のある領域の位置と、前記ベース領域に対する前記それぞれの最も関心のある領域のサイズとを表す複数のシンタックス要素についての複数の値を生成するようにさらに構成される、請求項43に記載のデバイス。
- 前記複数のシンタックス要素についての前記複数の値を出力するために、前記1つまたは複数のプロセッサは、
前記ベース領域に対する前記それぞれの最も関心のある領域の左水平オフセットを表す第1のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の上部垂直オフセットを表す第2のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の幅を表す第3のシンタックス要素についての値を生成することと、
前記ベース領域に対する前記それぞれの最も関心のある領域の高さを表す第4のシンタックス要素についての値を生成することと
を行うようにさらに構成される、請求項47に記載のデバイス。 - 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、前記イメージの1つまたは複数のタイルを表す1つまたは複数のタイル識別子を生成するようにさらに構成され、前記1つまたは複数のタイルは、前記1つまたは複数の最も関心のある領域と空間的にコロケートされる、請求項43に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、前記イメージの前記複数の領域のうちの1つまたは複数の領域を表す1つまたは複数のグループ識別子を生成するようにさらに構成される、請求項43に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力定するために、前記1つまたは複数のプロセッサは、1つまたは複数のトラックを表す1つまたは複数のトラック識別子を生成するようにさらに構成され、前記1つまたは複数のトラックの各トラックは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、請求項43に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、前記イメージの1つまたは複数のリプレゼンテーションを表す1つまたは複数のリプレゼンテーション識別子を生成するようにさらに構成され、前記1つまたは複数のリプレゼンテーションの各リプレゼンテーションは、前記1つまたは複数の最も関心のある領域についてのビデオコーディングレイヤ(VCL)データを含む、請求項43に記載のデバイス。
- 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、
1つまたは複数のベースタイルトラックにおいて最も関心のある領域データを生成することと、
前記1つまたは複数の最も関心のある領域を表す前記データにおいて、前記1つまたは複数のベースタイルトラックを表す1つまたは複数のベースタイルトラック識別子を生成することと
を行うようにさらに構成される、請求項43に記載のデバイス。 - 前記1つまたは複数の最も関心のある領域を表す前記データを出力するために、前記1つまたは複数のプロセッサは、イメージ順序カウントを表す1つまたは複数のシンタックス要素を生成するようにさらに構成され、前記イメージ順序カウントは、前記1つまたは複数の最も関心のある領域を表す前記データが前記イメージに適用されることを示す、請求項43に記載のデバイス。
- ビデオデータについての情報をシグナリングするためのデバイスであって、前記デバイスは、
ビデオデータのイメージの複数の領域のうちの1つまたは複数の最も関心のある領域を決定するための手段と、前記1つまたは複数の最も関心のある領域は、クライアントデバイスによって検索される可能性が最も高い1つまたは複数の領域を備える、
前記1つまたは複数の最も関心のある領域を表すデータを出力するための手段と、ここにおいて、前記1つまたは複数の最も関心のある領域を表す前記データは、前記ビデオデータを含むビットストリーム中に含まれる、
前記1つまたは複数の最も関心のある領域を表す前記データを出力した後に、前記ビデオデータを出力するための手段と
を備える、デバイス。 - 実行されると、プロセッサに、
ビデオデータのイメージの複数の領域のうちの1つまたは複数の最も関心のある領域を決定することと、前記1つまたは複数の最も関心のある領域は、クライアントデバイスによって検索される可能性が最も高い1つまたは複数の領域を備える、
前記1つまたは複数の最も関心のある領域を表すデータを出力することと、ここにおいて、前記1つまたは複数の最も関心のある領域を表す前記データは、前記ビデオデータを含むビットストリーム中に含まれる、
前記1つまたは複数の最も関心のある領域を表す前記データを出力した後に、前記ビデオデータを出力することと
を行わせる命令を記憶した、コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662341017P | 2016-05-24 | 2016-05-24 | |
US62/341,017 | 2016-05-24 | ||
US15/591,805 US10565463B2 (en) | 2016-05-24 | 2017-05-10 | Advanced signaling of a most-interested region in an image |
US15/591,805 | 2017-05-10 | ||
PCT/US2017/032185 WO2017205069A1 (en) | 2016-05-24 | 2017-05-11 | Advanced signaling of a most-interested region in an image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019521583A true JP2019521583A (ja) | 2019-07-25 |
JP2019521583A5 JP2019521583A5 (ja) | 2021-04-15 |
Family
ID=59034850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018561468A Pending JP2019521583A (ja) | 2016-05-24 | 2017-05-11 | イメージ中の最も関心のある領域の高度なシグナリング |
Country Status (9)
Country | Link |
---|---|
US (1) | US10565463B2 (ja) |
EP (1) | EP3466084A1 (ja) |
JP (1) | JP2019521583A (ja) |
KR (1) | KR102342274B1 (ja) |
CN (1) | CN109155865A (ja) |
AU (1) | AU2017271981A1 (ja) |
BR (1) | BR112018073956A2 (ja) |
TW (1) | TW201742461A (ja) |
WO (1) | WO2017205069A1 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11287653B2 (en) | 2015-09-09 | 2022-03-29 | Vantrix Corporation | Method and system for selective content processing based on a panoramic camera and a virtual-reality headset |
US10419770B2 (en) | 2015-09-09 | 2019-09-17 | Vantrix Corporation | Method and system for panoramic multimedia streaming |
US11108670B2 (en) | 2015-09-09 | 2021-08-31 | Vantrix Corporation | Streaming network adapted to content selection |
US10694249B2 (en) * | 2015-09-09 | 2020-06-23 | Vantrix Corporation | Method and system for selective content processing based on a panoramic camera and a virtual-reality headset |
US20180176468A1 (en) | 2016-12-19 | 2018-06-21 | Qualcomm Incorporated | Preferred rendering of signalled regions-of-interest or viewports in virtual reality video |
US10999602B2 (en) | 2016-12-23 | 2021-05-04 | Apple Inc. | Sphere projected motion estimation/compensation and mode decision |
US11290755B2 (en) | 2017-01-10 | 2022-03-29 | Qualcomm Incorporated | Signaling data for prefetching support for streaming media data |
US11259046B2 (en) | 2017-02-15 | 2022-02-22 | Apple Inc. | Processing of equirectangular object data to compensate for distortion by spherical projections |
US10924747B2 (en) | 2017-02-27 | 2021-02-16 | Apple Inc. | Video coding techniques for multi-view video |
KR102332525B1 (ko) * | 2017-06-01 | 2021-11-29 | 삼성전자주식회사 | 전자 장치 및 그 동작방법 |
US11093752B2 (en) | 2017-06-02 | 2021-08-17 | Apple Inc. | Object tracking in multi-view video |
US10754242B2 (en) * | 2017-06-30 | 2020-08-25 | Apple Inc. | Adaptive resolution and projection format in multi-direction video |
EP3692721A1 (en) | 2017-10-04 | 2020-08-12 | VID SCALE, Inc. | Customized 360-degree media viewing |
US10893261B2 (en) | 2017-12-06 | 2021-01-12 | Dolby Laboratories Licensing Corporation | Positional zero latency |
CN109996110B (zh) * | 2017-12-29 | 2021-10-22 | 中兴通讯股份有限公司 | 一种视频播放方法、终端、服务器及存储介质 |
ES2971545T3 (es) * | 2018-04-03 | 2024-06-05 | Huawei Tech Co Ltd | Señalización de formato de archivo de mitigación de errores en una codificación de vídeo dependiente del área de visualización basada en flujos de bits de subimágenes |
EP3777220A1 (en) * | 2018-04-13 | 2021-02-17 | Huawei Technologies Co., Ltd. | Immersive media metrics for virtual reality content with multiple viewpoints |
US10958987B1 (en) * | 2018-05-01 | 2021-03-23 | Amazon Technologies, Inc. | Matching based on video data |
US10630990B1 (en) | 2018-05-01 | 2020-04-21 | Amazon Technologies, Inc. | Encoder output responsive to quality metric information |
KR20190136417A (ko) * | 2018-05-30 | 2019-12-10 | 삼성전자주식회사 | 3차원 360도 영상 데이터의 전송 방법, 그에 따른 디스플레이 장치, 및 그에 따른 영상 저장 장치 |
US10623791B2 (en) | 2018-06-01 | 2020-04-14 | At&T Intellectual Property I, L.P. | Field of view prediction in live panoramic video streaming |
US10812774B2 (en) | 2018-06-06 | 2020-10-20 | At&T Intellectual Property I, L.P. | Methods and devices for adapting the rate of video content streaming |
US11108841B2 (en) | 2018-06-19 | 2021-08-31 | At&T Intellectual Property I, L.P. | Apparatus, storage medium and method for heterogeneous segmentation of video streaming |
US10616621B2 (en) | 2018-06-29 | 2020-04-07 | At&T Intellectual Property I, L.P. | Methods and devices for determining multipath routing for panoramic video content |
US11019361B2 (en) | 2018-08-13 | 2021-05-25 | At&T Intellectual Property I, L.P. | Methods, systems and devices for adjusting panoramic view of a camera for capturing video content |
US10708494B2 (en) | 2018-08-13 | 2020-07-07 | At&T Intellectual Property I, L.P. | Methods, systems and devices for adjusting panoramic video content |
WO2020068284A1 (en) * | 2018-09-26 | 2020-04-02 | Futurewei Technologies, Inc. | Virtual reality (vr) viewpoint grouping |
US10779014B2 (en) * | 2018-10-18 | 2020-09-15 | At&T Intellectual Property I, L.P. | Tile scheduler for viewport-adaptive panoramic video streaming |
US11323754B2 (en) * | 2018-11-20 | 2022-05-03 | At&T Intellectual Property I, L.P. | Methods, devices, and systems for updating streaming panoramic video content due to a change in user viewpoint |
CN112312159A (zh) * | 2019-07-30 | 2021-02-02 | 华为技术有限公司 | 视频的缓存方法和装置 |
CN112511866B (zh) * | 2019-12-03 | 2024-02-23 | 中兴通讯股份有限公司 | 媒体资源播放方法、装置、设备和存储介质 |
US11417076B2 (en) * | 2020-09-01 | 2022-08-16 | Qualcomm Incorporated | Detecting a sub-image region of interest in an image using pilot signals |
US11698794B2 (en) * | 2020-09-02 | 2023-07-11 | Ge Aviation Systems Llc | Systems and method for flexible access of a regulated system |
KR20240070513A (ko) * | 2021-09-20 | 2024-05-21 | 퀄컴 인코포레이티드 | 비디오 데이터 픽처 사이즈 변경 요청 및 통지 메시지들의 프로세싱 |
US11924464B2 (en) | 2021-09-20 | 2024-03-05 | Qualcomm Incorporated | Processing video data picture size change request and notification messages |
CN115546652B (zh) * | 2022-11-29 | 2023-04-07 | 城云科技(中国)有限公司 | 一种多时态目标检测模型及其构建方法、装置及应用 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09233467A (ja) * | 1996-02-21 | 1997-09-05 | Fujitsu Ltd | 画像データ通信装置及び画像データ通信システムにおける通信データ量調整方法 |
JP2005260319A (ja) * | 2004-03-09 | 2005-09-22 | Ricoh Co Ltd | 画像処理装置、プログラム、記憶媒体及び画像送信方法 |
JP2011234065A (ja) * | 2010-04-27 | 2011-11-17 | Nec Corp | 動画像通信システム |
JP2013502147A (ja) * | 2009-08-12 | 2013-01-17 | トムソン ライセンシング | 画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法 |
JP2013505687A (ja) * | 2010-12-13 | 2013-02-14 | インテル コーポレイション | データのハイライト及び抽出 |
US20140082054A1 (en) * | 2012-09-14 | 2014-03-20 | Canon Kabushiki Kaisha | Method and device for generating a description file, and corresponding streaming method |
US20150016504A1 (en) * | 2013-07-15 | 2015-01-15 | Sony Corporation | Extensions of motion-constrained tile sets sei message for interactivity |
WO2015014773A1 (en) * | 2013-07-29 | 2015-02-05 | Koninklijke Kpn N.V. | Providing tile video streams to a client |
JP2015533051A (ja) * | 2012-09-18 | 2015-11-16 | ヴィド スケール インコーポレイテッド | タイルおよびタイル群を使用した関心領域ビデオ符号化 |
WO2015197815A1 (en) * | 2014-06-27 | 2015-12-30 | Koninklijke Kpn N.V. | Determining a region of interest on the basis of a hevc-tiled video stream |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7613727B2 (en) | 2002-02-25 | 2009-11-03 | Sont Corporation | Method and apparatus for supporting advanced coding formats in media files |
US7058203B2 (en) * | 2002-05-14 | 2006-06-06 | Lockheed Martin Corporation | Region of interest identification using region of adjacent pixels analysis |
CN102271249B (zh) * | 2005-09-26 | 2014-04-09 | 韩国电子通信研究院 | 用于可伸缩视频的感兴趣区域信息设置方法和解析方法 |
US20070165007A1 (en) * | 2006-01-13 | 2007-07-19 | Gerald Morrison | Interactive input system |
US8606952B2 (en) * | 2008-01-15 | 2013-12-10 | International Business Machines Corporation | Method and system for optimizing bandwidth usage in remote visualization |
JP5039627B2 (ja) * | 2008-03-31 | 2012-10-03 | 株式会社コナミデジタルエンタテインメント | ゲーム画像送信装置、ゲーム画像送信装置の制御方法、及びプログラム |
CN101699862B (zh) * | 2009-11-16 | 2011-04-13 | 上海交通大学 | Ptz摄像机获取感兴趣区域高分辨率图像的方法 |
US8571280B2 (en) * | 2010-02-22 | 2013-10-29 | Canon Kabushiki Kaisha | Transmission of medical image data |
US9883203B2 (en) * | 2011-11-18 | 2018-01-30 | Qualcomm Incorporated | Adaptive overlapped block motion compensation |
US9262670B2 (en) * | 2012-02-10 | 2016-02-16 | Google Inc. | Adaptive region of interest |
US10225546B2 (en) | 2016-02-26 | 2019-03-05 | Qualcomm Incorporated | Independent multi-resolution coding |
-
2017
- 2017-05-10 US US15/591,805 patent/US10565463B2/en active Active
- 2017-05-11 JP JP2018561468A patent/JP2019521583A/ja active Pending
- 2017-05-11 CN CN201780029482.5A patent/CN109155865A/zh active Pending
- 2017-05-11 KR KR1020187033697A patent/KR102342274B1/ko active IP Right Grant
- 2017-05-11 BR BR112018073956-1A patent/BR112018073956A2/pt not_active IP Right Cessation
- 2017-05-11 AU AU2017271981A patent/AU2017271981A1/en not_active Abandoned
- 2017-05-11 EP EP17729229.9A patent/EP3466084A1/en not_active Ceased
- 2017-05-11 WO PCT/US2017/032185 patent/WO2017205069A1/en unknown
- 2017-05-12 TW TW106115903A patent/TW201742461A/zh unknown
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09233467A (ja) * | 1996-02-21 | 1997-09-05 | Fujitsu Ltd | 画像データ通信装置及び画像データ通信システムにおける通信データ量調整方法 |
JP2005260319A (ja) * | 2004-03-09 | 2005-09-22 | Ricoh Co Ltd | 画像処理装置、プログラム、記憶媒体及び画像送信方法 |
JP2013502147A (ja) * | 2009-08-12 | 2013-01-17 | トムソン ライセンシング | 画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法 |
JP2011234065A (ja) * | 2010-04-27 | 2011-11-17 | Nec Corp | 動画像通信システム |
JP2013505687A (ja) * | 2010-12-13 | 2013-02-14 | インテル コーポレイション | データのハイライト及び抽出 |
US20140082054A1 (en) * | 2012-09-14 | 2014-03-20 | Canon Kabushiki Kaisha | Method and device for generating a description file, and corresponding streaming method |
JP2015533051A (ja) * | 2012-09-18 | 2015-11-16 | ヴィド スケール インコーポレイテッド | タイルおよびタイル群を使用した関心領域ビデオ符号化 |
US20150016504A1 (en) * | 2013-07-15 | 2015-01-15 | Sony Corporation | Extensions of motion-constrained tile sets sei message for interactivity |
WO2015014773A1 (en) * | 2013-07-29 | 2015-02-05 | Koninklijke Kpn N.V. | Providing tile video streams to a client |
WO2015197815A1 (en) * | 2014-06-27 | 2015-12-30 | Koninklijke Kpn N.V. | Determining a region of interest on the basis of a hevc-tiled video stream |
Also Published As
Publication number | Publication date |
---|---|
US10565463B2 (en) | 2020-02-18 |
WO2017205069A1 (en) | 2017-11-30 |
BR112018073956A2 (pt) | 2019-02-26 |
KR102342274B1 (ko) | 2021-12-22 |
CN109155865A (zh) | 2019-01-04 |
TW201742461A (zh) | 2017-12-01 |
US20170344843A1 (en) | 2017-11-30 |
AU2017271981A1 (en) | 2018-11-01 |
EP3466084A1 (en) | 2019-04-10 |
KR20190014501A (ko) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10565463B2 (en) | Advanced signaling of a most-interested region in an image | |
US10582201B2 (en) | Most-interested region in an image | |
KR102614207B1 (ko) | Mime 타입 파라미터들을 이용하는 네트워크 비디오 스트리밍에서의 중요 비디오 정보 시그널링 | |
JP7027518B2 (ja) | メディアコンテンツのためのリージョンワイズパッキング、コンテンツカバレッジ、およびシグナリングフレームパッキング | |
US11290755B2 (en) | Signaling data for prefetching support for streaming media data | |
JP2019521584A (ja) | Httpを介した動的適応型ストリーミングにおけるバーチャルリアリティビデオのシグナリング | |
US11665219B2 (en) | Processing media data using a generic descriptor for file format boxes | |
US10587904B2 (en) | Processing media data using an omnidirectional media format |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200413 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210302 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210302 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210601 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220104 |