JP2020205632A - ビデオストリーミングにおけるシーンセクションと関心領域の処理 - Google Patents

ビデオストリーミングにおけるシーンセクションと関心領域の処理 Download PDF

Info

Publication number
JP2020205632A
JP2020205632A JP2020155204A JP2020155204A JP2020205632A JP 2020205632 A JP2020205632 A JP 2020205632A JP 2020155204 A JP2020155204 A JP 2020155204A JP 2020155204 A JP2020155204 A JP 2020155204A JP 2020205632 A JP2020205632 A JP 2020205632A
Authority
JP
Japan
Prior art keywords
tracks
video
gathering
section
slice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020155204A
Other languages
English (en)
Other versions
JP7273766B2 (ja
Inventor
ロベルト・シュクピン
Skupin Robert
ヤゴ・サンチェス
Sanchez Yago
トーマス・シェール
Schierl Thomas
コルネリウス・ヘルゲ
Hellge Cornelius
カルシュテン・グリュネベルグ
Grueneberg Karsten
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of JP2020205632A publication Critical patent/JP2020205632A/ja
Application granted granted Critical
Publication of JP7273766B2 publication Critical patent/JP7273766B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】クライアントに、特定のビデオのピクチャ内の関心領域に対するシグナリングを実行する。【解決手段】セクション固有のビデオデータストリームが、ファイル形式を使用し、セクションを形成するタイルのセットのタイルがその中で符号化されているスライスを、1つ以上のソーストラックのセット中に組み込み、適合性の保存を伴ってシーン全体に関連するビデオデータストリームを削減することにより、導出される。構成命令を含む1つ以上のギャザリングトラックのセットが、スライスの特定部分の置換を通知し、スライスの特定部分をコピーすることを指示することによって、セクション固有のビデオデータストリームの合成を指示するために使用される。大部分のアプリケーションにおいて、ビデオストリームには、プリフェッチまたは他の優先順位付けの概念を有利に誘導するために、位置が時間的に変化する形で関心領域の位置を示す情報が付随している。【選択図】図1

Description

本出願は、シーンのセクションまたは関心領域の特別な処理をサポートするビデオストリーミングの概念に関する。
例えばDASH(HTTPによる動的適応型ストリーミング)(HTTP=ハイパーテキスト転送プロトコル)を使用するビデオストリーミングでは、ビデオストリーミングを特定のシーンセクションに制限し、または特定の関心領域を優先することができると好ましい状況が増えている。例えば、パノラマビュービデオ全体をヘッドマウントディスプレイアプリケーションに送信する必要はない。むしろ、ユーザが見ているセクションに関係するシーンのセクションのみを送信する必要がある。ビデオストリームの一部を除外すると、有効なビデオデータストリームになることはほとんどない。ビデオデータストリームの特定部分の除外が許可される状況は、ほとんどの場合、階層化されたビデオストリームのエンハンスメントレイヤの除外などの特定の状況に限定される。しかし、そのような状況は、シーン部分に関してではなく、ビット深度、空間解像度、時間分解能などの点でビデオデータストリームによって伝達される情報量のスケーラビリティを主に扱う。
その上、ストリーミングターゲット、すなわちクライアントに、特定のビデオのピクチャ内の関心領域に関するヒントを提供して、例えば、ビデオのピクチャの他の部分よりも好まれる関心領域を都合良く予め設定することが好ましいであろう。これまで、このような関心領域のシグナリングを実行する可能性は存在したが、これらの機能は制限されており、サーバとクライアントとの間の通信に負担をかけている。
従って、本発明の目的は、減少されたストリームと元のストリームとの間の適合性を整備する際に、シーンセクション固有の、特定の縮小されたデータストリームのストリーミングを可能にし、かつ、より効率的に関心領域のシグナリングを行う方法を可能にするビデオストリーミングの概念を提供する、ビデオストリーミングの概念を提供することである。
この目的は、独立請求項に記載の主題によって達成される。
本発明者らが見出したことは、セクション固有のビデオデータストリームが、ファイル形式を使用し、セクションを形成するタイルのセットのタイルがその中に符号化されているスライスを、1つ以上のソーストラックのセット内に組み込むことにより、適合性の保存を伴ってシーン全体に関連するビデオデータストリームを削減することにより、導出されてもよく、構成命令を含む1つ以上のギャザリングトラックのセットが、スライスの特定部分の置換を通知し、および/またはスライスの特定部分をコピーすることを指示することによって、セクション固有のビデオデータストリームの合成を指示するために使用されるということである。この手段により、特定のシーンセクションのみに関連するようにビデオデータストリームを縮小することは、しかし、構成命令によって指示されるような合成を行うことによって、適合するセクション固有のビデオデータストリームを取得する機会を受信者、すなわちクライアントに提供することにより実現可能である。
本出願の基礎をなす別の知見は、ビデオストリーミングサーバからクライアントへのビデオストリームによって表されるシーン内の関心領域の位置の指示に関する。大部分のアプリケーションにおいて、プリフェッチングまたは他の優先順位付けの概念を有利に誘導するためには、関心領域の位置が固定されていることは大抵の場合は不十分であることが分かっている。従って、ビデオストリームには、位置が時間的に変化するような形で関心領域の位置を示す情報が付随する。サーバ/クライアントの通信に課せられる制約を低くするために、情報が関心領域のやがて来る位置の変化をスケジュールするような形で、ビデオストリームの5つのフォーマットボックス内で、すなわちビデオストリーム自体の中で、SAND(サーバおよびネットワークアシストダッシュ)メッセージを介して、および/またはストリーミングセッションの開始時に情報を最初に伝達することを介して情報を伝達してもよい。
上記の概念の組み合わせが実現可能であり、以下の説明および従属請求項の主題でもある。
上で概説した概念の有利な実現形態は、従属請求項の主題である。本出願の好ましい実施形態が、図面を参照して以下に説明される。
サーバと、サーバ10がアクセス可能なビデオデータストリームと、一実施形態に従ってサーバ10がクライアントに利用可能にしたストリームとを概略的に示す。 図1のサーバに適合するクライアントを概略的に示し、併せてクライアントが合成する際の基となる、インバウンドストリームおよびセクション固有のビデオデータストリームの概略図、ならびにセクション固有のビデオデータストリームからセクション固有のビデオを再構成する、任意選択的に存在するビデオデコーダ72の概略図を示す。 一実施形態による、特定のスライスに対する合成のサブプロセスの概略図を示す。 適合性の整備を示すための、図1のサーバがアクセス可能なビデオデータストリームと、図2のクライアントによって合成されたビデオ固有のビデオデータストリームとを処理することができるビデオデコーダの概略図を示す。 構成命令のタイプを示すコンストラクタタグと、それに続くデータフィールド長インジケータDFLと、それに続くデータフィールド長のデータフィールドとからなる構成命令の例を示し、それにより合成されたストリームの中へ、例えば置換を挿入する挿入命令の例を表している。 別のコンストラクタタグを有するコピー命令の例を示し、そのデータフィールドは、データフィールド長インジケータによっても示される長さを有するが、参照トラックへのインデックスTRIと、開始点によってコピーされるべき部分の指示において、命令が参照するサンプルまたはピクチャまたはアクセスユニットのインジケータ、すなわちSOと、データオフセットと、長さ、すなわちデータ長とを含む。 図5bの命令の代替例を概略的に示す。 第1の実施形態による、構成命令アレイまたはシーケンスの概略図を示す。 コンストラクタアレイの代替例を概略的に示す。 概念化されたビデオデータの概略図であり、図1〜図4に関連して概説したストリーミングコンセプトの基礎として有利に機能する。 シーンが4×3タイルに細分化され、クライアントに提供されるセクションが3×2タイルの共通サイズをそれぞれ有する例を概略的に示しており、併せて、各タイルソーストラックおよびギャザリングトラックの、対応する個別レプリゼンテーションへの関連付けを示し、それにより、結局、12個のタイルレプリゼンテーションと4個のギャザリングレプリゼンテーションになっている。 共通URLテンプレートをシグナリングすることによってマニフェストのサイズを縮小するために使用できるマニフェストまたはメディアプレゼンテーション記述ファイルの例を示す。 実施形態による、クライアントによって開始されたそれぞれのセグメントフェッチによって導かれるサーバからクライアントへのセグメントトラフィックを示す概略図であり、別個のレプリゼンテーションが、一方ではソーストラックに、他方ではギャザリングトラックに提供される。 図9と比較した代替例を示す概略図であり、ギャザリングトラック情報がソーストラックのセグメント内で伝達される。 図10に従ってギャザリングトラックを伝達する実施形態に従って伝達されるギャザリングトラックを示し、結果として生じる冗長性が示されている。 対応するセクションの左上のタイルに関するソーストラックレプリゼンテーションのセグメント内のギャザリングトラックの伝達を示す概略図であり、図6の例を基礎として考えた場合に、結果として生じる冗長性が示されている。 付加的なインデックスフィールドCIDXを含むように修正された構成命令の例を表す概略図を示し、これにより、示した構成命令を含む対応するギャザリングトラックがパラメータ化可能となり、構成命令のCIDXがパラメータ化設定として使用されるインデックスに対応すれば、構成命令が単に実行される。 図13に示すような、インデックス化可能な構成命令を使用するパラメータ化可能なギャザリングトラックの例を概略的に示すが、図14は、異なるパラメータ化設定における同じパラメータ化可能なギャザリングトラックを示しており、インデックス化可能な構成命令の中で、実際に実行された構成命令を丸で囲んで示している。 時間変化する関心領域の表示を可能にする実施形態による、サーバおよびクライアントを示す概略図を示す。 タイルに細分化されたビデオの概略図を示し、クライアントへのセクション固有のビデオデータストリーム伝送が好ましい例示的な使用例を示す。
図に関して以下で提示した本出願の実施形態の説明は、最初に、適合性の保存においてセクション固有のビデオデータストリームのストリーミングをサポートするビデオストリーミングに関する実施形態に集中する。以下に、ROI位置指示に関する実施形態を説明する。アプリケーションでは、両方のタイプの実施形態を一緒に使用して、両方の概念を活用してもよい。
セクション固有のビデオデータストリーミングに関する実施形態の理解を動機付けし容易にするために、ビデオデータストリームによって表されるホストシーンの部分のみをストリーミングしたいという希望に対する出処を示すアプリケーションシナリオの例を説明する。この例は、基礎となるビデオコーデックとしてのHEVCに関して提供されるが、例がHEVCに関して提供されるという事実は、本出願およびその後に説明される実施形態がHEVCに限定されることを示唆すると見なすべきではない。むしろ、任意の他のビデオコーデックを基礎として使用してもよい。
HEVCビットストリームは、ピクチャ内予測依存性(エントロピー復号依存性を含む)を断つ「タイル」概念を使用して生成することができる。各タイルは、別々に扱うことができ、例えば1つのプロセッサ/コアで処理することができる。各タイルが異なるスライスの中に含まれる場合、異なるタイル間で共有される情報はなく、オンにすると、再構成されたサンプルのループフィルタリングのみが必要となるであろう。タイルが使用される場合、ビデオ全体は、N×Mタイルの矩形パターンで構成される。特定の使用例では、大きなパノラマから取った小さなウィンドウ(別名RoI)の表示のように、タイルのサブセットのみをデコードする必要があるだろう。しかし、最初にHEVCビットストリームは、ピクチャのタイルが前のピクチャの異なるタイルから推測されないようにインター予測が制約されるように符号化されなければならない。これらの制約が満たされたとしても、ビットストリームの不要な部分が除去される一方で、タイルの選択に対応するビットストリームの部分が連結される場合、結果として得られるビットストリームは、もはや適合するHEVCビットストリームではない場合がある。
図16に示す例では、選択されたRoI(図中の矩形960で幅が示される)に対して、9つのタイル(HEVC仕様の観点ではタイルセット)からなるタイルサブセットがどのように抽出されるかが示されている。9つのタイルは、図16において、CUアドレス100、110、120、200、210、220、300、310および320が示されているタイルである。抽出された部分のCuAddrが0から始まらず(すなわち、first-_slice_segment_in_pic_flagが1に等しいスライスを含まないことを意味する)、かつ、いくつかのCuAddrおよび対応するデータが欠落しているので、すなわち1つのタイル行から別のタイル行に移行するときに、CUアドレスはタイル毎に連続していないので、抽出されたHEVCビットストリームは有効ではない。明らかに、これはどのタイルが選択されるかに依存し、例えば、最も左上のタイルが省略された場合、残りのタイルは適合するHEVCビットストリームを形成することができない。
CUアドレス空間に関する上記の問題に加えて、抽出されたビットストリーム(すなわち、HEVCビットストリーム全体よりも少ない量のタイルを含むRoI)の特性に適合する、生成される必要がある追加パラメータ(PPS、SPS、VPSなど)、またはSEIメッセージがある。
すなわち、図16に関する上述の説明から、ビデオデータストリームの一部を除去してセクション固有の縮小されたビデオデータストリームを得る場合、適合性の保存は単純な課題ではないことが明らかである。以下に説明される実施形態は、適合性を維持しながらビデオデータストリームのセクション固有部分を伝送することを可能にする。
図1は、本出願の一実施形態によるビデオストリーミングサーバ10を示し、サーバ10の動作モードの説明を容易に理解するために、ビデオ12、ビデオ12が符号化されて取り込まれサーバ10が少なくとも部分的にアクセスするビデオデータストリーム14、ならびにストリーム16を概略的に示しており、そのストリーミングをサーバ10がクライアントに提供して、クライアントからセクション固有のビデオデータストリームを、以下により詳細に説明する合成によって取得する。サーバ10を実装するにはいくつかの可能性があることに留意されたい。例えば、サーバ10は、電子回路などのハードウェア、フィールドプログラマブルアレイなどのファームウェア、または適切にプログラムされたコンピュータの使用などによるソフトウェアで実装してもよい。
以下でより詳細に説明するように、ビデオストリーミングサーバ10は、ストリーム16のストリーミングをクライアントに利用可能にするように構成されている。後者のストリームに基づいて、クライアントは、以下により詳細に概説される方法で、セクション固有のビデオデータストリームを合成することができる。好ましくは、ストリーム16内のデータ量は、データまたはビデオデータストリーム14の量と比較して縮小される。原理を理解するために、ビデオデータストリーム14と、ビデオ12がビデオデータストリーム14内に符号化された方法とをまず説明する。サーバ10は、ストリーム16を構築するために基礎とする、サーバ10によって除去されないビデオデータストリーム14の少なくとも一部に関するビデオデータストリーム14を利用できる。
図1に示すように、ビデオ12はピクチャ18のシーケンスで構成される。図1に示されている、ビデオ12の内の例示的な3つの連続するピクチャ18が示されている順序20は、出力または表示の時間順序に対応し得る。従って、各ピクチャ18は、シーンの空間サンプリングを表し、すなわち、サンプルのアレイから構成され、それに応じてビデオ12はシーンの空間時間サンプリングを表す。ピクチャ18の各々はシーンを完全に示す。「完全に」という用語は、データストリーム14内に符号化された各ピクチャ18がシーンを示すということを表し、これに対して、後述するように、ストリーム16に基づいて合成可能なセクション固有のビデオデータストリームに符号化されたピクチャは、シーンのセクション22を示すのみである。
ピクチャは、空間的にタイルに細分化される。タイルへのピクチャ18の細分化は、タイルが行と列に規則的に配置されるようにしてもよい。図1の例では、例えば、ピクチャ18は、3×3のタイルのアレイに細分化されて示されており、タイルは参照符号24を使用して全体として示され、1つのピクチャ18内のタイルをAからIを用いてラベリングすることにより、互いに区別している。しかし、ピクチャ当たりのタイルの数は、このタイルの数に限定されない。むしろ、ピクチャ18は、代わりに、例えばN×M>2である、N×Mタイルの任意のアレイに分割してもよい。しかし、タイル24は、矩形以外の形状を有してもよいことに留意されたい。その上、ピクチャ18の、行および列に配置されたタイル24のアレイへの細分化もまた、限定的であると見なすべきではない。むしろ、他の種類のタイル分割が使用されてもよい。タイル24は、HEVCのタイルの概念に関するHEVC標準で示される「タイル」に限定されるべきではないことにも留意されたい。図1においてここで言及されたタイル24は、ピクチャ18が細分化されるサブ領域の任意のサブ領域を示すものとする。図1に示すように、ピクチャのタイル24への細分化がピクチャ18間で等しく、それによりピクチャ18のタイル境界26を比較したときにタイル間のタイル境界が一致すると好ましい場合がある。
ピクチャ18がどのようにデータストリーム14内に符号化されるかについての詳細な方法は多様であるが、符号化は少なくともビデオデータストリーム14がスライス26のシーケンスで構成されるように行われなければならない。
スライス26は、例えば、データストリーム14を送信してもよいユニットである。スライス26は、例えば、ユニットを形成してもよく、ユニットにおいてデータストリーム14が個別にまたは連続したスライスのセットで、それぞれ、NALユニットにまたは転送パケットにパケット化されてもよい。以下でより詳細に説明するように、各スライス26は、スライスヘッダとペイロードセクションとから構成されてもよい。当面は、各スライスがタイル24を1つだけ内部に符号化して有するように、ピクチャ18がデータストリーム14のスライサ26の中に符号化されれば十分である。図1では、例えば、各タイル24がちょうど1つのスライス26内に符号化されていることを示すが、これは一例に過ぎず、図1の実施形態の範囲を限定するものとして扱うべきではない。図1では、スライス26とタイル24との間の関連性をそれぞれ示すために、大文字AからI、およびピクチャ18からデータストリーム14に至る破線が使用されている。図1に示すように、データストリーム14は、特定のピクチャ18のタイル24に関連するスライス26が、それらの間に任意の他のピクチャが符号化されているタイルであるスライス、またはそのタイルを有するスライスが存在しない形で、データストリーム14内に配置される形で順序付けられたスライス26を含んでもよい。すなわち、異なるピクチャ18のタイル24を伝達するスライス26はインターリーブされない。しかし、それも単なる例であって、更なる説明を制限するものとして扱うべきではない。完全を期すため、図1はまた、データストリーム14内にピクチャ18のいかなる特定のタイル24にも由来しないスライス28が存在するであろうことを示している。そのようなスライス28は、例えば、2つ以上のタイル、ピクチャ18の全体、またはピクチャ18のシーケンスにさえ関係する有効性または範囲を有する符号化パラメータを伝達してもよい。以下に提示した説明ではスライス26に重点を置いているが、スライス28は、本実施形態の基礎をなす明白な効果を得るために、スライス26に関して説明したのと類似の方法で処理してもよいことは明らかである。
既に上で示したように、サーバ10はビデオデータストリーム14のスライス26を利用できる。例えば、ビデオデータストリーム14はそのままデジタル記憶媒体に格納されてもよく、サーバ10はそこからビデオデータストリーム14または関連する部分を読み出してストリーム16を形成する。しかし、以下でより詳細に説明するように、代替的実施形態によれば、サーバ10は、サーバ10がストリーム16を直接読み込んでクライアントにストリーミングすることができる形で概念化された、予め調整されたビデオデータに直接アクセスする。後者の態様は、サーバ10がクライアントに利用可能にするストリーム16に関する更なる詳細を記述した後に、より明確になるであろう。
特に、サーバ10は、シーンのセクション22に関係するだけの低減された量のデータをクライアントに提供するために、クライアントにストリーム16を利用可能にする。図1の例では、例えば、セクション22は、タイルD、E、GおよびHの2×2サブアレイを単に覆っている、またはサブアレイによって形成されているものとして示されている。従って、タイルA、B、C、FおよびIは、セクション22に属していない、すなわちセクション22の外部にあり、それに応じて、セクション22の外側にあるピクチャ18の部分をその中で符号化している。それに応じて、サーバ10は、ストリーム16がスライス26の一部またはサブセットのみを組み込んでいるように構成されている。特に、サーバ10は、ストリーム16がファイル形式でフォーマットされ、1つ以上のソーストラック30、30、30および30のセット30、ならびに1つ以上のギャザリングトラックのセット32を含むように構成される。セット30は、セクション22内のタイルが符号化されるスライス26、すなわちタイルD、E、GおよびHをその中に組み込んでいる。図1において実施形態が選択され図示されており、セット30の各ソーストラックがセクション22内のタイルの内の1つに関連付けられ、関連付けは参照符号30の下位インデックスの対応する大文字の使用によって示されている。すなわち、この実施形態の場合、各ソーストラックは、関連するタイル24が符号化されたスライス26を組み込んでいる。スライス28などの他のスライスが存在する場合は、それをセット30に分配するために所定のルールを使用してもよい。これが行われる方法はここでは重要ではない。その上、代替的実施形態によれば、ソーストラックとセクション22内のタイルとの間の1対1の関連付けは使用されない。むしろ、セット30内にはただ単に1つのソーストラックが存在してもよい。
図1は、セット32が1つのギャザリングトラック32を単に備える場合を示す。しかし、後で説明するように、セクション22に関するギャザリングトラックのセット32は1を超えてもよい。例えば、セット32内のギャザリングトラックの数は、セクション22内のタイル24の数に等しくてもよい。
1つ以上のギャザリングトラックのセット32は、セクション固有のビデオデータストリームの前述の合成を示す構成命令を含んでおり、ビデオデータストリームの中にはシーン22のセクションを単に示すだけのピクチャが符号化されている。構成命令は、一連の矩形34により図1に示されている。
図1のビデオストリーミングサーバ10と通信するクライアントの以下の説明から明らかになるように、構成命令34は、セクション固有のビデオデータストリームの合成を指示または定義しており、例えばクライアントによって実行され、ソーストラックセット30に組み込まれたスライス26の特定部分の置換を通知し、ソーストラックセット30内のスライス26の特定部分をコピーするように指示する。
図2は、図1のビデオストリーミングサーバ10に適合するクライアント50を示しており、クライアントは、構成命令34によって規定されたように、ビデオストリーミングサーバ10からストリーム16を取得し、セクション固有のビデオデータストリームの合成を実行することによって、ビデオストリーミングサーバ10からビデオ関連セクション22を取得するように構成されている。クライアント50の動作モードに関する以降の説明を容易に理解できるように、図2には、クライアント50がビデオストリーミングサーバ10から取得するストリーム16、ならびにクライアント50が命令34による指示による合成に従って構築するセクション固有のビデオデータストリーム52が概略的に示されている。
構成命令34の例の詳細、およびこれら命令34のシーケンスがセクション固有のビデオデータストリーム52の適切な合成を定義し得る方法については、図5a〜図5eに関して後述するが、ここで概略を提示する。図1に関して上述したように、異なるピクチャのスライス26が互いにインターリーブされないということが、データストリーム適合性の1つの要件であり得る。従って、命令シーケンス34は、後続のピクチャ18のタイルに関するスライス26の合成に後続の命令が信号を送る前に、1つのピクチャに属するタイルの特定部分を適切な順序でデータストリーム52にコピーする。従って、図2のセクション固有のビデオデータストリーム52において、ストリーム順で、1つのピクチャに関するスライスが別のピクチャに関するスライスとインターリーブされないように、合成されたスライス54がデータストリーム52内に存在することが分かる。スライス54は、スライス26の修正したものを表す。セクション22内の修正スライス54とタイルとの間の関連が、対応するタイル24の大文字によって図2に示されている。スライス26に対するスライス54のこの種の「変更」を図示するために、スライス26を図示する図3を参照する。図3では、スライス26は、シンタックス要素ワイズ符号化セクション56、およびそれに続く非シンタックス要素ワイズ符号化セクション58からなるものとして示されている。セクション56とセクション58の間の順序は、単に説明の目的のために選択されたものであることを強調すべきである。その上、スライス26がセクション56と58に二分されなくてもよい一方で、セクション58が欠落さえしてもよいが、セクション56および/または58の内の2つ以上を有してもよい。「シンタックス要素ワイズ符号化」という用語は、そのようなセクション56内において、データストリームのシンタックス要素60がデータストリーム内に符号化されていて、セクション56内のデータストリーム内の各ビットに対して、対応するビットが関係するシンタックス要素60が厳密に1つだけ存在し、その逆も同様であるという事実を意味し得る。換言すれば、対応するセクション56内に符号化されたシンタックス要素60のシーケンスは、連続したシンタックス要素60の間のジャンクションがビットストリームドメイン内で保持され、それにより各シンタックス要素60が、セクション56内の1つ以上のビットの対応する連続するランに一意的に関連付けられるように、セクション56で符号化される。例えば、そのようなセクション56内では、シンタックス要素60は圧縮なしで、または可変長コードを使用して符号化されてもよい。これと比較して、「非シンタックス要素ワイズ符号化された」とは、各セクション58内に符号化されたシンタックス要素のシーケンス間の接合部がビットストリーム領域内で不鮮明になり、そのためセクション58内のビットはもはや、シンタックス要素の内の1つに厳密に由来しないセクション58を意味する。例えば、そのようなセクション58は、例えば、算術的に圧縮された部分であってもよい。
例えば、セクション56はスライス26のスライスヘッダであるか、またはそれを含み、一方でセクション58はスライス26のペイロードセクションであるか、またはそれを含むことができる。例えば、データストリーム14を符号化するために使用されるビデオコーデックは、例えば予測コーデックであってもよい。セクション56の中に符号化されたシンタックス要素60は、例えば、対応するスライス26が、対応するデータストリーム14内に符号化された対応するピクチャの最初のスライスであるかどうかを示すフラグ60a、および/またはスライス26内に符号化されたピクチャのスライス部分の位置またはスライスアドレスを示すシンタックス要素60bを含んでもよい。シンタックス要素60は、例えば、スライス26のスライスヘッダ内に符号化されてもよい。ペイロードセクションおよび/または非シンタックス要素ワイズ符号化セクション58内に符号化されるシンタックス要素は、コーディングモード、ブロック細分化情報、動きベクトル構成要素などの予測パラメータ、ピクチャ参照インデックス、および/または残余サンプル値および/または予測残余を通知する変換係数レベルなどのシンタックス要素であってもよい。
スライス26から修正スライス52を形成する際に、クライアント50によって実行される合成62の一部として、ギャザリングトラックセット32内の命令34の内の1つ以上は、データストリーム26から特定部分をコピーしてもよい。そのような命令34は、図3に斜線で示されている。スライス26および52内のコピー部分66および70も斜線で示されている。コピーはビットストリームドメインで実行される。すなわち、トランスコーディングは行われない。コピーは、シンタックスレベルではなく圧縮ドメインまたはビットドメインで実行される。コピー命令内に分散化またはインターリーブされることもある、図3に斜線で示した1つ以上の他の命令34は、スライス26の非コピー部分の代わりに、修正スライス52の中に挿入される置換を通知してもよい。スライス26の非コピー部分は、図3では斜線なしで示され、その置換はスライス52内で同様に斜線なしで示される。図3に示すように、置換部分または非コピー部分64はシンタックス要素60を含んでもよく、これらのシンタックス要素の変更値は、対応する置換命令によって通知され、その一例が、斜線のない矩形34によって図3で示される。ストリーム16のスライス26内のそれぞれの非コピー部分64の代わりに修正スライス54内のデータストリーム52内に挿入される置換の内容は、命令34のオペレータフィールド内で通知されてもよく、またはギャザリングトラックセット32内の対応するフィールドを指し示すなどの他の手段によって、置換オペレータ34によって通知されてもよい。従ってコピー命令34のシーケンスは結果として修正スライス54になり、図3の例ではコピー命令34はコピー部分66をコピーし、そこで置換命令は置換68をスライス54に中に挿入して非コピー部分64を置換し、コピー命令34は、スライス26の更なるコピー部分70をスライス54の中にコピーする。このようにして得られた修正スライス54は、部分66、68および70のシーケンスに関連しており、部分66、64および70のシーケンスに対応する元のスライス26と比較して修正されている。しかし、図3の例は説明のためにのみ選択されたものであり、例えばスライス26に対する合成62内の修正プロセスは置換命令で開始することができることに留意されたい。従って、第1のコピー命令は、例えば、存在しなくてもよい。その上、以下の説明から明らかになるように、他の構成命令のタイプがあってもよく、そのタイプの実行または合成への参加が、例えば命令内に記載された特定のインデックスに依存してもよく、それにより、ある種のパラメータ化設定として機能し得る「選択された」インデックスに対応するフィールド内のインデックスの場合においてのみ、対応する命令が実行される。従って、結果として得られるギャザリングトラックは、インデックスに応じて通知される合成において変化する。その上、図3には具体的には示していないが、合成参照内、すなわちソーストラックのスライス内に、コピーされず置換もされない、すなわち単純に除外/省略される部分があってもよく、64の不要部分を単純に除外/省略する仕組みがあってもよい。
図3に関して概説したやり方において、データストリーム52内のスライス54は、シンタックス要素60がセクション22の周縁部に正しく位置合わせされるように、すなわち、例えばピクチャ18の左上隅の代わりに、セクション22の左上隅を参照するように、データストリーム14および16内の対応するスライス26と比較して修正されてもよい。
従って、この動作固有のビデオデータストリーム52が図2の破線のボックスで示すようなビデオデコーダ72に供給されると、ビデオデコーダはビデオ74を出力し、そのピクチャ76はシーンのセクション22を単に示し、従ってタイルD、E、GおよびHのみから構成されている。
図1の説明と同様に、クライアント50は、ハードウェア、ソフトウェアのファームウェアで実施されてもよい。すなわち、クライアント50は、電子回路、フィールドプログラマブルアレイであってもよく、または適切にプログラムされたプロセッサを備えていてもよく、ビデオデコーダ72についても同様である。ビデオデコーダ72に関しては、クライアント50内に含まれてもよいし、クライアント50の外部にあってもよいことに留意されたい。
これまで説明したように、合成62によって、データストリーム14に対する適合性を保つような形でビデオデータストリーム52が得られたことが明らかになったはずである。例えば、上述したように、ビデオ適合性は、例えば、対応するビデオデータストリーム内に符号化されたビデオの1つのピクチャに属するデータストリーム内のスライスが、ピクチャのタイル24を横断する特定のタイル順序に沿って、例えばラスタースキャン順に、例えば行毎に上から下へ順序付けられていることを必要としたであろう。ビデオデータストリーム14では、例えば、特定のピクチャに属するタイルはABCの順にAからIに横断しており、データストリーム52では、ビデオ74の1つのピクチャ24のタイルに属するスライスが、D、E、G、Hの順に並び、続いて次のピクチャのタイルに関するスライスが続くように、修正スライス54が順序付けられており、以下同様である。各修正スライス54内では、シンタックス要素60などのシンタックス要素は、その値に関して修正されていた可能性がある一方で、スライスの他の部分は、いかなる修正もしていないデータストリーム52内、すなわちコピー部分70などのコピーされた部分内に採用されていた可能性がある。スライス28のような他のスライスもデータストリーム52内で修正してもよい。例えば、スライス28の修正した例を表すために、スライス78が図2に例示的に示されている。従って、データストリーム52内のスライス54のシーケンスは、ギャザリングトラックのセット32内の対応する順序の命令34の実行から生じる。適合性保存は、ビデオデータストリーム14を復号化してビデオ12を再構成することができるビデオデコーダが、ビデオデータストリーム52によって交互に供給される場合を考慮することによって示すことができる。適合性保存によって、ビデオデコーダは、ビデオデータストリーム52をデコードした結果、ビデオ74を得る。例えば、図4のビデオデコーダは、図2のビデオデコーダ72であってもよく、従って図4では同じ参照符号が選択されていることに留意されたい。しかし、代替例によれば、ビデオデコーダ72は、ビデオデコーダ72の複雑度のレベルが低減されているため、元のビデオデータストリーム14を復号することができない場合があることに留意されたい。例えば、MPEG規格の用語を使用すると、ビデオデコーダ72は、例えば元のビデオデータストリーム14を復号するには十分ではないが、縮小されたビデオデータストリーム52を復号するには十分なプロファイル、レベルまたはティアに従うビデオデコーダであってもよい。しかし、データストリーム14および52は両方とも、例えばHEVCなどの1つのビデオコーデックに準拠している。
これまで説明してきた実施形態を実現するための更なる詳細を提供する前に、理解を容易にするためにいくつかの注釈を提示するつもりである。例えば、上記の説明は、ピクチャ18のこのシーンの1つの特定セクション22に固有のセクション固有のストリーム16を、クライアントに提供するサーバ10の能力に重点を置いたものである。当然ながら、サーバ10は、図1のタイルB、C、EおよびFを例示的に包含するか、またはそれによって形成される一点鎖線80によって描かれた、このシーンの他のいくつかのセクションに関して、対応する出力ストリームの形で、ソーストラックの対応するセット30およびギャザリングトラックのセット32を提供できてもよい。すなわち、セクション22とセクション80の両方は、ピクチャ18のタイルの対応するn×mサブアレイからなるシーンの矩形セクションである。ソーストラックのセット30は、次いでタイルB、C、EおよびFに関するスライスを伝達し、1つ以上のギャザリングトラックのセット、すなわち32は、縮小されたセクション固有のビデオデータストリームの対応する合成を実行し、その符号化によりシーンセクション24に対応するピクチャが得られる。「サポートされる」セクションの数は、2よりも大きくてもよい。その上、22および80などの部分的なストリーミングがサポートされる、いかなる部分も、隣接するタイルのセットをカバーするように、または隣接するタイルのセットと同等の幅を有するようには制限されない。むしろ、セクションを形成するセットは、不連続なタイルのセットから構成されてもよい。例えば、ピクチャ18で示されるシーンが360°のパノラマビューであったと想定する。この場合、意味のあるセクションは、タイルC、A、F、Dを含むセクションのように、シーンの1つのエッジから反対側のエッジまで及ぶセクションによって形成することもできる。しかし、独立して符号化されたタイルの場合は、対応するギャザリングトラックはそれに対応するソーストラックを、適合するセクション固有のビデオデータストリームに合成することができ、結果としてサブセクションCFをサブセクションADとつなぎ合わせて表示するセクション固有のピクチャが得られる。ピクチャ76のセクション内のタイルを、ピクチャ18内の相対的な位置に対して再配置することさえも用途によっては実現可能であり、有意義であり得る。
その上、上記の説明は、ピクチャがデータストリーム14および52内にそれぞれ符号化される方法に関してかなり一般的であった。一例によれば、ピクチャ18は、タイル24のタイル境界をまたいだ符号化相互依存性の中断を伴って、ビデオデータストリーム14のスライス26内に符号化されている。更に、同じピクチャの空間的に異なる部分をカバーする他の任意のタイル24からも独立した1つだけのタイル24を、すなわち対応するタイルを含むピクチャ、または他の任意のピクチャからも空間的に異なる部分をカバーする他の任意のタイルを含むピクチャを、各スライス24がその中に符号化しているようにさえ、ピクチャ18はビデオデータストリーム14のスライス26内に符号化されてもよい。例えば、特定のピクチャのタイルEは、同じピクチャ内にあっても、任意の他のピクチャ内にあっても関係なく、タイルA、B、C、D、F、G、H、Iの任意のタイルへのいかなる符号化相互依存性もなく、対応するスライス26内に符号化され得る。このような制限により、ビデオ12に基づいてデータストリーム14を形成するエンコーダが、動き補償された予測を形成するためにタイルE以外のタイルのサンプルを必要とする参照ピクチャの一部を指し示さないように、現在のタイルのタイル境界付近の利用可能な動きベクトルを制限することが要求され得る。しかし、ハイブリッドビデオ符号化コーデックのような予測コーデックを使用する義務はないことに留意されたい。例えば、代替として、ピクチャ18は、動き補償を伴うまたは伴わないウェーブレット符号化、ロスレス符号化技術等を用いて符号化することができる。その上、ピクチャ18を符号化する際に利用される空間的相互依存性は、大部分が比較的小さな距離に制限されるので、ピクチャ18は、タイル境界25をまたいだ符号化相互依存性を中断することなく、ビデオデータストリーム14のスライス26内に符号化することさえできる。縮小されたビデオデータストリーム52を再構成する際、セクション22を切り取り、その周辺をビデオ74のピクチャ76内にないものとして扱うことにより、対応する情報が損失し再構成歪みが生じるが、ピクチャ76の周縁部に沿った領域は限定されるので、結果として得られるピクチャ76の画質はアプリケーションによっては十分であり得る。下記に提示する詳細に関しては、これらの詳細は、ストリーム52用のファイル形式の例としてISOベースのメディアファイル形式を特に参照することにも留意されたい。しかし、ストリーム52は、このファイル形式を使用してフォーマットされることに限定されない。むしろ、任意の他のファイル形式を使用してもよい。図1に示すように、ストリーム16は、使用されるファイル形式に従って、ストリーム16によって表されるファイルに含まれるソーストラックのセット30とギャザリングトラックのセット32とを定義するファイルヘッダ90を含んでもよく、併せて、例えば、ギャザリングトラックのセット32のソーストラックのセット30からの依存関係などの、トラック30と32との間の相互依存性の定義を含んでもよい。その上、ファイル形式に依存して、セット30および32内の個々のトラックを指し示すポインタがファイルヘッダ90に含まれていてもよい。この目的のために、ストリーム16は、各々がピクチャ76の1つのピクチャ時刻に対応する、アクセスユニットまたはサンプルに細分化されてもよい。
ISOベースメディアファイル形式のようなファイル形式を使用して、タイル24の特定のサブセットの読み取りを可能にするサイド情報をファイル16内に格納し、任意の規格適合のデコーダ72によって復号可能な適合(例えばHEVC)ビットストリーム52を生成することが可能である。
このようなデコーダ72の出力74は、フルビデオフォーマットの矩形サブセット22であってもよい。
異なるタイルサブセット22、80に対しては、異なるスライスヘッダを有することが必要であることに留意されたい。スライスヘッダが各タイルサブセット22、80に対して正しいCuAddr60bを有することを確実にするために、データの複数のバージョンを生成することができる。従って、各タイルサブセット22、80用に、正しいNALユニットが正しいCuAddr60bと共に格納されているファイル16内の異なる位置を指し示す、専用ギャザリングトラック32を生成することが可能である。しかし、これはいくつかのタイルサブセット固有の調整によって全てのビットストリームを複製することにつながり、いくつかの欠点をもたらす。
− ファイルサイズが増加する(多くの場合、逓倍される)
− 同時に、異なるタイルサブセットの伝送がトランスポートデータレートを増加させる(多くの場合、逓倍される)
− 異なるサブセットに対して同じタイルとしてキャッシュすることの有害な影響は、異なるトラックおよびビデオデータに対応し得る。
従って、これまで説明した実施形態は、別の方法を選択した。
1.元のビットストリームのタイル24のスライス26は、別々のトラック30A−Iに格納される。各フルピクチャ18は、ファイル16内に、例えばヘッダ90内に格納されたいくつかのメタデータによって与えられる定義済みの順序で、トラック30A−I各々の1サンプルを連結したものに対応する。
2.特定のタイルサブセット22については、追加のトラック32が生成され、元のビットストリームを形成するトラックセット30から選択された情報を収集する。
3.複数の「ギャザリング」トラックを生成することができ、一般にはタイルサブセット22または80毎に1つのそのようなトラックを生成することができる。
4.「ギャザリング」トラックの各サンプルは、1つ以上のコンストラクタ34アレイ(図5d参照)からなる。
5.各コンストラクタアレイを解釈から、NALユニットまたはスライス54が得られる。
6.3種類のコンストラクタが使用できる。
− タイルサブセットに対して具体的に生成されるデータ100を保持する、イミディエイトデータコンストラクタ(図5a参照)。これは、例えば、各スライスの有効なslice_headerをタイルサブセット22のサンプルに含めるために使用することができる。
− 各々が別のトラックを指し示し、その参照トラック30D〜30Hのサンプルから取得される情報を選択する、サンプルコンストラクタ(図5b参照)。これは、有効なslice_headerまたはスライスペイロードのいずれかを指し示すために使用できる(オフセットを使用してペイロードに隣接するslice_headerをスキップする)。コピー部分のオフセット102および長さ104はオペレータであることもある。
− 各々が参照トラックのサンプルエントリを指し示し、情報(パラメータセットなど)を選択する、サンプルエントリコンストラクタ(図5c参照)。
注記:ファイル形式標準で既に指定されている構造とは対照的に、ここで説明する方法では、サンプルの任意の部分を連結し、それらをサンプルで与えられた任意のデータと連結して出力サンプルを形成することができる。先に指定された構造は、別のトラックのデータを参照することができるが、設計された目的に固有のヘッダデータを生成する。例えばRTPヒントサンプルは、RTPパケットのみを生成できるが、他のトラックからデータを収集し任意のデータを含むことができ、またはエクストラクタNALユニットは、1つ以上のNALユニットを生成することができるだけであるが、他のトラックから収集されたデータブロック長を示すことによって短縮することができる。
・ 新しいシンタックス要素のサポートが必要であることを示す新しいブランドを指定してもよい。
・ ギャザリングトラックのサンプルが、新しいサンプルを無視するレガシーリーダ50による解析を可能にする互換シンタックス(図5e参照)を使用する場合、そのような「ギャザリング」トラックのサンプルエントリに既存のコードポイントを使用することができる。
N×M個のタイル24、Cに切断されたピクチャ18の全ての可能な矩形(連続した)タイルサブセット22(80)の数が式1を用いて計算される。N≦8、M≦8のときの、Cの得られた値を表1に示す。
特定サイズn×mの可能な矩形タイルサブセット22の数は、式2(上述のようにピクチャサイズN×M)を使用して計算される。N×Mのピクチャからの3×2のタイルサブセットに対して得られる値C3,2が、3≦N≦8かつ2≦M≦8の場合について表2に示される。
式2: Cn,m=(N−n+1)*(M−m+1)
図2〜図5に関して提示した上述の説明は、可能な構成命令に関する詳細な例を明らかにしただけでなく、セクション22は、第1に、幅がn×mタイルのアレイではなく単に1つのタイルであってもよく、第2に、サーバ10およびクライアント50は、上で概説したように動作してもよいが、いくつかのセクションの内の1つを選択する可能性に関しては、その数は1(22)または2(22/80)に限定されない、という可能性をも明らかにした。サーバ10が取得を可能にする、セクション固有のビデオデータストリームのセクションのサイズ、およびこれらセクションの位置に依存して、タイル境界25の全てではない部分が、サーバ10によってサポートされる任意のセクションの周縁部を形成する場合もある。これはその結果、本出願の一実施形態によれば、ピクチャ18が、サーバ10によってサポートされる任意のセクションの周縁部の同一位置にあるタイル境界25をまたいでのみ符号化相互依存性の中断を有して、ビデオデータストリーム14のスライス26内に符号化されてもよいことを意味する。例えば、セクション22および80のみをサポートする場合は、セクション22および80の周縁部、すなわちタイル対AD、BE、EF、HI、AB、DE、EH、およびFIの間のタイル境界25のみと同一位置にあるタイル境界25のみが、符号化相互依存性を中断することによって、ピクチャ18のスライス26内への符号化によって考慮され得る。しかし、より高い密度のセクションの場合、例えば、一実施形態によれば、全てのタイル境界25が符号化相互依存性の中断を引き起こす。これに関連して、同じピクチャのタイル間の符号化相互依存性の中断に関してなされたのと同じ記述が、以前のピクチャへの依存関係が制限されるという、前述の可能性にも適用され得る。すなわち動き予測は、任意のセクション周縁部をまたぐ時間上の参照ピクチャの部分に対する依存関係が存在しないような形に制限される。
以下の実施形態は、セクション22に関するストリーム16などの、特定のセクションに関する特定のストリームを、サーバ10がどのように利用可能にするかに関する可能な詳細を提供する。以降の詳細を容易に理解できるように、図6を参照すると、ビデオ12および対応するソーストラック30〜30が再び示される。ここで、図1の例は、各ソーストラックが、1つのピクチャに関する限り、対応するピクチャのタイルのちょうど1つに属するスライスと、他のピクチャ内の同一位置のタイルのスライスとを組み込んでいることに応じて選択されている。従って、ソーストラック30は、ピクチャ18のタイルAに関する全てのスライス26を組み込んでいる。同様に、ソーストラック30は、全てのピクチャ18のタイルBに関する全てのスライス26を伝達し、以下同様である。各ソーストラック30〜30において、1つの時刻またはピクチャ18に属するスライス26は、後でクライアントにストリームされるファイル形式ストリームにおいて1つの「サンプル」を形成する。サンプル(ピクチャ)のシーケンス、すなわちピクチャの特定のシーケンス120に関するスライスの連続するランは、対応するURLを介してクライアントによって個別に取得可能なセグメント122を形成する。図6において、例えば、ピクチャ18のシーケンス120のタイルAをその中に符号化したスライス26のシーケンスがセグメント122を形成し、次いでピクチャ18の連続するシーケンス124のタイルAをその中に符号化したスライス26が続き、ソーストラック30の後続セグメント126を形成し、以下同様である。同様に、他のソーストラック30〜30も時間的にサンプル(ピクチャ)120および124、ならびにセグメント122および126に細分化される。
次に説明する実施形態では、各セクションのギャザリングトラックのセット32が類似の方法で利用可能になっている。図6では、例えば、サーバが、シーンの4つの異なるセクション22〜22、すなわち、それらの間でセクションの位置が異なるだけの各々が2×2の幅のセクションの取得を利用可能にすることが示されている。これらのセクション22〜22の各々について、1つのギャザリングトラック32〜32がサーバで利用可能になっている。また、各ギャザリングトラック32〜32は、時間的にもサンプルとセグメントの中に構成されている。各サンプル128について、ギャザリングトラック32などのギャザリングトラックは、構成命令34を含み、その逐次実行の結果、対応するセクション22のみを示す縮小されたセクション固有のビデオデータストリームの、対応するアクセスユニットの合成をもたらす。すなわち、セクション22を示すピクチャを再構成する、対応するスライスの合成をもたらす。合成のために、ギャザリングトラック32は単にソーストラック30、30、30および30を必要とする。類似の方法で、ギャザリングトラック32〜32は、対応するセクション22〜22に対する各サンプル/ピクチャ128用の構成命令34を含む。ソーストラック30〜30と同様に、ギャザリングトラック32〜32はクライアントによってセグメント122および126の単位で個別に取得可能であり、セグメントの各々は対応するギャザリングトラック32〜32のサンプル128の対応するシーケンスを伝達する。従って、図6の例では、クライアントは、セクション22に関するセクション固有のビデオデータストリームを得るために、参照されたソーストラック30、30、30および30と共にギャザリングトラック32を取得する必要がある。
従って、図6の実施形態によれば、クライアント10は、ソーストラック30〜30およびギャザリングトラック32〜32の各々を別個のレプリゼンテーションとして扱い、例えば、クライアント52からサーバ10への対応する要求の時点で、サーバ10上の利用可能なメディアデータを記述するファイルであるメディアプレゼンテーション記述のようなマニフェストの中で、状況をクライアントに通知する。しかし、これは、サーバ10によってクライアント50に提供されるメディアプレゼンテーション記述がかなりの量の情報を含む必要があることを意味する。例えば、各レプリゼンテーションに対して、すなわち30〜30および32〜32(全部合わせて13のレプリゼンテーション)の各々に対して、メディアプレゼンテーション記述は、ベースURLまたはURLベースの指示と、ピクチャサイズの指示、すなわちソーストラック30〜30の場合はタイルサイズの指示、ギャザリングトラック32〜32の場合はセクションサイズの指示と、対応するレプリゼンテーションのセグメントのURLをベースURLと比較してまたは組み合わせて決定するための計算規則を定義するセグメントまたはURLテンプレート、および/または対応するレプリゼンテーションが従属するレプリゼンテーションの指示、例えばレプリゼンテーション32が依存する参照レプリゼンテーションとしてのレプリゼンテーション30、30、30および30の指示と、を含み得る。これは相当量のデータである。
これは、図7に関して示されており、4×3タイル分割と、サイズ3×2の対応する4つのセクションの例示的場合を示す。なお、以降の説明では、セクション22〜22を関心領域RoIと呼ぶこともある。更に、ギャザリングトラックに関するレプリゼンテーションはギャザリングレプリゼンテーションと呼ばれ、ソーストラックに対応するレプリゼンテーションはタイルレプリゼンテーションと呼ばれる。
可能な組み合わせの数は、可能な提供されたRoI次元の低減された数を選択することによって、例えば2×2、3×2または3×3タイルRoIのみに制限することによって低減することができるが、メディアプレゼンテーション記述(MPD)内のDASH内に記述された追加トラックまたはレプリゼンテーションの数は依然として非常に多くであろう。図7は、3×2RoIが提供される4×3タイルパノラマビデオの場合に、説明されたソリューションがどのようになるかを概念的に示す。
ギャザリングレプリゼンテーションの各々は@dependencyIdを使用して、元のレプリゼンテーションであるTile Representation Rep.Tile1〜Rep.Tile12の内のどのレプリゼンテーションに依存しているかを示す。
次に説明する実施形態は、セグメントテンプレートコンセプトをレプリゼンテーションのセット、すなわちギャザリングトラックに関するレプリゼンテーションのセットに向けて拡張することによって、ギャザリングトラックに関して多くの冗長な情報を運ぶメディアプレゼンテーション記述が非常に大きいという問題を克服しようとするものである。メディアプレゼンテーション記述が、各ギャザリングレプリゼンテーションを別々に記述する代わりに、次の実施形態によるメディアプレゼンテーション記述は、セクションの空間位置に依存するギャザリングレプリゼンテーションのセグメントのURLを決定するための計算規則を定義するURLテンプレートを有する、メディアプレゼンテーション記述またはマニフェストを提供する。計算規則は、計算されたURLが全てのギャザリングトラック32〜32のセグメント間で相互に異なるようなものである。この概念は、セクション22〜22のサイズが同じであって、それにより、マニフェストまたはメディアプレゼンテーション記述が、全てのギャザリングレプリゼンテーション(セクション22〜22)に共通した1つで、ギャザリングレプリゼンテーションの特徴を記述できる場合に使用することができる。例えば、メディアプレゼンテーション記述またはマニフェストは、全てのギャザリングレプリゼンテーションに対して1回だけ、ピクチャサイズ、コーディングプロファイルおよび/またはベースURLを示すことができる。URLまたはセグメントテンプレートはまた、ギャザリングレプリゼンテーションのためにマニフェストまたはメディアプレゼンテーション記述内で1回だけ通知される。現在取得されているギャザリングレプリゼンテーションの対応するソーストラックのセットは、取得されたギャザリングレプリゼンテーション自体が属する対応するセクションがカバーするタイルの知識に基づいて、クライアントによって決定され得る。
換言すれば、後者の実施形態は、URLのセグメントテンプレートを使用してギャザリングレプリゼンテーションを取得することを可能にする。それはテンプレートを使用したGatheringRepresentationのコンセプトで構成される。上記の図7に示す全てのギャザリングレプリゼンテーションは、ピクチャ次元、ピクチャアスペクト比、プロファイル、レベルなどの同一の特徴を有するべきであるが、他のレプリゼンテーションへの依存性および高解像度ビデオにおける右上の位置が異なるため、テンプレートに基づくURLによる単一のレプリゼンテーションを提供することができ、高解像度ビデオの右上の位置に基づいて、所望のギャザリングレプリゼンテーションに属する各セグメントの特定のURLを導出することができる。
シグナリングの観点からのインスタンス化は、ギャザリングレプリゼンテーションのためのURLテンプレートの例を示す図8のようになる。
記載されたシグナリングにより、URLを構築し、RoIの位置に基づいて必要なタイルを導出することが可能になる。より具体的には、このギャザリングトラックテンプレートに基づく解決策を使用するために、異なる要素および属性がMPDに追加される。最初に、タイルレプリゼンテーションを異なるAdaptationSetに分割してもよく、既存のSpatial Relationship Descriptor(SRD)を使用してもよい。次に、GatheringRepresentationが埋め込まれている場合、更なるAdaptationSetを提供してもよい。GatheringRepresenationsがAdaptationSet内に含まれている場合、他のレプリゼンテーション(「通常のレプリゼンテーション」)は同時に提供され得ない。GatheringRepresentationsの存在を、@GatheringRepresentationsPresentと呼ばれる新しい属性によって(または代替として、この特別なレプリゼンテーションの存在を示すことを可能にするURN(unifrom resource name)を追加することによって、記述子、例えばEssentialProperty記述子を使用することにより)、指示してもよい。GatheringRepresentationsと一緒に使用するためにダウンロードできるタイルレプリゼンテーションを含むAdaptationSetは、帰属する@BaseAdaptationSetIdsによって示される。GatheringRepresentations、ならびに通常のレプリゼンテーションで使用されるRepresenationBaseType内の既存の@width属性と@height属性を使用して、指定されたGatheringRepresentationを使用するのに必要なタイルレプリゼンテーションの数を導出することができる。加えて、属性@sameQualityRankingを使用して、異なる性質を有する異なるタイルのレプリゼンテーションをGatheringRepresentationsと一緒に使用すべきでないことを示すことができる。テンプレートURLは、GatheringRepresentationsのセグメントのURLを導出するために使用されるので、そのようなURLテンプレート内に配置できるパラメータを導出するための仕組みが必要である。DASHでは、4つの識別子がテンプレートURLの置換に使用される。
$Number$と$Time$は、レプリゼンテーション内の所与のセグメントを識別し、そのURLを生成するために使用される。$RepresentationID$と$Bandwidth$は、レプリゼンテーションを識別するために使用され得る。1つ目は一意の識別子に対応し、2つ目は2つ以上のレプリゼンテーションの間で共有することができる。従って、実際のタイルを含む通常のレプリゼンテーションに基づいて、GatheringRepresentationの$RepresentationID$を導出するルールが必要である。これは、SegmentTemplate要素がGatheringRepresentationと一緒に使用される場合、この識別子を含まなければならないこと、および$RepresentationID$を生成するメカニズムを提供する新しいコンストラクタ(または既存のコンストラクタの拡張子、例えばEssentialProperty記述子)を追加する必要があることを意味する。これは、上記のXML構文に、要素idDerivationMechanismによって追加される。1つの例は、例えば、@schemeIdURIが「urn:mpeg:dash:GatheringRepresentationIDderivation:2015」width@valueが1に等しい、に等しい場合であり、タイルレプリゼンテーションの@id属性が連結されて、対応するGatheringRepresentationの$RepresentationID$を生成することを意味する。
記載された方法は、テンプレートベースのレプリゼンテーションを使用することによってMPDのサイズを縮小するのに役立つであろう。しかし、このようなアプローチでは、依然としてクライアント側からギャザリングレプリゼンテーションセグメントに対して追加のHTTP GETを発行する必要があり、サーバ側から提供される必要がある小さなファイルの数が非常に大きくなることにつながり、サーバおよびキャッシュにとって不利であることが知られている。しかし、毎回、ギャザリングレプリゼンテーションのみがダウンロードされるため、同じ解像度の全てのギャザリングレプリゼンテーションが同じトラックを持つことができ、それにより「moov」ボックスを小さく抑えることができるので、「moov」ボックス内のトラック数を小さく抑えることになる。
トラック依存関係は「moov」ボックス内に、より明示的には「trak」ボックス内に記述されるため、moovボックスは全ての依存関係のスーパーセットを含んでいなければならず、そのとき、@dependencyIdは正しいものをMPEG−DASHに渡す。これは、「tref」ボックス内で通知される全ての従属トラックが毎回は存在しないことにつながり、このことは、複数のコンストラクタが異なるトラックを参照する、明示的な再構成を用いてのみAU再構成が可能であり、(所望のRoIに属する)異なるトラックから異なるコンストラクタを収集する、暗黙の再構成は可能ではないことを意味する。この事実は、複数のギャザリングトラック間のある種の「重複した」シグナリングから、一部のオーバーヘッドにつながるであろう。
図9は、サーバ側でセグメントを収集するための多数の小さなファイルが存在することを示している。
従って、上記の説明は、ソーストラックとギャザリングトラックを別個のレプリゼンテーション、すなわちタイルレプリゼンテーションおよびギャザリングレプリゼンテーションとして別々に扱うことを可能にするために、メディアプレゼンテーション記述140(図8)のサイズをどのように縮小するかの可能性を提供したが、図9は、レプリゼンテーションのセグメントに対応する各時間間隔において、クライアント50がサーバ10から取得するセグメントの数がかなり多いことを明らかにした。図9は、斜線を使用してギャザリングレプリゼンテーションのセグメントを示すことによって、一方ではタイルレプリゼンテーションの任意のセグメントを、他方ではギャザリングレプリゼンテーションのセグメントを区別している。図9に示すように、クライアント50は、現在ダウンロードされているギャザリングレプリゼンテーションの各セグメント142に対してN個のタイルセグメント144を取得する必要がある。ここで、Nは、現在ダウンロードされているギャザリングレプリゼンテーションが関連するセクションが空間的にカバーするタイルの数である。例えば、図6の例では、現在ダウンロードされているビデオセクション22〜22のために、クライアント50によって4つのセグメントが取得されなければならない。しかし、各セグメント取得は、対応する要求がクライアント50からサーバ10に送信されることを必要とするので、これらセグメントがタイルセグメント144に比べてかなり小さいという事実を考慮するときには特に、ギャザリングセグメント152を追加で送信することを避けることが好ましい。
サーバおよびCDNに有害な多数の小さなファイルの問題を回避するために、別の実施形態は、以下に示すように、各レプリゼンテーションに、従って(サブ)セグメントに2つのトラックを有することで構成される。最初のものは、他のタイルとは独立して再生されたときに、各タイル(または、同じトラックに複数がカプセル化されている場合はタイルグループ)のサンプルをリカバリーする方法のみを記述する典型的なビデオトラックに対応する。図10を参照して、状況を図9と比較されたい。
ギャザリングトラックにはいくつかのオプションがある。
最初のものは、上述の技術を使用することからなり、これは、所望のRoIの左上タイルの追加トラック(ギャザリングトラック)が必要なトラック依存性のみを示し、明白なAU再構成が以前に定義されたコンストラクタの命令に従うことにより実行され得ることを意味する。ユーザは、どれが左上タイル(図の例では、最初はtrackN+1、それ以降はtrackM)であるかに応じて、1つまたは別のギャザリングトラックを再生し得る。ダウンロードされたギャザリングトラックを参照し、サンプル毎に単一のスライスを仮定したとき、存在するコンストラクタが図11に示される。
再び図6を参照して状況を説明するために、図12を参照するが、そこでは図6の例に関連して、セクション22に関心があるときに、クライアント50が時刻/ピクチャ/サンプルに関して取得する4つのセグメントを示しているが、ここではギャザリングトラックのために余分なレプリゼンテーションを費やさないという概念を使用している。むしろ、ギャザリングトラック32〜32は、ソーストラック自体のセグメント内に「隠されている」または「含まれる」。図12は、クライアント50によって、ある時刻にソーストラック30、30、30および30の各々から1つずつ取り出された4つのセグメントを示す。上述のように、ギャザリングトラック32〜32は、それぞれのギャザリングトラックに対応するセクションの左上のタイルを形成するタイルに対応するソーストラックのセグメント内に含まれている。例えば、ギャザリングトラック32はソーストラック30のセグメント内で伝達され、ギャザリングトラック32はソーストラック30のセグメント内で伝達され、ギャザリングトラック32はソーストラック30のセグメント内で伝達され、ギャザリングトラック32はソーストラック30のセグメント内で伝達される。図12は、クライアント50が、ギャザリングトラック32が依存しているソーストラックを取得するために、取得するソーストラック30、30、30および30の内の1つのサンプルを示し、ギャザリングトラック32はソーストラック30に含まれる。ギャザリングトラック32のサンプル128の構成操作34のシーケンスは、タイルA、B、DおよびEに関して合成を順次実行する。従って、構成操作のシーケンスは、4つの部分150〜150に細分化される。同様に、ギャザリングトラック32〜32の対応する構成命令は、他のソーストラック30、30および30内に含まれている。クライアントは後者を必要としないが、他のセクション22〜22のいずれかに関心を持つクライアントのために含まれている。図12から分かるように、構成命令の部分の中で、ギャザリングトラック32〜32の各々の中にはタイルEに関連する1つの部分がある。しかし、これらの部分は大変類似しており同一であり、例えば、波括弧152を用いて示される下位部分に関して同一である。部分152がカバーしていないタイルEに関する部分の残部は、例えば、参照符号60aおよび60bを使用して図3に関して上述した第1のスライスおよびスライスアドレス指示に関連してもよい。冗長性を除去するために、引き続き説明する概念を使用してもよい。しかし、これを説明する前に、ソーストラック30、すなわち対応するセクション22の左上のタイルに関するソーストラックのみの中のギャザリングトラック32の伝達が、例えば部分151〜154が、対応するセクション22によってカバーされるタイル上に分配されるように、変更されてもよいことに留意されたい。その場合、例えば、ギャザリングトラック32は、ソーストラック30、30、30および30に分配される。
図11および図12に関して既に説明したように、多くの冗長な情報が存在する。加えて、異なる量のタイルをグループ化するRoIの可能な解像度が複数ある場合、可能性のある解像度毎に1つずつ、より多くのギャザリングトラックが必要になり、そこでは図にマークしたデータがあらゆる場所で冗長であり得る。
更なる実施形態は、前述の冗長情報に関する問題を扱う。その目的のために、暗黙の再構成が考慮され、そこでは各ギャザリングトラックが、コンストラクタインデックスが存在するコンストラクタのアレイで構成される。ビデオ内の対応するトラックの位置に応じて(または「tref」依存関係の順序に従って)インデックスが決定され(i)、CIDX=iのコンストラクタのみが実行される。従って、NALUペイロードサイズなどの共通の情報を共有し、いくつかの異なるヘッダの可能性のみを通知することができ、オーバーヘッドの一部が節約される。図13には、前述のイミディエイトコンストラクタに対するそのようなコンストラクタの構造が示されている(他のエクストラクタも類似の方法で拡張することができる)。
図14に、この技術を使用するときのサンプル用のコンストラクタを示す。
従って、図14で分かるように、より少ない冗長データが必要となる。
すなわち、図12に関して上述した冗長性を避けることの後者の可能性は、以下のように実現される。すなわち、左上の(または他の)タイルに関するソーストラックの中に完全にあるギャザリングトラック32などのギャザリングトラックを、対応するセクション22内で伝達するのではなく、パラメータ化可能なギャザリングトラックが各ソーストラック30〜30内で伝達される。「パラメータ化」の数は、対応するソーストラックが関係するタイルと重なり合うセクションの数に相当する。例えば、ソーストラック30は、各セクション22〜22のメンバであるタイルEに関係する。従って、ソーストラック30内で伝達されるパラメータ化可能なギャザリングトラックギャザリングトラックは、利用可能な4つのパラメータ化を有し得る。タイルB、F、DおよびHのソーストラック内で伝達されるパラメータ化可能なギャザリングトラックに対しては単に2つのパラメータ化が存在しさえすればよく、タイルA、C、GおよびIのソーストラックにはパラメータ化が存在する必要がないか、または1つだけ存在しさえすればよい。「パラメータ化」は、対応するパラメータ化可能なギャザリングトラックを、実際のギャザリングトラック32〜32の対応する部分に変える。例えば、ソーストラック30内で伝達されるパラメータ化可能なギャザリングトラックは、最初の値を用いてパラメータ化された場合、部分150になる。従って、クライアント50は、シーンのセクション22をダウンロードするためにソーストラック30、30、30および30を取得し、各ピクチャまたはサンプルに対して、連続して、ソーストラック30内で伝達された(パラメータ化されたまたはパラメータ化されていない)ギャザリングトラックと、ソーストラック30および30に対応してパラメータ化されたギャザリングトラックと、ソーストラック30の適切にパラメータ化されたギャザリングトラックとを実行し、続くピクチャまたはサンプルについても以下同様である。別のパラメータ化を使用して、ソーストラック30の同じパラメータ化可能なギャザリングトラックが、パラメータ化されていない任意のギャザリングトラック32〜32に対して、部分152を形成することができる。図13および14に関して示すように、「インデックス化可能構成命令」を使用して、パラメータ化可能なギャザリングトラックの非同一部分または適合可能部分を形成することができる。適用されたインデックスに応じて、適用されたインデックスに対応するインデックスフィールドを有する、インデックス化可能な命令だけが合成に関与する。しかし、例えばシーンが360°のパノラマビューの場合には有意義なので、サポートされたセクションのセットは、図12に示すものに対して拡大して、あるシーンのエッジから別のシーンのエッジに及ぶものも含むことができることを、繰り返しておく。対応するギャザリングトラックを有する追加セクションは、例えば、タイルセット{C、A、D、F}および{D、F、G、I}をカバーするセクションであり得る。この場合、全てのタイルA〜Iのソーストラックのセグメントは、パラメータ化可能なギャザリングトラックを取り込むであろうし、パラメータ設定の数は、トラック30D,E,Fのセグメントに対しては3つ、トラック30A,B,C,G,H,Iに対しては2つである。
選択されたRoIに対応するアクセスユニット(AU)を再構成するために、2つ以上のセグメントのこれらギャザリングトラックのいくつかを使用する必要があることは明らかである。そのような場合、追従すべきギャザリングトラック間の依存関係を知ることが重要である。1つのオプションは、他のギャザリングトラックの依存関係を無視して、左上位置のタイルの「tref」依存関係に追従することである。
加えて、2つ以上のRoI次元(1ピクチャあたりN×Mタイル、Nは水平タイル数、Mは垂直タイル数)が許容される場合、この手法を使用しないとトラック数は非常に急速に増加する。この結果、ダウンロードされる必要のある「moov」ボックスが多数となり、またはダウンロードされている、全てのトラックが定義された「moov」ボックスが非常に大きくなる。レプリゼンテーション毎に複数のトラックを用いた暗示的再構成により(キャッシュやCDNのパフォーマンスに有害な)非常に小さなセグメントをダウンロードする必要を除外できるが、ギャザリングトラックに対して別個のレプリゼンテーションが提供される、上で説明した最初のアプローチと比較して、大きな「moov」ボックスまたは多数の「moov」ボックスをダウンロードすることが必要となる。
暗黙のAU再構成では、上述の技術を拡張して、追加CIDXを追加することによって、同じトラックを異なるRoI次元に使用することができる。コンストラクタの使用法は、上で説明したものと同じであり、所与のインデックスを持つものだけが実行される。
しかし、このような場合、異なる依存関係を記述することは不可能なので、「tref」ボックスを使用して依存関係を導出することはできない。同様に、プロファイル、レベルなどを記述するサンプルエントリは、同じトラックが異なる最終RoI解像度に使用され得るため、現在使用されているようには使用できない。
「tref」は、各ギャザリングトラックによって使用されて、どのタイルトラックに適用するかを示す。所与のROIを抽出するために、新しいボックスを追加して、複数のギャザリングトラックを関連付ける機能を果たし得る。このトラックは中心的でなければならず、例えば、「moov」ボックスにおけるある種の代替グループ化によって、可能な全てのROIを記述しなければならない。所与の次元のROIを再生するには複数の代替例があるが、この代替案の各々はパノラマビデオの所与の位置に対応する。
現在の実施形態は、可能な動作点を記述し、AU再構成のために同時に使用する必要のある異なるトラックを関連付けることを可能にする、代替サンプルグループの定義を含み、かつ、正しいNALUを得るためにコンストラクタアレイで使用する必要があるCIDXを含む。
そのとき、代替サンプルグループは、プロファイル、レベルを記述することができる。すなわち、それらはサンプルエントリと同じ情報を含まなければならない。
実施形態2では、ギャザリングトラックは、別個のレプリゼンテーションとして提供されると想定している。ギャザリングトラックに非外部レプリゼンテーションが使用される場合(すなわち、それらがタイル自体と同じセグメントに含まれる場合)、異なるタイルを一緒に復号化できることをMPD内に通知する必要がある。これは、要素を追加するか、または既存のサブセット要素を変更することによって実行できる。ギャザリングトラックを用いて利用可能なROIの寸法、ならびに集合的にダウンロードされたデータのmime Typeは、そのような要素に含まれることになる。
従って、クライアントへの適応型ストリーミングを介したソーストラックおよびギャザリングトラックに関する直近の説明を簡単に要約すると、次のことが明らかになったはずである。ソーストラックおよびギャザリングトラックは、別個のセグメント内で、すなわち、各々が別個のURLに関連した別個のレプリゼンテーションのセグメント内で伝達されてもよく、従ってソーストラックレプリゼンテーションとギャザリングトラックレプリゼンテーションとは区別することができる。結果として得られる縮小されたセクション固有のビデオデータストリーム52の特定セグメントに対して、クライアント50は従って、所望のセクション内のタイルを伝達するソーストラックの各々の対応するセグメントと、所望のセクションに関連するギャザリングトラックの対応するセグメントとをフェッチしなければならない。メディアプレゼンテーション記述またはマニフェストは、これらのギャザリングレプリゼンテーションの、ピクチャサイズ、セグメントテンプレートなどの特徴を別個に記述しながら、ギャザリングレプリゼンテーションのための、相互に異なるURLベースの明示的なシグナリングを含んでいてもよい。マニフェストファイルサイズを縮小するために、全てのギャザリングレプリゼンテーションに共通に、マニフェスト内にURLテンプレートを提示してもよい。計算規則は、セクションの空間位置に応じて、ギャザリングトラックのセグメントのURLの計算法を定義する。セクションは、このマニフェスト縮小コンセプトに従って同じサイズでありシーン位置においてのみ互いに異なる。それに応じて、マニフェストは、ギャザリングレプリゼンテーションの残りのレプリゼンテーション特徴の多くまたは全てを、ピクチャサイズなどのこれらギャザリングレプリゼンテーションに関しては、共通して記述することができる。他の実施形態では、ソーストラックのセグメントのみが相互に異なるURLに関連付けられ、従って対応するソーストラックレプリゼンテーションのセグメントを形成する。この実施形態によれば、クライアントは、所望のシーンセクション内でスライスを伝達するそれらのソーストラックレプリゼンテーションのセグメントを、特定の所望のセクションに対してフェッチし、これらのセグメントは、所望のセクションに関連するギャザリングトラックを同時に伝達するかまたは含み、ギャザリングトラックは構成命令を含み、フェッチされたセグメント内で伝達されたスライスからセクション固有のビデオデータストリームを合成する。特定の所望のセクション用のギャザリングトラックは、所望のセクション内のタイルに関連するソーストラックの内の所定の1つのセグメント内にのみ伝達されてもよく、このセグメントは、所望のセクション内の所定のタイル位置内のタイル、例えば所望のセクションの左上のタイルに関するスライスを伝達するセグメントなどである。別の実施形態では、各ソーストラックレプリゼンテーションは、そのセグメント内に、ソーストラック固有のパラメータ化可能なギャザリングトラックを含む。ここで、依然として、クライアントは、セクション内のタイルの間で定義されたタイル順で、パラメータ化されたギャザリングトラックに基づいて、セグメント内で伝達されるパラメータ化可能なギャザリングトラックを適切にパラメータ化し、セクション固有のビデオデータストリーム合成を実行することで、所望のセクション内にあるタイルのスライスに関するソーストラックに属するそれらセグメントをフェッチするだけであり、パラメータ化されたギャザリングトラックのサンプル、すなわち所定のピクチャに関する部分は、パラメータ化されたギャザリングトラックの、その時点でタイル順に実行されている後続のサンプルと共に、タイル順で実行される。パラメータ化は、別のインデックスを含むパラメータ化可能なギャザリングトラック内の構成命令がスキップされるように、所定のインデックスを選択することによって実行されてもよい。しかし、上述したように、ソーストラックのセグメント内にギャザリングトラックを詰め込む場合であっても、クライアントには、ギャザリングトラックを別個のレプリゼンテーションとして処理する場合にMPD内で伝達されるような、ギャザリングトラックに関する情報に類似した情報が組み込まれていてもよい。例えば、マニフェストまたはMPDに対し、いわば対応するギャザリングトラックの存在を示すことによって、複数のタイル、すなわち特定のセクションを一緒に再生できることの保証を付与されてもよく、この情報は、対応するギャザリングトラックを使用して合成によって得られた、セクション固有のビデオデータストリームを復号するのに必要な、プロファイル、レベル、およびティアなどの、セクションに関連する情報を付加的に含んでいてもよい。この意味で、マニフェストは、どのタイルセットを一緒に再生できるかに関する制限をも示しており、すなわち許可されるセクションと許可されないセクションの内の1つを形成する。
上記の概念および実施形態は、ISOベースのメディアファイル形式をそれに応じて拡張するために、以下のように具体的に実施することができる。ここでは、任意選択的に、独立して復号化可能なHEVCタイルは、タイルトラックと呼ばれる異なるトラックで伝達される場合がある。タイルトラックは、タイルが属する関連するHEVCレイヤのNALユニットを伝達するHEVCトラックへの「tbas」参照があるビデオトラックである。このようなタイルトラック内のサンプル、またはサンプル記述ボックスはいずれも、VPS、SPSまたはPPS NALユニットを含まない。むしろ、これらのNALユニットは、対応するタイルトラックの「tbas」トラック参照によって識別されるように、関連するレイヤを含むトラックのサンプル内またはサンプル記述ボックス内に存在する。「tbas」トラック参照によって示されるように、タイルトラックおよび関連レイヤを含むトラックは両方とも、以下で定義されるように、エクストラクタを使用して所望のビットストリームがどのように解釈されるかを指示してもよい。タイルトラック内のサンプルは、1つ以上のタイルの完全なスライスのセットである。ビデオ全体を含むタイルトラックまたはトラックの使用とは関係なく、これらは、上で例を説明したエクストラクタを使用することによって、必要に応じて断片が抽出される参照またはソーストラックとして機能することができ、更なる例をここで説明する。特に、ISOベースのメディアファイル形式のHEVCおよびL−HEVCトラック用のエクストラクタは、参照によってNALユニットデータを抽出するトラック、すなわちギャザリングトラックのコンパクトな形成を可能にする。エクストラクタは、1つ以上のコンストラクタを含んでもよい。
a)サンプルコンストラクタは、参照によって、別のトラックのサンプルからNALユニットデータを抽出する。
b)サンプル記述コンストラクタは、参照によって、サンプル記述からNALユニットデータを抽出する。
c)インラインコンストラクタは、NALユニットデータを含む。
従って、そのようなエクストラクタは図5eまたは図5dのように構成してもよく、そこではアレイ長の指示をオフにすることができる。サンプルコンストラクタおよびサンプル記述コンストラクタは、図5a〜5cのように具体化されてもよい。
アグリゲータはエクストラクタを含んでもよく、または参照してもよい。エクストラクタはアグリゲータを参照してもよい。エクストラクタが、エクストラクタを必要とするファイルリーダによって処理されると、含まれているコンストラクタを出現順序で解決するときに生じるバイトによって、エクストラクタは論理的に置き換えられる。アグリゲータ以外は、サンプルコンストラクタによって参照されるバイトはエクストラクタを含んではならない。エクストラクタは別のエクストラクタを直接的または間接的に参照してはならない。当然ながら、エクストラクタによって参照されるデータはそうであってはいけないが、エクストラクタによって参照されるトラック、すなわちソーストラックはエクストラクタを含んでいてもよい。
エクストラクタは、現在のトラックから、またはエクストラクタが「scal」タイプのトラック参照によって常駐するトラックにリンクされた別のトラックから、データを抽出するための、1つ以上のコンストラクタを含むことができる。解決されたエクストラクタのバイト数は、次の内の1つになる。
a)NALユニット全体。アグリゲータが参照されると、含まれたバイトおよび参照されたバイトの両方がコピーされる。
b)2つ以上のNALユニット全体。
どちらの場合も、解決されたエクストラクタのバイトは有効な長さフィールドおよびNALユニットヘッダで始まる。
サンプルコンストラクタのバイトは、指定された「scal」トラック参照によって参照されるトラック内の単一の識別されたサンプルからのみコピーされる。このアラインメントはデコード時間に基づいて行われる。すなわち、サンプル化時間テーブルのみを使用し、その後のサンプル数のカウントされたオフセットによって行われる。エクストラクタはメディアレベルの概念であり、従っていかなる編集リストも考慮される前にデスティネーショントラックに適用される。当然ながら、2つのトラック内の編集リストは同一となるように選択することができる。
エクストラクタの構文例を以下に示す。
class aligned(8) Extractor () {
NALUnitHeader();
do {
unsigned int(8) constructor_type;
if( constructor_type == 0 )
SampleConstructor();
else if( constructor_type == 1 )
SampleDescriptionConstructor();
else if( constructor_type == 2 )
InlineConstructor();
} while( !EndOfNALUnit() )
}
上記の構文例の意味に関しては、同じものが次のようになる。
NALUnitHeader()は、ISO/IEC 23008−2 NAL unitsの最初の2バイトを示すことができる。nal_unit_typeは、ISO/IEC 23008−2 videoでは49に設定される。forbidden_zero_bitは、ISO/IEC 23008−2で指定されているように設定することができる。他のフィールドは、nuh_layer_idおよびnuh_temporal_id_plus1に関する場合があり、後で指定するように設定され得る。constructor_typeは、後続のコンストラクタを指定する。SampleConstructor、SampleDescriptionConstructor、およびInlineConstructorは、それぞれ0、1、2に等しいconstructor_typeに対応する。constructor_typeの他の値は、他のコンストラクタのために予約されていることもあるが、そうでないこともある。EndOfNALUnit()は、このエクストラクタでデータが更に続くときに0(偽)を返す関数である。それ以外の場合は1(真)を返す。
サンプルコンストラクタの構文については、次の例を参照されたい。
class aligned(8) SampleConstructor () {
unsigned int(8) track_ref_index;
signed int(8) sample_offset;
unsigned int((lengthSizeMinusOne+1)*8)
data_offset;
unsigned int((lengthSizeMinusOne+1)*8)
data_length;
}
上記のサンプルコンストラクタ構文の意味は次のようになる。
track_ref_index:図5bおよび図5cのTRIのような参照トラックを指す。
sample_offset:参照トラック、すなわち所望のピクチャIDに対応する参照トラックの一部の先頭で「サンプル」をインデックス化する。すなわち、sample_offsetは図5bのSOに対応し、
data_offset:コピーされる参照サンプル内の最初のバイトのオフセット。そのサンプル内のデータの最初のバイトで抽出が開始された場合、オフセットの値は0をとる。すなわち、data_offsetは、図5bおよび5cのデータオフセットに対応し、
data_length:コピーされるバイト数。このフィールドが値0をとる場合、data_offsetはNAL単位長フィールドの先頭を参照し、単一の参照NALユニット全体がコピーされる(すなわち、コピーされる長さはdata_offsetによって参照される長さフィールドから取得され、アグリゲータの場合はadditional_bytesフィールドによって補完される)。例えば、図5bおよび5cに提示されたデータ長を比較する。
2つのトラックが異なるlengthSizeMinusOne値を使用する場合、抽出されたデータはデスティネーショントラックの長さフィールドのサイズに適応するために再フォーマットする必要があることに留意されたい。
サンプル記述コンストラクタの構文については、次の例を参照されたい。
class aligned(8) SampleDescriptionConstructor () {
unsigned int(8) length;
unsigned int(8) track_ref_index;
int(8) sample_description_index;
fieldSize = (length - 2) / 2;
unsigned int(fieldSize) data_offset;
unsigned int(fieldSize) data_length;
}
上記のサンプル記述コンストラクタ構文の意味は次のようになる。
length:このフィールドに続くSampleDescriptionConstructorに属するバイト数。長さの値は、偶数で、4以上、10以下でなければならない。それは図5bおよび図5cのフィールドDFLに対応する。
track_ref_indexは、「tref」ボックス内に列挙された「scal」タイプのトラック参照のインデックスを識別する。値0は、このコンストラクタが見つかった現在のトラックを示す。値1は最初のトラック参照を示す。track_ref_indexの値は、トラック参照の数を超えてはならない。それは図5bおよび図5cのフィールドTRIに対応する。
sample_description_indexは、「stsd」ボックスに列挙されたサンプル記述のインデックスを識別する。sample_description_indexの値は、ゼロであってはならなく、サンプルエントリの数を超えてもならない。それは図5cのフィールドSOに対応する。
data_offsetは、サンプル記述からコピーされるブロックの最初のデータバイトのアドレス指定に使用される符号なしのオフセットである。値0は、参照されるサンプル記述の最初のバイトでコピーが開始されることを意味する。それは図5bおよび図5cのフィールド、Data Offxetに対応する。
data_lengthは、参照トラックのサンプル記述からコピーされるデータブロック長を指定する。0という値は、参照されるサンプル記述からバイトがコピーされないことを意味する。data_lengthは、参照されるサンプル記述のサイズを超えてはならない。それは図5bおよび5cのフィールドデータ長に対応する。
インラインコンストラクタ構文については、次の例を参照されたい。
class aligned(8) InlineConstructor () {
unsigned int(8) length;
unsigned int(8) inline_data[length];
}
上記のインラインコンストラクタのコンストラクタ構文の意味は次のようになる。
length:このフィールドに続くInlineConstructorに属するバイト数。長さの値は0よりも大きくなければならない。0に等しい長さの値は予約されている。それは図5aのフィールドDFLに対応する。
inline_data:インラインコンストラクタを解決するときに返されるデータバイト。それは図5aに提示されたフィールドであるData Filedに対応する。
アグリゲータとエクストラクタは両方とも、ISO/IEC 23008−2に指定されているようにNALユニットヘッダを使用してもよい。エクストラクタによって抽出された、またはアグリゲータによってアグリゲートされたNALユニットは全て、アグリゲータまたはエクストラクタのコンテンツを再帰的に検査することによって参照されるまたは含まれるNALユニットである。フィールドnuh_layer_idおよびnuh_temporal_id_plus1は、以下のように設定してもよい。nuh_layer_idは、アグリゲートされた、または抽出された全てのNALユニット内のフィールドの最低値に設定してもよい。nuh_temporal_id_plus1は、アグリゲートされた、または抽出された全てのNALユニット内のフィールドの最低値に設定してもよい。
すなわち、シーンの空間的に可変なセクションをクライアントにストリーミングするために、上記のいずれかのやり方でビデオデータを概念化することができる。ビデオデータは、ファイル形式でフォーマットされ、1つ以上のソーストラックを含み、各ソーストラックは、ビデオの、シーン全体をキャプチャしたピクチャが、その中で空間的に細分化されているタイルの内の対応する1つに関連付けられており、ソーストラックは、各スライスが1つだけのタイルを符号化するように、ビデオのピクチャがその中で符号化されている、ビデオデータストリームのスライスを、ソーストラック内で分配しており、かつビデオデータは1つ以上のギャザリングトラックのセットを含み、そのギャザリングトラックの各々は、タイルの対応するサブセットによって形成されたセクションの複数の位置の内の対応する1つに関連付けられ、かつ対応する位置におけるシーンのセクションを示すピクチャがその中で符号化されている、セクション位置固有のビデオデータストリームの合成を示す構成命令を含む。構成命令は、図5a〜図5c、もしくは図5a〜図5e、または直前に提示した例の中から選択してもよい。
以下の実施形態は、RoIプリフェッチのためのヒントをクライアントに提供するための概念に関する。
現在、高解像度および広角のビデオが益々普及している。それらは180°〜360°のパノラマや球面ビデオを含む。これらのビデオのサイズが大きくなるにつれて、ビデオ全体を高解像度で送信することは実用的ではなくなる。異なるストリーミング方法では、例えば、ビデオを複数のタイルに分割し、ユーザの関心領域(RoI)をカバーするもののみを送信することを探索している。他の方法は、品質、解像度などの変化する特性で符号化されるビデオの領域を送信し、ユーザに送信されるビデオビットレートを最適化することを伴ってもよい。
上記のようなこれらアプローチのいずれかにおいて、その発想は、ビデオ送信の最適化はユーザの好みに基づいて行われ、ユーザに示されるビデオの一部は高品質でダウンロードされ、一方でユーザ対話によってユーザに示され得る他の(RoIとは考えられていない)一部は、プリフェッチとして同じまたは別の品質でダウンロードすることができるということである。
DASH規格は、空間的関係記述子を使用することによって、ビデオのそれら提供された部分の空間的関係のシグナリングを可能にする。この記述子は、提供されるコンテンツの関係を、それらがカバーするビデオの空間領域の観点で、ユーザが理解することを可能にするが、RoIシグナリングに関してギャップが存在する。ユーザは、例えばビデオ内の時空間的な活動に関する詳細な情報を有していない。[1]のようないくつかの作品は、ビデオのRoIの時空間的な特性を知ることが、より効率的な送信方式につながり得ることを示しており、ほとんどのユーザにとって関心のある主要な活動をカバーする、ビデオの重要な空間領域を、RoI特性を考慮しない送信方式と比べて、より高い品質でダウンロードすることができる。
更に、実用上の配慮として、そのようなサービスにおけるストリーミングセッションの開始を分析することができる。実際のメディアデータのダウンロードに関する決定を下す前に、クライアントがRoI特性を知ることが不可欠である。従って、VODセッションの開始またはライブチューンインでは、RoIは最適な品質で要求され、実際にユーザに表示されている。
Role−Mainシグナリングを使用するMPDベースのソリューションには、MPDサイズが不釣り合いに増加するという欠点があり、ライブストリーミングサービスでは効率的に使用できない。なぜなら、これは、必要以上に頻繁なMPDのプリング、またはクライアントでMPDの更新をトリガする新しいMPDを要求する必要があるという一種の指示に起因する追加の遅延、のいずれかを必要とするからである。
本明細書で以下に説明する実施形態は、1つ以上のRoIの位置およびその移動をシグナリングするために使用する仕組み、すなわちレプリゼンテーションまたはタイルへの時間の経過に対するマッピングを提案する。
− 「emsg」ファイル形式ボックスを使用した帯域内ソリューション:VoDに適している。このボックスを伝達する各セグメントは、次のセグメントにおけるRoIの空間位置を指示し、それにより、クライアントは、例えばその対応するレプリゼンテーションのプリフェッチのために利用可能な帯域幅のより多くを使用することによって、このボックスを適切に使用することができる。ヒントをプリフェッチするには適しているが、ROIを開始するには適していない。
− SANDメッセージを使用した帯域外ソリューション:ライブサービスに適している。そのような環境では、「emsg」ボックスを追加できるためには、処理されるべき次のセグメントを待つ必要があるので、コンテンツ生成部が遅延を増加させるので、「emsg」は最良の解決策ではないかもしれない。加えて、この情報は、VoDコンテキストにおける再生開始(またはシーキング)に使用することができる。ヒントをプリフェッチしROIを開始するのに適している。
− 更なるオプションは、位置(x、y)および次元(幅、高さ)を宣言することによって1つ以上のRoIが記述される異なる時間間隔を記述する、ファイルの先頭のボックスである。
「emsg」を使用する概念は次のようになる。
DASHイベントメッセージボックスは、MPEG DASHで次のように定義されている。
aligned(8) class DASHEventMessageBox extends FullBox(‘emsg’, version = 0, flags = 0){
string scheme_id_uri;
string value;
unsigned int(32) timescale;
unsigned int(32) presentation_time_delta;
unsigned int(32) event_duration;
unsigned int(32) id;
unsigned int(8) message_data[];
}
}
次に、提案されたRoIシグナリングは、メインのRoI座標を通知するscheme_id_uriを追加する。RoI特性を識別するために、URN「urn:mpeg:dash:RoIchangeEvent:2016」を定義することができる。代替として、既存のスキーム「urn:mpeg:dash:event:2012」を拡張し、新しい値を追加することもできる。
このスキーマを使用するイベントの場合、`emsg`. message_data[]’フィールドには、以下に定義するDASHRoIchangeEvent構造が含まれる。
aligned(8) struct DASHRoIchangeEvent
{
if ( `emsg`.value == 1 ) //single RoI
{
unsigned int(32) source_id; // Refers to the source_id in MPD in Sect. H.2
unsigned int(32) x; // horizontal position of RoI
unsigned int(32) y; // vertical position of RoI
unsigned int(32) width; // width position of RoI
unsigned int(32) height; // height position of RoI
}
if ( `emsg`.value == 2 ) //multiple RoIs
{
unsigned int(32) source_id; // Refers to the source_id in MPD in Sect. H.2
unsigned int(8) num_RoIs; // Number of RoIs present
for (i=0;i<numRoIs;i++){
unsigned int(32) x_i; // horizontal position of RoI
unsigned int(32) y_i; // vertical position of RoI
unsigned int(32) width_i; // width position of RoI
unsigned int(32) height_i; // height position of RoI
}
}
}
この情報は、ダウンロードされる次のセグメントに関連する。代替として、emsg.valuesを更に追加することにより、2つ以上のセグメントのRoIを示す別のバージョンを開発することができる。
SANDを使用する概念は次のようになる。
所定の時間にRoIを指示する、新たなParameters Enhancing Reception(PER、すなわち、DASH Aware Network Element(DANE)からDASHクライアントへ送信されるメッセージ)が定義される。このメッセージは、先に「emsg」の場合に定義されたメッセージに類似している。
中央ボックスを、例えば、RoIの時間的変化を記述する「moov」内で使用する概念は以下のように説明することができる。
RoIdescriptionbox ‘roid’
aligned(8) class SegmentIndexBox extends FullBox(‘sidx’, version, 0) {
unsigned int(32) source_ID;
unsigned int(32) timescale;
if (version==0) {
unsigned int(32) earliest_presentation_time; // earliest presentation time for which the box
describes the RoIs
}
else {
unsigned int(64) earliest_presentation_time;
}
unsigned int(16) reserved = 0;
unsigned int(16) RoIs_count;
for(i=1; i <= RoIs_count; i++) //number of RoIs described in time
{
unsigned int(32) RoI_duration;
unsigned int(32) x;
unsigned int(32) y;
unsigned int(32) width;
unsigned int(32) height;
}
}
同様に、メッセージを変更して、以下に示すようにパラメータを追加することにより複数のRoIを組み込むことができる。

for(i=1; i <= RoIs_count; i++) //number of RoIs intervals described
{
unsigned int(8) RoI_count_per_interval
for(i=j; j <= RoIs_count; j++) //number of RoIs described for each of intervals in time
{
unsigned int(32) RoI_duration;
unsigned int(32) x;
unsigned int(32) y;
unsigned int(32) width;
unsigned int(32) height;
}
}
上で概説した概念に従って実施形態を説明するために、以下の図を参照する。図15は、ビデオストリーミングサーバ200およびクライアント250を示す。単に代替として、サーバ200およびクライアント250は、図1〜図15の任意の上記の実施形態に準拠するように実現されてもよい。いずれにしても、ビデオストリーミングサーバ200は、シーンを表し、かつ、関心領域270の位置を指示する情報260を、その位置が時間的に変化する形で伴って、サーバ200からクライアント250にストリーミングされる、ビデオストリーム216を伴うように構成されている。すなわち、ビデオストリーミングサーバ200は、特定のシーンを表すビデオデータを利用可能である。ビデオデータは、例えばその中に符号化されたビデオ280を有し、そのピクチャ290の各々がシーンを示してもよい。ビデオ280に関するビデオデータは、図1〜図15に関して上で概説したやり方で概念化してもよい。すなわち、サーバ200は、取得されたビデオストリーム216が、図1〜図15の用語を使うと、セクションを表す、関心領域270にのみ関係するように、クライアント250がサーバ200からビデオストリーム216を取得することができるように構成されてもよい。代替として、サーバ200は、ビデオデータストリーム216がシーンに関する情報を完全に伝達するように、ビデオデータストリーム216の取得を利用可能にするだけである。しかし、後者の場合、クライアント250は、例えば、ビデオストリーム216のセグメントを異なる順序で取得またはフェッチすることが許容される。例えば、クライアント250は、ビデオ280の特定の時間的部分に関連しかつシーンの特定の空間領域に関連するセグメントを最初に、同じ時間的部分であるが別の空間的領域のセグメントを取得する前に、フェッチする機会を提供することができる。サーバ200およびクライアント250が、図1および図2のサーバ10およびクライアント50に準拠したやり方で具体化され得る可能性を述べることによって明らかになったように、図15のビデオストリーム260は、図1のストリーム16に対応するストリームであり得る。
図15は、情報260が関心領域270の位置を時間と共に変化させることを示す。このような情報260がなければ、クライアント250は、現在時間のセグメント内のこのシーンの最も興味深い部分を含む可能性が最も高い、このシーンの特定の現在時間のセグメントをフェッチすることができない。しかし、プリフェッチの目的のために、ビデオストリーム216の取得を適切に開始する目的のために、ビデオ280の空間的に異なる領域に関してクライアントのユーザによって引き起こされるフェッチ要求を叶えるために、クライアント250は、できる限り早期に情報260を手元に有し、しかし既にフェッチされたビデオ280の時間セグメントを参照する可能性はできる限り低いようにすることが好ましい。
一実施形態によれば、ビデオストリーミングサーバ10は、ビデオストリームのファイル形式ボックス内で情報260を伝達するように構成されている。すなわち、ビデオストリーム216は、ファイル形式に従ってサーバ200からクライアント250に伝達され、情報260はこのようにフォーマットされたビデオストリーム216内に埋め込まれる。当然ながら、クライアント250は、ビデオストリーム216の取得を「盲目的に」、すなわち関心領域270の位置に関するいかなる情報260もなく開始しなければならない。代替として、関心領域270に関する別の情報、すなわち、ビデオの取得を開始した時点の関心領域の位置に関する情報は、サーバ200によって、クライアント250からサーバ200への適切な要求に応じて、サーバ200から送信されるメディアプレゼンテーション記述内に、またはビデオストリーム216の最初のセグメント内に含めることができる。このようにして、クライアント250は、そのときに使用していた情報260を用いて、メディアプレゼンテーション記述の適切な情報から、関心領域270の位置に関する第1のヒントを取得する機会を得て、それによりビデオ280の将来の時間セグメントをプリフェッチすることをスケジュールする。
更に既に上述した代替例によれば、ビデオストリーミングサーバ200はDASHサーバであってもよく、ビデオストリーム216のファイル形式ボックス内の代わりに、SANDメッセージによって帯域外に情報260を伝達するように構成されていてもよい。両方の概念を使用して、ビデオストリーミングサーバ200は、関心領域270の位置を更新するように、情報260を断続的に更新することができる。特に、ビデオストリーミングサーバは、クライアント要求から独立した時間インスタンスで、情報270の断続的な更新をスケジュールすることができる。すなわち、クライアント250は、情報260の更新要求をサーバ200に送信する必要はない。むしろ、サーバ200は、それ自体で情報260の更新または再送信を開始する。
加えてまたは代替として、サーバ200は、情報260もまた、関心領域270の位置のやがて来る変化をスケジュールするように、ストリーミングの開始時に情報260を伝達するように構成することさえできる。例えば、ビデオ280のビデオコンテンツは、サーバ側で知ることができ、従って、サーバ200は、例えば、マニフェストまたはメディアプレゼンテーション記述に情報260を提供し、それにより情報260が、時間的に変化する形で関心領域270の位置を指示する、すなわち、ビデオ280の時間長さの間に、スケジュールされた時間インスタンスで位置が変化するような形で関心領域270の位置を指示する。 代替として、サーバ200は例えば、関心領域270の位置が時間的に変化する形で情報260が指示する形で、典型的には、要求しMPDを検査した後にクライアントがフェッチした初期セグメントに、情報260を提供する。後者の場合、上述の中央ボックスまたはRoIdescriptionBoxを使用してもよい。
情報260の存在または可用性の指示は、MPDにおいてクライアントに指示され得る。情報260の存在またはビデオストリーム216が情報260を伴うという事実は、クライアントによる対応する要求に依存するようにすることができる。従って、クライアントによって要求されていなければ、サーバ200は付随物をスキップすることができる。情報260が、MPD(「emsg」)または初期セグメント(「roid」変形)に含まれる情報などの帯域内情報である場合、手順は、例えば、クライアントが利用可能性の対応する指示を含むMPDを要求することで始まり、続いて、クライアントが情報260の要求と共にMPDを新たに要求するか、またはクライアントが情報260の存在を要求すると共にサーバから初期セグメントを要求する。類似の方法で、帯域外の情報260の存在は、クライアントからの対応する要求に依存させることができる。クライアントの希望に応じて、サーバはSANDメッセージを介してRoI情報260をクライアントに送信するか、または送信しない。
サーバ10およびクライアント50がハードウェア、ファームウェアまたはソフトウェアで具体化できることに言及した上述の説明と同様に、サーバ200およびクライアント250は、同様に、すなわちハードウェア、ファームウェアまたはソフトウェアの形態で実現されてもよい。
いくつかの態様は装置との関連において記載されているが、これらの態様はまた、ブロックまたはデバイスが、方法ステップまたは方法ステップの特徴に対応するような、対応する方法の記載を表していることは明白である。同様に、方法ステップとの関連において記載される態様もまた、対応するブロックまたは項目、もしくは対応する装置の特徴に関する記載を表す。いくつかのまたは全ての方法ステップは、例えばマイクロプロセッサ、プログラム可能なコンピュータ、または電子回路のようなハードウェア装置によって(またはこれを使用して)実行されてもよい。いくつかの実施形態において、最も重要な方法ステップの1つ以上がこのような装置によって実行されてもよい。
本発明の符号化されたデータストリームまたは信号は、デジタル記憶媒体に格納することができ、もしくはインターネットのような無線伝送媒体または有線伝送媒体などの伝送媒体を通じて伝送することができる。これまで、データストリームへのいくつかの情報の挿入または符号化が説明されてきたが、この説明は、結果としてのデータストリームが対応する情報、フラグのシンタックス要素などを含むという開示と並行して理解すべきである。
特定の実装要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウェアに実装することができる。実装は、電子的に読み取り可能な制御信号が格納されたデジタル記憶媒体、例えばフロッピーディスク、DVD、Blu−Ray、CD、ROM、PROM、EPROM、EEPROMまたはFLASHメモリを使用して実行することができ、これらは、対応する方法が実行されるようにプログラム可能なコンピュータシステムと協働する(または協働することができる)。従って、デジタル記憶媒体はコンピュータ読み取り可能であってもよい。
本発明によるいくつかの実施形態は、本明細書に記載された方法の内の1つが実行されるように、プログラム可能なコンピュータシステムと協働することができる、電子的に読み取り可能な制御信号を有するデータ担体を含む。
一般に、本発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実現することができ、プログラムコードは、コンピュータプログラム製品がコンピュータ上で動くときに、方法の内の1つを実行するように動作可能である。プログラムコードは、例えば、機械読み取り可能な担体に格納することができる。
他の実施形態は、機械読み取り可能な担体に格納され、本明細書に記載された方法の内の1つを実行するためのコンピュータプログラムを含む。
換言すれば、本発明の方法の実施形態は、コンピュータプログラムがコンピュータ上で動くときに、本明細書に記載された方法の内の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
従って、本発明の方法の更なる実施形態は、本明細書に記載された方法の内の1つを実行するためのコンピュータプログラムが記録されて含まれているデータ担体(またはデジタル記憶媒体またはコンピュータ読み取り可能媒体)である。そのデータ担体、デジタル記憶媒体、または記録された媒体は、典型的には有形および/または非一時的である。
従って、本発明の方法の更なる実施形態は、本明細書に記載された方法の内の1つを実行するためのコンピュータプログラムを表すデータストリームまたは信号シーケンスである。データストリームまたは信号シーケンスは、例えばインターネットを介して、例えばデータ通信接続を介して転送されるように構成されていてもよい。
更なる実施形態は、本明細書に記載された方法の内の1つを実行するように構成または適合された処理手段、例えばコンピュータまたはプログラム可能論理デバイスを含む。
更なる実施形態は、本明細書に記載された方法の1つを実行するためのコンピュータプログラムがインストールされたコンピュータを含む。
本発明による更なる実施形態は、本明細書で説明される方法の1つを実行するためのコンピュータプログラムを受信機に伝送するように構成されている装置またはシステムを含む(例えば、電子的にまたは光学的に)。受信機は、例えば、コンピュータ、モバイル機器、メモリデバイス等であってもよい。この装置またはシステムは、例えば、コンピュータプログラムを受信機に転送するためのファイルサーバを備えてもよい。
いくつかの実施形態では、プログラム可能論理装置(例えばフィールド・プログラマブル・ゲートアレイ)を使用して、本明細書に記載された方法の機能の一部または全てを実行することができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書に記載された方法の内の1つを実行するためにマイクロプロセッサと協働することができる。一般に、これらの方法は、好ましくは、任意のハードウェア装置によって実行される。
本明細書に記載の装置は、ハードウェア装置を使用して、またはコンピュータを使用して、またはハードウェア装置とコンピュータの組み合わせを使用して実装されてもよい。
本明細書に記載された装置、または本明細書に記載された装置の任意の構成要素は、少なくとも部分的にハードウェアおよび/またはソフトウェアで実現されてもよい。
本明細書に記載の方法は、ハードウェア装置を使用して、またはコンピュータを使用して、またはハードウェア装置とコンピュータの組み合わせを使用して実行されてもよい。
本明細書に記載された装置、または本明細書に記載された装置の任意の構成要素は、少なくとも部分的にハードウェアおよび/またはソフトウェアによって実行されてもよい。
上述の実施形態は、本発明の原理の単なる例示である。本明細書に記載された構成および詳細の変更形態および変形形態は、当業者には明らかとなることが理解される。従って、ここに記載された特許請求の範囲によってのみ限定され、本明細書の実施形態の記載および説明によって示される特定の詳細によっては限定されないことが意図される。

Claims (58)

  1. ビデオストリーミングサーバであって、前記ビデオストリーミングサーバは、ビデオデータストリーム(14)のスライス(26)にアクセスするように構成され、
    前記スライス(26)内にビデオ(12)のピクチャ(18)が符号化され、前記ピクチャ(18)の各々がシーンを示し、前記ピクチャ(18)は空間的にタイル(24)内に細分化され、前記スライス(26)の各々は内部に1つだけのタイルを符号化して有し、
    前記ビデオストリーミングサーバは、前記シーンのセクション(22)に関するストリーム(16)のストリーミングをクライアントに利用可能にするように構成され、前記ストリーム(16)はファイル形式でフォーマットされ、
    前記ストリーム(16)は、1つ以上のタイルのセットの幅を有する前記セクション内の、タイルが、前記スライスに符号化されている、前記スライスを組み込んでいる1つ以上のソーストラックのセット(30)と、
    前記1つ以上のソーストラック内に組み込まれた前記スライスの第1の部分に対する置換を通知し、および/または、前記1つ以上のソーストラック内に組み込まれた前記スライスの第2の部分をコピーするように指示することによって、
    前記シーンのセクションを示すピクチャが、その内部に符号化されている、セクション固有のビデオデータストリームの合成を、指示する構成命令(34)、を含む1つ以上のギャザリングトラックのセット(32)と、
    を含むように構成されている、ビデオストリーミングサーバ。
  2. 前記ピクチャ(18)は、タイル境界(25)をまたいだ符号化相互依存性の中断を伴って、前記ビデオデータストリーム(14)の前記スライス(26)内に符号化されている、請求項1に記載のビデオストリーミングサーバ。
  3. 前記ソーストラック(30、30、30、30)の各々は、前記ビデオ(12)の前記ピクチャ(18)が、その内部で空間的に細分化されている前記タイル(26)の内の対応する1つに関連付けられており、対応する前記ソーストラックに関連する前記ピクチャの前記タイルが前記スライス(26)内で符号化されている、前記スライス(26)を組み込んでいる、請求項1または2に記載のビデオストリーミングサーバ。
  4. 前記クライアントに、
    前記1つ以上のソーストラックのセット(30)および前記1つ以上のギャザリングトラックのセット(32)の各々を別個のレプリゼンテーションとして扱い、
    前記1つ以上のギャザリングトラックのセットが前記1つ以上のソーストラックに依存していることを指示する、
    マニフェスト(140)を送信するように構成されている、請求項1〜3のいずれか一項に記載のビデオストリーミングサーバ。
  5. 前記ビデオデータストリーム(14)および前記セクション位置固有のビデオデータストリーム(52)が1つのビデオデコーダ(72)によって復号可能であるように構成されている、請求項1〜4のいずれか一項に記載のビデオストリーミングサーバ。
  6. 前記シーンの更なるセクション(80)に関連する更なるストリームのストリーミングを前記クライアント(50)に利用可能にするように構成されている、請求項1〜4のいずれか一項に記載のビデオストリーミングサーバであって、
    前記更なるストリームは、
    ファイル形式でフォーマットされており、
    前記更なるセクション内の、1つ以上のタイルの更なるセットの幅を有するタイルを、符号化して内部に有する前記スライスを組み込んでいる、1つ以上のソーストラックの更なるセットと、
    前記1つ以上のソーストラックの更なるセット内に組み込まれた前記スライスの第1の部分に対する置換を通知し、および/または、
    前記1つ以上のソーストラックの更なるセット内に組み込まれた前記スライスの第2の部分をコピーするように指示することによって、
    前記シーンの更なるセクションを示すピクチャを符号化して内部に有する、更なるセクション固有のビデオデータストリームの、合成を指示する構成命令を含む、1つ以上のギャザリングトラックの更なるセットと、
    を含む、ビデオストリーミングサーバ。
  7. マニフェスト(140)を前記クライアントに提供するように構成された、請求項6に記載のビデオストリーミングサーバであって、前記マニフェストは、
    前記ソーストラックのセット(30)および前記1つ以上のソーストラックの更なるセットの各々と、
    前記1つ以上のギャザリングトラックのセット(32)と、
    前記1つ以上のギャザリングトラックの更なるセットと、を別個のレプリゼンテーションとして扱い、
    前記1つ以上のギャザリングトラックのセットを前記1つ以上のソーストラックのセットに依存するものとして、かつ、前記1つ以上のギャザリングトラックの更なるセットを前記1つ以上のソーストラックの更なるセットに依存するものとして指示するように構成されている、ビデオストリーミングサーバ。
  8. 前記ビデオストリーミングサーバは、前記1つ以上のギャザリングトラックのセットおよび前記1つ以上のギャザリングトラックの更なるセットにそれぞれ関連するレプリゼンテーションに対する相互に異なるURLベースの明示的なシグナリングを、前記マニフェストに提供するように構成されている、請求項7に記載のビデオストリーミングサーバ。
  9. 前記セクションおよび前記更なるセクションはタイルの点で同じサイズであり、前記ビデオストリーミングサーバは、取得される前記シーンの前記セクションの空間位置に依存して、前記1つ以上のギャザリングトラックのセットおよび前記1つ以上のギャザリングトラックの更なるセットにそれぞれ関連する、レプリゼンテーションのセグメントのURL、を決定するための計算規則を定義するURLテンプレート(141)を、前記マニフェストに提供するように構成されている、請求項7に記載のビデオストリーミングサーバ。
  10. 前記1つ以上のソーストラックのセットおよび前記1つ以上のソーストラックの更なるセットの各々を別個のレプリゼンテーションとして扱うマニフェストを、前記クライアント(50)に提供し、
    前記シーンのセクション(22)内のタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメント内の、前記1つ以上のギャザリングトラックのセット(32)を伝達し、
    前記更なるシーンのセクション内のタイルを符号化して内部に有する前記スライスを含むソーストラックに対応する、レプリゼンテーションのセグメント内の、前記1つ以上のギャザリングトラックの更なるセットを伝達する、
    ように構成されている、請求項7に記載のビデオストリーミングサーバ。
  11. 前記シーンのセクション内の所定のタイル位置に配置された前記タイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメント内の、前記1つ以上のギャザリングトラックのセット(32)を伝達し、
    前記更なるシーンのセクション内の所定のタイル位置に配置された前記タイルを符号化して内部に有する前記スライスを含むソーストラックに対応する、レプリゼンテーションのセグメント内の、前記1つ以上のギャザリングトラックの更なるセットを伝達する、
    ように構成されている、請求項10に記載のビデオストリーミングサーバ。
  12. 前記1つ以上のソーストラックのセットおよび前記1つ以上のソーストラックの更なるセットが、他のソーストラックとは別個のやり方で取得してもよく、前記1つ以上のギャザリングトラックのセット(32)および前記1つ以上のギャザリングトラックの更なるセットを、それらのセグメント内で伝達してもよいことを指示する情報を、前記マニフェストに提供する、
    ように構成されている、請求項10または11に記載のビデオストリーミングサーバ。
  13. 前記シーンのセクション内にある各タイルについて、前記対応するタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメント内で、前記対応するタイル内の前記セクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックのセットの内の1つを伝達し、かつ、
    前記更なるシーンのセクション内にある各タイルについて、前記対応するタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメント内で、前記対応するタイル内の前記更なるセクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックの更なるセットの内の1つを伝達する、
    ように構成されている、請求項12に記載のビデオストリーミングサーバ。
  14. 前記シーンのセクションおよび前記更なるシーンのセクション内に所定のタイルが存在するように、前記セクションおよび前記更なるセクションが互いに重なっており、
    前記ビデオストリーミングサーバは、前記所定のタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、前記レプリゼンテーションのセグメント内で、パラメータ化可能なギャザリングトラックを伝達するように構成されており、
    前記パラメータ化可能なギャザリングトラックは、
    第1のパラメータ化設定に従って、前記所定のタイル内の前記セクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックのセットの前記ギャザリングトラックになり、かつ、
    第2のパラメータ化設定に従って、前記所定のタイル内の前記更なるセクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックの更なるセットの前記ギャザリングトラックになる、
    ようにパラメータ化可能である、
    請求項13に記載のビデオストリーミングサーバ。
  15. 前記パラメータ化可能なギャザリングトラックは、
    前記パラメータ化可能なギャザリングトラック内で第1の設定とは異なる前記インデックスを有する構成命令をスキップした結果得られる、前記所定のタイル内の前記セクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックのセットの前記ギャザリングトラックと、
    前記パラメータ化可能なギャザリングトラック内で第2の設定とは異なる前記インデックスを有する構成命令をスキップした結果得られる、前記所定のタイル内の前記更なるセクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックの更なるセットの前記ギャザリングトラックと、
    に対するインデックスを含む構成命令を含む、
    請求項14に記載のビデオストリーミングサーバ。
  16. 前記第1の部分は、符号化されたビットレベルと構文レベルとの間の遷移におけるシンタックス要素間の境界を保持するシンタックス要素ワイズ符号化データストリーム部分であるか、またはその中にある、請求項1〜15のいずれか一項に記載のビデオストリーミングサーバ。
  17. 前記第2の部分は、算術符号化されたデータストリーム部分であるか、または算術符号化されたデータストリーム部分を包含する、請求項1から16のいずれか一項に記載のビデオストリーミングサーバ。
  18. ビデオストリーミングサーバ(10)からシーンのセクション(22)に関するビデオ(74)を取り出すように構成されたクライアントであって、
    前記クライアントは、前記ビデオストリーミングサーバ(10)から、ファイル形式でフォーマットされたストリーム(16)を取得するように構成され、
    前記ストリーム(16)は、
    スライス(26)を組み込んでいる1つ以上のソーストラックのセット(32)であって、前記1つ以上のソーストラックのセット内の前記スライス(26)は、ビデオデータストリーム(14)のスライス(26)のサブセットを形成し、前記シーンを表す、ビデオ(12)のピクチャ(18)が、前記サブセット内に符号化されており、前記ピクチャ(18)は空間的にタイル(24)内に細分化され、前記ビデオデータストリーム(14)の前記スライス(26)の各々は、1つだけのタイル(24)を内部に符号化して有しており、前記スライスのサブセットは、1つ以上のタイルのセットの幅を有する前記セクション内の、タイルが、前記スライスに符号化されている、前記スライスを組み込んでいる1つ以上のソーストラックのセットと、
    前記シーンのセクションを示すピクチャを符号化して内部に有するセクション位置固有のビデオデータストリーム(52)の、合成(62)を指示する構成命令(34)を含む、1つ以上のギャザリングトラックのセット(32)と、を含み、
    かつ前記クライアントは、
    前記1つ以上のソーストラック内に組み込まれた前記スライスの第1の部分を、前記構成命令によって通知された置換(68)によって置換することにより、および/または、前記1つ以上のソーストラック内に組み込まれた前記スライスの第2の部分(70)をコピーすることにより、
    前記1つ以上のギャザリングトラックのセット(32)内の構成命令に従って、前記セクション固有のビデオデータストリーム(52)を合成(62)して、
    前記セクション固有のビデオデータストリーム(52)をビデオデコーダ(72)によって復号化させるように構成されている、クライアント。
  19. 前記ピクチャは、タイル境界をまたいだ符号化相互依存性の中断を伴って、前記ビデオデータストリームの前記スライス内に符号化されており、それにより、前記1つのタイルまたは任意の他のピクチャを含む、前記ピクチャの空間的に異なる部分をカバーする他のいかなるタイルからも独立した前記1つだけのタイルを、前記スライスの各々を内部で符号化して有する、請求項18に記載のクライアント。
  20. 前記ソーストラックの各々は、前記ビデオの前記ピクチャがその中で空間的に細分化されている前記タイルの内の対応する1つに関連付けられており、かつ対応する前記ソーストラックに関連する前記ピクチャの前記タイルが前記スライス内で符号化されている前記スライスを組み込んでいる、請求項18または19に記載のクライアント。
  21. 前記1つ以上のソーストラックおよび前記1つ以上のギャザリングトラックのセットの各々を別個のレプリゼンテーションとして扱い、
    前記1つ以上のギャザリングトラックのセットが前記1つ以上のソーストラックに依存していることを指示するマニフェストを、前記ビデオストリーミングサーバから受信し、
    前記ビデオストリーミングサーバから前記別個のレプリゼンテーションを前記ストリームとして取得する、
    ように構成されている、請求項18〜20のいずれか一項に記載のクライアント。
  22. 前記ビデオデータストリームおよび前記セクション位置固有のビデオデータストリームは両方とも、前記ビデオデコーダによって復号可能である、請求項18〜21のいずれか一項に記載のクライアント。
  23. 請求項18〜22のいずれか一項に記載のクライアントであって、
    前記クライアントは、前記ビデオストリーミングサーバから前記シーンの更なるセクションに関連する更なるストリームを取得するように構成されており、
    前記更なるストリームは前記ファイル形式でフォーマットされており、
    前記更なるセクションを空間的に形成する、タイルの更なるセットのタイルを、その中に符号化して有する前記スライスを組み込んでいる1つ以上のソーストラックの更なるセットと、
    前記シーンの更なるセクションを示すピクチャをその中で符号化して有する更なるセクション位置固有のビデオデータストリームの合成を指示する構成命令を含む、1つ以上のギャザリングトラックの更なるセットと、を含み、
    かつ前記クライアントは、
    前記1つ以上のソーストラックの更なるセット内に組み込まれた前記スライスの第1の部分を、前記1つ以上のギャザリングトラックの更なるセット内の構成命令によって通知された置換で置換することによって、および/または、
    前記1つ以上のソーストラックの更なるセット内に組み込まれた前記スライスの第2の部分をコピーすることによって、
    かつ前記更なるセクション位置固有のビデオデータストリームに前記ビデオデコーダによる復号化を受けさせることによって、
    前記1つ以上のギャザリングトラックの更なるセット内の構成命令に従って、前記更なるセクション位置固有のビデオデータストリームを合成する、ように構成されている、クライアント。
  24. 前記ビデオストリーミングサーバからマニフェストを受信するように構成されているクライアントであって、
    前記マニフェストは、
    前記1つ以上のソーストラックのセットおよび前記1つ以上のソーストラックの更なるセットと、
    前記1つ以上のギャザリングトラックのセットと、
    前記1つ以上の更なるギャザリングトラックのセットの、
    各々のソーストラックを別個のレプリゼンテーションとして扱い、
    前記1つ以上のギャザリングトラックのセットが前記1つ以上のソーストラックのセットに依存していること、および前記1つ以上のギャザリングトラックの更なるセットが前記1つ以上のソーストラックの更なるセットに依存していることを指示し、
    かつ前記クライアントは、
    前記ストリームを前記ビデオストリーミングサーバから取得する際に、前記1つ以上のソーストラックのセットおよび前記1つ以上のギャザリングトラックのセットに関連した前記レプリゼンテーションを前記ビデオストリーミングサーバから取得し、
    前記更なるストリームを前記ビデオストリーミングサーバから取得する際に、前記1つ以上のソーストラックの更なるセットおよび前記1つ以上のギャザリングトラックの更なるセットに関連した前記レプリゼンテーションを前記ビデオストリーミングサーバから取得する、ように構成されている、
    請求項23に記載のクライアント。
  25. 前記クライアントは、前記マニフェストから、前記1つ以上のギャザリングトラックのセットおよび前記1つ以上のギャザリングトラックの更なるセットにそれぞれ関連する前記レプリゼンテーションに対する相互に異なるURLベースの明示的なシグナリングを導出するように構成されている、請求項24に記載のクライアント。
  26. 前記セクションおよび前記更なるセクションはタイルの点で同じサイズである、請求項24に記載のクライアントであって、前記クライアントは、
    前記ビデオストリーミングサーバから前記ストリームを、および前記ビデオストリーミングサーバから前記更なるストリームを取得する際に、
    前記マニフェストから、計算規則を定義するURLテンプレートを導出するように構成され、
    取得される前記シーンの前記セクションの空間位置に依存して、前記1つ以上のギャザリングトラックのセットおよび前記1つ以上のギャザリングトラックの更なるセットにそれぞれ関連する前記レプリゼンテーションのセグメントのURLを決定する、前記計算規則を使用して、
    決定された前記URLに基づいて、前記ストリームの取得の場合は前記もう1つのギャザリングトラックのセットを、および前記更なるストリームの取得の場合は前記1つ以上のギャザリングトラックの更なるセットを伝達する前記セグメントを取得するように構成されている、クライアント。
  27. 前記ビデオストリーミングサーバから、前記1つ以上のソーストラックのセットおよび前記1つ以上のソーストラックの更なるセットの各々を別個のレプリゼンテーションとして扱うマニフェストを受信し、
    前記ビデオストリーミングサーバから前記ストリームを取得する際に、前記シーンのセクション内のタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメントから、前記1つ以上のギャザリングトラックを読み取り、および
    前記ビデオストリーミングサーバから前記更なるストリームを取得する際に、前記更なるシーンのセクション内のタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメントから、前記1つ以上のギャザリングトラックの更なるセットを読み取る、
    ように構成されている、請求項24に記載のクライアント。
  28. 前記ビデオストリーミングサーバから前記ストリームを取得する際に、前記シーンのセクション内の所定のタイル位置に配置された前記タイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメントから、前記1つ以上のギャザリングトラックのセットを読み取り、
    前記ビデオストリーミングサーバから前記更なるストリームを取得する際に、前記更なるシーンのセクション内の所定のタイル位置に配置された前記タイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメントから、前記更なる1つ以上のギャザリングトラックの更なるセットを読み取る、
    ように構成されている、請求項27に記載のクライアント。
  29. 前記ビデオストリーミングサーバから前記ストリームを取得する際に、前記シーンのセクション内にある各タイルについて、前記対応するタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメントから、前記対応するタイル内の前記セクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックのセットの内の1つを読み取り、
    前記ビデオストリーミングサーバから前記更なるストリームを取得する際に、前記更なるシーンのセクション内にある各タイルについて、前記対応するタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、レプリゼンテーションのセグメントから、前記対応するタイル内の前記更なるセクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックの更なるセットの内の1つを読み取る、
    ように構成されている、請求項27に記載のクライアント。
  30. 前記シーンのセクションおよび前記更なるシーンのセクション内に所定のタイルが存在するように、前記セクションおよび前記更なるセクションが互いに重なっており、
    前記クライアントは、
    前記ビデオストリーミングサーバから前記ストリームを、および前記ビデオストリーミングサーバから前記更なるストリームを取得する際に、
    前記所定のタイルを符号化して内部に有する前記スライスを含む前記ソーストラックに対応する、前記レプリゼンテーションのセグメントから、パラメータ化可能なギャザリングトラックを読み取り、
    前記ストリームの取得の場合は、前記パラメータ化可能なギャザリングトラックが、前記所定のタイル内の前記セクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックのセットの前記ギャザリングトラックになるように、第1のパラメータ化設定を使用して、前記パラメータ化可能なギャザリングトラックをパラメータ化し、
    前記更なるストリームの取得の場合は、前記パラメータ化可能なギャザリングトラックが、前記所定のタイル内の前記セクション位置固有のビデオデータストリームの合成に固有の、前記1つ以上のギャザリングトラックの更なるセットの前記ギャザリングトラックになるように、第2のパラメータ化設定を使用して、前記パラメータ化可能なギャザリングトラックをパラメータ化する、
    ように構成されている、請求項29に記載のクライアント。
  31. 前記第1のパラメータ化設定を使用して、前記パラメータ化可能なギャザリングトラックをパラメータ化する際に、第1の設定とは異なるインデックスを含む前記パラメータ化ギャザリングトラック構成命令をスキップし、
    前記第2のパラメータ化設定を使用して、前記パラメータ化可能なギャザリングトラックをパラメータ化する際に、第2の設定とは異なるインデックスを含む前記パラメータ化ギャザリングトラック構成命令をスキップする、
    ように構成されている、請求項30に記載のクライアント。
  32. 前記第2の部分は、符号化されたビットレベルと構文レベルとの間の遷移におけるシンタックス要素間の境界を保持するシンタックス要素ワイズ符号化データストリーム部分であるか、またはその中にある、請求項18〜31のいずれか一項に記載のクライアント。
  33. 前記第1の部分は、算術符号化されたデータストリーム部分であるか、または算術符号化されたデータストリーム部分を包含する、請求項18〜32のいずれか一項に記載のクライアント。
  34. シーンの空間的に可変なセクションをクライアントにストリーミングするための概念化されたビデオデータであって、前記ビデオデータはファイル形式でフォーマットされており、
    前記ビデオデータは、
    1つ以上のソーストラックのセットであって、
    前記ソーストラックの各々は、ビデオの、前記シーン全体をキャプチャしたピクチャが、その中に空間的に細分化されているタイルの内の対応する1つに関連付けられており、前記ソーストラックはその中にビデオデータストリームのスライスを分配しており、前記スライスの中には前記ビデオの前記ピクチャが符号化されており、それにより前記スライスの各々が1つだけのタイルをその中に符号化して有している、1つ以上のソーストラックのセットと、
    1つ以上のギャザリングトラックのセットであって、
    前記1つ以上のギャザリングトラックのセットの各セットは、前記タイルの対応するサブセットによって形成された、前記セクションの複数位置の内の対応する1つに関連しており、
    前記ソーストラックからの前記タイルのサブセットの任意のタイルをその中に符号化しているスライスの第1の部分に対する置換を通知することによって、および/または、前記タイルのサブセットの任意のタイルをその中に符号化して有しているスライスの第2の部分をコピーすることによって、
    前記対応する位置における前記シーンのセクションを示すピクチャがその中に符号化されている、セクション位置固有のビデオデータストリームの合成を指示する、構成命令を含む、1つ以上のギャザリングトラックのセットと、
    を含む、ビデオデータ。
  35. 前記第2の部分は、スライスのスライスヘッダ内にシンタックス要素を含み、
    前記シンタックス要素は、前記スライスヘッダが属する前記スライスが、ピクチャを横断する復号化の順序の点で、前記ビデオのピクチャの最初のスライスであるかどうか、および/または、
    所定のピクチャのコーナを基準にして測った前記スライスヘッダが属するスライスの位置を指示する、請求項34に記載のビデオデータ。
  36. シーンを表し、かつ前記シーン内の関心領域の位置を指示する情報を前記位置が時間的に変化する形で伴って、前記ビデオストリーミングサーバからクライアントにストリーミングされる、ビデオストリームを伴うように構成されている、ビデオストリーミングサーバ。
  37. 前記ビデオストリーミングサーバは、前記ビデオストリームのファイル形式ボックス内で前記情報を伝達するように構成されている、請求項36に記載のビデオストリーミングサーバ。
  38. 前記ビデオストリーミングサーバはDASHサーバであり、前記情報をSANDメッセージによって帯域外に伝達するように構成されている、請求項36に記載のビデオストリーミングサーバ。
  39. 前記ビデオストリーミングサーバは、前記情報を断続的に更新して、前記位置を更新するように構成されている、請求項36〜38のいずれか一項に記載のビデオストリーミングサーバ。
  40. 前記ビデオストリーミングサーバは、クライアント要求から独立した時間インスタンスで、前記情報の断続的な更新をスケジュールするように構成されている、請求項38に記載のビデオストリーミングサーバ。
  41. 前記ビデオストリーミングサーバは、前記情報が前記関心領域の前記位置のやがて来る変化をスケジュールするような形で、前記ストリーミングの開始時に前記情報を伝達するように構成されている、請求項36〜40のいずれかに記載のビデオストリーミングサーバ。
  42. 前記ビデオストリーミングサーバは、前記情報を、前記ストリーミングの開始時に前記ビデオストリームのマニフェスト内で、または前記ビデオストリームの初期セグメント内で、前記クライアントに提供するように構成されている、請求項41に記載のビデオストリーミングサーバ。
  43. シーンを表すビデオストリームをビデオストリーミングサーバから取得し、前記ビデオストリームに付随する情報を使用して、前記シーン内の関心領域の位置を、前記位置が時間的に変化する形で決定するように構成されている、クライアント。
  44. 前記クライアントは、前記ビデオストリームのファイル形式ボックスから前記情報を導出するように構成されている、請求項43に記載のクライアント。
  45. 前記クライアントはDASHクライアントであり、SANDメッセージから前記情報を帯域外に導出するように構成されている、請求項43に記載のクライアント。
  46. 前記クライアントは、前記位置を更新するように、前記ビデオストリーミングサーバからの前記情報の断続的な更新を受信するように構成されている、請求項43〜45のいずれか一項に記載のクライアント。
  47. 前記クライアントは、前記クライアントによって前記ビデオストリーミングサーバに送信されたクライアント要求とは独立した時間インスタンスで、前記情報の断続的な更新を受信するように構成されている、請求項45に記載のクライアント。
  48. 前記クライアントは、前記情報が前記関心領域の前記位置のやがて来る変化をスケジュールする形で、前記ストリーミングの開始時に前記情報を導出するように構成されている、請求項43に記載のクライアント。
  49. 前記クライアントは前記情報を、前記ストリーミングの開始時に前記ビデオストリーミングサーバによって送られた前記ビデオストリームのマニフェストから、または前記ビデオストリームのメディアセグメントを取得する前に前記クライアントによってフェッチされた前記ビデオストリームの初期セグメント内で、導出するように構成されている、請求項48に記載のクライアント。
  50. 前記関心領域に関連する前記ビデオストリームの第1の未来部分のプリフェッチを、前記関心領域の周囲に関連する第2の未来部分と比較して、優先するように構成されている、請求項43〜49のいずれか一項に記載のクライアント。
  51. 前記ビデオストリームの取得を、前記関心領域に関連する前記ビデオストリームの部分で開始し、前記取得を前記関心領域の周囲に関連する部分で継続するように構成されている、請求項43〜50のいずれか一項に記載のクライアント。
  52. ビデオストリーミングの方法であって、前記方法は、
    ビデオデータストリーム(14)のスライス(26)を受信するステップであって、
    前記スライス(26)内にビデオ(12)のピクチャ(18)が符号化され、前記ピクチャ(18)の各々がシーンを示し、前記ピクチャ(18)は空間的にタイル(24)内に細分化され、前記スライス(26)の各々は内部に1つだけのタイルを符号化して有している、ビデオデータストリーム(14)のスライスを受信するステップと、
    前記シーンのセクション(22)に関するストリーム(16)のストリーミングをクライアントに利用可能にするステップであって、
    前記ストリーム(16)はファイル形式でフォーマットされ、前記ストリーム(16)は、1つ以上のタイルのセットの幅を有する前記セクション内の、タイルが、前記スライスに符号化されている、前記スライスを組み込んでいる1つ以上のソーストラックのセット(30)と、
    前記1つ以上のソーストラック内に組み込まれた前記スライスの第1の部分に対する置換を通知することによって、および/または、前記1つ以上のソーストラック内に組み込まれた前記スライスの第2の部分をコピーするように指示することによって、前記シーンのセクションを示すピクチャが内部に符号化されているセクション固有のビデオデータストリームの合成を指示する構成命令(34)を含む、1つ以上のギャザリングトラックのセット(32)と、を含む、
    前記シーンのセクション(22)に関するストリーム(16)のストリーミングを前記クライアントに利用可能にするステップと、
    を含む方法。
  53. ビデオストリーミングサーバ(10)からシーンのセクション(22)に関するビデオ(74)を取り出す方法であって、
    前記方法は、
    前記ビデオストリーミングサーバ(10)から、ファイル形式でフォーマットされたストリーム(16)を取得するステップであって、
    前記ストリーム(16)は、
    スライス(26)を組み込んでいる1つ以上のソーストラックのセット(32)であって、
    前記1つ以上のソーストラックのセット内の前記スライス(26)は、ビデオデータストリーム(14)のスライス(26)のサブセットを形成し、ビデオ(12)の前記シーンを表すピクチャ(18)が、前記サブセット内に符号化されており、
    前記ピクチャ(18)は空間的にタイル(24)内に細分化され、前記ビデオデータストリーム(14)の前記スライス(26)の各々は、1つだけのタイル(24)を内部に符号化して有しており、前記スライスのサブセットは、1つ以上のタイルのセットの幅を有する前記セクション内の、タイルが、前記スライスに符号化されている、前記スライスを組み込んでいる1つ以上のソーストラックのセット(32)と、
    前記シーンのセクションを示すピクチャを符号化して内部に有するセクション位置固有のビデオデータストリーム(52)の合成(62)を指示する構成命令(34)を含む、1つ以上のギャザリングトラックのセット(32)と、
    を含む、取得するステップと、
    前記1つ以上のソーストラック内に組み込まれた前記スライスの第1の部分を、前記構成命令によって通知された置換(68)によって置換することにより、および/または、前記1つ以上のソーストラック内に組み込まれた前記スライスの第2の部分(70)をコピーすることにより、
    前記1つ以上のギャザリングトラックのセット(32)内の構成命令に従って、前記セクション固有のビデオデータストリーム(52)を合成(62)するステップと、
    前記セクション固有のビデオデータストリーム(52)をビデオデコーダ(72)によって復号化させるステップと、
    を含む方法。
  54. ビデオストリーミングのための方法であって、前記方法は、シーンを表し、かつ前記シーン内の関心領域の位置を指示する情報を前記位置が時間的に変化する形で伴って、ビデオストリーミングサーバからクライアントにストリーミングされている、ビデオストリームを伴うことを含む、ビデオストリーミングの方法。
  55. シーンを表すビデオストリームをビデオストリーミングサーバから取得するための方法であって、前記ビデオストリームに付随する情報を使用して、前記シーン内の関心領域の位置を、前記位置が時間的に変化する形で決定することを含む、方法。
  56. 請求項52〜55のいずれか一項に記載の方法を、コンピュータ上で動いているときに実行するためのプログラムコードを有するコンピュータプログラム。
  57. デジタル記憶媒体であって、請求項34に記載のビデオデータが前記デジタル記憶媒体上に格納されたデジタル記憶媒体。
  58. 請求項52または54に記載のビデオストリーミング方法によってストリーミングされたストリーム。
JP2020155204A 2016-02-02 2020-09-16 ビデオストリーミングにおけるシーンセクションと関心領域の処理 Active JP7273766B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16153929 2016-02-02
EP16153929.1 2016-02-02

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018540380A Division JP6766157B2 (ja) 2016-02-02 2017-02-01 ビデオストリーミングにおけるシーンセクションと関心領域の処理

Publications (2)

Publication Number Publication Date
JP2020205632A true JP2020205632A (ja) 2020-12-24
JP7273766B2 JP7273766B2 (ja) 2023-05-15

Family

ID=55359394

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018540380A Active JP6766157B2 (ja) 2016-02-02 2017-02-01 ビデオストリーミングにおけるシーンセクションと関心領域の処理
JP2020155204A Active JP7273766B2 (ja) 2016-02-02 2020-09-16 ビデオストリーミングにおけるシーンセクションと関心領域の処理

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018540380A Active JP6766157B2 (ja) 2016-02-02 2017-02-01 ビデオストリーミングにおけるシーンセクションと関心領域の処理

Country Status (8)

Country Link
US (2) US11134282B2 (ja)
EP (1) EP3412032A1 (ja)
JP (2) JP6766157B2 (ja)
KR (2) KR102618049B1 (ja)
CN (2) CN108886639B (ja)
CA (1) CA3013111C (ja)
TW (1) TWI672040B (ja)
WO (1) WO2017134110A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017134110A1 (en) 2016-02-02 2017-08-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scene section and region of interest handling in video streaming
CN106101847A (zh) * 2016-07-12 2016-11-09 三星电子(中国)研发中心 全景视频交互传输的方法和系统
CN109644286B (zh) * 2016-08-30 2021-08-17 索尼公司 分发装置和方法、接收装置和方法、介质和内容分发系统
US10601886B2 (en) * 2018-02-05 2020-03-24 Telefonaktiebolaget Lm Ericsson (Publ) Method, a user equipment and a computer program product for enabling a dynamic adaptive streaming over HTTP, DASH, player to fetch media segments from a network
WO2019195037A1 (en) 2018-04-03 2019-10-10 Futurewei Technologies, Inc. Bitstream signaling of error mitigation in sub-picture bitstream based viewport dependent video coding
GB2575074B (en) * 2018-06-27 2022-09-28 Canon Kk Encapsulating video content with an indication of whether a group of tracks collectively represents a full frame or a part of a frame
CN110798707B (zh) * 2018-08-02 2023-06-16 华为技术有限公司 传输媒体数据的方法、客户端和服务器
US10779014B2 (en) 2018-10-18 2020-09-15 At&T Intellectual Property I, L.P. Tile scheduler for viewport-adaptive panoramic video streaming
CN111263191B (zh) * 2018-11-30 2023-06-27 中兴通讯股份有限公司 视频数据的处理方法、装置、相关设备及存储介质
US10897627B2 (en) 2019-01-11 2021-01-19 Western Digital Technologies, Inc. Non-volatile memory system including a partial decoder and event detector for video streams
GB2587364B (en) * 2019-09-24 2023-11-15 Canon Kk Method, device, and computer program for encapsulating media data into a media file
WO2021058814A1 (en) * 2019-09-27 2021-04-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Merging friendly file format
US11064194B2 (en) 2019-10-31 2021-07-13 Western Digital Technologies, Inc. Encoding digital videos using controllers of data storage devices
CN111079567B (zh) * 2019-11-28 2020-11-13 中科驭数(北京)科技有限公司 采样方法、模型生成方法、视频行为识别方法及装置
US10979784B1 (en) 2019-12-02 2021-04-13 CodeShop, B.V. Track format for carriage of event messages
US10841645B1 (en) 2019-12-09 2020-11-17 Western Digital Technologies, Inc. Storage system and method for video frame segregation to optimize storage
CN115023955A (zh) * 2020-01-29 2022-09-06 诺基亚技术有限公司 用于视频流传输的方法、装置和计算机程序产品
US11526435B2 (en) 2020-02-04 2022-12-13 Western Digital Technologies, Inc. Storage system and method for automatic data phasing
US11562018B2 (en) 2020-02-04 2023-01-24 Western Digital Technologies, Inc. Storage system and method for optimized surveillance search
US11328511B2 (en) 2020-03-13 2022-05-10 Western Digital Technologies, Inc. Storage system and method for improved playback analysis
US11546406B2 (en) * 2020-04-13 2023-01-03 Tencent America LLC Media systems and methods including mixed event message tracks
US20220109856A1 (en) * 2020-10-06 2022-04-07 Samsung Electronics Co., Ltd. Access of essential video coding (evc) slices in a file
US11218784B1 (en) 2021-04-09 2022-01-04 CodeShop, B.V. Method and system for inserting markers in a media presentation
CN116912385B (zh) * 2023-09-15 2023-11-17 深圳云天畅想信息科技有限公司 视频帧自适应渲染处理方法、计算机装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014111421A1 (en) * 2013-01-18 2014-07-24 Canon Kabushiki Kaisha Method of displaying a region of interest in a video stream
WO2015197815A1 (en) * 2014-06-27 2015-12-30 Koninklijke Kpn N.V. Determining a region of interest on the basis of a hevc-tiled video stream
WO2015198725A1 (ja) * 2014-06-23 2015-12-30 キヤノン株式会社 通信装置、通信方法、及びプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004047062A2 (en) * 2002-11-14 2004-06-03 Opentv, Inc. Positioning of images in a data stream
US7379608B2 (en) * 2003-12-04 2008-05-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Arithmetic coding for transforming video and picture data units
JP4185013B2 (ja) * 2004-04-14 2008-11-19 日本電信電話株式会社 動画像受信表示方法,動画像送信方法,動画像受信表示装置,動画像送信装置,動画像受信表示プログラム,動画像送信プログラムおよびそれらのプログラム記録媒体
DE102007049351A1 (de) 2007-10-15 2009-04-16 Siemens Ag Verfahren und Vorrichtung zum Erstellen eines kodierten Ausgangsvideostroms aus mindestens zwei kodierten Eingangsvideoströmen, sowie Verwendung der Vorrichtung und kodierter Eingangsvideostrom
US20120174196A1 (en) * 2010-12-30 2012-07-05 Suresh Bhogavilli Active validation for ddos and ssl ddos attacks
US9554142B2 (en) * 2011-01-28 2017-01-24 Eye IO, LLC Encoding of video stream based on scene type
US20120300048A1 (en) * 2011-05-25 2012-11-29 ISC8 Inc. Imaging Device and Method for Video Data Transmission Optimization
ES2625097T3 (es) * 2011-09-07 2017-07-18 Sun Patent Trust Método de codificación de imágenes y aparato de codificación de imágenes
US20130114694A1 (en) * 2011-11-08 2013-05-09 Qualcomm Incorporated Parameter set groups for coded video data
CN108337512B (zh) * 2011-12-29 2020-10-27 Lg 电子株式会社 视频编码和解码方法和使用该方法的装置
GB2501675B (en) * 2012-03-27 2014-11-19 Microsoft Corp Encoding and transmitting video streams
US9516308B2 (en) * 2012-04-27 2016-12-06 Qualcomm Incorporated Parameter set updates in video coding
US8887215B2 (en) * 2012-06-11 2014-11-11 Rgb Networks, Inc. Targeted high-value content in HTTP streaming video on demand
CN108718410B (zh) * 2012-06-26 2022-05-24 Lg 电子株式会社 视频编码方法、视频解码方法和使用其的装置
JP2015526006A (ja) * 2012-06-29 2015-09-07 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ビデオ・データストリーム・コンセプト
TWI669952B (zh) * 2012-09-18 2019-08-21 美商Vid衡器股份有限公司 使用圖塊及圖塊組的感興趣區域視訊編碼的方法及裝置
WO2014057131A1 (en) * 2012-10-12 2014-04-17 Canon Kabushiki Kaisha Method and corresponding device for streaming video data
EP2941891B1 (en) * 2013-01-04 2020-09-16 GE Video Compression, LLC Efficient scalable coding concept
WO2014113603A2 (en) * 2013-01-16 2014-07-24 Huawei Technologies Co., Ltd. Storing and transmitting content for downloading and streaming
KR101965374B1 (ko) * 2013-01-18 2019-04-03 캐논 가부시끼가이샤 비디오 데이터의 재생 방법 및 비디오 데이터를 재생하기 위한 디바이스
KR102416235B1 (ko) * 2013-07-15 2022-07-05 지이 비디오 컴프레션, 엘엘씨 다계층식 비디오 코딩에서의 저지연 개념
GB2539461B (en) * 2015-06-16 2020-01-08 Canon Kk Image data encapsulation
US20170105004A1 (en) * 2015-10-07 2017-04-13 Qualcomm Incorporated Methods and systems of coding a predictive random access picture using a background picture
US10674185B2 (en) * 2015-10-08 2020-06-02 Koninklijke Kpn N.V. Enhancing a region of interest in video frames of a video stream
TWI579540B (zh) * 2015-12-02 2017-04-21 財團法人工業技術研究院 多點光譜系統
WO2017134110A1 (en) * 2016-02-02 2017-08-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scene section and region of interest handling in video streaming
US10291923B2 (en) * 2016-05-24 2019-05-14 Qualcomm Incorporated Mapping of tile grouping and samples in HEVC and L-HEVC file formats

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014111421A1 (en) * 2013-01-18 2014-07-24 Canon Kabushiki Kaisha Method of displaying a region of interest in a video stream
WO2015198725A1 (ja) * 2014-06-23 2015-12-30 キヤノン株式会社 通信装置、通信方法、及びプログラム
WO2015197815A1 (en) * 2014-06-27 2015-12-30 Koninklijke Kpn N.V. Determining a region of interest on the basis of a hevc-tiled video stream

Also Published As

Publication number Publication date
CN113316025A (zh) 2021-08-27
JP2019507980A (ja) 2019-03-22
WO2017134110A1 (en) 2017-08-10
CN113316024A (zh) 2021-08-27
CA3013111A1 (en) 2017-08-10
US20220109898A1 (en) 2022-04-07
KR102618049B1 (ko) 2023-12-27
US11917220B2 (en) 2024-02-27
EP3412032A1 (en) 2018-12-12
CA3013111C (en) 2022-08-30
KR102248185B1 (ko) 2021-05-04
JP7273766B2 (ja) 2023-05-15
KR20180110015A (ko) 2018-10-08
CN113316023A (zh) 2021-08-27
CN108886639B (zh) 2021-05-07
JP6766157B2 (ja) 2020-10-07
CN108886639A (zh) 2018-11-23
US11134282B2 (en) 2021-09-28
KR20210049205A (ko) 2021-05-04
CN113316023B (zh) 2023-10-27
TWI672040B (zh) 2019-09-11
US20190174161A1 (en) 2019-06-06
TW201733355A (zh) 2017-09-16

Similar Documents

Publication Publication Date Title
JP6766157B2 (ja) ビデオストリーミングにおけるシーンセクションと関心領域の処理
JP6516766B2 (ja) 分割タイムドメディアデータのストリーミングを改善するための方法、デバイス、およびコンピュータプログラム
RU2635549C1 (ru) Способ, устройство и компьютерная программа для инкапсуляции масштабируемых разделенных данных мультимедиа с временной привязкой
JP6572222B2 (ja) メディアファイルの生成方法、生成装置、及びプログラム
KR20180018662A (ko) 동작 포인트 디스크립터가 동적으로 설정될 수 있는 캡슐화된 비트-스트림으로부터 미디어 데이터 및 메타데이터를 획득하는 방법, 디바이스, 및 컴퓨터 프로그램
JP7439762B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
CN112369016A (zh) 信息处理装置、信息处理方法和程序
JP7373581B2 (ja) メディアコンテンツにおけるレイトバインディングのための方法および装置
KR101944601B1 (ko) 기간들에 걸쳐 오브젝트들을 식별하기 위한 방법 및 이에 대응하는 디바이스
GB2567485A (en) Method and device for exchanging data between a web application and an associated web engine
CN113316025B (zh) 视频流传输中的场景部分和感兴趣区域处理
CN113316024B (zh) 视频流传输中的场景部分和感兴趣区域处理
US20240022792A1 (en) Method for bandwidth switching by cmaf and dash clients using addressable resource index tracks and events
KR20240070610A (ko) Cmaf 및 dash 멀티미디어 스트리밍을 위한 주소 지정 가능한 리소스 인덱스 이벤트

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R150 Certificate of patent or registration of utility model

Ref document number: 7273766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150