JP7437577B2 - 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送 - Google Patents

高度なビデオデータストリーム抽出および多重解像度ビデオ伝送 Download PDF

Info

Publication number
JP7437577B2
JP7437577B2 JP2021164741A JP2021164741A JP7437577B2 JP 7437577 B2 JP7437577 B2 JP 7437577B2 JP 2021164741 A JP2021164741 A JP 2021164741A JP 2021164741 A JP2021164741 A JP 2021164741A JP 7437577 B2 JP7437577 B2 JP 7437577B2
Authority
JP
Japan
Prior art keywords
slice
video
data stream
video data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021164741A
Other languages
English (en)
Other versions
JP2022008899A (ja
Inventor
ローベルト スクーピン
コルネリウス ヘルゲ
ベンヤミン ブロス
トーマス シーアル
デ ラ フエンテ ヤーゴ サンチェス
カルステン ズューリング
トーマス ウィーガント
Original Assignee
ジーイー ビデオ コンプレッション エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジーイー ビデオ コンプレッション エルエルシー filed Critical ジーイー ビデオ コンプレッション エルエルシー
Publication of JP2022008899A publication Critical patent/JP2022008899A/ja
Priority to JP2023120144A priority Critical patent/JP2024024598A/ja
Application granted granted Critical
Publication of JP7437577B2 publication Critical patent/JP7437577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本出願は、ビデオデータストリームの抽出、すなわち、縮小されたビデオデータストリームが、元のビデオデータストリームに符号化されたビデオの空間セクションに対応する空間的に小さなビデオをその中に符号化できるように、適切に準備されたビデオデータストリームから縮小されたビデオデータストリームを抽出するコンセプトに関し、さらに言えば、1つのシーンの異なるビデオバージョンの送信に関するものであり、バージョンはシーンの解像度または忠実度が異なる。
HEVC規格[1]は、ビデオデータストリーム全体から、より小さなまたは縮小されたビデオデータストリームを簡単に抽出できるように、すなわち、再量子化せずに、動き補償をやり直す必要もなく、ビデオコーデックがいくつかの符号化の制約に従う場合の画像の長方形タイルのサブアレイの定義を可能にするハイブリッドビデオコーデックを定義している。[2]で概説されているように、ビデオデータストリームの受信者の抽出プロセスをガイドできるHEVC標準構文に追加することが想定されている。
ただし、抽出プロセスをより効率的にする必要がある。
ビデオデータの抽出が適用される可能性のあるアプリケーション領域は、シーンの解像度が相互に異なる1つのビデオシーンの複数のバージョンの送信または提供に関係する。そのような伝送をインストールする効率的な方法、または相互に異なる解像度バージョンを提供することは有利である。
したがって、本発明の第1の目的は、より効率的な、すなわち、たとえば、異なる種類のビデオが異なる受信者に未知のタイプのビデオコンテンツをより効率的に処理できるビデオデータストリーム抽出のコンセプトを提供することであり、例えば、ビューポートから画面への投影など、または抽出プロセスの複雑さを軽減することである。この目的は、第1の態様による本出願の独立請求項の主題により達成される。
特に、本出願の第1の態様によれば、縮小されたビデオデータストリーム内で、縮小された(抽出された)画像領域で、それぞれのスライスが位置する場所を示すように、抽出可能な空間セクション内の各スライスのスライス部分のスライスアドレスを修正する方法に関しては、ビデオデータストリーム内の抽出情報に複数のオプションの1つをシグナリングする情報、または明示的にシグナリングする方法を提供することにより、ビデオデータストリームの抽出がより効率的になる。言い換えれば、第2の情報は、元のビデオの空間セクションに基づいて、縮小(抽出)されたビデオデータストリームの空間的に小さいビデオの画像の構成に関する抽出プロセスをガイドするビデオデータストリームの抽出サイトに情報を提供する。したがって、抽出プロセスを軽減するか、ビデオデータストリーム内で伝達されるシーンタイプのより大きな変動に適応できるようにしている。例えば、パノラマシーンから画面への投影のシームインターフェイスのシーンを示す元の画像の周囲に沿って異なる部分に当接するゾーンで構成される空間セクションでは、空間セクションのゾーンの配置が抽出されたストリームの小さい画像は、非パノラマ型の画像タイプの場合とは異なるはずであるが、受信者はそのタイプについても知らない可能性がある。追加または個別に、抽出されたスライス部分のスライスアドレスを修正するのは面倒な作業であり、たとえば、代替スライスアドレスの形式で修正方法に関する情報を明示的に送信することにより軽減される場合がある。
本発明の別の目的は、シーンの解像度が異なるビデオシーンの異なるバージョンの並置をより効率的に受信者に提供するコンセプトを提供することである。
この目的は、本出願の第2の態様の係属中の独立請求項の主題により達成される。
特に、本願の第2の態様によれば、シーンの解像度が異なるビデオシーンのいくつかのバージョンの並置は、これらのバージョンを1つのビデオデータストリームに符号化された1つのビデオにまとめることにより、より効率的に表示され、そして、このビデオデータストリームに、ビデオの画像が異なる解像度で画像の異なる空間部分に共通のシーンコンテンツを表示することを示すシグナリングを提供する。ビデオデータストリームの受信者は、したがって、シグナリングに基づいて、ビデオデータストリームによって伝達されるビデオコンテンツが、異なるシーン解像度でのシーンコンテンツのいくつかのバージョンの空間的な並列コレクションに関連するかどうかを認識することができる。受信サイトの機能に応じて、ビデオデータストリームを復号する試行を抑制し得るか、またはビデオデータストリームの処理はシグナリングの分析に適合され得る。
上述の態様の実施形態の有利な実装は、従属請求項の主題である。本出願の好ましい実施形態は、図面に関して以下で説明される。
図1は、調整されたスライスアドレスを使用したMCTS抽出を示す概略図である。 図2は、本願の第1の態様の実施形態ならびに参加するプロセスおよびデバイスによるビデオデータストリーム抽出処理のコンセプトを示す混合概略図およびブロック図である。 図3は、第2の情報がスライスアドレスを修正する方法を明示的に示す例に従って、抽出情報の第2の情報の例を継承する構文例を示す図である。 図4は、所望の画像サブセクションを形成する非当接MCTSの例を示す概略図である。 第2の情報がいくつかの可能なオプションの中で抽出プロセスにおいてスライスアドレスを修正するための特定のオプションを示す実施形態による第2の情報を含む特定の構文例を示す図である。 図6は、多重解像度360°フレームのパッケージング例を示す概略図である。 図7は、混合解像度表現を含む例示的なMCTSの抽出を示す概略図である。 図8は、本出願の第2の態様の実施形態による、ユーザーへの多重解像度シーン提供ならびに参加デバイスならびにビデオストリームおよびプロセスの効率的な方法を示す混合概略図およびブロック図
以下の説明は、本願の第1の態様の説明から始まり、その後、本願の第2の態様の説明に続く。より正確には、本願の第1の態様に関して、以下に説明する第1の態様の実施形態の利点および基礎となるコンセプトを動機付けるために、基礎となる技術的問題の概要から説明を始める。2番目の側面に関しては、説明の順序は同じ方法で選択されます。
パノラマまたは360ビデオアプリケーションでは、画面のサブセクションのみをユーザーに提示する必要があるのが一般的である。Motion Constrained Tile Sets(MCTS)などの特定のコーデックツールを使用すると、圧縮ドメイン内の目的の画像サブセクションに対応する符号化データを抽出し、適合ビットストリームを形成できる。そして、完全な画像ビットストリームからのMCTS復号をサポートしないレガシーデコーダデバイスで復号できる。そして、それは完全な画像復号化に必要なデコーダーと比較してより低いティアであると特徴づけられる。
例として、また参考として、HEVCコーデックに含まれるシグナリングは次の場所にある。
・ 参照[1]。セクションD2.29およびE.2.29の一時的なMCTS SEIメッセージを指定し、これにより、エンコーダーは、指定された長方形のリストをシグナリングできる。それぞれ左上と右下のタイルインデックスで定義され、MCTSに属する。
・ 参照[2]。MCTSを適合HEVCビットストリームとして抽出する作業を容易にするパラメーターセットやネスト化したSEIメッセージなどの追加情報を提供し、[1]の次のバージョンに追加される。
[1]および[2]からわかるように、抽出の手順には、抽出デバイスで実行される関連スライスのスライスヘッダーで通知されるスライスアドレスの調整が含まれる。
図1に、MCTS抽出の例を示す。図1は、ビデオデータストリーム、すなわち、HEVCビデオデータストリームに符号化された画像を示している。画像100は、CTB、すなわち画像100が符号化された単位の符号化ツリーブロックに細分される。図1の例では、画像100は、16×16×6のCTBに細分されているが、CTBの行数とCTBの列数は当然ながら重要ではない。参照符号102は、そのようなCTBを代表的に示している。これらのCTB102の単位で、画像100はタイル、すなわちm×nタイルのアレイにさらに細分され、図1はm=8およびn=4の例示的なケースを示す。各タイルにおいて、そのようなタイルの1つを代表的に示すために参照符号104が使用されている。したがって、各タイルは、CTB 102の長方形のクラスターまたはサブアレイである。例示のみを目的として、図1は、タイル104が異なるサイズのものであり得ること、または代替的に、タイルの行が相互に異なる高さおよび相互に異なる幅のタイルの列であり得ることを示す。
当技術分野で知られているように、タイルの細分割、すなわち画像100のタイル104への細分割は、画像100の画像コンテンツがビデオデータストリームに符号化される符号化順序106に影響を与える。特に、タイル104は、タイルの順序に沿って、すなわち、タイル行ごとのラスタ走査順序で次々に横断される。言い換えれば、1つのタイル104内のすべてのCTB102は、符号化順序が次のタイル104に進む前に、まず符号化順序106によって符号化または横断される。各タイル102内で、CTBは、ラスタ走査順序、すなわち行方向のラスタ走査順序も使用して符号化される。符号化順序106に沿って、ビデオデータストリームへの画像100の符号化は、いわゆるスライス部分をもたらすために細分される。換言すれば、符号化順序106の連続的な部分が横断する画像100のスライスは、スライス部分を形成するようにユニットとしてビデオデータストリームに符号化される。図1では、各タイルは単一のスライス、またはHEVCの用語ではスライスセグメント内にあると想定されているが、これは単なる例であり、異なる方法で作成することができる。代表的に、1つのスライス108、またはHEVCに関して、1つのスライスセグメントは、図1において代表的に参照符号108で示され、一致するか、または対応するタイル104に適合している。
画像100のビデオデータストリームへの符号化に関する限り、この符号化は、空間予測、時間予測、エントロピー符号化のコンテキスト導出、時間予測の動き補償、予測残差の変換および/または予測残差の量子化を活用することに注意する必要がある。符号化順序106は、スライシングに影響を与えるだけでなく、空間予測および/またはコンテキスト導出のために参照ベースの可用性も定義する。例を挙げれば、符号化順106で先行する当接部分のみが利用可能である。タイリングは、符号化順序106に影響するだけでなく、画像100内の符号化相互依存性も制限する。例えば、空間予測および/またはコンテキスト導出は、現在のタイル104内の部分のみを参照するように制限される。現在のタイルの外側の部分は、空間予測および/またはコンテキスト導出では参照されない。
図1は、画像100のさらなる特定の領域、すなわちいわゆるMCTS、すなわち、画像100の一部であるビデオが抽出可能な画像100の画像領域内の空間セクション110を示している。セクション110の拡大図が図10の右側に示されている。図1のMCTS110は、タイル104のセットから構成される。セクション110にあるタイルには、それぞれa、b、c、dという名前が付けられている。空間セクション110が抽出可能であるという事実は、ビデオのビデオデータストリームへの符号化に関するさらなる制限を伴う。特に、図1に示されている画像100のビデオの画像の分割は、ビデオの他の画像によって採用されています。そして、この画像シーケンスについて、タイルa、b、c、およびd内の画像コンテンツは、ある画像から他の画像を参照する場合でも空間セクション110内に符号化相互依存性が残るように符号化される。言い換えれば、例えば、時間的予測および時間的コンテキスト導出は、空間セクション110の領域内に収まるように制限される。
画像100の一部であるビデオをビデオデータストリームに符号化する際の興味深い点は、スライス108にスライスアドレスが提供されるという事実であり、このスライスアドレスは、符号化された画像領域におけるその符号化開始、すなわちその位置を示す。スライスアドレスは、符号化順序106に沿って割り当てられる。例えば、スライスアドレスは、各スライスの符号化が開始される符号化順序106に沿ったCTBランクを示す。たとえば、ビデオおよび画像100をそれぞれ符号化するデータストリーム内で、タイルaと一致するスライスを運ぶスライス部分は、タイルa内の符号化順序106の最初のCTBを示す符号化順序106の7番目のCTBとしてスライスアドレス7を有する。同様に、タイルb、c、dに関連するスライスを運ぶスライス部分内のスライスアドレスは、それぞれ9、29、33になる。
図1の右側は、縮小または抽出されたビデオデータストリームの受信者がタイルa、b、c、dに対応する2つのスライスを割り当てるスライスアドレスを示している。言い換えると、図1は、右側の数字0、2、4、8を使用して、縮小または抽出されたビデオデータストリームの受信者によって割り当てられたスライスアドレスを示していて、これは、空間セクション110に関する抽出により、すなわちMCTS抽出により、画像100全体を含むビデオを表す元のビデオデータストリームから取得されている。縮小または抽出されたビデオデータストリームでは、タイルa、b、cおよびdのスライス100に符号化されたスライス部分は、抽出プロセス中に取り出された元のビデオデータストリームにあったように、符号化順序106に配置される。特に、この受信者は、縮小または抽出されたビデオデータストリームのスライス部分のシーケンスから再構成されたCTBの形式で画像コンテンツを配置する。すなわち、画像100全体に関して符号化順序106と同じ方法で空間セクション110をトラバースする符号化順序112に沿ったタイルa、b、cおよびdに関するスライス、すなわち、タイル内のタイルごとに空間セクション110をラスタースキャン順序でトラバースすることによる。また、各タイル内のCTBの走査もラスタースキャン順序に沿って行われてから次のタイルに進む。タイルa、b、c、dの相対位置は、維持される。すなわち、図1の右側に示されるような空間セクション110は、画像100で発生したタイルa、b、cおよびdの間の相対位置を維持する。符号化順序112を使用してタイルa、b、cおよびdを決定することから生じるスライスのスライスアドレスは、それぞれ0、2、4および8である。したがって、受信者は、右側に自己完結型の画像として示される空間セクション110を示す縮小または抽出されたビデオデータストリームに基づいて、より小さなビデオを再構築することができる。
これまでの図1の説明を要約すると、図1は、各スライス108の左上隅の数字を使用することによる抽出後のスライスアドレスおよびCTBの単位の調整を示しているかまたは示している。抽出を実行するには、抽出サイトまたは抽出デバイスは、CTBのサイズ、つまり最大CTBサイズ114、および画像100内のタイル列とタイル行の数とサイズを示すパラメーターに関して元のビデオデータストリームを分析する必要がある。さらに、ネストされたMCTS固有のシーケンスおよび画像パラメーター集合は、そこからタイルの出力配置を導出するために検査される。図1では、空間セクション110内のタイルa、b、cおよびdは、それらの相対的な配置を保持している。全体として、上記およびHEVCデータストリームのMCTS命令に従って抽出デバイスによって実行される分析および検査には、上記のパラメーターから再構成スライス108のスライスアドレスを取得するための専用の洗練されたロジックが必要とされる。この専用で洗練されたロジックは、実行時の欠点だけでなく、追加の実装コストが発生する。
以下に説明する実施形態は、したがって、ビデオデータストリームで追加のシグナリングを使用し、抽出情報生成側および抽出側で対応する処理ステップを使用して、抽出の特定の目的のために容易に利用可能な情報を提供することにより、抽出装置の上記説明の全体的な処理負担を軽減することができる。追加または代替として、以下で説明するいくつかの実施形態は、異なるタイプのビデオコンテンツのより効果的な処理が達成されるような方法で抽出プロセスをガイドするために追加のシグナリングを使用する。
図2に基づいて、一般的なコンセプトを最初に説明する。後で、図2に示される全体的なプロセスに参加する個々のエンティティの動作モードのこの一般的な説明は、以下でさらに異なる実施形態に従って異なる方法でさらに明確に述べる。そこに示されているエンティティとブロックを理解しやすくするために1つの図にまとめて説明していますが、それぞれが図2の利点の概要を提供する機能を個別に継承する内蔵型デバイスに関係していることに注意する必要がある。より正確には、図2は、ビデオデータストリームを生成し、そのようなビデオデータストリームに抽出情報を提供する生成プロセスを示している。抽出プロセス自体に続いて、抽出または縮小されたビデオデータストリームと参加デバイスの復号が行われる。これらのデバイスの動作モードまたは個々のタスクとステップのパフォーマンスは、ここで説明する実施形態に従っている。図2に関して最初に説明した特定の実装例に従って、そして、以下でさらに概説されるように、抽出デバイスの抽出タスクに関連する処理オーバーヘッドが削減される。さらなる実施形態によれば、元のビデオ内の様々な異なるタイプのビデオコンテンツの処理は、追加的または代替的に軽減される。
図2の上部には、参照符号120で示される元のビデオが示されている。このビデオ120は、図1の画像100と同じ役割を果たすので、その1つが参照符号100を使用して示される一連の画像から構成される。すなわち、それは、ビデオデータストリームの抽出によって空間セクション110が後に切り取られる画像領域を示す画像である。ただし、図1に関して上で説明したタイルの細分割は、図2に示すプロセスの基礎となるビデオ符号化で使用する必要がないことを理解されるべきである。そして、むしろ、タイルおよびCTBは、図2の実施形態に関する限り、単にオプションであるビデオ符号化におけるセマンティックエンティティを示す。
図2は、ビデオ102がビデオ符号化コア122でビデオ符号化の対象であることを示している。ビデオ符号化コア122によって実行されるビデオ符号化は、例えば、ハイブリッドビデオ符号化を使用して、ビデオ120をビデオデータストリーム124に変える。すなわち、ビデオ符号化コア122は、例えば、予測残差のいくつかのサポートされた予測モード符号化のうちの1つを使用してビデオ120の画像の個々の画像ブロックを符号化するブロックベースの予測符号化を使用する。予測モードは、例えば、空間的および時間的予測を含み得る。時間的予測は、動き補償、すなわち、時間的に予測されたブロックの動きベクトルに現れる動きフィールドの決定、およびデータストリーム124によるその送信を含んでもよい。予測残差は変換符号化されてもよい。すなわち、いくつかのスペクトル分解を予測残差に適用することができ、結果として生じるスペクトル係数を量子化にかけ、例えばエントロピー符号化を使用してデータストリーム124に可逆的に符号化することができる。次に、エントロピー符号化は、コンテキスト適応性を使用してもよい。つまり、このコンテキスト導出が空間的近傍および/または時間的近傍に依存するコンテキストを決定してもよい。上記したように、符号化は、符号化依存関係を、符号化順序106が既に通過したビデオの部分のみがビデオ120の現在の部分を符号化するための基礎または基準として使用できる程度に制限する符号化順序106に基づいてもよい。符号化順序106は、画像120ごとにビデオ120を横断するが、必ずしも画像の提示時間順ではない。画像100などの画像内で、ビデオ符号化コア120は、ビデオ符号化によって得られた符号化データを細分化し、それにより、画像100を、ビデオデータストリーム124の対応するスライス部分126にそれぞれ対応するスライス108に細分化する。データストリーム124内で、スライス部分126は、画像100の符号化順序106によって対応するスライス108が横断される順序で互いに続くスライス部分のシーケンスを形成する。
図2にも示されているように、ビデオ符号化コア122は、各スライス部分126にスライスアドレスを提供または符号化する。スライスアドレスは、図2では大文字で示されている。図1に関して説明したように、スライスアドレスは、符号化順序106に沿って一次元的にCTBの単位などの何らかの適切な単位で決定されてもよいが、代わりに、それらは、例えば、画像100の左上隅などのビデオ120の画像によって使用済みの画像領域内のいくつかの所定の点に対して異なって決定されてもよい。
したがって、ビデオ符号化コア122は、ビデオ120を受信し、ビデオデータストリーム124を出力する。
既に上で概説したように、図2に従って生成されたビデオデータストリームは、空間セクション110に関する限り抽出可能であり、したがって、ビデオ符号化コア120はビデオ符号化プロセスを適切に適応させる。この目的のために、ビデオ符号化コア122は、例えば、空間的予測、時間的予測、またはコンテキストの導出などにより、セクション110の外側の部分に依存しないようにするために、空間セクション110内の部分がビデオデータストリーム124にある方法で符号化されるようにインター符号化依存性を制限する。スライス108は、セクション110の境界を横切らない。したがって、各スライス108は、セクション110内に完全にあるか、セクション110の外に完全にある。ビデオ符号化コア122は、1つの空間セクション110だけでなく、いくつかの空間セクションに従うことができることに留意されたい。これらの空間セクションは、互いに交差する場合があり、つまり、同じ空間セクションが部分的に重なり合う場合や、1つの空間セクションが別の空間セクション内に完全に存在する場合がある。これらの手段により、後で詳細に説明するように、ビデオデータストリーム124から、ビデオ120の画像よりも小さい画像の縮小または抽出されたビデオデータストリームを抽出することが可能である。すなわち、単に再符号化せずに空間セクション110内のコンテンツを示す画像、すなわち、動き補償、量子化および/またはエントロピー符号化などの複雑なタスクを再度実行する必要がない。
ビデオデータストリーム124は、ビデオデータストリームジェネレータ128によって受信される。特に、図2に示す実施形態によれば、ビデオデータストリームジェネレータ128は、ビデオ符号化コア122から準備されたビデオデータストリーム124を受信する受信インターフェース130を含む。代替例によれば、ビデオ符号化コア122をビデオデータストリームジェネレータ128に含めることができ、それによりインターフェース130を置き換えることができることに留意されたい。
ビデオデータストリームジェネレータ128は、ビデオデータストリーム124に抽出情報132を提供する。図2では、ビデオデータストリームジェネレータ128によって出力される結果のビデオデータストリームは、参照符号124’を使用して示されている。抽出情報132は、図2に参照符号134で示される抽出装置について、ビデオデータストリーム124’から、符号化された縮小または抽出されたビデオデータストリーム136をどのように抽出するかを示し、その中に、空間セクション110に対応する空間的に小さなビデオ138が含まれる。
抽出情報132は、画像100によって送信された画像領域内の空間セクション110を定義する第1の情報140と、縮小ビデオデータストリーム136内で、ビデオ138の画像144の減少画像ア内で、それぞれのスライスが位置する場所を示すように、空間セクション110に入る各スライス108のスライス部分126のスライスアドレスを修正する方法に関する複数のオプションの1つを知らせる第2の情報142と、を含む。
言い換えれば、ビデオデータストリームジェネレータ128は、ビデオデータストリーム124’、すなわち抽出情報132をもたらすために、単にビデオデータストリーム124に付随する、すなわち何かを追加するだけである。この抽出情報132は、特にビデオデータストリーム124’からセクション110に関して縮小または抽出されたビデオデータストリーム136を抽出する際に、ビデオデータストリーム124’を受信する抽出装置134を案内することを目的とする。第1の情報140は、空間セクション110、すなわち、それぞれビデオ120および画像100の画像領域内のその場所、および場合によっては画像144の画像領域のサイズおよび形状を定義する。図2に示されるように、このセクション110は、必ずしも長方形、凸面である必要はなく、または接続された領域である必要もない。例えば、図2の例では、セクション110は、2つの分離した部分領域110aおよび110bから構成される。さらに、第1の情報140は、抽出装置134が符号化パラメーターの一部またはデータストリーム124または124’の一部をそれぞれ修正または置換する方法に関するヒントを含むことができる。例えば、抽出により画像100から画像144に向かう画像領域の変化を反映するように適合される画像サイズパラメーターなどである。特に、第1の情報140は、ビデオデータストリーム124'に含まれる対応するパラメーターセットを対応して変更または置換し、縮小または抽出されたビデオデータストリーム136に引き継ぐようにするために、抽出プロセスにおいて抽出装置134によって適用されるビデオデータストリーム124'のパラメーターセットに関する代替または修正命令を含むことができる。
言い換えると、抽出装置134は、ビデオデータストリーム124’を受信し、ビデオデータストリーム124'から抽出情報132を読み取り、抽出情報から空間セクション110、すなわちビデオ120の画像領域内のその位置および位置を導出する。つまり、第1の情報140に基づいている。したがって、抽出装置130は、第1の情報140に基づいて、セクション110に入るスライスに符号化されたスライス部分126を識別する。したがって、セクション110の外側のスライスに関係するスライス部分126が抽出装置134によってドロップされている間に、縮小または抽出されたビデオデータストリーム136に引き継がれる。さらに、抽出装置134は、先に概説したように、以前にデータストリーム124’内に1つまたは複数のパラメーターセットを正しく設定するために、情報140を使用してもよく、または、縮小または抽出されたビデオデータストリーム136で、すなわち修正または置換により、それを採用する。したがって、1つまたは複数のパラメーターセットは、セクション110が、図2に例示的に示されているように接続された領域、すなわちセクション110のすべての部分110aおよび110bの面積の合計ではない場合、セクション110の領域のサイズの合計に対応するサイズに設定された情報140に従って、画像サイズパラメーターに関係し得る。セクション110に敏感なスライス部分のドロップとパラメーターセットの適合は、ビデオデータストリーム124’をセクション110に限定する。さらに、抽出装置134は、縮小または抽出されたビデオデータストリーム136内のスライス部分126のスライスアドレスを修正する。これらのスライスは、図2のヘッジを使用して示されている。すなわち、ハッチングされたスライス部分126は、そのスライスがセクション110に入り、したがって、それぞれ抽出または引き継がれるスライスである。
情報142は、完全なビデオデータストリーム124’に追加される状況で想像できるだけでなく、そこに含まれるスライス部分のシーケンスは、空間セクション内のスライスに符号化されたスライス部分を含むことと同様に、空間セクションの外部のスライスを符号化したスライス部分も含まれことに留意されたい。むしろ、情報142を含むデータストリームは、ビデオデータストリームに含まれるスライス部分のシーケンスが空間セクション内のスライスに符号化されたスライス部分を含むように、すでに取り除かれている可能性がある。ただし、空間セクションの外部のスライスに符号化されたスライス部分はありません。
以下において、第2の情報142をデータストリーム124’に埋め込むための異なる例、およびその処理が提示される。一般に、第2の情報142は、データストリーム124’内で、明示的に、またはいくつかのオプションのうちの1つの選択の形で、スライスアドレス修正を実行する方法に関するヒントとしてシグナル伝達として伝えられる。言い換えると、第2の情報142は、1つ以上のシンタックス要素の形で伝えられ、その可能な値は、例えば、スライスアドレスの代替を明示的に通知するか、または一緒に、ビデオデータストリーム136のスライス部分ごとのスライスアドレスを、データストリームの1つまたは複数の構文要素の設定を選択することで関連付ける多数の可能性のシグナリングを区別できる。ただし、第2の情報142を具体化する上記の1つ以上の構文要素の意味のあるまたは許可される設定の数は、ビデオ120がビデオデータストリーム124に符号化された方法およびセクション110の選択にそれぞれ依存することに注意する必要がある。たとえば、セクション110は、画像100内の長方形の接続領域であり、ビデオ符号化コア120は、セクション110の内部に関する限り、符号化をさらに制限することなく、このセクションに関して符号化を実行すると想像して下さい。2つ以上の領域110aおよび110bによるセクション110の構成は適用されないであろう。つまり、セクション110の外部への依存関係のみが抑制される。この場合、セクション110は、ビデオ138の画像144の画像エリアに修正されずに、すなわち、セクション110のサブ領域のスクランブル位置なしにマッピングされなければならないだろう。また、スライス110を構成するスライス部分へのアドレスαおよびβの割り当ては、セクション110の内部をそのまま画像144の画像領域に配置することにより一意に決定される。この場合、ビデオデータストリームジェネレータ128によって生成される情報142の設定は一意である。つまり、ビデオデータストリームジェネレータ128には、この方法で情報142を設定する以外の選択肢はない。ただし、情報142には、符号化の観点から他の信号オプションがある。しかしながら、この代替のない場合でも、例えば、固有のスライスアドレス修正を明示的に示すシグナリング142は、抽出装置134が、ストリーム124’から採用されるスライス部分126のスライスアドレスαおよびβをそれ自体で決定する前述の厄介なタスクを実行する必要がないという利点がある。むしろ、情報142からスライス部分126のスライスアドレスを修正する方法を単に導き出す。
以下にさらに概説する情報142の性質に関する異なる実施形態に応じて、抽出装置134は、スライス部分126がストリーム124’から縮小または抽出ストリーム136に引き継がれる順序を保存または維持するか、情報142によって定義される方法で順序を修正する。いずれの場合でも、抽出装置134によって出力される縮小または抽出されたデータストリーム136は、通常のデコーダー146によって復号され得る。デコーダー146は、抽出器ビデオデータストリーム136を受信し、そこからビデオ138を復号する。その画像134は、画像100のようなビデオ120の画像よりも小さい。そして、その画像領域は、ビデオデータストリーム136内のスライス部分126内で伝達されるスライスアドレスαおよびβによって定義される方法で、ビデオデータストリーム136内のスライス部分126から復号されたスライス108を配置することによって満たされる。
すなわち、これまで、図2は、その説明が、以下により詳細に説明される第2の情報142の正確な性質についての様々な実施形態に適合するように説明されてきた。
ここで説明する実施形態は、ストリーム142からストリーム136に引き継がれたスライス部分126のスライスアドレスを修正する際に抽出装置134によって使用されるべきスライスアドレスの明示的なシグナリングを使用する。以下に説明する実施形態は、スライスアドレスを修正する方法のいくつかの許可されたオプションの1つを抽出装置134にシグナリングすることを可能にするシグナリング142を使用する。例えば、セクション110の空間的境界を越えないようにセクション110の内部の符号化相互依存性を制限する方法で符号化されたセクション110の結果としてのオプションの許容は、次々に、図1に示すように、セクション110を110aおよび110cまたはタイルa、b、c、dなどの2つ以上の領域に分割する。後者の実施形態は、それ自体でアドレスを計算する面倒なタスクを実行するために抽出装置134をさらに含んでもよいが。しかし、対応する抽出または縮小されたビデオデータストリーム136に基づいて、受信側で意味のあるビデオ138になるように、元のビデオ120内の異なるタイプの画像コンテンツの効率的な処理を可能にする。
つまり、図1に関して上記で概説したように、抽出装置134におけるスライスアドレス決定の面倒なタスクは、第2の情報142による抽出プロセスにおけるアドレスの修正方法の明示的な送信により、本願の実施形態に従って軽減される。この目的に使用できる構文の具体例を以下に示す。
特に、情報142を使用して、スライス部分126がビットストリーム124’で運ばれるのと同じ順序でストリーム124’に含まれるスライスアドレス置換のリストを含めることにより、抽出されたMCTSのスライスヘッダーで使用される新しいスライスアドレスを明示的にシグナリングすることができる。たとえば、図1の例を参照して下さい。ここで、情報142は、ビットストリーム内のスライスアドレス124’の順序に従うスライスアドレスの明示的なシグナリングである。再び、スライス108および対応するスライス部分126は、抽出プロセスで引き継がれるので、抽出されたビデオデータストリーム136の順序は、これらのスライス部分126がビデオデータストリーム124’に含まれた順序に対応する。後続の構文の例によれば、情報142は、第2のスライスまたはスライス部分126以降で始まる方法でスライスアドレスを明示的に通知する。図1の場合、この明示的なシグナリングは、リスト{2、4、8}を示すまたはシグナリングする第2の情報142に対応するであろう。この実施形態の例示的な構文は、図3の構文の例に示されており、ハイライトとして、[2]から知られているMCTS抽出情報SEIに加えて、明示的なシグナリング142の対応する追加を示す。
セマンティックスは以下に示されている。
num_associated_slices_minus2 [i] + 2は、リストmcts_identifier [i] [j]の任意の値に等しいmcts識別子を持つMCTSを含むスライスの数を示す。
num_extraction_info_sets_minus1 [i]の値は、0から232-2の範囲内でなければならない。
output_slice_address [i] [j]は、mcts識別子がリストmcts_identifier [i] [j]内の任意の値に等しいMCTSに属するビットストリーム順にj番目のスライスのスライスアドレスを識別する。output_slice_address [i] [j]の値は、0~232-2の範囲内でなければならない。
MCTS抽出情報SEI内の情報142の存在、またはMTCS関連情報140に加えて、データストリーム内のフラグによって制御できることに留意されたい。このフラグには、slice_reordering_enabled_flagなどの名前を付けることができる。設定すると、情報140に加えて、num_associated_slices_minus2やoutput_slice_addressなどの情報142が存在し、そうでない場合、情報142は存在せず、スライスの相互位置配置は抽出プロセスで順守されるか、そうでなければ処理される。
さらに、H.265/HEVCの命名法を使用すると、図3で使用されている構文要素名の「_segment_」の部分を「_segment_address_」に置き換えることもできるが、技術内容は同じである。
そしてさらに、num_associated_slices_minus2は情報142がセクション110内のスライスの数を2の差の形でこの数を示す整数の形で示すことを示唆しているが、注意する必要がある。あるいは、セクション110内のスライスの数は、データストリームで直接または1との差としてシグナリングすることもできる。後者の場合、たとえば、代わりにnum_associated_slices_minus1が構文要素名として使用される。任意のセクション110内のスライスの数は、たとえば、1つにすることもできる。
[2]でこれまで予想されていたMCTS抽出プロセスに加えて、追加の処理ステップは、図3で具体化されているように、情報142による明示的なシグナリングに関連付けられている。これらの追加の処理ステップは、抽出装置134によって実行される抽出プロセス内のスライスアドレスの導出を容易にし、この抽出プロセスの以下の概要は、促進が行われる場所について下線を引いて示している。
ビットストリームinBitstream 、ターゲットMCTS識別子mctsIdTarget 、ターゲットMCTS抽出情報セット識別子mctsEISIdTarget 、およびターゲット最高TemporalId値mctsTIdTargetをサブビットストリームMCTS抽出プロセスへの入力とする。サブビットストリームMCTS抽出プロセスの出力は、サブビットストリームoutBitstreamである。この節でビットストリームと共に指定されたプロセスの出力である出力サブビットストリームは、適合ビットストリームであることが、出力ビットストリームのビットストリーム適合性の要件である。
出力サブビットストリームは次のように導出される。
- ビットストリームoutBitstreamは、ビットストリームinBitstreamと同一に設定される。
- mBitsTIdTargetより大きいTemporalIdを持つすべてのNALユニットをoutBitstreamから削除する。
- outBitstreamの各アクセスユニットユニットの残りの各VCL NALについて、次のようにスライスセグメントヘッダーを調整する。
- 最初のVCL NALユニットについて、first_slice_segment_in_pic_flagの値を1に設定する。それ以外の場合は0に設定する。
- リストoutput_slice_address [i] [j]に従って、ビットストリーム順で2番目から始まる最初以外のNALユニット(スライス)のslice_segment_addressの値を設定する。
図1から3に関して説明した実施形態の変形例は、スライスアドレスの明示的なシグナリングとして情報142を使用することにより、抽出装置134によって実行されるスライスアドレス決定および抽出プロセスの厄介なタスクを軽減した。図3の特定の例によれば、情報は、データストリーム124’からデータストリーム136へセクション110内のスライス108に関係するスライス部分126を引き継ぐ際にスライス順序を維持しながら、スライス部分順序で2番目以降のスライス部分126ごとに代替スライスアドレス143を含む。スライスアドレスの置換は、それぞれビデオ138の画像144の画像領域での1次元スライスアドレスの割り当てに関連している。順序112を使用し、引き継がれたスライス部分のシーケンスから得られたスライス108のシーケンスを使用して順序112に沿って画像144の画像領域を単に舗装することと競合しない。明示的なシグナリングは、第1のスライスアドレス、すなわち、第1のスライス部分126のスライスアドレスにも適用できることに留意され、また以下でさらに言及されるであろう。後者の場合でも、フォーメーション142に代替143が含まれている可能性がある。情報142のためのそのようなシグナリングはまた、ストリーム124’内の順序で、最初に対応するスライス108の配置を可能にし得る。セクション110内のスライス108を運ぶスライス部分126のうちのスライス部分126は、図1に示すように、左上の画像コーナーであり得る符号化順序112の開始位置以外のどこかにある。断面領域110aおよび110bの再配置において、そのような可能性が存在するかまたは許可される場合には、スライスアドレスの明示的なシグナリングを使用して、自由度を高めることができる。例えば、図3に示される例を変更する際、情報142は、データストリーム136内の第1のスライス部分126、すなわち図2の場合のαおよびβの代わりにスライスアドレス置換143も明示的に通知する。次に、シグナル伝達142は、ビデオ138の出力画像内のセクション領域110aおよび110bの2つの許可されたまたは利用可能な配置、すなわち、セクション領域110aが画像の左側に配置されるものを区別することを可能にする。これにより、符号化順序112の開始位置でデータストリーム136内の最初に送信されたスライス部分126に対応するスライス108が残り、そして、ビデオデータストリーム124に関する限り、ビデオ120の画像100のスライス順序と比較してスライス108の間の順序を維持する。これにより、符号化順序106によってビデオデータストリーム124内の元のビデオで同じスライスがトラバースされる順序と比較して、符号化順序112によってトラバースされる画像144内のスライス108の順序が変更される。シグナル伝達142は、抽出装置134による補正に使用されるスライスアドレスを、ビデオデータストリーム124’内のスライス部分126に順序付けられた、または割り当てられたスライスアドレス143のリストとして明示的にシグナリングする。すなわち、情報142は、セクション110内の各スライスのスライスアドレスを、これらのスライス108が符号化順序106によってトラバースされる順序で連続的に示し、そして、この明示的なシグナリングは、セクション110のセクション領域110aおよび110bが、元の符号化順序106によってトラバースされた順序と比較して、順序112によってトラバースされる順序を変更するような置換をもたらす可能性がある。ストリーム124’からストリーム136に引き継がれたスライス部分126は、それに応じて抽出装置134によって再順序付けされる、すなわち、抽出されたスライス部分126のスライス108が順序112によって連続的に横断される順序に適合するようにされる。ビデオデータストリーム124’から引き継がれたスライス部分126に従って、縮小または抽出されたビデオデータストリーム136の標準適合性は、符号化順序112に沿って互いに厳密に従う必要がある。つまり、抽出プロセスで抽出装置134によって修正されるように単調に増加するスライスアドレスαおよびβで維持される。したがって、抽出装置134は、引き継がれたスライス部分126間の順序を修正し、符号化順序112に沿ってそこに符号化されたスライス108の順序に従って引き継がれたスライス部分126を順序付ける。
後者の側面、すなわち、引き継がれたスライス部分126のスライス108を再配置する可能性は、図2の説明のさらなる変形例に従って活用される。ここで、第2の情報142は、セクション110内の任意のスライス108に符号化されたスライス部分126間の順序の再配置を通知する。スライス部分の再配置をもたらす方法での明示的なシグナリングスライスアドレス置換143は、この現在説明されている実施形態の1つの可能性である。しかし、抽出または縮小されたビデオデータストリーム136内のスライス部分126の再配置は、異なる方法で情報142によって通知されてもよい。本実施形態は、最終的にデコーダー146で符号化順序112に厳密に沿ってスライス部分126から再構成された再構成スライスを配置し、これは、例えばタイルラスタースキャン順序を使用することを意味し、それにより画像144の画像領域を満たす。シグナル伝達142によって通知される再配置は、抽出されたまたは引き継がれたスライス部分126の間の順序を再配置または変更するように選択され、デコーダー146による配置により、スライス部分の非順序付けと比較して、例えば、領域110aおよび110bなどの区分領域の順序が変わる可能性があるように、デコーダー146による配置がセクション領域をもたらす可能性がある。情報142によってシグナリングされた再配置が元のデータストリーム124’にあった順序を残す場合、部分領域110aおよび110bは、画像110の元の画像領域にあった相対位置を維持することができる。
現在のバリアントを説明するために、図4を参照する。図4は、元のビデオの画像110と、抽出されたビデオの画像144の画像領域を示している。さらに、図4は、タイル104への例示的なタイル分割、および2つのばらばらの断面領域またはゾーン110aおよび110b、すなわち画像110の反対側150rおよび150lに当接する断面領域110aおよび110bからなる例示的な抽出セクション1110を示す。ここで、辺150rおよび150lの抽出方向に関する限り、すなわち垂直方向に沿ってそれらの位置が一致する。特に、図4は、画像110の画像コンテンツ、したがって画像110が属するビデオが特定のタイプ、すなわちパノラマビデオであることを示している。したがって、側面150rおよび150lは、3Dシーンを画像110の画像領域に投影する際にシーンを形成することができる。画像110の下で、図4は、抽出されたビデオの画像144の出力画像領域内にセクション110aおよび110bを配置する方法の2つのオプションを示している。繰り返しになりますが、図4では2つのオプションを説明するためにタイル名が使用されている。2つのオプションは、ビデオ210が2つの領域110aおよび110bのそれぞれに関して外部から独立して行われるような方法でストリーム124に符号化された結果である。
再び、図4に関して今説明されている実施形態は、スライス108またはスライス108を運ぶデータストリーム124’のNALユニットが、順序を変更する第2の情報142を有することを目的とし、抽出装置134による抽出プロセス中に、データストリーム124’から抽出または縮小ビデオデータストリーム136に向けて転送または採用または書き込まれる。図4は、所望の画像サブセクション110が、画像110が広がる画像平面内の当接しないタイルまたはセクション領域110aおよび110bからなる場合を示している。画像110のこの完全な符号化された画像平面は、タイルa、b、cおよびdを含む2つの長方形110aおよび110bからなる所望のMCTS110を有するタイル状の境界を有する図4の上部に示される。シーンコンテンツに関する限り、または図4に示すビデオコンテンツがパノラマビデオコンテンツであるという事実により、画像110が、ここでは例示的に示した等角投影法により360°にわたってカメラの周囲を覆っているとき、所望のMCTS110は左右の境界150rおよび150lの周りを包む。言い換えると、画像コンテンツがパノラマコンテンツである図4の例に起因して、出力画像144の画像エリア内のセクション領域110aおよび110bの配置のオプション1および2のうち、第2のオプションは実際により理にかなっている。ただし、画像コンテンツがパノラマ以外の別のタイプである場合、状況は異なる可能性がある。
言い換えれば、完全な画像ビットストリーム124’におけるタイルA、B、CおよびDの順序は{a、b、c、d}である。この順序が、抽出または縮小されたビデオデータストリーム136の符号化順序、または出力画像144の対応するタイルの配置に単純に転送される場合、図4の左下に示されるように、抽出プロセスは、上記の例示的なケース自体では、出力ビットストリーム136内に望ましいデータ配列をもたらさない。図4の右下に示すように、好ましい配置{b、a、d、c}が示され、それは、デコーダー146などのレガシーデバイスのためのピクチャ144の画像平面上で連続的な画像コンテンツをもたらすビデオビットストリーム136をもたらす。そのようなレガシーデバイス146は、符号化後のピクセルドメインにおける後処理ステップとして、出力画像144のサブ画像領域を再配置する能力を有さない場合がある。つまり、レンダリング、および洗練されたデバイスでさえ、後処理の労力を避けることを好む場合がある。
したがって、図4に関して上記の動機付けられた例によれば、第2の情報142は、ビデオデータストリームジェネレータ128の符号化側に、いくつかの選択またはオプションの中で好ましい順序を信号で伝える手段をそれぞれ提供する。例えば、ビデオデータストリーム124’内のそれぞれ1つ以上のタイルのセットで構成されるセクション領域110a、110bは、抽出または縮小されたビデオデータストリーム136またはその画像144が跨るその画像領域に配置されるべきである。図5に提示された特定の構文例によれば、第2の情報142は、データストリーム124’にコード化されたリストを含み、そして、抽出されたビットストリーム内のセクション110に入る各スライス108の位置を、元のビットストリーム順または入力ビットストリーム順、すなわち、ビットストリーム124’での発生順で示している。たとえば、図4の例では、優先オプション2は{1、0、3、2}を読み取るリストになる。図5は、MCTS抽出情報セットSEIメッセージ内に第2の情報142を含む構文の具体例を示している。
セマンティクスは次のようになる。
num_associated_slices_minus1 [i]プラス1は、リストmcts_identifier [i] [j]の任意の値に等しいmcts識別子を持つMCTSを含むスライスの数を示す。num_extraction_info_sets_minus1 [i]の値は、0から232-2の範囲内でなければならない。
output_slice_address[i] [j]は、mcts識別子がリストmcts_identifier [i] [j]内の任意の値に等しいMCTSに属するビットストリーム順にj番目のスライスのスライスアドレスを識別する。output_slice_address [i] [j]の値は、0からから223-2の範囲にある。
[2]で定義された抽出プロセスの追加の処理ステップを次に説明し、図5のシグナリングの実施形態の理解を容易にする。[2]に関連する追加は、下線で強調表示される。
ビットストリームinBitstream、ターゲットMCTS識別子mctsldTarget、ターゲットMCTS抽出情報セット識別子mctsEISIdTarget およびターゲット最高TemporalId値mctsTldTargetをサブビットストリームMCTS抽出プロセスへの入力とする。サブビットストリームMCTS抽出プロセスの出力は、サブビットストリームoutBitstreamである。この節でビットストリームとともに指定されたプロセスの出力である出力サブビットストリームは、適合ビットストリームであることが、入力ビットストリームのビットストリーム適合性の要件である。
OutputSliceOrder [j]は、i番目の抽出情報セットのリストoutput_slice_order [i] [j]から派生する。
出力サブビットストリームは、次のように導出される。
- ビットストリームoutBitstreamは、ビットストリームinBitstreamと同一に設定される。
[...]
- mBitsTIdTargetより大きいTemporalIdを持つすべてのNALユニットをoutBitstreamから削除する。
- リストOutputSliceOrder [j]に従って各アクセスユニットのNALユニットをソートする。
- outBitstreamの残りの各VCL NALユニットについて、スライスセグメントヘッダーを次のように調整する。
- 各アクセスユニット内の最初のVCL NALユニットについて、first_slice_segment_in_pic_flagの値を1に設定する。それ以外の場合は0に設定する。
- pps_pic_parameter_set_idがslice_pic_parameter_set_idと等しいPPSで定義されたタイル設定に従って、slice_segment_addressの値を設定する。
したがって、図5による図2の実施形態の上記の変形例を要約する。この変形は、第2の情報142は、スライスアドレスがどのように修正されるべきかに関して明示的に信号を送らないという点で、図3に関して上記で議論されたものと異なる。すなわち、第2の情報142は、上で概説した変形例に従って、データストリーム124からデータストリーム136に抽出されたスライス部分のスライスアドレスの代替を明示的にシグナリングしない。むしろ、図5の実施形態は、第1の情報140が画像100の画像領域内の空間セクション110を定義する場合に関し、少なくとも、第1の部分領域100aの外側から独立したビデオがビデオデータストリーム124’に符号化される第1の部分領域、および第2の部分領域110bから構成されるものとして、その中で、ビデオ120は、第2の部分領域110bの外部から独立したビデオデータストリーム124’に符号化される。複数のスライス108のいずれも、第1および第2の部分領域110aおよび110bのいずれの境界とも交差しない。少なくともこれらの領域110aおよび110bの単位で、抽出されたビデオデータストリーム136の出力ビデオ138の画像144は、異なるように構成され得る。第2の情報142は、スライス部分の順序とビデオデータストリーム124’に関連しているビデオデータストリーム124’から縮小ビデオデータストリーム136を抽出する際に領域110に位置するスライス108のスライス部分126をどのように再ソートするかを示す再ソート情報を通知する。再ソート情報142は、例えば、1つまたは複数の構文要素のセットを含むことができる。情報142を形成する1つまたは複数の構文要素によってシグナリングされる可能性のある状態の中には、再ソートが元の順序を維持する状態があり得る。例えば、情報142は、領域110に入る画像100のスライス108の1つを符号化する各スライス部分126のランク(図5のcp.141)を通知し、そして、抽出装置134は、これらのランクに従って、抽出または縮小されたビデオデータストリーム136内のスライス部分126を並べ替える。
次に、抽出装置134は、以下の方法で、縮小または抽出されたビデオデータストリーム136内のこのように再構成されたスライス部分126のスライスアドレスを修正する。抽出装置134は、データストリーム124’からデータストリーム136に抽出されたビデオデータストリーム124’内のスライス部分126について知っている。したがって、抽出装置134は、画像100の画像領域内のこれらの引き継がれたスライス部分126に対応するスライス108について知っている。情報142によって提供される再配置情報に基づいて、抽出装置134は、ビデオ138の画像144に対応する長方形の画像領域をもたらすように、どのように部分領域110aおよび110bが相互に平行移動して相互にシフトされたかについて決定することができる。例えば、図4、オプション2の例では、抽出装置134は、スライスアドレス0が第2の情報142で提供されるランクのリストの第2の位置で発生するとき、タイルアドレスbに対応するスライスにスライスアドレス0を割り当てる。したがって、抽出装置134は、タイルbに関連する1つまたは複数のスライスを配置し、次いで、再ソート情報に従って、ポジトンを指すスライスアドレスに関連付けられている次のスライスを追跡することができ、符号化順序112は、画像領域のタイルbの直後に続く。図4の例では、これはタイルaに関するスライスである。これは、画像100の領域110の最初のスライスaに対して次のランク付けされた位置が示されているためである。言い換えると、再ソートは、部分領域110aおよび110bの可能な再配置のいずれかにつながるように制限されている。各部分領域について、個々に、符号化順序106および112が同じ経路内のそれぞれの部分領域を横断することは事実である。しかし、タイリングにより、画像144の画像領域の部分領域110aおよび110bに対応する領域が、つまり、オプション2の場合、タイルbとdの組み合わせの領域と、タイルAとCの組み合わせの領域は、符号化順序112によってインターリーブ方式でトラバースされ、それに応じて、対応するタイルにあるスライスを符号化する関連スライス部分126は、抽出または縮小されたビデオストリーム136内でインターリーブされる。
さらなる実施形態は、既存の構文を使用してシグナリングされるさらなる順序が好ましい出力スライス順序を反映するという保証をシグナリングすることである。より具体的には、MCTS抽出SEIメッセージ[2]の発生を、タイル/NALユニットの優先出力順序を示す[1]のセクションD.2.29およびE.2.29からのMCTS SEIメッセージでMCTSを形成する長方形の順序を保証するものとして解釈することにより、この実施形態を実施することができる。図5の具体例では、含まれるタイルごとに{b、a、d、c}の順序で長方形が使用される。この実施形態の例は、OutputSliceOrder [j] の導出を除いて、上記のものと同一であろう。
OutputSliceOrder [j] は、MCTS SEIメッセージで通知された長方形の順序から導出される。
上記の例を要約すると、第2の情報142は、スライス部分126がビデオデータストリーム124'のスライス部分126のシーケンスでどのように順序付けられているかに関して、ビデオデータストリームから縮小されたビデオデータストリーム136を抽出する際に空間セクション110に入るスライスのスライス部分126をどのように再ソートするかを抽出装置134に信号で伝えることができる。ビデオデータストリーム124'のスライス部分のシーケンスの各スライス部分126のスライスアドレスは、第1のコーディングスキャン順序106に沿って各スライス部分126にエンコードされたスライス108のコーディング開始位置を一次元的にインデックス付けし、そしてそれは、画像領域を横断し、それに沿って画像100がビデオデータストリームのスライス部分のシーケンスにコード化されている。それにより、ビデオデータストリーム124'内のスライス部分のシーケンスのスライス部分のスライスアドレスは単調に増加し、ビデオデータストリーム124'からの縮小されたビデオデータストリーム136の抽出におけるスライスアドレスの修正は、縮小した画像領域を走査し、スライス部分126のスライスアドレスを設定して、第2の符号化スキャン順序112に沿って測定されたスライスのコーディング開始の位置にインデックスを付ける第2の符号化スキャン順序112に沿って、符号化されたスライスを、縮小されたビデオデータストリーム136が制限され、第2の情報142によってシグナリングされるように再ソースされるスライス部分に順次配置することにより定義される。
第1の符号化走査順序106は、各空間領域が第2の符号化走査順序112によって横断される方法に一致する方法で、少なくとも2つの区分領域のセットの各々内の画像領域を横断する。少なくとも2つの区分領域のセットのそれぞれは、第1の情報140によって、画像100が細分化される行および列への長方形タイルのサブアレイとして示され、そこで、第1および第2のコーディングスキャン順序は、次のタイルに進む前に現在のタイルを完全に横断する行方向のタイルラスタースキャンを使用する。
すでに上記で説明したように、出力スライスの順序は、上記のoutput_slice_address [i] [j]などの別の構文要素から導出できる。この場合のoutput_slice_address [i] [j]に関する上記の構文例への重要な追加は、ソートを有効にする最初のものを含むすべての関連スライスのスライスアドレスが通知されることである。この実施形態の例は、OutputSliceOrder [j]の導出を除いて、上記のものと同一であろう。
OutputSliceOrder [j]/OutputSliceOrder [j] は、i番目の抽出情報セットのリストoutput_slice_address [i] [j]から派生する。
さらに別の実施形態は、ビデオコンテンツが画像境界のセット、例えば、垂直方向の画像の境界など画像境界でラップアラウンドすることを示す情報142上の単一のフラグからなる。したがって、出力順序は、前述のように両方の画像境界上のタイルを含む画像サブセクションに対応する抽出装置134で導出されます。言い換えれば、情報142は、2つのオプションのうちの1つを通知することができる。複数のオプションの第1のオプションは、ビデオがシーンの異なるエッジ部分が互いに当接するようにシーンを示すパノラマビデオであることを示し、そして、複数のオプションのうちの第2のオプションは、異なるエッジ部分が互いにシーン的に当接していないことを示す。セクション110が構成される少なくとも2つのセクション領域a、b、c、dは、異なるエッジ部分の異なる部分、すなわち、左および右エッジ150rおよび150lに当接する第1および第2のゾーン110a、110bから構成される。そのため、第2の情報142が第1のオプションを通知する場合、縮小された画像領域は、少なくとも2つの部分領域のセットを組み合わせて構成され、第1のゾーンと第2のゾーンが異なるエッジ部分に沿って当接し、そして、第2の情報142が第2のオプションを通知する場合、縮小された画像領域は、少なくとも2つの部分領域のセットを組み合わせることにより構成され、第1および第2のゾーンは、互いに反対側を向いた異なるエッジ部分を有する。
完全を期すためだけに、画像144の画像領域の形状は、図1の(a、c、b、d)などの接続されたクラスターの相対的な配置を維持する方法で一緒にセクション110のタイルa、b、cおよびdなどの様々な領域をつなぎ合わせることに適合するように制限されないことに留意すべきであり、また、図2のゾーン(a、c)および(b、d)を水平方向にステッチするなど、最短距離で相互接続する方向に沿ってこのようなクラスターをステッチする。むしろ、たとえば、図1では、抽出されたデータストリームの画像の画像領域は4つの領域すべての列である可能性があり、図2では4つの領域すべての行の列である。一般に、ビデオ138の画像144の画像領域のサイズと形状は、データストリーム124'の異なる部分に存在する。例えば、この情報は、ストリーム124'からセクション固有のサブストリーム136を抽出する際に、パラメーターセットの適応に関して抽出装置134の抽出プロセスをガイドすることを目的とするように、情報140内の1つ以上のパラメーターの形で与えられ得る。ストリーム124'のパラメーターセットを置き換えるネストされたパラメーターセットは、たとえば、情報140に含まれ、このパラメーターセットには以下が含まれる。例えば、画像のサイズに関連するパラメーターは、たとえばピクセル単位で画像144のサイズと形状を示し、抽出装置134での抽出中にストリーム124'のパラメーターセットを置き換えると、画像100のサイズを示すパラメーターセット内の古いパラメーターが上書きされる。
また、より洗練されたシステム設定では、3次投影を使用できることにも注意する必要がある。この投影法は、サンプリング密度が大きく変化するなど、正距円筒図法の既知の弱点を回避する。ただし、3次投影を使用する場合、コンテンツ(またはそのサブセクション)から連続ビューポートを再作成するには、レンダリングステージが必要である。このようなレンダリング段階では、複雑さと機能のトレードオフが異なる場合があるけれども、つまり、いくつかの実行可能な既製のレンダリングモジュールは、コンテンツ(またはそのサブセクション)の所定の配置を期待する場合がある。このようなシナリオでは、次の発明で可能になるように配置を操作する可能性が不可欠である。
以下において、本願の第2の態様に関連する実施形態が説明される。本出願の第2の態様の実施形態の説明は、これらの実施形態によって想定され対処される一般的な問題または問題への簡単な紹介から再び始まる。
360°ビデオに限定されないコンテキストでのMCTS抽出の興味深い使用例は、図6に示すように、画面上で隣り合うコンテンツの複数の解像度のバリエーションを含む複合ビデオである。図6の下部は、複数の解像度を備えた構成ビデオ300を示し、線302は、対応するデータストリームに符号化するために高解像度ビデオ306および低解像度ビデオ308の構成が細分化されたタイル304のタイル境界を示す。
より正確には、図6は、306での高解像度ビデオの画像と、308での低解像度ビデオの同時時間画像などの画像を示している。例えば、ビデオ306と308の両方は、まったく同じシーンを示している、すなわち、同じ図または視野を持っているが、解像度は異なる。ただし、視野は、部分的にのみ互いに代替的に重なり合う場合があり、オーバーラップゾーンでは、空間解像度は、ビデオ308と比較してビデオ306の写真のサンプル数が異なる。実際には、ビデオ306と308は忠実度、すなわち、同じシーンセクションのサンプル数またはピクセル数が異なる。ビデオ306と308の同じ場所にある写真は、横に並んで大きな写真に合成され、合成ビデオ300の写真になる。たとえば、図6は、ビデオ308の画像が水平方向に半分になることを示していて、2つの半分は上下に重なっており、対応するビデオ300が得られるように、ビデオ306の同時時間画像の右側に添付される。タイル304は、一方ではビデオ306の高解像度画像と、他方では低解像度ビデオ308から生じる画像コンテンツとの間の接合部を横切らないように実行される。図6の例では、画像300のタイリングにより、ビデオ300の画像の高解像度画像コンテンツが分割される8×4タイルと、低解像度ビデオ308に由来する各半分が分割される2×2タイルになる。全体として、ビデオ300の画像の幅は10×4である。
そのような複数の解像度の合成ビデオ300が適切な方法によりMCTSで符号化される場合、MCTS抽出は、コンテンツの変形312を生成することができる。そのような変形例312は、例えば、図7に示すように、所定のサブピクチャ310aを高解像度で、シーンの残りまたは別のサブセクションを低解像度で描くように設計することができ、そこで、複合画像ビットストリーム内のMCTS310は、3つの側面または別個の領域310a、b、cと比較される。
すなわち、抽出されたビデオの画像、すなわち画像312は、MCTS領域310a、b、cの1つにそれぞれ対応する3つのフィールド314a、314bおよび314cを有し、領域310aは、画像300の高解像度画像エリアのサブエリアであり、そして、他の2つの領域310bおよび310cは、画像308の低解像度ビデオコンテンツのサブ領域である。
これを述べたので、図8に関して、本願の第2の態様に関する本願の実施形態を説明する。言い換えると、図8は、多重解像度コンテンツを受信者サイト、特に、受信サイトまで異なる解像度の複数バージョンの生成に参加している個々のサイトに提示するシナリオを示している。図8に示すプロセスパスに沿ってさまざまなサイトに配置された個々のデバイスとプロセスは、個々のデバイスと方法を表し、したがって、図8はシステムまたは方法全体のみを示すものとして解釈されるべきではないことに注意する必要がある。同様の記述は、同様に個々のデバイスと方法を示す図2に関しても当てはまる。これらすべてのサイトを1つの図にまとめて表示する理由は、これらの図に関して説明した実施形態から生じる相互関係と利点の理解を容易にするためだけである。
図8は、ピクチャ334のビデオ332にエンコードされたビデオデータストリーム330を示している。一方、画像334は、高解像度ビデオ338の同時時間画像336と低解像度ビデオ342の画像340とをつなぎ合わせた結果である。より正確には、ビデオ338および342の画像336および340は、まったく同じビューポート344に対応するか、または重複領域で同じシーンを表示するように少なくとも部分的に重複する。ただし、対応する低解像度画像340と同じシーンコンテンツをサンプリングする高解像度ビデオ画像336のサンプル数はより多く、したがって、画像336の忠実度のシーン解像度は画像340のものよりも高い。ビデオ338および342に基づくコンポジションビデオ332の画像334の構成は、コンポーザ346によって実行される。コンポーザ346は、画像336と340をつなぎ合わせる。そうすることで、コンポーザ346は、コンポジションビデオ332の画像334の画像領域の有利なフィリングおよびパッチングをもたらすために、低解像度ビデオの画像340またはその両方の高解像度ビデオ338の画像を再分割することができる。次に、ビデオエンコーダ348は、合成ビデオ332をビデオデータストリーム330に符号化する。ビデオデータストリーム生成装置350は、ビデオデータストリーム330に、画像334、または各画像またはビデオ332を示すシグナル伝達352を提供するために、ビデオエンコーダ348に含まれるか、ビデオエンコーダ348の出力に接続されてもよく、または、ビデオ332内のピクチャの特定のシーケンス内の各ピクチャまたはビデオ332は、ビデオデータストリーム330に符号化されると、共通のシーンコンテンツを複数回、つまり互いに異なる解像度で異なる空間部分に表示する。これらの部分は、コンポーザ346によって行われた合成によってその起源を示すためにHとLを使用して図8に示されており、参照符号354および356を使用して示されている。画像332のコンテンツを形成するために2つ以上の異なる解像度バージョンがまとめられている可能性があり、それぞれ単に説明のためのものである図8および図6および図7に示されるように、2つのバージョンの使用に注意する必要がある。
図8は、例示のために、ビデオデータストリーム330を受信するビデオデータストリームプロセッサ358を示している。ビデオデータストリームプロセッサ358は、例えば、ビデオデコーダであり得る。いずれにせよ、ビデオデータストリームプロセッサ358は、このデータ化に基づいて、例えば、ビデオデータストリームプロセッサ358またはその下流に接続されたデバイスの特定の能力にさらに依存するビデオデータストリーム330の復号など、ビデオデータストリームプロセッサ358が処理を開始すべきかどうかを決定するために、シグナル伝達352を検査することができる。例えば、ビデオデータストリームプロセッサ358は、ビデオデータストリーム330に完全にコード化された画像332を単に提示することができるだけであり、次に、ビデオデータストリームプロセッサ358は、ビデオデータストリーム330の処理を拒否する場合があり、そのシグナル伝達352は、その個々の画像がこれらの個々の画像の異なる空間部分で異なる空間解像度で共通のシーンコンテンツを示すことを意味する。すなわち、シグナル伝達352は、ビデオデータストリーム330が多重解像度ビデオデータストリームであることを意味する。
シグナル伝達352は、例えば、データストリーム330内で伝達されるフラグを含むことができ、フラグは第1の状態と第2の状態との間で切り替え可能である。第1の状態は、例えば、ちょうど概説した事実、すなわち、ビデオ332の個々の画像が異なるシーン解像度の同じシーンコンテンツの複数のバージョンを示すことを示し得る。第2の状態は、このような状況が存在しないことを示す。つまり、画像は1つの解像度で1つのシーンコンテンツのみを表示する。したがって、ビデオデータストリームプロセッサ358は、特定の処理タスクの実行を拒否するように、フラグ352が第1の状態にあることに応答するであろう。
前述のフラグなどのシグナル伝達352は、そのシーケンスパラメーターセットまたはビデオパラメーターセット内のデータストリーム330内で伝達され得る。HEVCでの将来の使用のために予約されている可能な構文要素は、以下の説明において可能な候補として例示的に特定されている。
図6および7に関して上記で示したように、必ずしも必要ではありませんが、相互に重複しない空間領域360のセットのそれぞれに関して、それぞれの空間領域360の外側から独立したタイルまたはタイルサブアレイなど合成ビデオ332がビデオデータストリーム330に符号化されていることが考えられる。符号化非依存性は、図2に関して上記で説明したように、空間領域360間の境界を越えないように、空間的および時間的予測および/またはコンテキスト導出を制限する。したがって、例えば、符号化依存性は、ビデオ332の特定の画像334の特定の空間領域360の符号化を制限し、ビデオ332の別の画像334内の同じ場所にある空間領域を画像334と同じ方法で参照することができる。ビデオエンコーダ348は、ビデオデータストリーム330に、情報140または情報140と142の組み合わせなどの抽出情報を提供するか、装置128のようなそれぞれの装置をその出力に接続することができる。抽出情報は、図7の抽出セクション310などの抽出セクションとして、空間領域360の特定のまたはすべての可能な組み合わせに関連し得る。次に、シグナル伝達352は、ビデオ332の画像334の異なるシーン解像度のセクション354および356への空間的細分化、すなわち、画像332の画像領域内の各空間セクション354および356のサイズおよび位置に関する情報を含み得る。シグナル伝達352内のそのような情報に基づいて、ビデオデータストリームプロセッサ358は、例えば、空間領域360を混合する抽出セクションなど、ビデオストリーム330のおそらく抽出可能なセクションのリストから特定の抽出セクションを除外することができる。たとえば、セクション354および356の異なるものに分割される空間領域360を混合するこれらの抽出セクションにより、異なる解像度を混合する抽出セクションに関するビデオ抽出のパフォーマンスを回避する。この場合、ビデオストリームプロセッサ358は、例えば、図2の抽出装置などの抽出装置を含むことができる。
追加または代替として、シグナル伝達330は、ビデオ332の画像334が相互に共通のシーンコンテンツを示す異なる解像度に関する情報を含むことができる。さらに、シグナル伝達352は、ビデオ332の画像334が異なる画像位置で共通のシーンコンテンツを複数回示す異なる解像度のカウントを単に示すことも可能である。
既に述べたように、ビデオデータストリーム330は、ビデオデータストリーム330が抽出可能である可能性のある抽出領域のリストに関する抽出情報を含むことができる。次に、シグナル伝達352は、これらの抽出領域の少なくとも1つ以上のそれぞれについて、共通のシーンコンテンツが各抽出領域内で最高の解像度で示される各抽出領域の部分領域のビューポート方向を示すさらなるシグナリング、および/または、各抽出領域の全体領域の内、共通のシーンコンテンツが各抽出領域内で最高の解像度で表示される各抽出領域の断面領域の面積シェア、および/または、各抽出領域の全体的な領域の内、共通のシーンコンテンツがそれぞれ相互に異なる解像度で示される部分領域への各抽出領域の空間的細分化を、含むことができる。
したがって、そのようなシグナル伝達352は、ストリーミングシステムに容易にプッシュアップできるように、ビットストリームの高レベルで公開される場合がある。
1つのオプションは、プロファイル層レベルの構文で一般に予約されているゼロXビットフラグの1つを使用することである。フラグには、一般的な非多重解像度フラグとして名前を付けることができる。
1に等しい一般的な非多重解像度フラグは、復号された出力画像に、さまざまな解像度で同じコンテンツの複数のバージョンが含まれないことを指定する(つまり、地域パッキングなどの各構文が制約される)。0(ゼロ)に等しい一般的な非多重解像度フラグは、ビットストリームにそのようなコンテンツが含まれる可能性があることを指定する(つまり、制約なし)。
それに加えて、したがって、本発明は、完全なビットストリームコンテンツ特性の性質について、すなわち、構成におけるバリアントの数および解像度について通知するシグナリングで構成される。さらに、各MCTSの以下の特性に関する符号化ビットストリームの情報を簡単にアクセスできる形式で提供する追加のシグナリング:
・メインビューポイントの方向:CTS高解像度ビューポートセンターの向きは何ですか。たとえば、事前定義された初期ビューポートセンターからの(delta-yaw)ピッチ、および/またはロールの観点からである。
・全体的なカバレッジ
MCTSで表される完全なコンテンツの割合。
・高から低の解像度比
MCTSの高解像度領域と低解像度領域の比率、つまり、カバーされる全コンテンツのどれだけが高解像度/忠実度で表現されるか。
ビューポートの向きまたは完全な全方向性ビデオの全体的なカバレッジのために提案されたシグナリング情報がすでに存在する。潜在的に抽出される可能性のあるサブ領域に同様のシグナリングを追加する必要がある。この情報はSEI[2]の形式であるため、SEIをネストするモーション制約付きタイルセット抽出情報に含めることができる。ただし、抽出するMCTSを選択するには、このような情報が必要である。
SEIをネストするMotion-constrained(動きに制約があるモーション制約タイルセット)タイルセットの情報を取得すると、間接性が追加され、特定のMCTSを選択するためにより深い解析(SEIをネストするモーション制約のあるタイルセットの抽出情報には、抽出されたセットを選択するために必要のない追加情報が含まれている)が必要になる。設計の観点からは、抽出されたセットを選択するための重要な情報のみを含む中心点で、この情報またはそのサブセットを通知するのがよりクリーンなアプローチである。さらに、言及されたシグナリングにはビットストリーム全体に関する情報が含まれており、提案されているケースでは、どちらが高解像度のカバレッジであり、どちらが低解像度のカバレッジであるかをシグナリングすることが望ましいであろう。また、より多くの解像度が混在している場合は、各解像度のカバレッジと、混合解像度で抽出されたビデオのビューポートの向きである。
一実施形態は、各解像度のカバレッジを追加し、[2]から360 ERP SEIに追加することである。次に、このSEIは、SEIをネストするMotion-constrainedタイルセット抽出情報に含まれる可能性があり、上記の面倒なタスクを実行する必要がある。
別の実施形態では、抽出されるセットを選択するためにMCTS抽出情報セットSEIのみが必要とすることができるように、MCTS抽出情報セットSEI、例えば、議論されたシグナリングの存在を示す全方向性情報にフラグが追加される。
いくつかの態様を装置の文脈で説明したが、これらの態様は対応する方法の説明も表し、ブロックまたはデバイスが方法ステップまたは方法ステップの特徴に対応することは明らかである。同様に、方法ステップの文脈で説明される態様は、対応するブロックまたはアイテムまたは対応する装置の機能の説明も表す。方法ステップの一部または全ては、たとえばマイクロプロセッサ、プログラム可能なコンピュータ、または電子回路などのハードウェア装置によって(または使用して)実行されてもよい。いくつかの実施形態では、最も重要な方法ステップのうちの1つまたは複数をそのような装置によって実行することができる。
本発明のデータストリームは、デジタル記憶媒体に記憶することができ、または無線伝送媒体などの伝送媒体またはインターネットなどの有線伝送媒体で伝送することができる。
特定の実装要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウェアで実装することができる。実装は、電子的に読み取り可能な制御信号が格納されたデジタルストレージメディア、たとえばフロッピーディスク、DVD、ブルーレイ、CD、ROM、PROM、ERROM、EEPROMまたはフラッシュメモリを使用して実行することができ、その上で、それぞれの方法が実行されるように、プログラム可能なコンピュータシステムと協力する(または協力することができる)。したがって、デジタル記憶媒体はコンピュータで読み取り可能であってもよい。
本発明によるいくつかの実施形態は、本明細書に記載の方法の1つが実行されるように、プログラム可能なコンピュータシステムと協働することができる電子的に読み取り可能な制御信号を有するデータキャリアを含む。
一般に、本発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実装することができ、プログラムコードは、コンピュータプログラム製品がコンピュータ上で実行されるときに方法の1つを実行するように動作する。プログラムコードは、例えば、機械読み取り可能なキャリアに保存されてもよい。
他の実施形態は、機械読み取り可能なキャリアに格納された、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを含む。
言い換えれば、したがって、本発明の方法の実施形態は、コンピュータプログラムがコンピュータ上で実行されるときに、本明細書に記載の方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
したがって、本発明の方法のさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを記録したデータキャリア(またはデジタル記憶媒体、またはコンピュータ可読媒体)である。データキャリア、デジタルストレージメディア、または記録されたメディアは、通常、有形および/または非一時的である。
したがって、本発明の方法のさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを表すデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、たとえば、インターネットなどのデータ通信接続を介して転送されるように構成されてもよい。
さらなる実施形態は、本明細書に記載の方法の1を実行するように構成または適合された処理手段、例えばコンピュータ、またはプログラマブルロジックデバイスを含む。
さらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムをインストールしたコンピュータを含む。
本発明によるさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを受信機に(例えば、電子的または光学的に)転送するように構成された装置またはシステムを含む。受信機は、例えば、コンピュータ、モバイルデバイス、メモリデバイスなどであり得る。装置またはシステムは、例えば、コンピュータプログラムを受信機に転送するためのファイルサーバーを備えてもよい。
いくつかの実施形態では、プログラマブルロジックデバイス(例えば、フィールドプログラマブルゲートアレイ)を使用して、本明細書に記載の方法の機能の一部またはすべてを実行することができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書に記載の方法の1つを実行するためにマイクロプロセッサと協働してもよい。一般に、これらの方法は、任意のハードウェア装置によって実行されることが好ましい。
本明細書で説明する装置は、ハードウェア装置を使用して、またはコンピュータを使用して、またはハードウェア装置とコンピュータの組み合わせを使用して実装することができる。
本明細書に記載の装置、または本明細書に記載の装置の任意のコンポーネントは、少なくとも部分的にハードウェアおよび/またはソフトウェアで実装されてもよい。
本明細書で説明される方法は、ハードウェア装置を使用して、またはコンピュータを使用して、またはハードウェア装置とコンピュータの組み合わせを使用して実行され得る。
本明細書で説明される方法、または本明細書で説明される装置の任意のコンポーネントは、ハードウェアおよび/またはソフトウェアによって少なくとも部分的に実行され得る。
上述の実施形態は、本発明の原理の単なる例示である。本明細書に記載の配置および詳細の修正および変更は、他の当業者には明らかであることを理解されたい。したがって、本明細書の実施形態の説明および説明として提示される特定の詳細によってではなく、差し迫った特許請求の範囲によってのみ制限されることが意図されている。


Claims (5)

  1. ビデオエンコーダであって、
    ビデオデータストリームがスライス部分のシーケンス含むようにビデオデータストリームにビデオを符号化し、ここで前記ビデオエンコーダは空間または時間予測を使用して個々の画像ブロックを符号化するブロックベース予測符号化と予測残差符号化を使用して、ビデオの画像の複数のスライスのうちの各スライスを、それぞれのスライス部分に符号化するように構成され、
    各スライス部分に、前記各スライス部分が符号化している前記スライスが置する前記ビデオの画像領域内の場所を示すスライスアドレスを提供し、
    前記ビデオデータストリームを空間セクション内のいずれかのスライスを符号化したスライス部分に限定し、前記スライスアドレスを抽出されたビデオの抽出された画像領域に関連するように修正することによって、前記ビデオの前記空間セクションに対応する前記抽出されたビデオを符号化している抽出されたビデオデータストリームを前記ビデオデータストリームから抽出する方法を示す抽出情報であって、
    前記画像領域内の前記空間セクションを、それぞれにおいて前記ビデオが各部分領域外から独立して前記ビデオデータストリームに符号化されている、部分領域を構成するものとして定義する第1の情報と、
    前記空間セクション内の各スライスの前記スライス部分の前記スライスアドレスを修正する方法に関して、複数のオプションのうちの1つをシグナリングして、または明示的にシグナリングして、前記抽出された画像領域内で前記各スライスが位置する場所を前記抽出されたビデオデータストリーム内で示す第2の情報と
    ビデオストリームデータに提供するように構成される、
    エンコーダ。
  2. ビデオを符号化したビデオデータストリームから、抽出したビデオを符号化した抽出されたビデオデータストリームを抽出するための装置であって、前記ビデオデータストリームはスライス部分のシーケンスを含み、各スライス部分は、空間または時間予測を用いて個々の画像ブロックを符号化したブロックベース予測符号化と予測残差符号化とを用いてビデオの画像の複数のスライスのうちスライスを符号化していて、各スライス部分は、前記各スライス部分が符号化している前記各スライスが前記ビデオの画像領域内で位置する場所を示すスライスアドレスを含み、
    前記装置は、
    前記ビデオデータストリームから抽出情報を読み取
    前記抽出情報から前記画像領域内の空間セクションを、各々において前記ビデオが各部分領域外から独立して前記ビデオデータストリームに符号化される、部分領域を構成するものとして導出ここで前記抽出されたビデオデータストリームは、前記空間セクション内でいずれかのスライスを符号化したスライス部分に限定され、
    前記抽出情報を使用して複数のオプションから決定された、前記複数のオプションのうちの1つ、または前記抽出情報による明示的なシグナリングを使用して、前記空間セクション内の各スライスの前記スライス部分の前記スライスアドレスを修正して、前記抽出されたビデオデータストリーム内で、前記それぞれのスライスが空間的により小さいビデオの抽出された画像領域でている場所を示すように構成される、装置。
  3. ビデオ符号化のための方法であって、
    ビデオデータストリームがスライス部分のシーケンスを含むように、ビデオを前記ビデオデータストリームに符号化するステップであって、ビデオの画像の複数のスライスのうちスライスが、空間または時間予測を用いて個々の画像ブロックを符号化したブロックベース予測符号化と予測残差符号化とを用いて各スライス部分に符号化されている、ステップと、
    前記各スライス部分に、前記各スライス部分が符号化しているスライスが位置する前記ビデオの画像領域内の場所を示すスライスアドレスを提供するステップと、
    前記ビデオデータストリームを空間セクション内のいずれかのスライスを符号化したスライス部分に限定し、抽出されたビデオの抽出された画像領域に関連するように前記スライスアドレスを修正することにより、前記ビデオの前記空間セクションに対応する抽出されたビデオを符号化した抽出されたビデオデータストリームを前記ビデオデータストリームから抽出する方法を示す抽出情報を前記ビデオデータストリームに提供するステップであって、
    前記抽出情報は、
    前記画像領域内の前記空間セクションを、各々において前記ビデオが各部分領域外から独立して前記ビデオデータストリームに符号化されている、部分領域を構成するものとして定義する第1の情報と、
    前記空間セクション内の各スライスの前記スライス部分の前記スライスアドレスをどのように修正するかについて、複数のオプションのうちの1つをシグナリングして、または明示的にシグナリングして、前記それぞれのスライスがている前記抽出された画像領域内の場所を前記抽出されたビデオデータストリーム内で示す、第2の情報と、
    を含む、抽出情報を提供するステップと、
    を含む、方法。
  4. ビデオを符号化しているビデオデータストリームから抽出されたビデオを符号化した抽出されたビデオデータストリームを抽出する方法であって、前記ビデオデータストリームはスライス部分のシーケンスを含み、各スライス部分はビデオの画像の複数のスライスのうちのそれぞれのスライスを空間または時間予測を用いて個々の画像ブロックを符号化したブロックベース予測符号化と予測残差符号化とを用いて符号化しており、各スライス部分は、前記各スライス部分が符号化している前記各スライスが前記ビデオの画像領域内で位置する場所を示すスライスアドレスを含み、
    前記方法は、
    前記ビデオデータストリームから抽出情報を読み取るステップと、
    前記抽出情報から、それぞれにおいて前記ビデオが各部分領域外から独立して前記ビデオデータストリームに符号化される、部分領域を構成するものとして前記画像領域内の空間セクションを導出するステップであって、前記抽出されたビデオデータストリームは、前記空間セクション内のいずれかのスライスを符号化しているスライス部分に限定される、導出するステップと、
    前記それぞれのスライスが前記抽出されたビデオの抽出された画像内の場所を前記抽出されたビデオデータストリーム内で示すように、前記抽出情報を使用して複数のオプションから決定された前記複数のオプションのうちの1つ、または前記抽出情報による明示的なシグナリングを使用して、前記空間セクション内の各スライスの前記スライス部分の前記スライスアドレスを修正するステップと、
    を含む、方法。
  5. 請求項に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
JP2021164741A 2017-03-20 2021-10-06 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送 Active JP7437577B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023120144A JP2024024598A (ja) 2017-03-20 2023-07-24 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP17161917 2017-03-20
EP17161917.4 2017-03-20
JP2019551932A JP6957638B2 (ja) 2017-03-20 2018-03-19 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送
PCT/EP2018/056788 WO2018172234A2 (en) 2017-03-20 2018-03-19 Advanced video data stream extraction and multi-resolution video transmission

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019551932A Division JP6957638B2 (ja) 2017-03-20 2018-03-19 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023120144A Division JP2024024598A (ja) 2017-03-20 2023-07-24 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送

Publications (2)

Publication Number Publication Date
JP2022008899A JP2022008899A (ja) 2022-01-14
JP7437577B2 true JP7437577B2 (ja) 2024-02-26

Family

ID=58387769

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019551932A Active JP6957638B2 (ja) 2017-03-20 2018-03-19 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送
JP2021164741A Active JP7437577B2 (ja) 2017-03-20 2021-10-06 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送
JP2023120144A Pending JP2024024598A (ja) 2017-03-20 2023-07-24 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019551932A Active JP6957638B2 (ja) 2017-03-20 2018-03-19 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023120144A Pending JP2024024598A (ja) 2017-03-20 2023-07-24 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送

Country Status (7)

Country Link
US (3) US11386660B2 (ja)
EP (1) EP3603074A2 (ja)
JP (3) JP6957638B2 (ja)
KR (4) KR102412972B1 (ja)
CN (6) CN116074502A (ja)
TW (1) TWI684352B (ja)
WO (1) WO2018172234A2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102336987B1 (ko) * 2017-07-04 2021-12-08 엘지전자 주식회사 360도 비디오의 영역 기반 처리 방법 및 장치
HRP20230702T1 (hr) 2019-01-09 2023-10-13 Huawei Technologies Co., Ltd. Signaliziranje identifikatora podslike kod kodiranja videa

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016026526A2 (en) 2014-08-20 2016-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video composition

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8436889B2 (en) * 2005-12-22 2013-05-07 Vidyo, Inc. System and method for videoconferencing using scalable video coding and compositing scalable video conferencing servers
CA2650151C (en) * 2008-01-17 2013-04-02 Lg Electronics Inc. An iptv receiving system and data processing method
US20120170648A1 (en) * 2011-01-05 2012-07-05 Qualcomm Incorporated Frame splitting in video coding
EP2805491B1 (en) * 2012-01-20 2021-05-12 GE Video Compression, LLC Coding concept allowing parallel processing, transport demultiplexer and video bitstream
SG11201406493RA (en) * 2012-04-13 2014-11-27 Ge Video Compression Llc Low delay picture coding
RU2720534C2 (ru) * 2012-06-29 2020-04-30 ДжиИ Видео Компрешн, ЭлЭлСи Концепция потока видеоданных
KR102072832B1 (ko) * 2012-09-26 2020-02-03 벨로스 미디어 인터내셔널 리미티드 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 및, 화상 부호화 복호 장치
US9749627B2 (en) * 2013-04-08 2017-08-29 Microsoft Technology Licensing, Llc Control data for motion-constrained tile set
CN109862373B (zh) 2013-07-15 2021-10-15 索尼公司 用于对比特流进行编码的方法和装置
KR20170020780A (ko) * 2014-06-20 2017-02-24 삼성전자주식회사 스케일러블 비디오 데이터의 부호화 또는 복호화 하는 방법 및 장치
US9800898B2 (en) * 2014-10-06 2017-10-24 Microsoft Technology Licensing, Llc Syntax structures indicating completion of coded regions
WO2016180486A1 (en) * 2015-05-12 2016-11-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Composite scalable video streaming

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016026526A2 (en) 2014-08-20 2016-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video composition

Also Published As

Publication number Publication date
CN115955559A (zh) 2023-04-11
US11386660B2 (en) 2022-07-12
KR20220095246A (ko) 2022-07-06
CN115883824A (zh) 2023-03-31
KR102318816B1 (ko) 2021-10-28
KR102553762B1 (ko) 2023-07-11
CN116074502A (zh) 2023-05-05
TWI684352B (zh) 2020-02-01
US20230316752A1 (en) 2023-10-05
WO2018172234A3 (en) 2018-11-01
KR20210131451A (ko) 2021-11-02
JP2022008899A (ja) 2022-01-14
CN116074501A (zh) 2023-05-05
KR102412972B1 (ko) 2022-06-23
CN115883824B (zh) 2024-05-14
WO2018172234A2 (en) 2018-09-27
JP2024024598A (ja) 2024-02-22
CN110651480A (zh) 2020-01-03
CN110651480B (zh) 2022-11-11
TW201840188A (zh) 2018-11-01
JP2020511865A (ja) 2020-04-16
US20200012863A1 (en) 2020-01-09
US11721103B2 (en) 2023-08-08
CN115955560A (zh) 2023-04-11
JP6957638B2 (ja) 2021-11-02
KR20190127850A (ko) 2019-11-13
US20220309790A1 (en) 2022-09-29
KR20230106741A (ko) 2023-07-13
EP3603074A2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
JP7485639B2 (ja) 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト
JP6784767B2 (ja) 効率的削減または効率的ランダムアクセスを可能にする画像/ビデオデータストリームについての概念
JP7437577B2 (ja) 高度なビデオデータストリーム抽出および多重解像度ビデオ伝送
CN116708768A (zh) 高效可伸缩编码概念
CN113170237B (zh) 视频编码与解码方法和设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230621

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20240115

R150 Certificate of patent or registration of utility model

Ref document number: 7437577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150