JP2014527336A - 3次元ビデオコーデックにおける深度マップのためのスライスヘッダ予測 - Google Patents

3次元ビデオコーデックにおける深度マップのためのスライスヘッダ予測 Download PDF

Info

Publication number
JP2014527336A
JP2014527336A JP2014522911A JP2014522911A JP2014527336A JP 2014527336 A JP2014527336 A JP 2014527336A JP 2014522911 A JP2014522911 A JP 2014522911A JP 2014522911 A JP2014522911 A JP 2014522911A JP 2014527336 A JP2014527336 A JP 2014527336A
Authority
JP
Japan
Prior art keywords
slice
depth
texture
header
syntax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014522911A
Other languages
English (en)
Other versions
JP5805871B2 (ja
Inventor
チェン、イン
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014527336A publication Critical patent/JP2014527336A/ja
Application granted granted Critical
Publication of JP5805871B2 publication Critical patent/JP5805871B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

一例では、ビデオコーダは、第1のスライスをコーディングするように構成され、第1のスライスは、テクスチャスライスと対応する深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表す完全なシンタックス要素を備えるスライスヘッダを有する。ビデオコーダはさらに、第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定するように構成される。ビデオコーダはまた、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスをコーディングした後で第2のスライスをコーディングするように構成され、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。

Description

優先権の主張
本出願は、その各々の全体が参照により本明細書に組み込まれる、2011年7月22日に出願された米国仮出願第61/510,738号、2011年8月11日に出願された米国仮出願第61/522,584号、2011年11月26日に出願された米国仮出願第61/563,772号、および2012年4月13日に出願された米国仮出願第61/624,031号の利益を主張する。
本開示は、ビデオコーディングの分野に関し、たとえば、3次元ビデオデータをコーディングに関する。
[0003]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、無線電話ハンドセットなどのワイヤレス通信デバイス、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップコンピュータ、デスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、ビデオゲームデバイス、ビデオゲームコンソールなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、デジタルビデオをより効率的に送信および受信するために、MPEG−2、MPEG−4、またはH.264/MPEG−4、Part 10、Advanced Video Coding(AVC)などのビデオ圧縮技法を実装する。ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間的予測と時間的予測とを実行する。
[0004]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間的予測および/または時間的予測を実行する。ブロックベースのビデオコーディングでは、ビデオフレームまたはスライスは、マクロブロックに区分され得る。各マクロブロックは、さらに区分され得る。イントラコーディングされた(I)フレームまたはスライス中のマクロブロックは、隣接するマクロブロックに関する空間的予測を使用して符号化される。インターコーディングされた(PまたはB)フレームまたはスライス中のマクロブロックは、同じフレームまたはスライス中の隣接するマクロブロックに関する空間的予測、あるいは他の参照フレームに関する時間的予測を使用し得る。
[0005]ビデオデータが符号化された後、ビデオデータは送信または記憶のためにパケット化され得る。ビデオデータは、AVCのような、国際標準化機構(ISO)ベースのメディアファイルフォーマットおよびその拡張など、種々の規格のいずれかに準拠するビデオファイルにアセンブルされ得る。
[0006]H.264/AVCに基づく新しいビデオコーディング規格を開発するために、取り組みが行われている。1つのそのような規格は、H.264/AVCのスケーラブルな拡張であるスケーラブルビデオコーディング(SVC)規格である。別の規格は、H.264/AVCのマルチビュー拡張になったマルチビュービデオコーディング(MVC)である。MVCの共同草案は、JVT−AB204、「Joint Draft 8.0 on Multiview Video Coding」、28th JVT meeting、Hannover、Germany、2008年7月に記載されており、これは、http://wftp3.itu.int/av−arch/jvt−site/2008_07_Hannover/JVT−AB204.zipにおいて入手可能である。AVC規格のあるバージョンが、JVT−AD007、「Editors’ draft revision to ITU−T Rec. H.264 | ISO/IEC 14496−10 Advanced Video Coding − in preparation for ITU−T SG 16 AAP Consent (in integrated form)」、30th JVT meeting、Geneva、CH、2009年2月」に記載されており、これは、http://wftp3.itu.int/av−arch/jvt−site/2009_01_Geneva/JVT−AD007.zipから入手可能である。この文書は、SVCとMVCとをAVC仕様に組み込んでいる。
[0007]本開示は全般に、3次元(3D)ビデオレンダリングをサポートするための技法を説明する。具体的には、本開示の技法は、3Dビデオコンテンツをコーディングし復号することに関する。本開示はまた、ビデオデータのコーディングされたブロックユニットためのシグナリング技法を提案する。たとえば、本開示は、テクスチャビュー成分のスライスヘッダに含まれるシンタックス要素を、対応する深度ビュー成分のために再使用することを提案する。加えて、本開示は、深度ビュー成分のスライスヘッダ情報中のシンタックス要素を、テクスチャビュー成分のために再使用することを提案する。
[0008]3Dコーデックでは、ある特定の時間インスタンスにおけるビデオデータの各ビューのビュー成分は、テクスチャビュー成分と深度ビュー成分とを含み得る。テクスチャビュー成分は、ルミナンス(Y)成分と、クロミナンス(CbおよびCr)成分とを含み得る。ルミナンス(輝度)成分およびクロミナンス(色)成分は、本明細書では「テクスチャ」成分と総称される。深度ビュー成分は、画像の深度マップからのものであり得る。3D画像レンダリングでは、深度マップは、たとえば対応するテクスチャ成分のための、深度値を表す深度成分を含む。深度ビュー成分は、ある与えられた視点からの仮想的なビューを生成するために使用され得る。
[0009]深度成分およびテクスチャ成分のシンタックス要素は、コーディングされたブロックユニットによってシグナリングされ得る。本開示では単に「コーディングされたブロック」とも呼ばれるコーディングされたブロックユニットは、ITU−T H.264/AVC(Advanced Video Coding)におけるマクロブロックまたはHigh Efficiency Video Coding(HEVC)のコーディングユニットに対応し得る。
[0010]一態様では、復号する方法は、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することを含み、テクスチャスライスは、前記符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備える。方法はさらに、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することを含み、深度スライスは、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、深度ビュー成分とテクスチャビュー成分の両方は、ビューとアクセスユニットとに属する。方法はさらに、第1のスライスを復号することと、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表す完全なシンタックス要素を備えるスライスヘッダを有し、第1のスライスのスライスヘッダから第2のスライスのための共通のシンタックス要素を決定することと、を備える。方法はさらに、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスをコーディングした後で第2のスライスを復号すること、をさらに含み得、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。
[0011]別の態様では、データを復号するためのデバイスは、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、テクスチャスライスは、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、深度スライスは、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、深度ビュー成分とテクスチャビュー成分の両方は、ビューとアクセスユニットとに属し、第1のスライスを復号することと、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表す完全なシンタックス要素を備えるスライスヘッダを有し、第1のスライスのスライスヘッダから第2のスライスのための共通のシンタックス要素を決定することと、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスを復号した後で第2のスライスを復号することと、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、を行うように構成される、ビデオデコーダを含む。
[0012]別の態様では、コンピュータプログラム製品は、実行されると、ビデオ復号デバイスのプロセッサに、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信させる命令を記憶した、コンピュータ可読記憶媒体を備え、テクスチャスライスは、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備える。命令はさらに、ビデオ復号デバイスのプロセッサに、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信させ、深度スライスは、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、深度ビュー成分とテクスチャビュー成分の両方は、ビューとアクセスユニットとに属する。命令はさらに、ビデオ復号デバイスのプロセッサに、第1のスライスを復号することと、第1のスライスが、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、第1のスライスのスライスヘッダから第2のスライスのための共通のシンタックス要素を決定することと、を行わせる。命令はさらに、ビデオ復号デバイスのプロセッサに、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスを復号した後で第2のスライスを復号させ、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。
[0013]別の態様では、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信するための手段を備えるデバイスが提供され、テクスチャスライスは、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備える。デバイスはさらに、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信するための手段を備え、深度スライスは、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、深度ビュー成分とテクスチャビュー成分の両方が、ビューとアクセスユニットとに属する。デバイスはさらに、第1のスライスを復号するための手段を備え、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。デバイスはさらに、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスをコーディングした後で第2のスライスを復号するための手段を備え、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。
[0014]一態様では、符号化する方法は、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することを含み、テクスチャスライスは、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備える。方法はさらに、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することを含み、深度スライスは、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、深度ビュー成分とテクスチャビュー成分の両方が、ビューとアクセスユニットとに属する。方法はさらに、第1のスライスを符号化することと、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、第1のスライスのスライスヘッダから第2のスライスのための共通のシンタックス要素を決定することと、を備える。方法はさらに、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスを符号化した後で第2のスライスを符号化することを含んでよく、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。
[0015]別の態様では、データを符号化するためのデバイスは、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、テクスチャスライスは、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、深度ビュー成分とテクスチャビュー成分の両方は、ビューとアクセスユニットとに属する、を行うように構成されるビデオエンコーダを含む。ビデオエンコーダはさらに、第1のスライスを符号化することと、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、第1のスライスをスライスヘッダから第2のスライスのための共通のシンタックス要素を決定することと、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスを符号化した後で第2のスライスを符号化することと、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、を行うように構成される。
[0016]別の態様では、コンピュータプログラム製品は、実行されると、ビデオ符号化デバイスのプロセッサに、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信させる命令を記憶した、コンピュータ可読記憶媒体を備え、テクスチャスライスは、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備える。命令はさらに、ビデオ符号化デバイスのプロセッサに、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信させ、深度スライスは、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、深度ビュー成分とテクスチャビュー成分の両方は、ビューとアクセスユニットとに属する。命令はさらに、ビデオ符号化デバイスのプロセッサに、第1のスライスを符号化することと、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、第1のスライスのスライスヘッダから第2のスライスのための共通のシンタックス要素を決定することと、を行わせる。命令はさらに、ビデオ符号化デバイスのプロセッサに、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスを復号した後で第2のスライスを符号化させ、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。
[0017]別の態様では、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信するための手段を備えるデバイスが提供され、テクスチャスライスは、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備える。デバイスはさらに、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信するための手段を備え、深度スライスは、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、深度ビュー成分とテクスチャビュー成分の両方は、ビューとアクセスユニットとに属する。デバイスはさらに、第1のスライスを復号するための手段を備え、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。デバイスはさらに、第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定するための手段を備える。デバイスはさらに、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスを終了した後で第2のスライスを符号化するための手段を備え、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。
[0018]本開示で説明される技法は、ハードウェア、ソフトウェア、ファームウェア、またはその任意の組合せで実装され得る。ソフトウェアで実装される場合、ソフトウェアは、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはデジタル信号プロセッサ(DSP)、あるいは他の等価の集積回路またはディスクリート論理回路など、1つまたは複数のプロセッサを指すことがあるプロセッサで実行され得る。本技法を実行する命令を備えるソフトウェアは、最初にコンピュータ可読媒体に記憶され、プロセッサによってロードされて実行され得る。
[0019]したがって、本開示はまた、プロセッサに、本開示で説明される種々の技法のいずれかを実行させる命令を備えるコンピュータ可読媒体を企図する。場合によっては、コンピュータ可読媒体はコンピュータプログラム製品の一部をなしてよく、コンピュータプログラム製品は、製造業者に販売され、かつ/またはデバイス中で使用され得る。コンピュータプログラム製品はコンピュータ可読媒体を含むことがあり、場合によってはパッケージング材料を含むこともある。
[0020]本開示はまた、情報を搬送する電磁信号にも適用され得る。たとえば、電磁信号は、参照サンプルのサブ整数ピクセルのための値を補間するために使用されるフルピクセルサポートに関係する情報を備え得る。いくつかの例では、信号は、本明細書で説明される技法を実装するデバイスから生成され、または、そのようなデバイスによって送信され得る。他の例では、本開示は、本明細書で説明される技法を実装するデバイスにおいて受信され得る信号に適用され得る。
[0021]本開示の1つまたは複数の態様の詳細が、添付の図面および以下の説明に記載される。本開示で説明される技法の他の特徴、目的、および利点は、これらの説明および図面、ならびに特許請求の範囲から明らかになろう。
本開示の技法による、ビデオ符号化および復号システムの一例を示すブロック図。 本開示の技法による、図1のビデオエンコーダの例をさらに詳しく示すブロック図。 本開示の技法による、マルチビュービデオコーディングのためのMVC予測構造の一例の図。 本開示の技法による、ビデオエンコーダの例示的な動作を示す流れ図。 本開示の技法による、図1のビデオデコーダの例をさらに詳しく示すブロック図。 本開示の技法による、ビデオデコーダの例示的な動作を示す流れ図。
[0028]本開示は、少なくともビデオ符号化処理またはビデオ復号処理の少なくともインター予測段階において、エンコーダが適用できデコーダが使用できる、シグナリング技法を説明する。説明される技法は、3次元(3D)ビデオコンテンツのコーディングに関する。3Dビデオコンテンツは、たとえば、マルチビュービデオプラス深度(MVD)のコーディングされたブロックとして表され得る。すなわち、これらの技法は、マルチビュービデオコーディング(MVC)ビットストリームのいずれかまたはすべてのビューが、深度情報をさらに含み得る、MVCビットストリームに似ているビットストリームを符号化または復号するために適用され得る。
[0029]より具体的には、本開示によるいくつかの技法は、テクスチャビュー成分と深度ビュー成分とを有する、少なくとも1つの2次元画像の受信を伴う。いくつかのテクスチャビュー成分および深度ビュー成分は、単一のコーディングされたブロックへと一緒に符号化されてよく、または別個のブロックとして符号化されてよい。画像は、画像のスライスへと分割され得る。テクスチャビュー成分をコーディングするためのシンタックス要素は、スライスヘッダにおいてシグナリングされ得る。深度ビュー成分のためのいくつかのシンタックス要素は、深度ビュー成分に対応するテクスチャビュー成分のためのシンタックス要素から予測され得る。本開示の技法は、2次元ビデオデータのための推定された深度マップデータに基づいて、2次元ビデオデータから3次元ビデオデータをレンダリングするために使用されるデータの、符号化、復号、およびシグナリングに関する。いくつかの例では、テクスチャビュー成分は、深度情報を符号化するために使用されるものとは異なる技法を使用して符号化される。本開示では、「コーディング」という用語は、符号化と復号のいずれかまたは両方を指し得る。
[0030]深度推定と仮想ビュー合成とに基づくビデオ変換が、3D画像を作成するために、たとえば3Dビデオ用途のために使用される。特に、シーンの3Dビューを作成するために、シーンの仮想ビューが使用され得る。シーンの既存のビューに基づくシーンの仮想ビューの生成は、従来、仮想ビューを合成する前にオブジェクト深度値を推定することによって達成される。深度推定は、ステレオペアまたはモノスコープコンテンツから、オブジェクトとカメラ平面との間の絶対距離または相対距離を推定する処理である。本明細書で使用される場合、深度情報は、深度マップ(たとえば、ピクセルごとの深度値)またはパララックスマップ(たとえば、ピクセルごとの水平視差)など、3次元ビデオを形成する際に有用な情報を含む。
[0031]グレーレベルの画像深度マップによって通常表される推定深度情報は、深度画像ベースレンダリング(DIBR:depth image based rendering)技法を使用して、仮想ビューの任意の角度を生成するために使用され得る。マルチビューシーケンスが効率的なビュー間圧縮という課題に直面する、従来の3次元テレビジョン(3DTV)システムと比較して、深度マップベースのシステムは、効率的に符号化され得る(1つまたは複数の)深度マップとともに1つまたは少数のビューのみを送信することによって帯域幅の使用量を低減し得る。深度マップベースの変換において使用される(1つまたは複数の)深度マップは、(1つまたは複数の)深度マップがビュー合成において使用される前に、エンドユーザによって(たとえば、スケーリングを通じて)制御可能であり得る。異なる量の知覚される深度をもつ、カスタマイズされた仮想ビューが生成され得る。また、深度の推定は、1ビューの2Dコンテンツのみが利用可能であるモノスコープビデオを使用して実行され得る。
[0032]本明細書で説明される技法は、同じビューの同じ位置にあるテクスチャビュー成分のためのスライスヘッダに記憶されるシンタックス要素から、深度ビュー成分のためのシンタックス要素を予測するために適用され得る。たとえば、深度スライスおよびテクスチャスライスに共通のシンタックス要素の値は、関連する深度ビュー成分のためのスライスではなく、テクスチャビュー成分のためのスライスヘッダに含まれ得る。すなわち、ビデオエンコーダまたはデコーダは、テクスチャビュー成分のためのスライスヘッダ中の、深度スライスおよびテクスチャスライスに共通のシンタックス要素をコーディングすることができ、共通のシンタックス要素は、深度ビュー成分のためのスライスヘッダには存在しない。たとえば、テクスチャビュー成分のためのスライスヘッダにおいて、第1のシンタックス要素のために、第1の値が与えられ得る。深度ビュー成分のためのスライスヘッダはまた、第1のシンタックス要素を共有し、これは、第1のシンタックス要素がテクスチャスライスヘッダと深度スライスヘッダの両方に共通であることを意味する。深度ビュー成分のための第1のシンタックス要素は、第2の値を有する。しかしながら、深度ビュー成分のためのスライスヘッダは、第1のシンタックス要素を含まない。本明細書で説明される技法によれば、第1のシンタックス要素の第2の値は、第1の値から予測され得る。
[0033]いくつかの例では、ピクチャパラメータセット(PPS)のIDおよびスライスのデルタ量子化パラメータ(QP)のみが、深度ビュー成分のスライスヘッダに対してシグナリングされる。他の例では、参照ピクチャリスト構築のさらなる情報が、PPSの識別情報およびデルタQPに加えてシグナリングされる。他のシンタックス要素は、テクスチャビュー成分のスライスヘッダから受け継がれ、または決定される。いくつかの例では、共通のシンタックス要素の値は、対応するシンタックス要素と同一になるように設定される。すなわち、深度ビュー成分のスライスヘッダのための他のシンタックス要素は、対応するテクスチャビュー成分のためのスライスヘッダにおける対応する値と等しくなるように設定される。
[0034]別の例では、コーディングされたブロック(マクロブロックまたはコーディングユニット)の開始位置がさらにシグナリングされる。すなわち、深度情報のスライスのスライスヘッダは、スライスの最初のブロック(たとえば、最初のマクロブロックまたはCU)の位置をシグナリングし、スライスヘッダのための他のシンタックスデータ(対応するテクスチャ情報を含むスライスの対応するシンタックスデータと等しくなるように決定され得る)をシグナリングしない。スライスの開始位置がシグナリングされない場合、いくつかの例では開始位置は0であると推測される。深度ビュー成分のframe_numおよびPOC値が、さらにシグナリングされ得る。深度ビュー成分のために使用される1つまたは複数のループフィルタパラメータが、テクスチャビュー成分のためにシグナリングされる1つまたは複数のループフィルタパラメータと同一かどうかを示すための、フラグが使用される。
[0035]ブロックベースのインターコーディングは、ビデオシーケンスの連続するコーディングされたユニットのビデオブロック間の時間的冗長性を低減または除去するために時間的予測を利用するコーディング技法である。コーディングされたユニットは、ビデオフレーム、ビデオフレームのスライス、ピクチャのグループ、または符号化されるビデオブロックの別の定義されたユニットを備え得る。インターコーディングの場合、ビデオエンコーダは、2つ以上の隣接するコーディングされたユニットのビデオブロック間の動きを推定するために、動き推定と動き補償とを実行する。動き推定のための技法を使用して、ビデオエンコーダは、1つまたは複数の参照フレームまたは他のコーディングされたユニット中の対応する予測ビデオブロックに対するビデオブロックの変位を示す、動きベクトルを生成する。動き補償のための技法を使用して、ビデオエンコーダは、1つまたは複数の参照フレームまたは他のコーディングされたユニットから予測ビデオブロックを生成するために、動きベクトルを使用する。動き補償の後、ビデオエンコーダは、コーディングされている元のビデオブロックから予測ビデオブロックを減算することによって、残差ビデオブロックを計算する。
[0036]参照ビュー成分(RVC:reference view component)は、複数のテクスチャまたは深度スライスを含み得る。いくつかの例では、参照ビュー成分が複数のスライスを備える場合、同じ位置にあるスライスが、現在のスライスのシンタックス要素を決定する際に使用され得る。あるいは、RVC中の最初のスライスが、現在のスライスのシンタックス要素を決定するために使用され得る。他の例では、RVC中別のスライスが、現在のスライスの共通のシンタックス要素を決定するために使用され得る。
[0037]図1は、本開示の技法による、ビデオ符号化および復号システム10の一例を示すブロック図である。図1の例に示されるように、システム10は、リンク15を介して、符号化されたビデオを宛先デバイス14に送信するソースデバイス12を含む。リンク16は、ソースデバイス12から宛先デバイス14に符号化されたビデオデータを移動することが可能な、任意のタイプの媒体またはデバイスを備え得る。一例では、リンク16は、ソースデバイス12が、符号化されたビデオデータをリアルタイムで宛先デバイス14に直接送信することを可能にするための、通信媒体を備える。符号化されたビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、高周波(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたは有線通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットのようなグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、ソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得る、ルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0038]ソースデバイス12および宛先デバイス14は、広範囲のデバイスのいずれかを備え得る。いくつかの例では、ソースデバイス12および宛先デバイス14のいずれかまたはその両方は、ワイヤレスハンドセット、いわゆるセルラー無線電話、または衛星無線電話などのワイヤレス通信デバイス、あるいは、リンク15を介してビデオ情報を通信することができ、その場合、リンク15がワイヤレスである、任意のワイヤレスデバイスを備え得る。しかしながら、テクスチャ情報と深度情報の両方を含むビデオデータのブロックをコーディングすることに関する本開示の技法は、必ずしもワイヤレスの用途または設定に限定されるとは限らない。本技法はまた、物理ワイヤ、光ファイバーまたは他の物理媒体もしくはワイヤレス媒体を介して通信するデバイスを含む、広範囲の他の設定およびデバイスにおいて有用であり得る。加えて、本符号化技法または復号技法は、必ずしも他のデバイスと通信するとは限らないスタンドアロンデバイスにおいても適用され得る。たとえば、ビデオデコーダ28は、デジタルメディアプレーヤまたは他のデバイス内に存在し、ストリーミング、ダウンロードまたは記憶媒体を介して、符号化されたビデオデータを受信することができる。したがって、互いに通信しているソースデバイス12および宛先デバイス14の図は、例示的な実装形態の例示のために与えられるものであり、一般に種々の環境、適用例または実装形態におけるビデオコーディングに適用可能であり得る、本開示において説明される技法に対する制限として見なされるべきでない。
[0039]図1の例では、ソースデバイス12は、ビデオソース20と、深度処理ユニット21と、ビデオエンコーダ22と、出力インターフェース24とを含む。宛先デバイス14は、入力インターフェース26と、ビデオデコーダ28と、ディスプレイデバイス30とを含む。本開示によれば、ソースデバイス12のビデオエンコーダ22は、ビデオ符号化処理の一部として本開示の技法のうちの1つまたは複数を適用するように構成され得る。同様に、宛先デバイス14のビデオデコーダ28は、ビデオ復号処理の一部として本開示の技法のうちの1つまたは複数を適用するように構成され得る。
[0040]ビデオエンコーダ22はまた、残差ブロックの通信に関連するビットレートをさらに低減するために、変換処理と、量子化処理と、エントロピーコーディング処理とを適用し得る。変換技法は、離散コサイン変換(DCT)または概念的に同様の処理を備え得る。代替的に、ウェーブレット変換、整数変換、または他のタイプの変換が使用され得る。DCT処理では、一例として、ピクセル値のセットが、周波数領域におけるピクセル値のエネルギーを表す変換係数に変換される。ビデオエンコーダ22はまた、変換係数を量子化することができ、これは一般に、対応する変換係数に関連するビット数を低減する処理を伴うことができる。エントロピーコーディングは、ビットストリームへの出力のためにデータをまとめて圧縮する1つまたは複数の処理を含んでよく、圧縮されたデータは、たとえば、一連のコーディングモードと、動き情報と、コーディングされたブロックパターンと、量子化された変換係数とを含み得る。エントロピーコーディングの例には、限定はされないが、コンテキスト適応可変長コーディング(CAVLC:context adaptive variable length coding)およびコンテキスト適応バイナリ算術コーディング(CABAC:context adaptive binary arithmetic coding)がある。
[0041]コーディングされたビデオブロックは、予測ブロックを生成または識別するために使用され得る予測情報と、元のブロックを再現するために予測ブロックに適用され得るデータの残差ブロックとによって表され得る。予測情報は、データの予測ブロックを識別するために使用される1つまたは複数の動きベクトルを備え得る。動きベクトルを使用して、ビデオデコーダ28は、残差ブロックをコーディングするために使用された予測ブロックを復元することが可能であり得る。したがって、残差ブロックのセットと動きベクトルのセット(場合によってはいくつかの追加のシンタックス)とが与えられれば、ビデオデコーダ28は、最初に符号化されたビデオフレームを復元することができる。連続するビデオフレームまたは他のタイプのコーディングされたユニットはしばしば類似しているので、動き推定と動き補償とに基づくインターコーディングは、過大なデータ損失を伴わずに比較的大量の圧縮を達成することができる。符号化されたビデオシーケンスは、残差データのブロックと、(インター予測符号化されたときの)動きベクトルと、イントラ予測のためのイントラ予測モードの指示と、シンタックス要素とを備え得る。
[0042]ビデオエンコーダ22はまた、共通のフレームまたはスライスの隣接するビデオブロックに対してビデオブロックを符号化するために、イントラ予測技法を利用し得る。このようにして、ビデオエンコーダ22はブロックを空間的に予測する。ビデオエンコーダ22は、一般に様々な空間的予測方向に対応する、種々のイントラ予測モードで構成され得る。動き推定の場合と同様に、ビデオエンコーダ22は、ブロックのルミナンス成分に基づいてイントラ予測モードを選択し、次いで、ブロックのクロミナンス成分を符号化するためにイントラ予測モードを再使用するように構成され得る。その上、本開示の技法によれば、ビデオエンコーダ22は、イントラ予測モードを再使用して、ブロックの深度成分を符号化することができる。
[0043]動きおよびイントラ予測モードの情報を再使用してブロックの深度成分を符号化することによって、これらの技法は、深度マップを符号化する処理を簡略化することができる。その上、本明細書で説明される技法は、ビットストリーム効率を改善することができる。すなわち、ビットストリームは、深度ビュー成分のスライスのためのスライスヘッダ中で追加のシンタックス要素をシグナリングするのではなく、テクスチャビュー成分のためのスライスヘッダ中でいくつかのシンタックス要素を一度示すだけでよい。
[0044]任意選択で、テクスチャビュー成分はまた、同じ方法で、対応する深度ビュー成分を再使用することができる。
[0045]ここでも、図1の示されるシステム10は一例にすぎない。本開示の様々な技法は、ブロックベースの予測符号化をサポートする任意の符号化デバイスによって、またはブロックベースの予測復号をサポートする任意の復号デバイスによって実行され得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が宛先デバイス14に送信するためのコーディングされたビデオデータを生成するような、コーディングデバイスの例にすぎない。場合によっては、デバイス12および16は、デバイス12および16の各々がビデオ符号化コンポーネントとビデオ復号コンポーネントとを含むように、実質的に対称的に動作し得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、またはビデオ電話のための、ビデオデバイス12とビデオデバイス16との間の一方向または双方向のビデオ送信をサポートし得る。
[0046]ソースデバイス12のビデオソース20は、ビデオカメラ、あらかじめキャプチャされたビデオを含んでいるビデオアーカイブ、またはビデオコンテンツプロバイダからのビデオフィードのような、ビデオキャプチャデバイスを含む。あるいは、ビデオソース20は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、あるいは、ライブビデオ、アーカイブされたビデオ、および/またはコンピュータで生成されたビデオの組合せを生成し得る。場合によっては、ビデオソース20がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付き電話またはビデオ電話、あるいは、タブレットコンピューティングデバイスなど、ビデオデータを操作するように構成された他のモバイルデバイスを形成し得る。各々の場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータで生成されたビデオは、ビデオエンコーダ22によって符号化され得る。ビデオソース20は、ビューをキャプチャし、それを深度処理ユニット21に与える。
[0047]ビデオソース20は、ビュー2中のオブジェクトのための深度画像の計算のために、ビュー2を深度処理ユニット21に与える。いくつかの例では、ビュー2は2つ以上のビューを備える。深度画像は、ビデオソース20によってキャプチャされたビュー2中のオブジェクトに対して決定される。深度処理ユニット21は、ビュー2の画像中のオブジェクトの深度値を自動的に計算するように構成される。たとえば、深度処理ユニット21は、ルミナンス情報に基づいて、オブジェクトの深度値を計算する。いくつかの例では、深度処理ユニット21は、ユーザから深度情報を受信するように構成される。いくつかの例では、ビデオソース20は、異なる視点におけるシーンの2つのビューをキャプチャし、次いで、2つのビュー中のオブジェクトの間の視差に基づいて、シーン中のオブジェクトに対する深度情報を計算する。様々な例では、ビデオソース20は、標準的な2次元カメラ、シーンの立体ビューを提供する2カメラシステム、シーンの複数のビューをキャプチャするカメラアレイ、または1つのビューと深度情報とをキャプチャするカメラを備える。
[0048]深度処理ユニット21は、テクスチャビュー成分4と深度ビュー成分6とをビデオエンコーダ22に提供する。深度処理ユニット21はまた、ビュー2をビデオエンコーダ22に直接提供することができる。深度情報6は、ビュー2のための深度マップ画像を備える。深度マップ画像は、表示されるべきエリア(たとえば、ブロック、スライス、またはフレーム)に関連するピクセルの各領域の深度値のマップを備え得る。ピクセルの領域は、単一のピクセル、または、1つまたは複数のピクセルのグループを含む。深度マップのいくつかの例は、ピクセルごとに1つの深度成分を有する。他の例では、ピクセルごとに複数の深度成分がある。深度マップは、たとえば、他の以前にコーディングされた深度データに対するイントラ予測またはインター予測を使用して、テクスチャデータと実質的に同様の方式でコーディングされ得る。他の例では、深度マップは、テクスチャデータがコーディングされるのとは異なる方式でコーディングされる。
[0049]いくつかの例では、深度マップは推定され得る。2つ以上のビューが存在するとき、深度マップを推定するためにステレオマッチングが使用され得る。しかしながら、2Dから3Dへの変換では、深度を推定することはより難しくなり得る。とはいえ、様々な方法によって推定された深度マップが、深度画像ベースレンダリング(DIBR:Depth-Image-Based-Rendering)に基づく3Dレンダリングのために使用され得る。
[0050]ビデオソース20はシーンの複数のビューを与え得るが、深度処理ユニット21は、複数のビューに基づいて深度情報を計算することができ、ソースデバイス12は一般に、1つのビューとシーンの各ビューについての深度情報とを送信することができる。
[0051]ビュー2がデジタル静止ピクチャであるとき、ビデオエンコーダ22は、たとえば、Joint Photographic Experts Group(JPEG)画像としてビュー2を符号化するように構成され得る。ビュー2がビデオデータのフレームであるとき、ビデオエンコーダ22は、たとえば、Motion Picture Experts Group(MPEG)、国際標準化機構(ISO)/国際電気標準会議(IEC)MPEG−1 Visual、ISO/IEC MPEG−2 Visual、ISO/IEC MPEG−4 Visual、国際電気通信連合(ITU)H.261、ITU−T H.262、ITU−T H.263、ITU−T H.264/MPEG−4、H.264 Advanced Video Coding(AVC)、(H.265とも呼ばれる)来たるHigh Efficiency Video Coding(HEVC)規格、または他のビデオ符号化規格のような、ビデオコーディング規格に従って、第1のビュー50を符号化するように構成される。ビデオエンコーダ22は、コーディングされたブロック8を形成するために、符号化された画像とともに深度情報6を含めてよく、コーディングされたブロック8は、深度情報6とともに符号化された画像データを含む。ビデオエンコーダ22は、コーディングされたブロック8を出力インターフェース24に渡す。コーディングされたブロック8は、リンク15を介して、コーディングされたブロック8とともにシグナリング情報を含むビットストリームにおいて、入力インターフェース26に転送され得る。
[0052]符号化されたビデオ情報は、テクスチャ成分4と深度情報6とを含む。テクスチャ成分4は、ビデオ情報のルミナンス(ルーマ)成分とクロミナンス(クロマ)成分とを含み得る。ルーマ成分は一般に輝度を表し、クロミナンス成分は一般に色の色相を表す。深度処理ユニット21は、ビュー2の深度マップから深度情報6を抽出する。ビデオエンコーダ22は、テクスチャビュー成分4と深度ビュー成分6とを、符号化されたビデオデータの単一のコーディングされたブロック8へと符号化することができる。同様に、ビデオエンコーダ22は、ルーマ成分のための動きまたはイントラ予測モードの情報がクロマ成分および深度成分に対して再使用されるように、ブロックを符号化することができる。テクスチャビュー成分のために使用されるシンタックス要素は、深度ビュー成分のための同様のシンタックス要素を予測するために使用され得る。
[0053]いくつかの例では、深度マップビュー成分は、対応するテクスチャビュー成分がビュー間予測技法を使用して符号化される場合であっても、ビュー間予測技法を使用して符号化されなくてよい。たとえば、深度マップビュー成分は、対応するテクスチャビュー成分がビュー間予測を使用して予測される場合、ビュー内予測を使用して予測され得る。たとえば、テクスチャビュー成分をビュー間予測することは、テクスチャビュー成分に対応するビューとは異なるビューのデータから、テクスチャビュー情報を予測する。対照的に、深度ビュー情報をビュー内予測することは、深度ビュー情報に対応するビューと同じビューのデータから、深度情報を予測する。
[0054]異なる予測技法を使用していても、深度マップビュー成分のいくつかのシンタックス要素は、対応するテクスチャビュー成分のスライスヘッダ中の対応するシンタックス要素から予測され得る。しかしながら、深度マップビュー成分に対するスライスヘッダ情報は、参照ピクチャリスト構築に関連する情報を含み得る。すなわち、参照ピクチャリスト構築に関連する情報は、深度マップビュー成分のためのスライスヘッダ中でシグナリングされ得る。たとえば、使用される参照ピクチャの数と、深度マップビュー成分を予測するためにどの参照ピクチャが使用されるかの指示とが、深度マップビュー成分のためのスライスヘッダにおいてシグナリングされ得る。同様の情報も、対応するテクスチャビュー成分のためのスライスヘッダにおいてシグナリングされ得る。
[0055]いくつかの例では、ソースデバイス12は、たとえば、符号分割多元接続(CDMA)または別の通信規格のような通信規格に従って、コーディングされたブロック8を変調する、モデムを含む。モデムは、信号変調のために設計された様々なミキサ、フィルタ、増幅器または他のコンポーネントを含み得る。出力インターフェース24は、増幅器と、フィルタと、1つまたは複数のアンテナとを含む、データを送信するために設計された回路を含み得る。コーディングされたブロック8は、出力インターフェース24およびリンク15を介して、宛先デバイス14に送信される。いくつかの例では、通信チャネル上で送信するのではなく、ソースデバイス12は、デジタルビデオディスク(DVD)、ブルーレイ(登録商標)ディスク、フラッシュドライブなどの記憶デバイス32上に、テクスチャ成分と深度成分とを有するブロックを含む、符号化されたビデオデータを記憶する。
[0056]宛先デバイス14の入力インターフェース26は、リンク15を介して情報を受信する。いくつかの例では、宛先デバイス14は、情報を復調するモデムを含む。出力インターフェース24と同様に、入力インターフェース26は、増幅器と、フィルタと、1つまたは複数のアンテナとを含む、データを受信するために設計された回路を含み得る。いくつかの例では、出力インターフェース24および/または入力インターフェース26は、受信回路と送信回路の両方を含む単一の送受信機コンポーネント内に組み込まれ得る。モデムは、信号復調のために設計された様々なミキサ、フィルタ、増幅器または他のコンポーネントを含み得る。いくつかの例では、モデムは、変調と復調の両方を実行するためのコンポーネントを含み得る。
[0057]また、ビデオエンコーダ22によって実行されるビデオ符号化処理は、動き推定と動き補償とを含み得るインター予測符号化中、およびイントラ予測符号化中に、本明細書で説明される技法のうちの1つまたは複数を実装し得る。ビデオデコーダ28によって実行されるビデオ復号処理もまた、復号処理の動き補償段階中にそのような技法を実行し得る。
[0058]「コーダ」という用語は、本明細書では、ビデオ符号化またはビデオ復号を実行する専用のコンピュータデバイスまたは装置を指すために使用される。「コーダ」という用語は一般に、任意のビデオエンコーダ、ビデオデコーダ、または複合エンコーダ/デコーダ(コーデック)を指す。「コーディング」という用語は、符号化または復号を指す。「コーディングされたブロック」、「コーディングされたブロックユニット」または「コーディングされたユニット」という用語は、フレーム全体、フレームのスライス、ビデオデータのブロック、または使用されるコーディング技法に従って定義される別の単独で復号可能なユニットなど、ビデオフレームの単独で復号可能な任意のユニットを指し得る。
[0059]ディスプレイデバイス30は、復号されたビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、種々の1つまたは複数のディスプレイデバイスのいずれかを備え得る。いくつかの例では、ディスプレイデバイス30は、3次元再生が可能なデバイスに対応する。たとえば、ディスプレイデバイス30は、閲覧者によって着用される眼鏡類とともに使用される立体視ディスプレイを備え得る。眼鏡類は、能動的な眼鏡を備えてよく、その場合、ディスプレイデバイス30は、能動的な眼鏡のレンズの交互のシャッタリングと同期して、異なるビューの画像を高速に入れ替える。あるいは、眼鏡類は、受動的な眼鏡を備えてよく、その場合、ディスプレイデバイス30は、異なるビューからの画像を同時に表示し、受動的な眼鏡は、異なるビュー間でフィルタリングするために概ね直交方向に偏光された偏光レンズを含み得る。
[0060]図1の例では、リンク15は、高周波(RF)スペクトルまたは1つまたは複数の物理的伝送線路など、ワイヤレスまたは有線の任意の通信媒体、あるいはワイヤレスおよび有線の媒体の任意の組合せを備え得る。リンク15は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットのようなグローバルネットワークなど、パケットベースのネットワークの一部を形成し得る。リンク15は一般に、ビデオデータをソースデバイス12から宛先デバイス14に送信するのに適切な任意の通信媒体、または様々な通信媒体の集合体を表す。リンク15は、ソースデバイス12から宛先デバイス14への通信を支援するのに有用であり得る、ルータ、スイッチ、基地局、または任意の他の機器を含み得る。
[0061]ビデオエンコーダ22およびビデオデコーダ28は、代替的にMPEG−4、Part 10、Advanced Video Coding(AVC)として説明されるITU−T H.264規格のような、ビデオ圧縮規格に従って動作し得る。ビデオエンコーダ22およびビデオデコーダ28によって使用され得るITU H.264/AVC規格に基づく追加のビデオ圧縮規格には、ITU H.264/AVC規格のスケーラブルな拡張であるスケーラブルビデオコーディング(SVC)規格がある。ビデオエンコーダ22およびビデオデコーダ28がそれに従って動作し得る別の規格には、ITU H.264/AVC規格のマルチビュー拡張であるマルチビュービデオコーディング(MVC)規格がある。しかしながら、本開示の技法は、いかなる特定のビデオコーディング規格にも限定されない。
[0062]いくつかの態様では、ビデオエンコーダ22およびビデオデコーダ28は、それぞれオーディオエンコーダおよびオーディオデコーダと統合されてよく、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するための適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0063]ビデオエンコーダ22およびビデオデコーダ28は各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せとして実装され得る。本開示の技法のうちのいずれかまたはすべてがソフトウェアで実装されるとき、実装するデバイスは、ソフトウェアのための命令を記憶および/または実行するためのハードウェア、たとえば、命令を記憶するためのメモリおよび命令を実行するための1つまたは複数の処理ユニットをさらに含み得る。ビデオエンコーダ22およびビデオデコーダ28の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれてよく、そのいずれかは、符号化機能と復号機能とを与える複合コーデックの一部として、それぞれのモバイルデバイス、加入者デバイス、ブロードキャストデバイス、サーバなどに統合され得る。
[0064]ビデオシーケンスは、一般に、ビデオピクチャとも呼ばれる一連のビデオフレームを含む。ビデオエンコーダ22は、ビデオデータを符号化するために、個々のビデオフレーム内のビデオブロックに対して動作する。ビデオブロックは、サイズが一定であっても変化してもよく、指定されたコーディング規格に応じてサイズが異なることがある。各ビデオフレームは、一連の1つまたは複数のスライスを含む。ITU−T H.264規格では、たとえば、各スライスは一連のマクロブロックを含み、マクロブロックは複数のサブブロックへと構成され得る。H.264規格は、ルーマ成分については16×16、8×8、または4×4、およびクロマ成分については8×8のように、2次元(2D)ビデオ符号化のための様々なブロックサイズのイントラ予測をサポートし、さらに、ルーマ成分については16×16、16×8、8×16、8×8、8×4、4×8および4×4、およびクロマ成分については対応するスケーリングされたサイズのように、様々なブロックサイズのインター予測をサポートする。ビデオブロックは、ピクセルデータのブロック、または、たとえば離散コサイン変換(DCT)もしくは概念的に同様の変換処理などの変換処理の後の変換係数のブロックを備え得る。これらの技法は、3Dビデオに拡張され得る。
[0065]ビデオブロックは、小さいほどより良い解像度が得られ、高い詳細レベルを含むビデオフレームの位置特定に使用され得る。一般に、マクロブロックおよび様々なサブブロックはビデオブロックであると見なされ得る。加えて、スライスは、マクロブロックおよび/またはサブブロックのような、一連のビデオブロックであると見なされ得る。各スライスは、ビデオフレームの単独で復号可能なユニットであり得る。あるいは、フレーム自体が復号可能なユニットであってよく、またはフレームの他の部分が復号可能なユニットとして定義されてよい。
[0066]ITU−T H.264規格の2Dマクロブロックは、深度マップまたはパララックスマップからの深度情報を、そのビデオフレームまたはスライスのための関連するルーマ成分およびクロマ成分(すなわち、テクスチャ成分)とともに符号化することによって、3Dに拡張され得る。(仮想変位マッピングまたはオフセットマッピングとも呼ばれる)パララックスマッピングは、ピクセル位置におけるビュー角度と高さマップとの関数に基づいて、ピクセル位置におけるテクスチャビュー成分を変位させる。ビデオエンコーダ22は深度情報を単色(monochromatic)ビデオとして符号化し得る。
[0067]コーディングされるブロックのようなビデオブロックを符号化するために、ビデオエンコーダ22は、イントラ予測またはインター予測を実行して、1つまたは複数の予測ブロックを生成する。ビデオエンコーダ22は、符号化されるべき元のビデオブロックから予測ブロックを減算して、残差ブロックを生成する。したがって、残差ブロックは、コーディングされているブロックと予測ブロックとの間のピクセルごとの差分を表し得る。ビデオエンコーダ22は、残差ブロックに対して変換を実行して、変換係数のブロックを生成し得る。イントラまたはインターベースの予測コーディングおよび変換技法の後、ビデオエンコーダ22は変換係数を量子化し得る。量子化は、一般に、係数を表すために使用されるデータ量をできるだけ低減するために係数を量子化する処理を指す。量子化の後、コンテキスト適応可変長コーディング(CAVLC)またはコンテキスト適応バイナリ算術コーディング(CABAC)のような、エントロピーコーディング方法に従ってエントロピーコーディングが実行され得る。ビデオエンコーダ22によって実行される符号化処理の追加の詳細が、図2に関して以下で説明される。
[0068]High Efficiency Video Coding(HEVC)と現在呼ばれる、新しいビデオコーディング規格を開発するための取り組みが現在進行中である。この来たる規格はH.265とも呼ばれる。この規格化の取り組みは、HEVC Test Model(HM)と呼ばれるビデオコーディングデバイスのモデルに基づく。HMは、たとえば、ITU−T H.264/AVCによるデバイスに勝るビデオコーディングデバイスのいくつかの能力を仮定する。たとえば、H.264は9つのイントラ予測符号化モードを提供するが、HMは33個ものイントラ予測符号化モードを提供する。HEVCは、本明細書で説明されるように、スライスヘッダ情報技法をサポートするように拡張され得る。
[0069]HMでは、ビデオデータのブロックをコーディングユニット(CU)と呼ぶ。ビットストリーム内のシンタックスデータが、ピクセルの数に関して最大のコーディングユニットである、最大コーディングユニット(LCU:largest coding unit)を定義し得る。一般に、CUは、CUがサイズの差異を有さないことを除いて、H.264のマクロブロックと同様の目的を有する。HM規格によれば、コーディングされるブロックはCUであり得る。したがって、CUは、サブCUに分割され得る。一般に、本開示におけるCUへの言及は、ピクチャの最大コーディングユニット(LCU)またはLCUのサブCUを指し得る。LCUはサブCUに分割されてよく、各サブCUはサブCUに分割されてよい。ビットストリームのシンタックスデータは、CU深さと呼ばれる、LCUが分割され得る最大回数を定義し得る。それに応じて、ビットストリームは最小コーディングユニット(SCU)も定義し得る。本開示ではまた、CU、予測ユニット(PU)、または変換ユニット(TU)のいずれかを指すために「ブロック」という用語を使用する。
[0070]LCUは、4分木データ構造と関連付けられ得る。一般に、4分木データ構造はCUごとに1つのノードを含み、ルートノードはLCUに対応する。CUが4つのサブCUに分割される場合、CUに対応するノードは4つのリーフノードを含み、リーフノードの各々はサブCUのうちの1つに対応する。4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。たとえば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義されてよく、CUがサブCUに分割されるかどうかに依存し得る。
[0071]分割されないCUは、1つまたは複数の予測ユニット(PU)を含み得る。一般に、PUは、対応するCUの全部または一部分を表し、そのPUの参照サンプルを取り出すためのデータを含む。たとえば、PUがイントラモード符号化されるとき、PUは、PUのイントラ予測モードを表すデータを含み得る。別の例として、PUがインターモード符号化されるとき、PUは、PUの動きベクトルを定義するデータを含み得る。動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、1/4ピクセル精度もしくは1/8ピクセル精度)、動きベクトルが指す参照フレーム、および/または動きベクトルの参照リスト(たとえば、リスト0もしくはリスト1)を表し得る。動きベクトルはまた、テクスチャビュー成分と深度ビュー成分とについて異なる解像度を有するものとして扱われ得る。(1つまたは複数の)PUを定義するCUのデータはまた、たとえば、CUを1つまたは複数のPUに区分することを表し得る。区分モードは、CUがコーディングされないか、イントラ予測モード符号化されるか、またはインター予測モード符号化されるかによって異なり得る。
[0072]1つまたは複数のPUを有するCUはまた、1つまたは複数の変換ユニット(TU)を含み得る。PUを使用した予測の後に、ビデオエンコーダ22は、PUに対応するCUの部分の残差値を計算し得る。残差値は、変換され、走査され、量子化され得る。TUは、必ずしもPUのサイズに制限されるとは限らない。したがって、TUは、同じCUの対応するPUよりも大きいことも小さいこともある。いくつかの例では、TUの最大サイズは、対応するCUのサイズに対応し得る。
[0073]上で述べられたように、イントラ予測は、あるピクチャの現在のCUのPUを、同じピクチャの以前コーディングされたCUから予測することを含む。より具体的には、ビデオエンコーダ22は、特定のイントラ予測モードを使用して、あるピクチャの現在のCUをイントラ予測し得る。HMエンコーダは、最高で33個のイントラ予測モードで構成され得る。したがって、方向性イントラ予測モードと方向性変換との間の1対1のマッピングをサポートするために、HMエンコーダおよびデコーダは、サポートされる各変換サイズについて66個の行列を記憶する必要があろう。さらに、すべての33個のイントラ予測モードがサポートされるブロックサイズは、比較的大きなブロック、たとえば、32×32ピクセル、64×64ピクセル、またはより一層大きなピクセルであり得る。
[0074]宛先デバイス14において、ビデオデコーダ28が、符号化されたビデオデータ8を受信する。ビデオデコーダ28は、量子化された係数を得るために、CAVLCまたはCABACのようなエントロピーコーディング方法に従って、コーディングされたブロックのような、受信された符号化されたビデオデータ8をエントロピー復号する。ビデオデコーダ28は、逆量子化(inverse quantization)(逆量子化(de-quantization))機能と逆変換機能とを適用して、ピクセル領域中で残差ブロックを復元する。ビデオデコーダ28はまた、符号化されたビデオデータ中に含まれる(たとえば、コーディングモード、動きベクトル、フィルタ係数を定義するシンタックスなどの)制御情報またはシンタックス情報に基づいて、予測ブロックを生成する。ビデオデコーダ28は、予測ブロックと復元された残差ブロックとの和を計算して、表示のための復元されたビデオブロックを生成する。ビデオデコーダ28によって実行される例示的な復号処理の追加の詳細が、図5に関して以下で説明される。
[0075]本明細書で説明されるように、Yはルミナンスを表すことができ、CbおよびCrは3次元YCbCr色空間のクロミナンスの2つの異なる値(たとえば、青および赤の色相)を表すことができ、Dは深度情報を表すことができる。いくつかの例では、各ピクセル位置は、3次元色空間に対する3つのピクセル値と、ピクセル位置の深度に対する1つのピクセル値とを実際に定義し得る。他の例では、クロマ成分あたり、異なる数のルーマ成分が存在し得る。たとえば、クロマ成分あたり、4つのルーマ成分が存在し得る。加えて、深度成分とテクスチャ成分とは、異なる解像度を有し得る。そのような例では、テクスチャビュー成分(たとえば、ルーマ成分)と深度ビュー成分との間には、1対1の関係はないことがある。しかしながら、本開示の技法は、簡単のために1次元に関する予測に言及し得る。技法が1次元のピクセル値に関して説明される限り、同様の技法が他の次元に拡張され得る。具体的には、本開示の一態様によれば、ビデオエンコーダ22および/またはビデオデコーダ28は、ピクセルのブロックを取得することができ、ピクセルのブロックは、テクスチャビュー成分と深度ビュー成分とを含む。
[0076]いくつかの例では、ビデオエンコーダ22およびビデオデコーダ28は、動き補償中に1つまたは複数の補間フィルタリング技法を使用し得る。すなわち、ビデオエンコーダ22および/またはビデオデコーダ28は、フル整数ピクセル位置のセットを備えるフィルタサポートに補間フィルタを適用し得る。
[0077]宛先デバイス14のビデオデコーダ28は、テクスチャビュー成分に関連するシンタックス要素を含む追加の情報とともに、符号化されたビデオビットストリームの一部として、1つまたは複数のコーディングされたブロックを受信する。ビデオデコーダ28は、コーディングされたブロック8およびシンタックス要素に基づいて、3D再生のためにビデオデータをレンダリングすることができる。本開示の技法によれば、また以下でより詳しく論じられるように、テクスチャビュー成分4のためにシグナリングされるシンタックス要素は、深度ビュー成分6のためのシンタックス要素を予測するために使用され得る。シンタックス要素は、テクスチャビュー成分4のためのスライスヘッダにおいてシグナリングされ得る。深度ビュー成分6のための対応するシンタックス要素は、テクスチャビュー成分4のための関連するシンタックス要素から決定され得る。
[0078]深度マップ成分と、スライスの1つまたは複数のテクスチャ成分のうちの1つとの間の、量子化パラメータ差分のような、深度ビュー成分6のためのいくつかのシンタックス要素は、深度ビュー成分6のためのスライスヘッダにおいてシグナリングされ得る。属性はまた、深度ビュー成分のために使用されるループフィルタパラメータがテクスチャビュー成分のためにシグナリングされるようなループフィルタパラメータと同じかどうかを示す、スライスレベル中のフラグであり得る。他の例では、シンタックス要素は、シーケンスレベルで(たとえば、シーケンスパラメータセット(SPS)データ構造において)、ピクチャレベルで(たとえば、ピクチャパラメータセット(PPS)データ構造またはフレームヘッダにおいて)、またはブロックレベルで(たとえば、ブロックヘッダにおいて)、スライスレベル(たとえば、スライスヘッダ)に加えてシグナリングされ得る。
[0079]図2は、図1のビデオエンコーダ22のある例をさらに詳しく示すブロック図である。ビデオエンコーダ22は、本開示の技法と矛盾することなく、深度ビュー成分のためのシンタックス要素を予測するために使用され得るテクスチャビュー成分のためのシンタックス要素をシグナリングする、ブロックユニットを符号化する。ビデオエンコーダ22は、本明細書では「コーダ」と呼ばれる、専用のビデオコンピュータデバイスまたは装置の一例である。図2に示されるように、ビデオエンコーダ22は、ソースデバイス12のビデオエンコーダ22に対応する。しかしながら、他の例では、ビデオエンコーダ22は、異なるデバイスに対応し得る。さらなる例では、(たとえば、他のエンコーダ/デコーダ(コーデック)などの)他のユニットも、ビデオエンコーダ22によって実行されるものと同様の技法を実行することができる。
[0080]ビデオエンコーダ22は、ビデオフレーム内のブロックのイントラコーディングとインターコーディングの少なくとも1つを実行し得るが、説明を簡単にするために、イントラコーディングコンポーネントは図2に示されていない。イントラコーディングは、空間的予測を利用して、所与のビデオフレーム内のビデオの空間的冗長性を低減または除去する。インターコーディングは、時間的予測を利用して、ビデオシーケンスの隣接フレーム内のビデオの時間的冗長性を低減または除去する。イントラモード(Iモード)は、空間ベースの圧縮モードを指し得る。予測(Pモード)または双方向(Bモード)などのインターモードは、時間ベースの圧縮モードを指し得る。本開示の技法は、インターコーディング中およびイントラコーディング中に適用される。しかしながら、説明を簡単かつ容易にするために、空間的予測ユニットなどのイントラコーディングユニットは、図2に示されていない。
[0081]図2に示されるように、ビデオエンコーダ22は、符号化されるべきビデオフレーム内のビデオブロックを受信する。一例では、ビデオエンコーダ22は、テクスチャビュー成分4と深度ビュー成分6とを受信する。別の例では、ビデオエンコーダは、ビデオソース20からビュー2を受信する。
[0082]図2の例では、ビデオエンコーダ22は、予測処理ユニット32と、予測コーディングユニット(MCU )と、マルチビュービデオプラス深度(MVD)ユニット33と、メモリ34と、第1の加算機48と、変換処理ユニット38と、量子化ユニット40と、エントロピーコーディングユニット46とを含む。ビデオブロックの復元のために、ビデオエンコーダ22はまた、逆量子化ユニット42と、逆変換処理ユニット44と、第2の加算機51と、デブロッキングユニット43とを含む。デブロッキングユニット43は、復元されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタリングする、デブロッキングフィルタである。ビデオエンコーダ22中に含まれる場合、デブロッキングユニット43は通常、第2の加算機51の出力をフィルタリングする。デブロッキングユニット43は、1つまたは複数のテクスチャビュー成分に対するデブロッキング情報を決定し得る。デブロッキングユニット43はまた、深度マップ成分に対するデブロッキング情報を決定し得る。いくつかの例では、1つまたは複数のテクスチャ成分に対するデブロッキング情報は、深度マップ成分に対するデブロッキング情報とは異なり得る。一例では、図2に示されるように、変換処理ユニット38は、HEVCに関する「TU」ではなく、機能ブロックを表す。
[0083]マルチビュービデオプラス深度(MVD)ユニット33は、テクスチャビュー成分4および深度ビュー成分6のような、テクスチャ成分と深度情報とを備える1つまたは複数のビデオブロック(図2において「ビデオブロック」と標識された)を受信する。MVDユニット33は、ブロックユニット中の深度成分を符号化するための機能をビデオエンコーダ22に与える。MVDユニット33は、予測処理ユニット32が深度情報を処理することを可能にするフォーマットで、テクスチャビュー成分と深度ビュー成分とを、組み合わせて、または別々に、予測処理ユニット32に与える。MVDユニット33はまた、深度ビュー成分がビデオブロックに含まれていることを、変換処理ユニット38にシグナリングすることができる。他の例では、ビデオエンコーダ22の各ユニット、たとえば、予測処理ユニット32、変換処理ユニット38、量子化ユニット40、エントロピーコーディングユニット46などが、テクスチャビュー成分に加えて深度情報を処理するための機能を備える。
[0084]一般に、動き補償ユニット37が、あるブロックの深度成分の予測される値を計算するとき、そのブロックのルミナンス成分のために計算された動きベクトルを再使用するように構成されるという点で、ビデオエンコーダ22は、クロミナンス情報と同様の方式で深度情報を符号化する。同様に、ビデオエンコーダ22のイントラ予測ユニットは、イントラ予測を使用して深度ビュー成分を符号化するとき、ルミナンス成分のために選択されたイントラ予測モードを使用する(すなわち、ルミナンス成分の分析に基づいて)ように構成され得る。
[0085]予測処理ユニット32は、動き推定(ME)ユニット35と動き補償(MC)ユニット37とを含む。予測処理ユニット32は、ピクセル位置の深度情報を、テクスチャ成分とともに予測する。(本明細書では「フィルタ39」と呼ばれる)1つまたは複数の補間フィルタ39は、予測処理ユニット32中に含められてよく、動き推定および/または動き補償の一部として補間を実行するために、MEユニット35とMCユニット37の一方または両方によって起動されてよい。補間フィルタ39は、実際は、多数の様々なタイプの補間および補間タイプフィルタリングを支援するための、複数の様々なフィルタを表し得る。したがって、予測処理ユニット32は複数の補間または補間様フィルタを含み得る。
[0086]符号化処理中に、ビデオエンコーダ22は、(図2では「ビデオブロック」と標識された)コーディングされるべきビデオブロックを受信し、予測処理ユニット32は、インター予測コーディングを実行して(図2では「予測ブロック」と標識された)予測ブロックを生成する。予測ブロックは、テクスチャビュー成分と深度ビュー情報の両方を含む。具体的には、MEユニット35は、動き推定を実行してメモリ34中の予測ブロックを識別することができ、MCユニット37は、動き補償を実行して予測ブロックを生成することができる。
[0087]動き推定は通常、ビデオブロックの動きを推定する、動きベクトルを生成する処理と考えられる。動きベクトルは、たとえば、現在のフレーム(または、他のコーディングされたユニット)内のコーディングされるべきブロックに対する、予測フレームまたは参照フレーム(または、他のコーディングされたユニット、たとえばスライス)内の予測ブロックの変位を示し得る。動きベクトルは、フル整数ピクセル精度またはサブ整数ピクセル精度を有し得る。たとえば、動きベクトルの水平成分と垂直成分の両方が、それぞれのフル整数成分とサブ整数成分とを有し得る。参照フレーム(または参照フレームの部分)は、時間的に、現在のビデオブロックが属するビデオフレーム(またはビデオフレームの部分)より前にまたは後に位置し得る。動き補償は通常、メモリ34から予測ブロックをフェッチまたは生成する処理と考えられ、動き推定によって決定された動きベクトルに基づいて、予測データを補間し、または場合によっては生成することを含み得る。
[0088]MEユニット35は、コーディングされるべきビデオブロックを1つまたは複数の参照フレーム(たとえば、前のフレームおよび/または後続のフレーム)の参照ブロックと比較することによって、そのビデオブロックのための少なくとも1つの動きベクトルを計算する。参照フレームのためのデータは、メモリ34に記憶され得る。MEユニット35は、分数ピクセル、分数ペル、サブ整数、またはサブピクセル動き推定と呼ばれることがある分数ピクセル精度を用いて、動き推定を実行し得る。分数ピクセル動き推定では、MEユニット35は、整数ピクセル位置以外の位置に対する変位を示す動きベクトルを計算する。したがって、動きベクトルは、分数ピクセル精度、たとえば、1/2ピクセル精度、1/4ピクセル精度、1/8ピクセル精度、または他の分数ピクセル精度を有し得る。このようにして、分数ピクセル動き推定により、予測処理ユニット32は、整数ピクセル(または、フルピクセル)位置よりも高い精度を用いて動きを推定することが可能になり、したがって、予測処理ユニット32は、より正確な予測ブロックを生成する。分数ピクセル動き推定は、予測処理ユニット32が、第1の解像度で深度情報を予測し、第2の解像度でテクスチャ成分を予測することを可能にする。たとえば、テクスチャ成分はフルピクセル精度で予測されるが、深度情報は2分の1ピクセル精度で予測される。他の例では、動きベクトルの他の解像度が、深度情報およびテクスチャ成分に対して使用され得る。
[0089]MEユニット35は、動き推定処理中に任意の必要な補間のために、1つまたは複数のフィルタ39を起動することができる。いくつかの例では、メモリ34は、サブ整数ピクセルのための補間された値を記憶することができ、この補間された値は、たとえば、フィルタ39を使用して加算器51によって計算され得る。たとえば、加算器51は、フィルタ39を、メモリ34に記憶されるべき復元されたブロックに適用し得る。
[0090]予測処理ユニット32が予測ブロックを生成すると、ビデオエンコーダ22は、コーディングされている元のビデオブロックから予測ブロックを減算することによって、(図2で「残差ブロック」と標識された)残差ビデオブロックを形成する。この減算は、元のビデオブロック中のテクスチャ成分と予測ブロック中のテクスチャ成分との間で、ならびに元のビデオブロック中の深度情報に対して、または予測ブロック中の深度情報からの深度マップに対して行われ得る。加算器48は、この減算演算を実行する1つまたは複数のコンポーネントを表す。
[0091]変換処理ユニット38は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を残差ブロックに適用し、残差変換ブロック係数を備えるビデオブロックを生成する。変換処理ユニット38は、HEVCによって定義されたCUのTUとは対照的に、変換をビデオデータのブロックの残差係数に適用するビデオエンコーダ22のコンポーネントを表すことを理解されたい。変換処理ユニット38は、たとえば、概念的にDCTと同様である、H.264規格によって定義される変換などの他の変換を実行することができる。そのような変換には、たとえば、方向性変換(カルーネンレーベ(Karhunen-Loeve)定理変換など)、ウェーブレット変換、整数変換、サブバンド変換、または他のタイプの変換が含まれる。いずれの場合も、変換処理ユニット38は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換処理ユニット38は、同じタイプの変換を、対応する残差ブロック中の、テクスチャ成分と深度情報との両方に適用し得る。各テクスチャ成分および深度成分に対して、別々の残差ブロックがあることになる。変換は、残差情報をピクセル領域から周波数領域に変換する。
[0092]量子化ユニット40は、ビットレートをさらに低減するために残差変換係数を量子化する。量子化処理は、係数の一部またはすべてに関連するビット深度を低減することができる。量子化ユニット40は、深度画像コーディング残余を量子化することができる。量子化の後、エントロピーコーディングユニット46が、量子化された変換係数をエントロピーコーディングする。たとえば、エントロピーコーディングユニット46は、CAVLC、CABAC、または別のエントロピーコーディング方法を実行することができる。
[0093]エントロピーコーディングユニット46はまた、予測処理ユニット32、または量子化ユニット40などのビデオエンコーダ22の他のコンポーネントから取得された、1つまたは複数の動きベクトルとサポート情報とをコーディングし得る。1つまたは複数の予測シンタックス要素は、コーディングモード、1つまたは複数の動きベクトルについてのデータ(たとえば、水平および垂直成分、参照リスト識別子、リストインデックス、ならびに/あるいは動きベクトル解像度シグナリング情報)、使用された補間技法の指示、フィルタ係数のセット、ルーマ成分の解像度に対する深度画像の相対解像度の指示、深度画像コーディング残余の量子化行列、深度画像のためのデブロッキング情報、または予測ブロックの生成に関連する他の情報を含み得る。これらの予測シンタックス要素は、シーケンスレベルにおいてまたはピクチャレベルにおいて与えられ得る。
[0094]1つまたは複数のシンタックス要素はまた、ルーマ成分と深度成分との間の量子化パラメータ(QP)差分を含み得る。QP差分は、スライスレベルにおいてシグナリングされてよく、テクスチャビュー成分のためのスライスヘッダに含まれてよい。また、深度ビュー成分のコーティングされたブロックのパターン、深度ビュー成分のデルタQP、動きベクトル差分、または予測ブロックの生成に関連する他の情報を含む、他のシンタックス要素が、コーディングされたブロックユニットのレベルでシグナリングされ得る。動きベクトル差分は、目標動きベクトルとテクスチャ成分の動きベクトルとの間のデルタ値として、または、目標動きベクトル(すなわち、コーディングされているブロックの動きベクトル)とブロック(たとえば、CUのPU)のための隣接する動きベクトルからの予測子との間のデルタ値として、シグナリングされ得る。エントロピーコーディングユニット46によるエントロピーコーディングの後、符号化されたビデオおよびシンタックス要素は、別のデバイスに送信されてよく、あるいは、後で送信するかまたは取り出すために(たとえば、メモリ34中に)アーカイブされてよい。
[0095]逆量子化ユニット42および逆変換処理ユニット44は、それぞれ逆量子化および逆変換を適用して、たとえば、参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを復元する。復元された残差ブロック(図2で「復元された残差ブロック」と標識された)は、変換処理ユニット38に提供される残差ブロックの復元されたバージョンを表し得る。復元された残差ブロックは、量子化演算および逆量子化演算によって生じた細部の損失により、加算器48によって生成された残差ブロックとは異なり得る。加算器51は、復元された残差ブロックを、予測処理ユニット32によって生成された動き補償された予測ブロックに加算して、メモリ34に記憶するための復元されたビデオブロックを生成する。復元されたビデオブロックは、後続のビデオフレームまたは後続のコーディングされたユニット中のブロックユニットをその後コーディングするために使用され得る参照ブロックとして、予測処理ユニット32によって使用され得る。
[0096]このようにして、ビデオエンコーダ22は、画像のビューを示すビュー成分を備えるコーディングされたブロックユニットを受信することと、ビュー成分は、1つまたは複数のテクスチャビュー成分と深度ビュー成分とを備え、テクスチャシンタックス要素を含む1つまたは複数のテクスチャビュー成分のためのテクスチャスライスヘッダを生成することと、深度ビュー成分のための深度シンタックス要素はテクスチャスライスヘッダ中のテクスチャシンタックス要素から決定され得、を行うように構成されるビデオエンコーダの例を表す。
[0097]いくつかの場合には、テクスチャビュー成分と深度ビュー成分のコーディングに関する情報は、コーディングされたビットストリーム中に含めるための、1つまたは複数のシンタックス要素として示される。いくつかの例では、深度スライスヘッダは、開始マイクロブロック、スライスタイプ、使用されるべきピクチャパラメータセット(PPS)、スライスの初期QPとPPSにおいてシグナリングされたQPとの間のデルタQP、参照ピクチャの順序(frame_numとして表される)、および現在のピクチャ(POC)の表示順序のうちの少なくとも1つを含む、シンタックス要素を備える。深度スライスヘッダはまた、参照ピクチャリスト構築および関連するシンタックス要素、メモリ管理制御動作および関連するシンタックス要素、ならびに重み付け予測および関連するシンタックス要素のうちの、少なくとも1つを備え得る。
[0098]図3は、マルチビュービデオコーディングのためのMVC(MVC)予測構造の一例の図である。MVCは、H.264/AVCの拡張である。MVC予測構造は、各ビュー内のピクチャ間予測とビュー間予測の両方を含む。図3では、予測は矢印によって示され、ここで矢印の終点のオブジェクトは、予測の基準のために矢印の始点のオブジェクトを使用する。図3のMVC予測構造は、時間順の(time-first)復号順序構成とともに使用され得る。時間順の復号順序では、各アクセスユニットは、1つの出力時間インスタンスに対するすべてのビューのコーディングされたピクチャを含むように定義され得る。アクセスユニットの復号順序は、出力または表示順序と同一ではないこともある。
[0099]MVCでは、ビュー間予測は視差動き補償によってサポートされ、視差動き補償は、H.264/AVC動き補償のシンタックスを使用するが、異なるビュー中のピクチャが参照ピクチャとして置かれることを可能にする。2つのビューのコーディングも、MVCによってサポートされ得る。MVCエンコーダは、3Dビデオ入力として3つ以上のビューをとらえることができ、MVCデコーダは、マルチビューの表現を復号することができる。MVCデコーダを有するレンダラは、複数のビューを伴う3Dビデオコンテンツを復号することができる。
[0100]同じアクセスユニット中の(すなわち、同じ時間インスタンスを伴う)ピクチャは、MVCにおいてビュー間予測され得る。非ベースビューの1つの中のピクチャをコーディングするとき、ピクチャが異なるビュー中にあるが同じ時間インスタンスを伴う場合、そのピクチャは参照ピクチャリストに追加され得る。ビュー間予測の参照ピクチャは、任意のインター予測の参照ピクチャと同様に、参照ピクチャリストの任意の位置に置かれ得る。
[0101]MVCでは、別のビュー中のビュー成分がインター予測の参照であるかのように、ビュー間予測が実現され得る。可能性のあるビュー間の参照は、シーケンスパラメータセット(SPS)のMVC拡張においてシグナリングされ得る。可能性のあるビュー間の参照は、参照ピクチャリスト構築処理によって修正されてよく、これによって、インター予測またはビュー間予測の参照の順序を柔軟にできる。
[0102]対照的に、HEVCでは、スライスヘッダは、H.264/AVCにおける設計原則と同様の設計原則に従う。加えて、HEVCスライスヘッダは、現在のHEVC仕様における適応ループフィルタ(ALF)パラメータシンタックスを含み得る。いくつかの例では、深度スライスヘッダは、1つまたは複数の適応ループフィルタパラメータを備える。
[0103]3DVコーデックでは、ある特定の時間インスタンスにおける各ビューのビュー成分は、テクスチャビュー成分と深度ビュー成分とを含み得る。スライス構造は、誤りに耐える目的で、すなわち、誤り耐性を実現するために、使用され得る。しかしながら、深度ビュー成分は、対応するテクスチャビュー成分が正しく受信されたときしか、意味がないことがある。深度ビュー成分のためのすべてのシンタックス要素を含めて、深度ビュー成分のNALユニットのためのスライスヘッダは比較的大きくなり得る。深度スライスヘッダのサイズは、テクスチャビュー成分のためのテクスチャスライスヘッダ中のシンタックス要素からいくつかのシンタックス要素を予測することによって、低減され得る。
[0104]ビットストリームは、たとえば、図1のソースデバイス12と宛先デバイス14との間で、マルチビュービデオプラス深度ブロックユニットとシンタックス要素とを転送するために使用され得る。ビットストリームは、コーディング規格ITU H.264/AVCに準拠することができ、特に、マルチビュービデオコーディング(MVC)ビットストリーム構造に従う。すなわち、いくつかの例では、ビットストリームは、H.264/AVCのMVC拡張に準拠する。他の例では、ビットストリームは、HEVCのマルチビュー拡張または別の規格のマルチビュー拡張に準拠する。さらに他の例では、他のコーディング規格が使用される。
[0105]典型的なMVCビットストリーム順序(復号順序)構成は、時間順コーディングである。各アクセスユニットは、1つの出力時間インスタンスのためのすべてのビューのコーディングされたピクチャを含むように定義される。アクセスユニットの復号順序は、出力または表示順序と同じであることも同じでないこともある。一般に、MVC予測は、各ビュー内のピクチャ間予測とビュー間予測の両方を含み得る。MVCでは、ビュー間予測は視差動き補償によってサポートされてよく、視差動き補償は、H.264/AVC動き補償のシンタックスを使用するが、異なるビュー中のピクチャが参照ピクチャとして使用されることを可能にする。
[0106]2つのビューのコーディングがMVCによってサポートされる。MVCの利点の1つは、MVCエンコーダが3Dビデオ入力として3つ以上のビューをとらえることができ、また、MVCデコーダが2つのビューをマルチビュー表現へと復号することができることである。したがって、MVCデコーダをもつレンダラは、3Dビデオコンテンツを、複数のビューを有するものとして扱い得る。以前は、MVCは、補足エンハンスメント情報(SEI)メッセージ(ステレオ情報または空間インターリービングピクチャ)を用いるH.264/AVCと同様に、深度マップ入力を処理しなかった。
[0107]H.264/AVC規格では、Network Abstraction Layer(NAL)ユニットは、ビデオ電話、ストレージ、またはストリーミングビデオなどの用途に対処する「ネットワークフレンドリーな」ビデオ表現を与えるように定義される。NALユニットは、Video Coding Layer(VCL)NALユニットと非VCL NALユニットとに分類され得る。VCLユニットは、コア圧縮エンジンを含んでよく、ブロックレベルと、マクロブロック(MB)レベルと、スライスレベルとを備え得る。他のNALユニットは非VCL NALユニットである。
[0108]2Dビデオ符号化の例では、各NALユニットは、1バイトのNALユニットヘッダと可変サイズのペイロードとを含む。NALユニットタイプを指定するために、5ビットが使用される。NALユニットが他のピクチャ(NALユニット)によって参照されることに関してどのくらい重要かを示す、nal_ref_idcのために3ビットが使用される。たとえば、nal_ref_idcを0に等しく設定することは、NALユニットがインター予測のために使用されないことを意味する。H.264/AVCが、スケーラブルビデオコーディング(SVC)規格のような、3Dビデオ符号化を含むように拡張されるとき、NALヘッダは2Dの状況のNALヘッダと同様であり得る。たとえば、NALユニットヘッダ中の1つまたは複数のビットは、NALユニットが4コンポーネントのNALユニットであることを識別するために使用される。
[0109]NALユニットヘッダは、MVC NALユニットのためにも使用され得る。しかしながら、MVCでは、NALユニットヘッダ構造は、前置NALユニットおよびMVCコーデッドスライスNALユニットを除いて保持され得る。MVCコーデッドスライスNALユニットは、4バイトヘッダと、図1のコーディングされたブロック8などのブロックユニットを含み得るNALユニットペイロードとを備え得る。MVC NALユニットヘッダ中のシンタックス要素は、priority_idと、temporal_idと、anchor_pic_flagと、view_idと、non_idr_flagと、inter_view_flagとを含み得る。他の例では、他のシンタックス要素がMVC NALユニットヘッダ中に含まれる。
[0110]シンタックス要素anchor_pic_flagは、ピクチャがアンカーピクチャであるのか非アンカーピクチャであるのかを示し得る。アンカーピクチャと出力順序(すなわち、表示順序)でそれに続くすべてのピクチャとは、復号順序(すなわち、ビットストリーム順序)で前のピクチャを復号することなく正しく復号されることが可能であり、したがってランダムアクセスポイントとして使用され得る。アンカーピクチャと非アンカーピクチャとは異なる依存性を有してよく、その両方がシーケンスパラメータセット中でシグナリングされ得る。
[0111]MVCにおいて定義されているビットストリーム構造は、view_idおよびtemporal_idという2つのシンタックス要素によって特徴づけられ得る。シンタックス要素view_idは各ビューの識別子を示し得る。NALユニットヘッダ中のこの識別子は、デコーダにおけるNALユニットの容易な識別と、表示のための復号されたビューの高速アクセスとを可能にする。シンタックス要素temporal_idは、時間スケーラビリティ階層を示し、またはフレームレートを間接的に示し得る。たとえば、より小さい最大temporal_id値をもつNALユニットを含む動作ポイントは、より大きい最大temporal_id値をもつ動作ポイントよりも低いフレームレートを有し得る。より高いtemporal_id値をもつコーディングされたピクチャは通常、ビュー内のより低いtemporal_id値をもつコーディングされたピクチャに依存するが、より高いtemporal_idをもついずれのコーディングされたピクチャにも依存しないことがある。
[0112]NALユニットヘッダ中のシンタックス要素view_idおよびtemporal_idは、ビットストリーム抽出と適応の両方のために使用され得る。シンタックス要素priority_idは、単純な一経路ビットストリーム適応処理のために主に使用され得る。シンタックス要素inter_view_flagは、このNALユニットが、異なるビュー中の別のNALユニットをビュー間予測するために使用されるかどうかを示し得る。
[0113]MVCはまた、シーケンスパラメータセット(SPS)を利用し、SPS MVC拡張を含み得る。パラメータセットは、H.264/AVCではシグナリングのために使用される。シーケンスパラメータセットは、シーケンスレベルのヘッダ情報を備える。ピクチャパラメータセット(PPS)は、まれに変化するピクチャレベルのヘッダ情報を備える。パラメータセットがある場合、このまれに変化する情報は、シーケンスごとまたはピクチャごとに常には繰り返されず、したがってコーディング効率が改善される。さらに、パラメータセットの使用は、ヘッダ情報の帯域外送信を可能にし、誤り耐性のための冗長送信の必要を回避する。帯域外送信のいくつかの例では、パラメータセットNALユニットは、他のNALユニットとは異なるチャネル上で送信される。MVCでは、ビュー依存性は、SPS MVC拡張においてシグナリングされ得る。すべてのビュー間予測は、SPS MVC拡張によって規定された範囲内で行われ得る。
[0114]いくつかの従来の3Dビデオ符号化技法では、たとえばYCbCr色空間中の色成分が、1つまたは複数のNALユニット中でコーディングされ、一方深度画像が、1つまたは複数の別個のNALユニット中でコーディングされるように、コンテンツがコーディングされる。しかしながら、いずれの単一のNALユニットもアクセスユニットのテクスチャおよび深度画像のコーディングされたサンプルを含まない場合、いくつかの問題が起こり得る。たとえば、3Dビデオデコーダでは、各フレームのテクスチャと深度画像の両方を復号した後、深度マップおよびテクスチャに基づくビューレンダリングが、仮想ビューを生成するためにアクティブにされることが予想される。深度画像のNALユニットおよびアクセスユニットのテクスチャのNALユニットが順番にコーディングされる場合、ビューレンダリングは、アクセスユニット全体が復号されるまで開始できない。このことは、3Dビデオがレンダリングされるのにかかる時間の増大につながり得る。
[0115]さらに、テクスチャ画像および関連する深度マップ画像は、コーデック中の様々なレベル、たとえば、シーケンスレベル、ピクチャレベル、スライスレベル、およびブロックレベルで、何らかの情報を共有し得る。この情報を2つのNALユニットへとコーディングすることで、情報を共有または予測する際に、余剰の実装負荷が生じ得る。したがって、エンコーダは、フレームに対して2回、すなわちテクスチャのために1回、深度マップのためにもう1回、動き推定を実行する必要があり得る。同様に、デコーダは、フレームに対して2回、動き補償を実行する必要があり得る。
[0116]本明細書で説明されるように、3Dビデオをサポートするための技法が、MVCなどの既存の規格に追加される。マルチビュービデオプラス深度(MVD)が、3Dビデオ処理のためにMVCに追加され得る。3Dビデオ符号化技法は、たとえば、ビュー角度をスムーズに変更するために、あるいは、たとえばデバイスの仕様またはユーザ選好に基づき得る、収束または深度の知覚の後方または前方への調整のために、既存のビデオ規格により多くの柔軟性と拡張性とを与え得る。また、コーディング規格は、3Dビデオ中の仮想ビューの生成のために深度マップを利用するように拡張され得る。
[0117]図4は、本開示の技法による、ビデオコーダの例示的な動作を示す流れ図である。いくつかの例では、ビデオコーダは、図1および図2に示されるビデオエンコーダ22のような、ビデオエンコーダである。他の例では、ビデオコーダは、図1および図5に示されるビデオデコーダ28のような、ビデオデコーダである。ビデオコーダは、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダを備える、テクスチャスライスを受信する(102)。たとえば、ビデオコーダは、テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信し、テクスチャスライスが、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備える。方法はさらに、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダを備える、深度スライスを受信することを含む(104)。たとえば、ビデオコーダは、テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信し、深度スライスは、深度情報の1つまたは複数のコーディングされたブロックと、深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備える。いくつかの例では、深度ビュー成分およびテクスチャビュー成分はともに、1つのビューおよび1つのアクセスユニットに属する。
[0118]方法はさらに、第1のスライスをコーディングすることを備え、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する(106)。たとえば、ビデオエンコーダ22は、第1のスライスを符号化し、第1のスライスは、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。一例では、スライスヘッダは、関連するスライスをコーディングするために使用されるすべてのシンタックス要素を備える。別の例では、ビデオデコーダ28は、第1のスライスを復号し、第1のスライスが、テクスチャスライスと深度スライスのうちの1つを備え、第1のスライスは、第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。
[0119]方法はさらに、第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することを備える(108)。さらに、方法は、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスをコーディングした後に第2のスライスをコーディングすることを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する(110)。たとえば、ビデオエンコーダ22は、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスをコーディングした後で第2のスライスを符号化することができ、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。同様に、ビデオデコーダ28は、決定された共通のシンタックス要素に少なくとも部分的に基づいて、第1のスライスをコーディングした後で第2のスライスを復号することができ、第2のスライスは、第1のスライスではないテクスチャスライスと深度スライスのうちの1つを備え、第2のスライスは、第1のスライスに共通のシンタックス要素の値を除く、第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する。
[0120]他の例では、方法はさらに、どのシンタックス要素がシーケンスパラメータセット中の第2のスライスのスライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングすることを備える。
[0121]他の例では、少なくとも1つの深度シンタックス要素が、深度ビュー成分のスライスヘッダにおいて決定されシグナリングされる。少なくとも1つの深度シンタックス要素は、ピクチャパラメータセットの識別子、スライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分、コーディングされるブロックユニットの開始位置、参照ピクチャの順序、または、深度ビュー成分の現在のピクチャの表示順序を含み得る。たとえば、第2のスライスのスライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える。別の例では、第2のスライスのスライスヘッダは、第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える。別の例では、第2のスライスのスライスヘッダは、コーディングされるブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える。さらに、第2のスライスのスライスヘッダは、第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備え得る。別の例では、第2のスライスのスライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える。
[0122]コーディングされるブロックユニットの開始位置は、コーディングされるブロックの開始位置が、テクスチャスライスヘッダまたは深度スライスヘッダにおいてシグナリングされない場合、0であると決定され得る。少なくとも1つのテクスチャビュー成分のためのループフィルタパラメータがシグナリングされてよく、深度ビュー成分のために使用されるループフィルタパラメータを示すフラグセットは、少なくとも1つのテクスチャビュー成分のためのループフィルタパラメータと同じである。たとえば、第2のスライスのスライスヘッダは、第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素の少なくとも1つを備える。
[0123]別の例では、テクスチャ情報を表すビデオデータの1つまたは複数のブロックは、ビュー間予測を使用して符号化されるが、フレームの対応する部分のための深度値は、ビュー内予測を使用して符号化される。テクスチャビュー成分と深度ビュー成分とを有するビデオフレームは、第1のビューに対応し得る。テクスチャ情報を表すビデオデータの1つまたは複数のブロックを符号化することは、第2のビューのデータに対するテクスチャ情報を表すビデオデータのブロックの少なくとも1つの少なくともある部分を予測することを含んでよく、第2のビューは第1のビューとは異なる。フレームのその部分の深度値を表す深度情報を符号化することはさらに、第1のビューのデータに対する深度値を表す深度情報の少なくともある部分を予測することを備える。深度スライスヘッダはさらに、深度マップビュー成分のための参照ピクチャリスト構築を表すシンタックス要素をシグナリングすることができる。
[0124]表1は、シーケンスパラメータセット(SPS)MVC拡張を示す。ビュー間参照は、SPSにおいてシグナリングされてよく、参照ピクチャリスト構築処理によって変更されてよく、このことは、インター予測またはビュー間予測の参照の柔軟な順序を可能にする。
Figure 2014527336
Figure 2014527336
Figure 2014527336
[0125]シーケンスレベルにおけるインジケータは、深度ビュー成分が同じビュー中の対応するテクスチャビュー成分からどのように予測されるかを規定し得る。深度マップのためのシーケンスパラメータセットでは、以下のシンタックスがシグナリングされ得る。
Figure 2014527336
[0126]テクスチャ情報を表すビデオデータの1つまたは複数のブロックはビュー間予測を使用して符号化されるが、フレームの対応する部分のための深度値はビュー内予測を使用して符号化される例では、num_ref_idx_active_override_flagおよびref_pic_list_reorderingが、深度マップビュー成分のためのスライスヘッダにおいてシグナリングされ得る。
[0127]表2は、深度スライスのためのスライスヘッダの例示的なシンタックステーブルを与える。シンタックス要素pre_slice_header_colocated_idcは、シンタックス要素が、次の方法で、テクスチャビュー成分のスライスヘッダと深度ビュー成分のスライスヘッダとの間で再使用されることを規定する。pred_slice_header_colocated_idcを0に等しく設定することは、テクスチャビュー成分の任意のスライスヘッダと対応する深度ビュー成分との間に予測がないことを示す。深度マップビュー成分の対応するテクスチャビュー成分は、同じビュー内の同じ時間インスタンスにおけるテクスチャビュー成分を指すことに留意されたい。
[0128]pre_slice_header_colocated_idcを3に等しく設定することは、深度ビュー成分NALユニットのピクチャパラメータセットとデルタQPとがスライスヘッダにおいてシグナリングされ、一方、深度ビュー成分NALユニットの他のスライスレベルシンタックス要素が対応するテクスチャビュー成分のシンタックス要素と同一であるかそれから予測可能であることを示す。
[0129]pred_slice_header_colocated_idcを2に等しく設定することは、深度ビュー成分NALユニットのピクチャパラメータセットおよびデルタQP、さらには、最初のMBまたはCUの位置が深度スライスヘッダにおいてシグナリングされ、一方、他のシンタックス要素が同じビューの同じ位置にあるテクスチャビュー成分の対応するシンタックス要素と同じであるかそれから予測可能であることを示す。
[0130]pred_slice_header_colocated_idcを1に等しく設定することは、深度ビュー成分NALユニットのピクチャパラメータセットおよびデルタQP、最初のMBまたはCUの位置、ならびにframe_numおよびPOCの値がスライスヘッダにおいてシグナリングされ、一方、他のシンタックス要素が同じビューの同じ位置にあるテクスチャビュー成分の対応するシンタックス要素と同じであるかそれから予測可能であることを示す。一例では、pred_slice_header_colocated_idcが3に等しい場合、first_mb_in_sliceは、0に等しい値を有すると推測される。一方、pred_slice_header_colocated_idcが3未満である場合、first_mb_in_sliceの値は、表2において示されるように、明示的にシグナリングされ得る。
[0131]表2にも示されるように、pred_slice_header_colocated_idcは、1未満の値を有し、エントロピースライスフラグおよびスライスタイプがシグナリングされる。エントロピースライスフラグは、対応するスライスがエントロピースライスかどうか、すなわち、他のスライスのコンテキストへの参照を伴わずにスライスがエントロピーコーディングされるかどうかを示す、値を有する。したがって、コンテキストモデルは、各エントロピースライスの開始時に初期化またはリセットされ得る。スライスタイプは、スライスのタイプ、たとえば、I、P、またはBを示す。さらに、pred_slice_header_colocated_idcが1未満の値を有する場合、スライスヘッダは、スライスのブロックが(たとえば、フィールドインターリービングコーディングのために)フィールドコーディングされるかどうかを示す。
Figure 2014527336
Figure 2014527336
[0132]表3は、深度ビュー成分に基づいて、HEVCのためのスライスヘッダの1つの例示的な設計を与える。この例では、pred_slice_header_colocated_idcが3に等しい場合、first_tb_in_sliceは、0に等しい値を有すると推測されることに留意されたい。
Figure 2014527336
Figure 2014527336
Figure 2014527336
[0133]表4は、深度スライスのスライスヘッダの例示的なシンタックステーブルである。表4は、深度ビュー成分のためのシンタックスの再使用をさらに示すための、深度スライスヘッダシンタックスの1つの例示的な設計を与える。この例では、シーケンスレベルにおけるインジケータは、深度ビュー成分が同じビュー中の対応するテクスチャビュー成分からどのように予測されるかを規定する。
[0134]深度マップのためのそのようなシーケンスパラメータセットでは、以下のシンタックスがシグナリングされ得る。
Figure 2014527336
[0135]pre_slice_header_colocated_idcシンタックス要素は、テクスチャビュー成分のスライスヘッダと深度ビュー成分のスライスヘッダとの間でのシンタックス要素の再使用を規定する。たとえば、pred_slice_header_colocated_idcを0に等しく設定することは、テクスチャビュー成分の任意のスライスヘッダと対応する深度ビュー成分との間に予測がないことを示す。pre_slice_header_colocated_idcを3に等しく設定することは、深度ビュー成分NALユニットのピクチャパラメータセットとデルタQPとがスライスヘッダにおいてシグナリングされ、一方、深度ビュー成分NALユニットの他のスライスレベルシンタックス要素が対応するテクスチャビュー成分のシンタックス要素と同一であるかそれから予測されることを示す。
[0136]pred_slice_header_colocated_idcを2に等しく設定することは、深度ビュー成分NALユニットのピクチャパラメータセットおよびデルタQP、さらには、最初のMBまたはCUの位置がスライスヘッダにおいてシグナリングされ、一方、他のシンタックス要素が同じビューの同じ位置にあるテクスチャビュー成分の対応するシンタックス要素と同じであるかそれから予測されることを示す。pred_slice_header_colocated_idcを1に等しく設定することは、深度ビュー成分NALユニットのピクチャパラメータセットおよびデルタQP、最初のMBまたはCUの位置、ならびにframe_numおよびPOCの値がスライスヘッダにおいてシグナリングされ、一方、他のシンタックス要素が同じビューの同じ位置にあるテクスチャビュー成分の対応するシンタックス要素と同じであるかそれから予測されることを示す。
[0137]シンタックスフラグpred_default_syntax_flagは、深度マップビュー成分のスライスヘッダのシンタックス要素が、同じ位置にあるテクスチャビュー成分のシンタックス要素から予測されるかどうかを示す。一例では、pred_slice_header_colocated_idcが0に等しい場合、pred_default_syntax_flagは0であると推測される。pred_slice_header_colocated_idcが3に等しく、pred_default_syntax_flagが1である場合、この例では、first_mb_in_sliceは0に等しい。
Figure 2014527336
Figure 2014527336
Figure 2014527336
[0138]表5は、深度ビュー成分に基づく、HEVCのためのスライスヘッダの例示的なシンタックステーブルである。表5の例では、pred_default_syntax_flagは、深度マップビュー成分のスライスヘッダのシンタックス要素が、同じ位置にあるテクスチャビュー成分のシンタックス要素から予測されるかどうかを示す。pred_slice_header_colocated_idcが0に等しい場合、フラグpred_default_syntax_flagは0であると推測される。pred_slice_header_colocated_idcが3に等しく、pred_default_syntax_flagが1である場合、この例では、first_tb_in_sliceは0に等しい。
Figure 2014527336
Figure 2014527336
[0139]スライスヘッダ予測が可能である場合、スライスAがスライスBに基づき、スライスAとBのいずれかが深度スライスであり他方がテクスチャスライスであり、それらが同じ時間インスタンスのビューに属するのであれば、以下のこのうちの1つ、すなわち、スライスBを含むピクチャ中のすべてのスライスが同じスライスヘッダを有すること、スライスA中の任意のMBがスライスB中に同じ位置にあるMBを有すること、または、スライスA中の任意のMBがスライスBを含むピクチャのスライスC中に同じ位置にあるMBを有する場合、スライスCはスライスBと同じスライスヘッダを有さなければならない、のうちの1つが満たされるという、示唆があることに留意されたい。
[0140]あるいは、深度ビュー成分に対して、説明された技法の異なる実装形態は、次のようであってよい。表6は、スライスヘッダの深度への拡張の例を与える。
Figure 2014527336
[0141]この例では、シンタックス要素sameRefPicListは、SPSレベルまたはPPSレベルから導出され、またはそれらのレベルにおいてシグナリングされる。たとえば、SPSにおいてシグナリングされるdisable_depth_inter_view_flagは、深度に対するビュー間予測が不可能であるかどうかを示す。
[0142]テクスチャビュー成分に対して、説明される技法の別の実装形態は、表7において示されるようなものであってよい。この例では、テクスチャビュー成分のためのテクスチャスライスヘッダのシンタックス要素は、深度ビュー成分のための深度スライスヘッダの相関するシンタックス要素から予測され得る。
Figure 2014527336
[0143]同様に、この例では、シンタックス要素sameRefPicListは、SPSレベルまたはPPSレベルから導出され、またはそれらのレベルにおいてシグナリングされる。
[0144]あるいは、そのようなフラグは、表8に示されるように、スライスヘッダにおいて明示的にシグナリングされてよい。
Figure 2014527336
[0145]シンタックス要素slice_header_prediction_flagは、テクスチャから深度への、または深度からテクスチャへのスライスヘッダ予測が可能であるかどうかを示す。すなわち、テクスチャスライスと深度スライスの少なくとも1つは、スライスヘッダ予測がテクスチャスライスヘッダから深度スライスヘッダへのものか、または深度スライスヘッダからテクスチャスライスヘッダへのものかを示す、シンタックス要素を備える。
[0146]あるいは、スライスレベルフラグまたは他のインジケータが、どの程度までスライス予測が適用されるかを規定する。これらのインジケータの例には、参照ピクチャリスト構築シンタックス要素が予測されるかどうか、slice_qp_deltaが予測されるかどうか、および加重予測シンタックス要素が予測されるかどうかがある。
[0147]いくつかの例では、ループフィルタに関連するシンタックス要素が予測されるかどうかも示される。ループフィルタに関連するシンタックス要素が予測されない場合、それらのシンタックス要素が存在するかどうかを示すためのさらなるフラグが、深度スライスヘッダに含まれる。
[0148]あるいは、デブロッキングフィルタをシグナリングするために使用される別のフラグdeblocking_pred_flagが、デブロッキングフィルタパラメータに対して、pred_default_syntax_flagまたはpred_slice_header_colocated_idcの代わりに使用され得る。このフラグは、同じスライスヘッダまたはPPSまたはSPSにおいてシグナリングされる。表9は、深度ビュー成分に基づく、HEVCのためのスライスヘッダの例示的なシンタックステーブルを示す。HEVCの状況では、ALFがテクスチャビュー成分と深度ビュー成分の両方に対して使用されない場合を除き、深度ビュー成分のALFパラメータは、対応するテクスチャビュー成分のALFパラメータと同じであるとは考えられない。
Figure 2014527336
[0149]図5は、本開示の技法による、図1のビデオデコーダ28の例をさらに詳しく示すブロック図である。ビデオデコーダ28は、本明細書では「コーダ」と呼ばれる、専用のビデオコンピュータデバイスまたは装置の一例である。図5に示されるように、ビデオデコーダ28は、宛先デバイス14のビデオデコーダ28に対応する。しかしながら、他の例では、ビデオデコーダ28は、異なるデバイスに対応する。さらなる例では、(たとえば、他のエンコーダ/デコーダ(コーデック)などの)他のユニットも、ビデオデコーダ28と同様の技法を実行することができる。
[0150]ビデオデコーダ28は、量子化された係数と予測シンタックス要素とを生成するために、受信されたビットストリームをエントロピー復号するエントロピー復号ユニット52を含む。ビットストリームは、3Dビデオとシンタックス要素とをレンダリングするための、各ピクセル位置のためのテクスチャ成分と深度成分とを有するコーディングされたブロックを含む。予測シンタックス要素には、コーディングモード、1つまたは複数の動きベクトル、使用された補間技法を識別する情報、補間フィルタリングにおいて使用するための係数、および、予測ブロックの生成に関連する他の情報が含まれる。
[0151]予測シンタックス要素、たとえば係数は、予測処理ユニット55に転送される。予測処理ユニット55は、深度シンタックス予測モジュール66を含む。固定フィルタの係数に対して、または互いに対して、係数をコーディングするために予測が使用される場合、予測処理ユニット55は、実際の係数を定義するためにシンタックス要素を復号する。深度シンタックス予測モジュール66は、テクスチャビュー成分のためのテクスチャシンタックス要素から、深度ビュー成分のための深度シンタックス要素を予測する。
[0152]量子化が予測シンタックス要素のいずれかに適用される場合、逆量子化ユニット56は、そのような量子化を除去する。逆量子化ユニット56は、符号化されたビットストリーム中のコーディングされたブロックの各ピクセル位置のための深度成分とテクスチャ成分とを別様に扱い得る。たとえば、深度成分がテクスチャ成分と別様に量子化された場合、逆量子化ユニット56は、深度成分とテクスチャ成分とを別々に処理する。たとえば、フィルタ係数は、本開示に従って予測コーディングされ、量子化されてよく、この場合、逆量子化ユニット56は、そのような係数を予測的に復号し、逆量子化するために、ビデオデコーダ28によって使用される。
[0153]予測処理ユニット55は、ビデオエンコーダ22の予測処理ユニット32に関して上で詳しく説明されたのとほとんど同じ方法で、メモリ62に記憶された予測シンタックス要素と1つまたは複数の以前に復号されたブロックとに基づいて、予測データを生成する。具体的には、予測処理ユニット55は、動き補償中に、本開示のマルチビュービデオプラス深度技法のうちの1つまたは複数を実行して、深度成分に加えてテクスチャ成分を組み込む予測ブロックを生成する。予測ブロック(ならびにコーディングされたブロック)は、深度成分とテクスチャ成分とでは異なる解像度を有し得る。たとえば、深度成分は1/4ピクセル精度を有するが、テクスチャ成分はフル整数ピクセル精度を有する。したがって、本開示の技法のうちの1つまたは複数は、予測ブロックを生成する際に、ビデオデコーダ28によって使用される。いくつかの例では、予測処理ユニット55は、本開示の補間および補間様フィルタリング技法のために使用されるフィルタを備える、動き補償ユニットを含み得る。動き補償コンポーネントは、説明を簡単かつ容易にするために図5には示されない。
[0154]逆量子化ユニット56は、量子化された係数を逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)する。逆量子化処理は、H.264復号のために、または任意の他の復号規格のために定義された処理である。逆変換処理ユニット58は、ピクセル領域における残差ブロックを生成するために、変換係数に逆変換、たとえば逆DCTまたは概念的に同様の逆変換処理を適用する。加算器64は、残差ブロックを、予測処理ユニット55によって生成された対応する予測ブロックと加算して、ビデオエンコーダ22によって符号化された元のブロックの復元されたバージョンを形成する。必要に応じて、ブロッキネスアーティファクトを除去するために、デブロッキングフィルタも適用して、復号されたブロックをフィルタリングする。復号されたビデオブロックは次いで、メモリ62に記憶され、メモリ62は、その後の動き補償のための参照ブロックを与え、また、(図1のデバイス28などの)ディスプレイデバイスを駆動するために復号されたビデオを生成する。
[0155]復号されたビデオは、3Dビデオをレンダリングするために使用され得る。3Dビデオは、3次元仮想ビューを備え得る。ブロック中の各ピクセルについての水平オフセット(水平視差)を決定するために、深度情報が使用される。オクルージョン処理も、仮想ビューを生成するために実行され得る。深度ビュー成分のためのシンタックス要素は、テクスチャビュー成分のためのシンタックス要素から予測され得る。
[0156]図6は、本開示の技法による、ビデオデコーダの例示的な動作を示す流れ図である。図6の処理は、図4の符号化処理とは逆の復号処理と考えられ得る。図6は、図5のビデオデコーダ28の観点から説明されるが、他のデバイスでも同様の技法を実行し得る。
[0157]ビデオデコーダ28のようなビデオデコーダは、ビデオデータのフレームの少なくともある部分のテクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信し、テクスチャスライスが、符号化された1つまたは複数のブロックと、テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備える(122)。ビデオデコーダは、テクスチャビュー成分に対応する深度ビュー成分のための深度スライスを受信し、深度スライスは、符号化された深度情報と、深度スライスとテクスチャスライスに共通のシンタックス要素の値を除く、深度スライスの特性を表す少なくとも1つのシンタックス要素を備える深度スライスヘッダとを備える(124)。ビデオデコーダは、深度スライスとテクスチャスライスに共通のシンタックス要素の値から、深度スライスとテクスチャスライスの少なくとも1つのシンタックス要素を予測する(126)。
[0158]他の例では、少なくとも1つの深度シンタックス要素が、深度ビュー成分のスライスヘッダにおいて決定されシグナリングされる。少なくとも1つの深度シンタックス要素は、ピクチャパラメータセットの識別子、スライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分、コーディングされるブロックユニットの開始位置、参照ピクチャの順序、および、深度ビュー成分の現在のピクチャの表示順序のうちの少なくとも1つを含む。コーディングされるブロックユニットの開始位置は、コーディングされるブロックの開始位置が、テクスチャスライスヘッダまたは深度スライスヘッダにおいてシグナリングされない場合、0であると決定される。少なくとも1つのテクスチャビュー成分のためのループフィルタパラメータがシグナリングされてよく、深度ビュー成分のために使用されるループフィルタパラメータを示すフラグセットは、少なくとも1つのテクスチャビュー成分のためのループフィルタパラメータと同じである。
[0159]別の例では、ビデオデコーダ28は、ビュー間予測技法を使用してテクスチャビュー成分を予測し、ビュー内予測技法を使用して深度ビュー成分を予測する。ビデオデコーダ28は、深度ビュー成分のための参照ピクチャリスト構築を表すシンタックス要素をさらに備える深度スライスヘッダを受信する。テクスチャビュー成分および深度ビュー成分が第1のビューに対応する例では、テクスチャビュー成分を復号することは、第2のビューのデータに対して、テクスチャビュー成分の少なくともある部分を予測することを含む。第2のビューは、第1のビューとは異なる。いくつかの例では、深度ビュー成分を復号することは、第1のビューのデータに対して、深度ビュー成分の少なくともある部分を予測することを含み得る。
[0160]1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を支援する任意の媒体を含む、データ記憶媒体または通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は一般に、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
[0161]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは、命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用されコンピュータによってアクセスされ得る、任意の他の媒体を備え得る。同様に、いかなる接続も適切にコンピュータ可読媒体と呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まないが、代わりに非一時的な有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
[0162]命令は、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。したがって、本明細書で使用される「プロセッサ」という用語は、前述の構造のいずれか、または本明細書で説明される技法の実装に適切な任意の他の構造を指し得る。加えて、いくつかの態様では、本明細書で説明された機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内で与えられてよく、あるいは複合コーデックに組み込まれてよい。また、本技法は、1つまたは複数の回路または論理要素中で完全に実装され得る。
[0163]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示される技法を実行するように構成されたデバイスの機能的態様を強調するために、様々なコンポーネント、モジュール、またはユニットが説明されたが、それらのコンポーネント、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要はない。むしろ、上で説明されたように、様々なユニットが、適切なソフトウェアおよび/またはファームウェアとともに、上で説明された1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられてよく、または相互動作可能なハードウェアユニットの集合によって与えられてよい。
[0164]本開示の様々な例が説明された。これらおよび他の例は、以下の特許請求の範囲内に入る。
[0164]本開示の様々な例が説明された。これらおよび他の例は、以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1] ビデオデータを処理する方法であって、
テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
第1のスライスを復号することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスをコーディングした後で前記第2のスライスを復号することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、方法。
[2] 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、[1]に記載の方法。
[3] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、[1]に記載の方法。
[4] 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、[1]に記載の方法。
[5] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、[1]に記載の方法。
[6] 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、[1]に記載の方法。
[7] 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記方法は、
前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定することをさらに備える、[1]に記載の方法。
[8] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素とのうちの少なくとも1つを備える、[1]に記載の方法。
[9] どのシンタックス要素がシーケンスパラメータセット中の前記第2のスライスの前記スライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングすることをさらに備える、[1]に記載の方法。
[10] データを復号するためのデバイスであって、
テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
第1のスライスを復号することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを復号した後で前記第2のスライスを復号することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
を行うように構成されるビデオデコーダを備えるデバイス。
[11] 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、[10]に記載のデバイス。
[12] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、[10]に記載のデバイス。
[13] 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、[10]に記載のデバイス。
[14] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、[10]に記載のデバイス。
[15] 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、[10]に記載のデバイス。
[16] 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記ビデオデコーダは、さらに、
前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定するように構成される、[10]に記載のデバイス。
[17] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素の少なくとも1つを備える、[10]に記載のデバイス。
[18] 前記ビデオコーダは、さらに、どのシンタックス要素がシーケンスパラメータセット中の前記第2のスライスの前記スライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングするように構成される、[10]に記載のデバイス。
[19] 命令を記憶したコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記命令は、実行されると、ビデオ復号デバイスのプロセッサに、
テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
第1のスライスを復号することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
前記第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを復号した後で前記第2のスライスを復号することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
を行わせるコンピュータプログラム製品。
[20] 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、[19]に記載のコンピュータ可読記憶媒体。
[21] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、[19]に記載のコンピュータ可読記憶媒体。
[22] 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、[19]に記載のコンピュータ可読記憶媒体。
[23] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、[19]に記載のコンピュータ可読記憶媒体。
[24] 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、[19]に記載のコンピュータ可読記憶媒体。
[25] 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記命令はさらに、ビデオ復号デバイスのプロセッサに、
前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定させる、[19]に記載のコンピュータ可読記憶媒体。
[26] ビデオデータを処理するためのデバイスであって、
テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信する手段と、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信する手段と、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
第1のスライスを復号する手段と、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定する手段と、
前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスをコーディングした後で前記第2のスライスを復号する手段と、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、デバイス。
[27] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、[26]に記載のデバイス。
[28] ビデオデータを符号化する方法であって、
テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
第1のスライスを符号化することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを符号化した後で前記第2のスライスを符号化することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
を備える方法。
[29] 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、[28]に記載の方法。
[30] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、[28]に記載の方法。
[31] 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、[28]に記載の方法。
[32] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、[28]に記載の方法。
[33] 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、[28]に記載の方法。
[34] 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記方法は、
前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定することをさらに備える、[28]に記載の方法。
[35] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素の少なくとも1つを備える、[28]に記載の方法。
[36] どのシンタックス要素がシーケンスパラメータセット中の前記第2のスライスの前記スライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングすることをさらに備える、[28]に記載の方法。
[37] データを符号化するためのデバイスであって、
テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
第1のスライスを符号化することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを符号化した後で前記第2のスライスを符号化することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
を行うように構成されるビデオエンコーダを備える、デバイス。
[38] 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、[37]に記載のデバイス。
[39] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、[37]に記載のデバイス。
[40] 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、[37]に記載のデバイス。
[41] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、[37]に記載のデバイス。
[42] 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、[37]に記載のデバイス。
[43] 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記ビデオエンコーダは、さらに、
前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定するように構成される、[37]に記載のデバイス。
[44] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素の少なくとも1つを備える、[37]に記載のデバイス。
[45] 前記ビデオエンコーダは、さらに、
どのシンタックス要素がシーケンスパラメータセット中の前記第2のスライスの前記スライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングするように構成される、[37]に記載のデバイス。
[46] 命令を記憶したコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記命令は、実行されると、ビデオ符号化デバイスのプロセッサに、
テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
第1のスライスをコーディングすることと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
前記第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスをコーディングした後で前記第2のスライスをコーディングすることと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
を行わせるコンピュータプログラム製品。
[47] 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、[46]に記載のコンピュータ可読記憶媒体。
[48] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、[46]に記載のコンピュータ可読記憶媒体。
[49] 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、[46]に記載のコンピュータ可読記憶媒体。
[50] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、[46]に記載のコンピュータ可読記憶媒体。
[51] 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、[46]に記載のコンピュータ可読記憶媒体。
[52] 前記第1のスライスが前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記命令は、さらに、ビデオ符号化デバイスのプロセッサに、
前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定させる、[46]に記載のコンピュータ可読記憶媒体。
[53] ビデオデータを処理するためのデバイスであって、
テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信する手段と、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信する手段と、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方が、ビューとアクセスユニットとに属し、
第1のスライスを符号化する手段と、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
前記第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定する手段と、
前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを符号化した後で前記第2のスライスを符号化する手段と、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を繰り返すことなく、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、デバイス。
[54] 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、[53]に記載のデバイス。

Claims (54)

  1. ビデオデータを処理する方法であって、
    テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
    前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
    第1のスライスを復号することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
    前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
    前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスをコーディングした後で前記第2のスライスを復号することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、方法。
  2. 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項1に記載の方法。
  3. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項1に記載の方法。
  4. 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項1に記載の方法。
  5. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、請求項1に記載の方法。
  6. 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、請求項1に記載の方法。
  7. 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記方法は、
    前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定することをさらに備える、請求項1に記載の方法。
  8. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素とのうちの少なくとも1つを備える、請求項1に記載の方法。
  9. どのシンタックス要素がシーケンスパラメータセット中の前記第2のスライスの前記スライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングすることをさらに備える、請求項1に記載の方法。
  10. データを復号するためのデバイスであって、
    テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
    前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
    第1のスライスを復号することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
    前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
    前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを復号した後で前記第2のスライスを復号することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
    を行うように構成されるビデオデコーダを備えるデバイス。
  11. 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項10に記載のデバイス。
  12. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項10に記載のデバイス。
  13. 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項10に記載のデバイス。
  14. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、請求項10に記載のデバイス。
  15. 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、請求項10に記載のデバイス。
  16. 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記ビデオデコーダは、さらに、
    前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定するように構成される、請求項10に記載のデバイス。
  17. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素の少なくとも1つを備える、請求項10に記載のデバイス。
  18. 前記ビデオコーダは、さらに、どのシンタックス要素がシーケンスパラメータセット中の前記第2のスライスの前記スライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングするように構成される、請求項10に記載のデバイス。
  19. 命令を記憶したコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記命令は、実行されると、ビデオ復号デバイスのプロセッサに、
    テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
    前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
    第1のスライスを復号することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
    前記第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
    前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを復号した後で前記第2のスライスを復号することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
    を行わせるコンピュータプログラム製品。
  20. 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項19に記載のコンピュータ可読記憶媒体。
  21. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項19に記載のコンピュータ可読記憶媒体。
  22. 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項19に記載のコンピュータ可読記憶媒体。
  23. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、請求項19に記載のコンピュータ可読記憶媒体。
  24. 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、請求項19に記載のコンピュータ可読記憶媒体。
  25. 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記命令はさらに、ビデオ復号デバイスのプロセッサに、
    前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定させる、請求項19に記載のコンピュータ可読記憶媒体。
  26. ビデオデータを処理するためのデバイスであって、
    テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信する手段と、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
    前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信する手段と、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
    第1のスライスを復号する手段と、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
    前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定する手段と、
    前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスをコーディングした後で前記第2のスライスを復号する手段と、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、デバイス。
  27. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項26に記載のデバイス。
  28. ビデオデータを符号化する方法であって、
    テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
    前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
    第1のスライスを符号化することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
    前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
    前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを符号化した後で前記第2のスライスを符号化することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
    を備える方法。
  29. 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項28に記載の方法。
  30. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項28に記載の方法。
  31. 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項28に記載の方法。
  32. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、請求項28に記載の方法。
  33. 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、請求項28に記載の方法。
  34. 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記方法は、
    前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定することをさらに備える、請求項28に記載の方法。
  35. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素の少なくとも1つを備える、請求項28に記載の方法。
  36. どのシンタックス要素がシーケンスパラメータセット中の前記第2のスライスの前記スライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングすることをさらに備える、請求項28に記載の方法。
  37. データを符号化するためのデバイスであって、
    テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
    前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
    第1のスライスを符号化することと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
    前記第1のスライスの前記スライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
    前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを符号化した後で前記第2のスライスを符号化することと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
    を行うように構成されるビデオエンコーダを備える、デバイス。
  38. 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項37に記載のデバイス。
  39. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項37に記載のデバイス。
  40. 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項37に記載のデバイス。
  41. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、請求項37に記載のデバイス。
  42. 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、請求項37に記載のデバイス。
  43. 前記第1のスライスは前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記ビデオエンコーダは、さらに、
    前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定するように構成される、請求項37に記載のデバイス。
  44. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのための、デブロッキングフィルタパラメータに関連するシンタックス要素と、適応ループフィルタリングパラメータに関連するシンタックス要素の少なくとも1つを備える、請求項37に記載のデバイス。
  45. 前記ビデオエンコーダは、さらに、
    どのシンタックス要素がシーケンスパラメータセット中の前記第2のスライスの前記スライスヘッダにおいて明示的にシグナリングされるかということの指示をシグナリングするように構成される、請求項37に記載のデバイス。
  46. 命令を記憶したコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記命令は、実行されると、ビデオ符号化デバイスのプロセッサに、
    テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信することと、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
    前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信することと、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方は、1つのビューと1つのアクセスユニットとに属し、
    第1のスライスをコーディングすることと、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
    前記第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定することと、
    前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスをコーディングした後で前記第2のスライスをコーディングすることと、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を除く、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、
    を行わせるコンピュータプログラム製品。
  47. 前記第2のスライスの前記スライスヘッダは、参照しているピクチャパラメータセットの識別情報の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項46に記載のコンピュータ可読記憶媒体。
  48. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項46に記載のコンピュータ可読記憶媒体。
  49. 前記第2のスライスの前記スライスヘッダは、前記コーディングされたブロックの開始位置の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項46に記載のコンピュータ可読記憶媒体。
  50. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスのフレーム番号と、ピクチャ順序カウントのうちの少なくとも1つを備える、請求項46に記載のコンピュータ可読記憶媒体。
  51. 前記第2のスライスの前記スライスヘッダは、参照ピクチャリスト構築に関連するシンタックス要素、各リストに対するアクティブな参照フレームの数、参照ピクチャリスト修正シンタックステーブル、および予測重みテーブルのうちの少なくとも1つを備える、請求項46に記載のコンピュータ可読記憶媒体。
  52. 前記第1のスライスが前記テクスチャスライスを備え、前記第2のスライスは前記深度スライスを備え、前記命令は、さらに、ビデオ符号化デバイスのプロセッサに、
    前記深度ビュー成分の開始位置が前記テクスチャスライスヘッダまたは前記深度スライスヘッダにおいてシグナリングされない場合、前記深度スライスの開始位置を0であると決定させる、請求項46に記載のコンピュータ可読記憶媒体。
  53. ビデオデータを処理するためのデバイスであって、
    テクスチャ情報を表すビデオデータの1つまたは複数のコーディングされたブロックと関連付けられるテクスチャビュー成分のテクスチャスライスを受信する手段と、前記テクスチャスライスは、前記符号化された1つまたは複数のブロックと、前記テクスチャスライスの特性を表すシンタックス要素を備えるテクスチャスライスヘッダとを備え、
    前記テクスチャビュー成分に対応する深度情報の1つまたは複数のコーディングされたブロックと関連付けられる深度ビュー成分の深度スライスを受信する手段と、前記深度スライスは、深度情報の前記1つまたは複数のコーディングされたブロックと、前記深度スライスの特性を表すシンタックス要素を備える深度スライスヘッダとを備え、前記深度ビュー成分と前記テクスチャビュー成分の両方が、ビューとアクセスユニットとに属し、
    第1のスライスを符号化する手段と、前記第1のスライスは、前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第1のスライスは、前記第1のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有し、
    前記第1のスライスのスライスヘッダから、第2のスライスのための共通のシンタックス要素を決定する手段と、
    前記決定された共通のシンタックス要素に少なくとも部分的に基づいて、前記第1のスライスを符号化した後で前記第2のスライスを符号化する手段と、前記第2のスライスは、前記第1のスライスではない前記テクスチャスライスと前記深度スライスのうちの1つを備え、前記第2のスライスは、前記第1のスライスに共通のシンタックス要素の値を繰り返すことなく、前記第2のスライスの特性を表すシンタックス要素を備えるスライスヘッダを有する、デバイス。
  54. 前記第2のスライスの前記スライスヘッダは、前記第2のスライスの量子化パラメータとピクチャパラメータセット中でシグナリングされる量子化パラメータとの間の量子化パラメータ差分の、少なくとも1つのシグナリングされるシンタックス要素を備える、請求項53に記載のデバイス。
JP2014522911A 2011-07-22 2012-07-20 3次元ビデオコーデックにおける深度マップのためのスライスヘッダ予測 Active JP5805871B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201161510738P 2011-07-22 2011-07-22
US61/510,738 2011-07-22
US201161522584P 2011-08-11 2011-08-11
US61/522,584 2011-08-11
US201161563772P 2011-11-26 2011-11-26
US61/563,772 2011-11-26
US201261624031P 2012-04-13 2012-04-13
US61/624,031 2012-04-13
US13/553,617 2012-07-19
US13/553,617 US11496760B2 (en) 2011-07-22 2012-07-19 Slice header prediction for depth maps in three-dimensional video codecs
PCT/US2012/047690 WO2013016225A1 (en) 2011-07-22 2012-07-20 Slice header prediction for depth maps in three-dimensional video codecs

Publications (2)

Publication Number Publication Date
JP2014527336A true JP2014527336A (ja) 2014-10-09
JP5805871B2 JP5805871B2 (ja) 2015-11-10

Family

ID=47555726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014522911A Active JP5805871B2 (ja) 2011-07-22 2012-07-20 3次元ビデオコーデックにおける深度マップのためのスライスヘッダ予測

Country Status (10)

Country Link
US (1) US11496760B2 (ja)
EP (1) EP2735150B1 (ja)
JP (1) JP5805871B2 (ja)
KR (1) KR101733852B1 (ja)
CN (1) CN103703778B (ja)
BR (1) BR112014001461B1 (ja)
CA (1) CA2842554C (ja)
ES (1) ES2548778T3 (ja)
RU (1) RU2562419C1 (ja)
WO (1) WO2013016225A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015509345A (ja) * 2012-02-01 2015-03-26 ノキア コーポレイション ビデオ符号化方法および装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2594077T3 (pl) 2010-07-15 2016-04-29 Ge Video Compression Llc Hybrydowe kodowanie wideo obsługujące syntezę widoku pośredniego
US20120268551A1 (en) * 2011-04-19 2012-10-25 Ben Wu Image Interaction Device, Interactive Image Operating System, and Interactive Image Operating Method thereof
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
US20130083846A1 (en) * 2011-09-29 2013-04-04 JVC Kenwood Corporation Image encoding apparatus, image encoding method, image encoding program, image decoding apparatus, image decoding method, and image decoding program
US9143802B2 (en) * 2011-10-31 2015-09-22 Qualcomm Incorporated Fragmented parameter set for video coding
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
JP2013198059A (ja) * 2012-03-22 2013-09-30 Sharp Corp 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム
US10205961B2 (en) 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
KR101775250B1 (ko) * 2012-09-28 2017-09-05 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
CN104704836B (zh) * 2012-10-03 2018-04-17 寰发股份有限公司 三维视频、多视图视频及可缩放视频的编码方法及装置
GB2512658B (en) * 2013-04-05 2020-04-01 British Broadcasting Corp Transmitting and receiving a composite image
WO2014163461A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US9729875B2 (en) * 2013-07-08 2017-08-08 Sony Corporation Palette coding mode
US20150063455A1 (en) * 2013-09-02 2015-03-05 Humax Holdings Co., Ltd. Methods and apparatuses for predicting depth quadtree in three-dimensional video
WO2015058397A1 (en) 2013-10-25 2015-04-30 Microsoft Technology Licensing, Llc Representing blocks with hash values in video and image coding and decoding
WO2015058395A1 (en) 2013-10-25 2015-04-30 Microsoft Technology Licensing, Llc Hash-based block matching in video and image coding
WO2015085449A1 (en) 2013-12-13 2015-06-18 Qualcomm Incorporated Signaling of simplified depth coding (sdc) for depth intra-and inter – prediction modes in 3d video coding
WO2015101329A1 (en) 2014-01-02 2015-07-09 Mediatek Singapore Pte. Ltd. Method and apparatus for intra prediction coding with boundary filtering control
WO2015131325A1 (en) 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Hash table construction and availability checking for hash-based block matching
US10368092B2 (en) * 2014-03-04 2019-07-30 Microsoft Technology Licensing, Llc Encoder-side decisions for block flipping and skip mode in intra block copy prediction
CN105706450B (zh) 2014-06-23 2019-07-16 微软技术许可有限责任公司 根据基于散列的块匹配的结果的编码器决定
CN115665423A (zh) 2014-09-30 2023-01-31 微软技术许可有限责任公司 用于视频编码的基于散列的编码器判定
US20160105678A1 (en) * 2014-10-13 2016-04-14 Microsoft Technology Licensing, Llc Video Parameter Techniques
US10506259B2 (en) * 2015-06-16 2019-12-10 Lg Electronics Inc. Method for encoding/decoding image, and device therefor
US11064195B2 (en) 2016-02-15 2021-07-13 Qualcomm Incorporated Merging filters for multiple classes of blocks for video coding
EP3236657A1 (en) * 2016-04-21 2017-10-25 Ultra-D Coöperatief U.A. Dual mode depth estimator
US10390039B2 (en) 2016-08-31 2019-08-20 Microsoft Technology Licensing, Llc Motion estimation for screen remoting scenarios
CN110024407B (zh) 2016-10-04 2021-10-15 有限公司B1影像技术研究所 图像数据编码/解码方法和装置
US11095877B2 (en) 2016-11-30 2021-08-17 Microsoft Technology Licensing, Llc Local hash-based motion estimation for screen remoting scenarios
US10506230B2 (en) 2017-01-04 2019-12-10 Qualcomm Incorporated Modified adaptive loop filter temporal prediction for temporal scalability support
US10986354B2 (en) * 2018-04-16 2021-04-20 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
WO2020181088A1 (en) 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, and device for generating multi-angle free-respective image data
RU2761768C1 (ru) * 2020-11-10 2021-12-13 Самсунг Электроникс Ко., Лтд. Способ оценки глубины сцены по изображению и вычислительное устройство для его реализации
US11202085B1 (en) 2020-06-12 2021-12-14 Microsoft Technology Licensing, Llc Low-cost hash table construction and hash-based block matching for variable-size blocks
CN113891060A (zh) * 2020-07-03 2022-01-04 阿里巴巴集团控股有限公司 自由视点视频重建方法及播放处理方法、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010073513A1 (ja) * 2008-12-26 2010-07-01 日本ビクター株式会社 画像符号化装置、画像符号化方法およびそのプログラム、ならびに画像復号装置、画像復号方法およびそのプログラム
JP2014514799A (ja) * 2011-03-10 2014-06-19 クゥアルコム・インコーポレイテッド マルチビュービデオプラス深度コンテンツのコーディング
JP2014517563A (ja) * 2011-06-15 2014-07-17 メディアテック インコーポレイテッド 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4758972A (en) 1986-06-02 1988-07-19 Raytheon Company Precision rounding in a floating point arithmetic unit
US5107705A (en) 1990-03-30 1992-04-28 Schlumberger Technology Corporation Video system and method for determining and monitoring the depth of a bottomhole assembly within a wellbore
US5329369A (en) 1990-06-01 1994-07-12 Thomson Consumer Electronics, Inc. Asymmetric picture compression
US5821986A (en) 1994-11-03 1998-10-13 Picturetel Corporation Method and apparatus for visual communications in a scalable network environment
US5852565A (en) 1996-01-30 1998-12-22 Demografx Temporal and resolution layering in advanced television
JP3466032B2 (ja) 1996-10-24 2003-11-10 富士通株式会社 動画像符号化装置および復号化装置
US6310919B1 (en) 1998-05-07 2001-10-30 Sarnoff Corporation Method and apparatus for adaptively scaling motion vector information in an information stream decoder
US6125147A (en) 1998-05-07 2000-09-26 Motorola, Inc. Method and apparatus for reducing breathing artifacts in compressed video
US6665344B1 (en) 1998-06-29 2003-12-16 Zenith Electronics Corporation Downconverting decoder for interlaced pictures
US6452969B1 (en) 1998-09-28 2002-09-17 Thomson Licensing S.A. Transform domain inverse motion compensation having fractional pel accuracy
GB2371625B (en) 2000-09-29 2003-09-10 Baker Hughes Inc Method and apparatus for prediction control in drilling dynamics using neural network
CA2413058C (en) 2001-11-27 2012-01-17 Samsung Electronics Co., Ltd. Node structure for representing 3-dimensional objects using depth image
KR100481732B1 (ko) 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
RU2314656C2 (ru) * 2002-06-11 2008-01-10 Нокиа Корпорейшн Внутреннее кодирование, основанное на пространственном прогнозировании
JP4154569B2 (ja) 2002-07-10 2008-09-24 日本電気株式会社 画像圧縮伸長装置
US7801217B2 (en) 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US8761252B2 (en) 2003-03-27 2014-06-24 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
US7001065B2 (en) 2003-05-05 2006-02-21 Ray Dishaw Oilfield thread makeup and breakout verification system and method
US20050041736A1 (en) 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
KR100596705B1 (ko) 2004-03-04 2006-07-04 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템
KR100586883B1 (ko) 2004-03-04 2006-06-08 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩방법, 프리디코딩방법, 비디오 디코딩방법, 및 이를 위한 장치와, 이미지 필터링방법
US7079156B1 (en) 2004-05-14 2006-07-18 Nvidia Corporation Method and system for implementing multiple high precision and low precision interpolators for a graphics pipeline
US7006700B2 (en) 2004-06-25 2006-02-28 Avocent Corporation Digital video compression command priority
CN101023672A (zh) 2004-07-12 2007-08-22 诺基亚公司 在可调整视频编码中用于运动预测的系统和方法
US20060012719A1 (en) 2004-07-12 2006-01-19 Nokia Corporation System and method for motion prediction in scalable video coding
KR100888963B1 (ko) 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US7616824B2 (en) 2004-12-08 2009-11-10 Ecole Polytechnique Fédérale de Lausanne (EPFL) CM - Ecublens Method for spatially scalable video coding
US8345762B2 (en) 2005-02-18 2013-01-01 Thomson Licensing Method for deriving coding information for high resolution pictures from low resolution pictures and coding and decoding devices implementing said method
US7925097B2 (en) 2005-02-18 2011-04-12 Sanyo Electric Co., Ltd. Image display method, image coding apparatus, and image decoding apparatus
US8660180B2 (en) 2005-04-01 2014-02-25 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
CN101176349B (zh) 2005-04-01 2010-09-01 Lg电子株式会社 可对视频信号缩放地进行编码和解码的方法
US20060233258A1 (en) 2005-04-15 2006-10-19 Microsoft Corporation Scalable motion estimation
CN101053249B (zh) 2005-09-09 2011-02-16 松下电器产业株式会社 图像处理方法、图像存储方法、图像处理装置及文件格式
US8239766B2 (en) 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
KR100825737B1 (ko) 2005-10-11 2008-04-29 한국전자통신연구원 스케일러블 비디오 코딩 방법 및 그 코딩 방법을 이용하는코덱
EP1946563A2 (en) 2005-10-19 2008-07-23 Thomson Licensing Multi-view video coding using scalable video coding
JP4991757B2 (ja) 2006-01-09 2012-08-01 エルジー エレクトロニクス インコーポレイティド 映像信号のエンコーディング/デコーディング方法
KR100943912B1 (ko) 2006-01-12 2010-03-03 엘지전자 주식회사 다시점 비디오의 처리 방법 및 장치
ITTO20060168A1 (it) 2006-03-07 2007-09-08 Itw Ind Components Srl Dispositivo di accensione e controllo di un fuoco in un elettrodomestico, in particolare un piano barbecue
AU2007243935A1 (en) 2006-03-29 2007-11-08 Thomson Licensing Multi view video coding method and device
WO2007136378A1 (en) 2006-05-23 2007-11-29 Halliburton Energy Services, Inc. Remote logging operations environment
JP4915992B2 (ja) 2006-09-12 2012-04-11 オリンパスイメージング株式会社 ズームレンズ
TWI332799B (en) 2006-09-13 2010-11-01 Realtek Semiconductor Corp A video data source system and an analog back end device
EP2090110A2 (en) 2006-10-13 2009-08-19 Thomson Licensing Reference picture list management syntax for multiple view video coding
JP5170786B2 (ja) 2006-10-25 2013-03-27 韓國電子通信研究院 マルチビュービデオのスケーラブルコーディングおよびデコーディング方法、ならびにコーディングおよびデコーディング装置
EP1933564A1 (en) 2006-12-14 2008-06-18 Thomson Licensing Method and apparatus for encoding and/or decoding video data using adaptive prediction order for spatial and bit depth prediction
US7606666B2 (en) 2007-01-29 2009-10-20 Schlumberger Technology Corporation System and method for performing oilfield drilling operations using visualization techniques
TW200845758A (en) 2007-05-03 2008-11-16 Nat Univ Chung Cheng Fast intra coding algorithms for dynamic definition adjustment
KR20100014552A (ko) 2007-03-23 2010-02-10 엘지전자 주식회사 비디오 신호의 인코딩/디코딩 방법 및 장치
US8160149B2 (en) 2007-04-03 2012-04-17 Gary Demos Flowfield motion compensation for video compression
CN101647287B (zh) 2007-04-04 2013-10-30 汤姆森特许公司 参考画面列表的管理
ES2858578T3 (es) 2007-04-12 2021-09-30 Dolby Int Ab Organización en mosaico en codificación y decodificación de vídeo
EP2149262A4 (en) 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
WO2008147125A1 (en) 2007-05-29 2008-12-04 Lg Electronics Inc. A method and an apparatus for processing a video signal
WO2009023091A2 (en) 2007-08-15 2009-02-19 Thomson Licensing Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
BRPI0818444A2 (pt) 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
DE102007049351A1 (de) * 2007-10-15 2009-04-16 Siemens Ag Verfahren und Vorrichtung zum Erstellen eines kodierten Ausgangsvideostroms aus mindestens zwei kodierten Eingangsvideoströmen, sowie Verwendung der Vorrichtung und kodierter Eingangsvideostrom
US7878268B2 (en) 2007-12-17 2011-02-01 Schlumberger Technology Corporation Oilfield well planning and operation
EP2232875A2 (en) 2008-01-11 2010-09-29 Thomson Licensing Video and depth coding
US8577660B2 (en) 2008-01-23 2013-11-05 Schlumberger Technology Corporation Three-dimensional mechanical earth modeling
PL2835976T3 (pl) 2008-04-16 2017-04-28 Ge Video Compression, Llc Skalowalność głębi bitowej
US8527248B2 (en) 2008-04-18 2013-09-03 Westerngeco L.L.C. System and method for performing an adaptive drilling operation
WO2009130561A1 (en) 2008-04-21 2009-10-29 Nokia Corporation Method and device for video coding and decoding
TW200945909A (en) 2008-04-22 2009-11-01 Novatek Microelectronics Corp Synchronization signal extraction device and related method
US9973739B2 (en) 2008-10-17 2018-05-15 Nokia Technologies Oy Sharing of motion vector in 3D video coding
KR101625058B1 (ko) 2008-11-10 2016-05-27 엘지전자 주식회사 시점간 예측을 이용한 비디오 신호 처리 방법 및 장치
US8760495B2 (en) 2008-11-18 2014-06-24 Lg Electronics Inc. Method and apparatus for processing video signal
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
CA2748487C (en) 2008-12-30 2018-09-18 Occidental Permian Ltd. Mobile platform for monitoring a wellsite
US8514942B2 (en) 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
EP2387243A4 (en) 2009-01-12 2012-12-26 Lg Electronics Inc DEPTH INFORMATION USING VIDEO SIGNAL PROCESSING METHOD AND DEVICE
BRPI1007163A2 (pt) 2009-01-26 2018-09-25 Thomson Licensing compactação de quadro para codificação de vídeo
CN104780384B (zh) 2009-01-29 2018-01-16 杜比实验室特许公司 解码视频帧的序列的方法、编码多视图帧的序列的方法
WO2010096189A1 (en) 2009-02-19 2010-08-26 Thomson Licensing 3d video formats
US20100246683A1 (en) 2009-03-27 2010-09-30 Jennifer Lois Harmon Webb Error Resilience in Video Decoding
US20100260268A1 (en) 2009-04-13 2010-10-14 Reald Inc. Encoding, decoding, and distributing enhanced resolution stereoscopic video
JP5416271B2 (ja) 2009-04-20 2014-02-12 ドルビー ラボラトリーズ ライセンシング コーポレイション 多層映像配信のための適応補間フィルタ
US8773505B2 (en) 2009-04-27 2014-07-08 Lg Electronics Inc. Broadcast receiver and 3D video data processing method thereof
KR20120081022A (ko) 2009-05-01 2012-07-18 톰슨 라이센싱 3d 비디오 코딩 포맷
KR101353115B1 (ko) 2009-08-03 2014-01-21 제너럴 인스트루먼트 코포레이션 비디오 컨텐트를 인코딩하는 방법
KR101624649B1 (ko) 2009-08-14 2016-05-26 삼성전자주식회사 계층적인 부호화 블록 패턴 정보를 이용한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101636539B1 (ko) 2009-09-10 2016-07-05 삼성전자주식회사 입체영상 압축 처리 방법 및 장치
US10198792B2 (en) 2009-10-14 2019-02-05 Dolby Laboratories Licensing Corporation Method and devices for depth map processing
KR101631451B1 (ko) 2009-11-16 2016-06-20 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101703327B1 (ko) 2010-01-14 2017-02-06 삼성전자 주식회사 계층적 데이터 단위의 패턴 정보를 이용하는 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
US8938011B2 (en) 2010-01-27 2015-01-20 Dolby Laboratories Licensing Corporation Methods and systems for reference processing in image and video codecs
WO2011100735A1 (en) 2010-02-15 2011-08-18 Thomson Licensing Apparatus and method for processing video content
KR101752418B1 (ko) 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
HUE025960T2 (en) 2010-04-13 2016-04-28 Ge Video Compression Llc Video coding using multi-tree subdivisions of images
WO2012006299A1 (en) 2010-07-08 2012-01-12 Dolby Laboratories Licensing Corporation Systems and methods for multi-layered image and video delivery using reference processing signals
US20120079583A1 (en) 2010-09-23 2012-03-29 Microsoft Corporation Offload reads and writes
US20120075436A1 (en) 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
WO2012042893A1 (ja) 2010-09-30 2012-04-05 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラムおよび集積回路
US9035939B2 (en) 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
WO2012106347A1 (en) 2011-02-01 2012-08-09 Halliburton Energy Services, Inc. Drilling optimization
CN107371030B (zh) 2011-02-09 2020-04-14 Lg 电子株式会社 通过解码装置进行帧间预测的方法和通过编码装置的图像编码方法
JP4893862B1 (ja) 2011-03-11 2012-03-07 オムロン株式会社 画像処理装置、および画像処理方法
US20120274664A1 (en) 2011-04-29 2012-11-01 Marc Fagnou Mobile Device Application for Oilfield Data Visualization
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US20130188013A1 (en) 2011-07-22 2013-07-25 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode
JP5749595B2 (ja) 2011-07-27 2015-07-15 日本電信電話株式会社 画像伝送方法、画像伝送装置、画像受信装置及び画像受信プログラム
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
EP3739886A1 (en) 2011-11-18 2020-11-18 GE Video Compression, LLC Multi-view coding with efficient residual handling
US20130127987A1 (en) 2011-11-18 2013-05-23 Qualcomm Incorporated Signaling depth ranges for three-dimensional video coding
KR101669524B1 (ko) 2012-02-01 2016-11-09 노키아 테크놀로지스 오와이 비디오 코딩을 위한 방법 및 장치
US9584711B2 (en) 2012-04-04 2017-02-28 Schlumberger Technology Corporation Imaging methods and systems for controlling equipment in remote environments
US20130287093A1 (en) 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
US20140218473A1 (en) 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010073513A1 (ja) * 2008-12-26 2010-07-01 日本ビクター株式会社 画像符号化装置、画像符号化方法およびそのプログラム、ならびに画像復号装置、画像復号方法およびそのプログラム
JP2014514799A (ja) * 2011-03-10 2014-06-19 クゥアルコム・インコーポレイテッド マルチビュービデオプラス深度コンテンツのコーディング
JP2014517563A (ja) * 2011-06-15 2014-07-17 メディアテック インコーポレイテッド 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7014002706; 'Applications and Requirements on 3D Video Coding' ISO/IEC JTC1/SC29/WG11 MPEG2011/N12035 , 201103 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015509345A (ja) * 2012-02-01 2015-03-26 ノキア コーポレイション ビデオ符号化方法および装置

Also Published As

Publication number Publication date
ES2548778T3 (es) 2015-10-20
KR20140046028A (ko) 2014-04-17
RU2014106718A (ru) 2015-08-27
BR112014001461B1 (pt) 2021-08-03
US11496760B2 (en) 2022-11-08
RU2562419C1 (ru) 2015-09-10
EP2735150B1 (en) 2015-08-19
CA2842554C (en) 2016-09-06
CN103703778A (zh) 2014-04-02
US20130022113A1 (en) 2013-01-24
BR112014001461A2 (pt) 2017-02-21
WO2013016225A1 (en) 2013-01-31
CN103703778B (zh) 2017-03-22
EP2735150A1 (en) 2014-05-28
KR101733852B1 (ko) 2017-05-08
JP5805871B2 (ja) 2015-11-10
CA2842554A1 (en) 2013-01-31

Similar Documents

Publication Publication Date Title
JP5805871B2 (ja) 3次元ビデオコーデックにおける深度マップのためのスライスヘッダ予測
JP6022652B2 (ja) スライスヘッダ予測のためのスライスヘッダ三次元映像拡張
JP6026534B2 (ja) 深度範囲の変動を伴う動き深度マップのコーディング
JP5698391B2 (ja) マルチビュービデオプラス深度コンテンツのコーディング
US20120236934A1 (en) Signaling of multiview video plus depth content with a block-level 4-component structure
US20130271565A1 (en) View synthesis based on asymmetric texture and depth resolutions

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150902

R150 Certificate of patent or registration of utility model

Ref document number: 5805871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250