JP2018507622A - ビデオコーディングのためのクロス成分予測および適応色変換のためのクリッピング - Google Patents

ビデオコーディングのためのクロス成分予測および適応色変換のためのクリッピング Download PDF

Info

Publication number
JP2018507622A
JP2018507622A JP2017540094A JP2017540094A JP2018507622A JP 2018507622 A JP2018507622 A JP 2018507622A JP 2017540094 A JP2017540094 A JP 2017540094A JP 2017540094 A JP2017540094 A JP 2017540094A JP 2018507622 A JP2018507622 A JP 2018507622A
Authority
JP
Japan
Prior art keywords
residual data
video
data
transform
bit depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017540094A
Other languages
English (en)
Other versions
JP6608454B2 (ja
JP2018507622A5 (ja
Inventor
シェ、チェン−テー
セレジン、バディム
チェン、ジャンレ
ジョーシー、ラジャン・ラクスマン
ラパカ、クリシュナカント
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2018507622A publication Critical patent/JP2018507622A/ja
Publication of JP2018507622A5 publication Critical patent/JP2018507622A5/ja
Application granted granted Critical
Publication of JP6608454B2 publication Critical patent/JP6608454B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/02Colour television systems with bandwidth reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/04Colour television systems using pulse code modulation
    • H04N11/042Codec means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/04Colour television systems using pulse code modulation
    • H04N11/042Codec means
    • H04N11/044Codec means involving transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/24High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2383Channel coding or modulation of digital bit-stream, e.g. QPSK modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6181Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Discrete Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

ビデオデータを符号化または復号するためのデバイスが、第1の残差データのビット深度に基づいて第1の残差データをクリッピングし得る。デバイスは、第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成し得る。さらに、デバイスは、第2の残差データに基づいて、ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成し得る。【選択図】図12

Description

[0001] 本出願は、各々の内容全体が参照により本明細書に組み込まれる、2015年1月30日に出願された米国仮特許出願第62/110,324号、2015年2月6日に出願された米国仮特許出願第62/113,269号、および2015年2月12日に出願された米国仮特許出願第62/115,487号の恩恵を主張する。
[0002] 本開示は、ビデオコーディングに関する。
[0003] デジタルビデオ能力は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part 10,アドバンストビデオコーディング(AVC)、ITU−T H.265、高効率ビデオコーディング(HEVC)によって定義された規格、並びにスケーラブルビデオコーディング(SVC)、マルチビュービデオコーディング(MVC)、スケーラブルHEVC(SHVC)、マルチビューHEVC(MV−HEVC)、3D−HEVC、およびHEVC範囲拡張など、そのような規格の拡張に記載されているビデオコーディング技法など、ビデオコーディング技法を実施する。ビデオデバイスは、そのようなビデオコーディング技法を実施することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0004] ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するために空間的(ピクチャ内)予測および/または時間的(ピクチャ間)予測を含む。ブロックベースのビデオコーディングの場合、ビデオスライス(例えば、ビデオフレームまたはビデオフレームの一部分)は、ツリーブロック、コーディングツリーユニット(CTU)、コーディングユニット(CU)および/またはコーディングノードと呼ばれることもあるビデオブロックに区分され得る。ビデオブロックはルーマブロックとクロマブロックとを含み得る。ピクチャのイントラコード化(I)スライス中では、ブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0005] 空間的または時間的予測は、コーディングされるべきブロックの予測ブロックを生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルと、コード化ブロックと予測ブロックとの間の差分を示す残差データとに従って符号化される。イントラコード化ブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データはピクセル領域から変換領域に変換されて残差変換係数が得られ得、その残差変換係数は、次いで量子化され得る。量子化された変換係数は、なお一層の圧縮を達成するためにエントロピーコーディングされ得る。
[0006] 本開示は、ビデオコーディングの分野に関係し、より詳細には、適応色変換(ACT:adaptive color transform)およびクロス成分予測(CCP:cross component prediction)などのツールが適用されるときのビット深度の考慮に関係する。本開示の特定の技法は、ACTとCCPとの適用によるサンプルのビット深度の増加を緩和するか、なくすか、またはそうでなく制御し得る。
[0007] 一態様では、本開示では、ビデオデータを符号化または復号する方法について説明し、本方法は、第1の残差データのビット深度に基づいて第1の残差データを可変範囲にクリッピングすることと、クリッピングされた第1の残差データに逆適応色変換(IACT:inverse Adaptive Color Transform)を適用することに少なくとも部分的によって第2の残差データを生成することと、第2の残差データに基づいて、ビデオデータのコーディングユニット(CU:coding unit)のコーディングブロックを再構成することとを備える。
[0008] 別の態様では、本開示では、ビデオデータを符号化または復号するためのデバイスについて説明し、本デバイスは、ビデオデータを記憶するように構成されたメモリと、第1の残差データのビット深度に基づいて第1の残差データを可変範囲にクリッピングすることと、クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の逆変換された残差データを生成することと、第2の逆変換された残差データに基づいて、ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成することとを行うように構成された1つまたは複数のプロセッサとを備える。
[0009] 別の態様では、本開示では、ビデオデータを符号化または復号するためのデバイスについて説明し、本デバイスは、第1の残差データのビット深度に基づいて第1の残差データを可変範囲にクリッピングするための手段と、クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成するための手段と、第2の逆変換された残差データに基づいて、ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成するための手段とを備える。
[0010] 別の態様では、本開示では、命令を記憶したコンピュータ可読記憶媒体について説明し、命令は実行されたとき、ビデオデータを符号化または復号するためのデバイスの1つまたは複数のプロセッサに、第1の残差データのビット深度に基づいて第1の残差データを可変範囲にクリッピングすることと、クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成することと、第2の残差データに基づいて、ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成することとを行わせる。
[0011] 本開示の1つまたは複数の例の詳細が添付の図面および以下の説明に記載されている。他の特徴、目的、および利点は、説明、図面、および特許請求の範囲から明らかになろう。
本開示の技法を利用し得る例示的なビデオコーディングシステムを示すブロック図。 例示的な適応色変換(ACT)およびクロス成分予測(CCP)処理順序を示す概念図。 例示的な高効率ビデオコーディング(HEVC)コード化入出力(IO)ビット深度を示す概念図。 CCPを使用するスクリーンコンテンツコーディングの構成のための例示的なビット深度情報を示す概念図。 ACTとCCPとを使用するスクリーンコンテンツコーディングの構成のための例示的なビット深度情報を示す概念図。 本開示の1つまたは複数の技法による、CCPのみを用いた、順CCPの後のクリッピングを示す概念図。 本開示の1つまたは複数の技法による、CCPのみを用いた、順CCPの後のクリッピングに起因する動的範囲変化を示す概念図。 本開示の1つまたは複数の技法による、ACTとCCPとを用いた、順CCPの後のクリッピングを示す概念図。 本開示の1つまたは複数の技法による、ACTとCCPとを用いた、順CCPの後のクリッピングに起因する動的範囲変化を示す概念図。 本開示の1つまたは複数の技法による、ビデオデコーダにおける例示的なクリッピングロケーションを示す概念図。 図6Aに示されたクリッピングロケーションにおけるクリッピングの一例を示す概念図。 図6Aに示されたクリッピングロケーションにおけるクリッピングの一例を示す概念図。 図6Aに示されたクリッピングロケーションにおけるクリッピングの一例を示す概念図。 本開示の1つまたは複数の技法による、前のモジュールが逆CCP(ICCP)に関する場合の、逆ACT入力におけるクリッピングの一例を示す概念図。 本開示の1つまたは複数の技法による、前のモジュールが逆変換に関する場合の、逆ACT入力におけるクリッピングの一例を示す概念図。 本開示の1つまたは複数の技法による、ICCPへの入力が制約を受ける、例示的な一連の変換を示す概念図。 本開示の1つまたは複数の技法による、IACTへの入力が制約を受ける、例示的な一連の変換を示す概念図。 本開示の1つまたは複数の技法による、図9Aと図9Bとの凝縮形態を示す例示的な一連の変換を示す概念図。 本開示の1つまたは複数の態様に従って技法を行い得るビデオエンコーダの一例を示すブロック図。 本開示の1つまたは複数の態様に従って技法を行い得るビデオデコーダの一例を示すブロック図。 本開示の技法による、ビデオコーダの例示的な動作を示すフローチャート。
[0033] 高効率ビデオコーディング(HEVC)は、最近確定されたビデオコーディング規格である。スクリーンコンテンツコーディング(SCC)のためのHEVCの拡張は開発中である。HEVCのSCC拡張は、色成分間の冗長性を低減するために適応色変換(ACT)およびクロス成分予測(CCP)変換を実施する。概して、本開示は、ビデオコーディングの分野に関係し、より詳細には、ACTおよびCCPなどのツールが適用されるときのビット深度の考慮に関係する。提案される技法は、主にSCCに関係するが、(例えば、8ビットよりも大きい)高いビット深度、様々なクロマサンプリングフォーマットなどをサポートするものを含む、HEVC拡張および他のビデオコーディング規格に概して適用可能であり得る。
[0034] HEVCのSCC拡張では、ビデオエンコーダは、ビデオデータのコーディングブロックのサンプルと予測ブロックの対応するサンプルとの間の差分を示す残差データを生成し得る。ビデオエンコーダは、次いで、残差データにACTを適用して、変換された残差データの第1のセットを取得し得る。ビデオエンコーダは、次いで、変換された残差データの第1のセットにCCP変換を適用して、変換された残差データの第2のセットを取得し得る。その後、ビデオエンコーダは、変換された残差データの第2のセットに、離散コサイン変換(DCT)などの変換(T)を適用して、変換された残差データの第3のセットを取得し得る。変換された残差データの第1および第2のセットとは対照的に、変換された残差データの第3のセットは、サンプル領域ではなく周波数領域中にあり得る。「周波数領域」中の残差データは、異なる周波数で振動している関数(例えば、コサインまたはサイン関数)に関して表される。「サンプル領域」中の残差データは、ルーマまたはクロマ値など、ビデオデータのサンプルの値に関して表される。ビデオエンコーダは、次いで、変換された残差データの第3のセットを量子化し得る。
[0035] ビデオデコーダはこのプロセスを反転させ得る。例えば、ビデオデコーダは、変換された残差データの量子化された第3のセットを示すシンタックス要素を取得し得る。ビデオデコーダは、次いで、変換された残差データの第3のセットを逆量子化して、変換された残差データの第3のセットを再生成し得る。次に、ビデオデコーダは、逆DCTなどの逆変換(IT:inverse transform)を適用して、変換された残差データの第2のセットを再生成し得る。ビデオデコーダは、次いで、変換された残差データの再生成された第2のセットに逆CCP(ICCP)変換を適用して、変換された残差データの第1のセットを再生成し得る。その後、ビデオデコーダは、変換された残差データの再生成された第1のセットに逆ACT(IACT)を適用して、残差データを再生成し得る。ビデオデコーダは、再生成された残差データと予測ブロックとに基づいてコーディングブロックを再構成し得る。
[0036] 上記で概説したプロセスでは、変換された残差データの再生成された第2のセット(すなわち、ITの出力)の各サンプルは、コーディングブロックのサンプルの元のビット深度よりも7ビット大きいビット深度を有する。このコンテキストでは、「ビット深度」という用語は、単一のサンプルを表すために使用されるビット数を意味する。さらに、変換された残差データの再生成された第2のセット(すなわち、ICCP変換の出力)の各サンプルは、コーディングブロックのサンプルの元のビット深度よりも8ビット大きいビット深度を有する。変換された残差データの再生成された第1のセット(すなわち、IACTの出力)の各サンプルは、コーディングブロックのサンプルの元のビット深度よりも9ビット大きいビット深度を有する。
[0037] ACTおよびCCP変換を使用することに関連するビット深度の増加は、ビデオエンコーダおよびビデオデコーダのための実施複雑さとコストとを増加させ得る。例えば、ビデオエンコーダとビデオデコーダとのハードウェア実施形態では、変換された残差データのサンプルを搬送し記憶するためのデータ経路は、より多くのチャネルおよび/または記憶ロケーションを必要とし得る。
[0038] 本開示では、ビデオコーディングにおいてACTおよびCCP変換を使用することに関連するビット深度の増加を緩和するかまたはなくすいくつかの技法について説明する。例えば、ビデオデータを復号するためのプロセスの一部として、ビデオデコーダは、第1の残差データのビット深度に基づいて第1の残差データを可変範囲にクリッピングし得る。クリッピングは、値が上限値を超えた場合、その値を上限値に設定するか、または値が下限値よりも小さい場合、その値を下限値に設定するプロセスを指し得る。いくつかの例では、ビデオデコーダは、ICCPを適用して第1の残差データを生成し得る。いくつかの例では、ビデオデコーダは、ICCPを適用することなしに、変換領域からサンプル領域への変換を適用して、第1の残差データを生成し得る。次に、ビデオデコーダは、クリッピングされた入力にIACTを適用することに少なくとも部分的によって第2の残差データを生成し得る。このようにして、ビデオデコーダは、IACTへの入力のビット深度に基づいてIACTへの入力をクリッピングし得る。ビデオデコーダは、第2の残差データに基づいて、ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成し得る。例えば、ビデオデコーダは、第2の残差データ中のサンプルに対応するコーディングブロックのそれぞれのサンプルごとに、コーディングブロックのそれぞれのサンプルが、第2の残差データ中の対応するサンプル+CUの予測ユニット(PU)の予測ブロック中の対応するサンプルに等しくなるように、CUのコーディングブロックを再構成し得る。ビデオエンコーダは、ビデオエンコーダの再構成ループ(すなわち、復号ループ)の一部として同じまたは同様のプロセスを行い得る。有利には、この例で説明したプロセスは、ACTおよび/またはCCPを使用しているとき、ビット深度が特定の数を超えて増加することを防ぎ得る。
[0039] 図1は、本開示の技法を利用し得る例示的なビデオコーディングシステム10を示すブロック図である。本明細書で使用する「ビデオコーダ」という用語は、ビデオエンコーダとビデオデコーダの両方を総称的に指す。本開示では、「ビデオコーディング」または「コーディング」という用語は、ビデオ符号化またはビデオ復号を総称的に指し得る。ビデオコーディングシステム10のビデオエンコーダ20およびビデオデコーダ30は、本開示で説明する様々な例に従ってビデオコーディングのための技法を行うように構成され得るデバイスの例を表す。
[0040] 図1に示されているように、ビデオコーディングシステム10は、ソースデバイス12と、宛先デバイス14とを含む。ソースデバイス12は符号化ビデオデータを生成する。従って、ソースデバイス12はビデオ符号化デバイスまたはビデオ符号化装置と呼ばれることがある。宛先デバイス14は、ソースデバイス12によって生成された符号化ビデオデータを復号し得る。従って、宛先デバイス14はビデオ復号デバイスまたはビデオ復号装置と呼ばれることがある。ソースデバイス12および宛先デバイス14は、ビデオコーディングデバイスまたはビデオコーディング装置の例であり得る。
[0041] ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、モバイルコンピューティングデバイス、ノートブック(例えば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、車内コンピュータなどを含む、広範囲にわたるデバイスを備え得る。
[0042] 宛先デバイス14は、チャネル16を介してソースデバイス12から符号化ビデオデータを受信し得る。チャネル16は、ソースデバイス12から宛先デバイス14に符号化ビデオデータを移動することが可能な1つまたは複数の媒体またはデバイスを備え得る。一例では、チャネル16は、ソースデバイス12が符号化ビデオデータを宛先デバイス14にリアルタイムで直接送信することを可能にする1つまたは複数の通信媒体を備え得る。この例では、ソースデバイス12は、ワイヤレス通信プロトコルなどの通信規格に従って符号化ビデオデータを変調し得、変調されたビデオデータを宛先デバイス14に送信し得る。1つまたは複数の通信媒体は、無線周波数(RF)スペクトルまたは1つもしくは複数の物理伝送線路など、ワイヤレスおよび/またはワイヤード通信媒体を含み得る。1つまたは複数の通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはグローバルネットワーク(例えば、インターネット)など、パケットベースネットワークの一部を形成し得る。1つまたは複数の通信媒体は、ソースデバイス12から宛先デバイス14への通信を可能にする、ルータ、スイッチ、基地局、または他の機器を含み得る。
[0043] 別の例では、チャネル16は、ソースデバイス12によって生成された符号化ビデオデータを記憶する記憶媒体を含み得る。この例では、宛先デバイス14は、例えば、ディスクアクセスまたはカードアクセスを介して、記憶媒体にアクセスし得る。記憶媒体は、Blu−ray(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、または符号化ビデオデータを記憶するための他の好適なデジタル記憶媒体など、様々なローカルにアクセスされるデータ記憶媒体を含み得る。
[0044] さらなる例では、チャネル16は、ソースデバイス12によって生成された符号化ビデオデータを記憶するファイルサーバまたは別の中間記憶デバイスを含み得る。この例では、宛先デバイス14は、ストリーミングまたはダウンロードを介して、ファイルサーバまたは他の中間記憶デバイスに記憶された符号化ビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶すること、および符号化ビデオデータを宛先デバイス14に送信することが可能なタイプのサーバであり得る。例示的なファイルサーバとしては、(例えば、ウェブサイトのための)ウェブサーバ、ファイル転送プロトコル(FTP)サーバ、ネットワーク接続ストレージ(NAS)デバイス、およびローカルディスクドライブがある。
[0045] 宛先デバイス14は、インターネット接続などの標準的なデータ接続を通して符号化ビデオデータにアクセスし得る。例示的なタイプのデータ接続としては、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適である、ワイヤレスチャネル(例えば、Wi−Fi(登録商標)接続)、ワイヤード接続(例えば、DSL、ケーブルモデムなど)、またはその両方の組合せがあり得る。ファイルサーバからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはその両方の組合せであり得る。
[0046] 本開示の技法はワイヤレス適用例または設定に限定されない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、例えばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのビデオデータの符号化、データ記憶媒体に記憶されたビデオデータの復号、または他の適用例など、様々なマルチメディア適用例をサポートするビデオコーディングに適用され得る。いくつかの例では、ビデオコーディングシステム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、単方向または双方向のビデオ送信をサポートするように構成され得る。
[0047] 図1に示されているビデオコーディングシステム10は一例にすぎず、本開示の技法は、符号化デバイスと復号デバイスとの間のデータ通信を必ずしも含むとは限らないビデオコーディング設定(例えば、ビデオ符号化またはビデオ復号)に適用され得る。他の例では、データが、ローカルメモリから取り出されること、ネットワークを介してストリーミングされることなどが行われる。ビデオ符号化デバイスはデータを符号化し、メモリに記憶し得、および/またはビデオ復号デバイスはメモリからデータを取り出し、復号し得る。多くの例では、符号化および復号は、互いに通信しないが、メモリにデータを符号化し、および/またはメモリからデータを取り出し、復号するだけのデバイスによって行われる。ビデオエンコーダ20およびビデオデコーダ30は、ビデオデータを記憶するように構成されたメモリを備え得る。ビデオエンコーダ20は、メモリに記憶されたビデオデータを符号化し得る。ビデオデコーダ30は、符号化ビデオデータを復号し、得られたビデオデータをメモリに記憶し得る。
[0048] 図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、出力インターフェース22とを含む。いくつかの例では、出力インターフェース22は、変調器/復調器(モデム)および/または送信機を含み得る。ビデオソース18は、ビデオキャプチャデバイス、例えば、ビデオカメラ、以前にキャプチャされたビデオデータを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオデータを受信するためのビデオフィードインターフェース、および/またはビデオデータを生成するためのコンピュータグラフィックスシステム、あるいはビデオデータのそのようなソースの組合せを含み得る。
[0049] ビデオエンコーダ20は、ビデオソース18からのビデオデータを符号化し得る。いくつかの例では、ソースデバイス12は、出力インターフェース22を介して宛先デバイス14に符号化ビデオデータを直接送信する。他の例では、符号化ビデオデータは、復号および/または再生のための宛先デバイス14による後のアクセスのために記憶媒体またはファイルサーバ上にも記憶され得る。
[0050] 図1の例では、宛先デバイス14は、入力インターフェース28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。いくつかの例では、入力インターフェース28は、受信機および/またはモデムを含む。入力インターフェース28は、チャネル16を介して符号化ビデオデータを受信し得る。ディスプレイデバイス32は、宛先デバイス14と一体化され得るか、またはその外部にあり得る。概して、ディスプレイデバイス32は復号ビデオデータを表示する。ディスプレイデバイス32は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの、様々なディスプレイデバイスを備え得る。
[0051] ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ハードウェアなど、様々な好適な回路のいずれか、あるいはそれらの任意の組合せとして実施され得る。本技法が部分的にソフトウェアで実施された場合、デバイスは、好適な非一時的コンピュータ可読記憶媒体にソフトウェアの命令を記憶し得、本開示の技法を行うために1つまたは複数のプロセッサを使用してその命令をハードウェアで実行し得る。(ハードウェア、ソフトウェア、ハードウェアとソフトウェアとの組合せなどを含む)上記のいずれも、1つまたは複数のプロセッサであると見なされ得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合エンコーダ/デコーダ(コーデック)の一部として組み込まれ得る。
[0052] 本開示は、概して、ビデオエンコーダ20が、ある情報をビデオデコーダ30などの別のデバイスに「シグナリングすること」または「送信すること」に言及することがある。「シグナリングすること」または「送信すること」という用語は、概して、圧縮されたビデオデータを復号するために使用されるシンタックス要素および/または他のデータの通信を指すことがある。そのような通信は、リアルタイムまたはほぼリアルタイムに行われ得る。代替的に、そのような通信は、符号化時に符号化ビットストリーム中でシンタックス要素をコンピュータ可読記憶媒体に記憶するときに行われることがあるなど、ある時間期間にわたって行われ得、次いで、これらの要素は、この媒体に記憶された後の任意の時間に復号デバイスによって取り出され得る。
[0053] 図1の例では、ソースデバイス12および宛先デバイス14は、ワイヤレス通信デバイスをそれぞれ備え得る。ソースデバイス12は、ソースデバイス12の1つまたは複数のプロセッサに通信可能に結合された送信機を備え得る。言い換えれば、ソースデバイス12の1つまたは複数のプロセッサは、ソースデバイス12の1つまたは複数のプロセッサが送信機と通信することを可能にする方法で直接または間接的に送信機に結合され得る。出力インターフェース22は送信機を備え得る。送信機は、ビデオデータの符号化表現を備えるビットストリームを送信するように構成され得る。例えば、ビデオデータのこの符号化表現は、コーディングユニットの符号化表現を備え得る。同様に、宛先デバイス14は、宛先デバイス14の1つまたは複数のプロセッサに通信可能に結合された受信機を備え得る。言い換えれば、宛先デバイス14の1つまたは複数のプロセッサは、宛先デバイス14の1つまたは複数のプロセッサが受信機と通信することを可能にする方法で直接または間接的に受信機に結合され得る。入力インターフェース28は受信機を備え得る。受信機は、ビデオデータの符号化表現を備えるビットストリームを受信するように構成され得る。いくつかの例では、ワイヤレス通信デバイスはセルラー電話であり、ビットストリームはセルラー通信規格に従って変調される。そのような例では、ビットストリームは送信機によって送信され得るか、またはビットストリームは受信機によって受信され得る。
[0054] 最近では、新しいビデオコーディング規格、すなわち、高効率ビデオコーディング(HEVC)の設計が、ITU−Tビデオコーディングエキスパートグループ(VCEG)とISO/IECモーションピクチャエキスパートグループ(MPEG)とのジョイントコラボレーションチームオンビデオコーディング(JCT−VC:Joint Collaboration Team on Video Coding)によって確定された。いくつかの例では、ビデオエンコーダ20およびビデオデコーダ30は、HEVC規格などのビデオ圧縮規格に従って動作する。Wangら、「High Efficiency Video Coding (HEVC) Defect Report 2」、ITU−T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11とのジョイントコラボレーティブチームオンビデオコーディング(JCT−VC)、第15回会合:ジュネーブ、スイス、2013年10月23日〜11月1日、http://phenix.int−evry.fr/jct/doc_end_user/documents/15_Geneva/wg11/JCTVC−O1003−v2.zipから入手可能なドキュメントJCTVC−01003_v2は、HEVCドラフト仕様書であり、以下でHEVC WDと呼ばれる。Wangら、「High Efficiency Video Coding (HEVC) Defect Report 4」、ITU−T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11とのジョイントコラボレーティブチームオンビデオコーディング(JCT−VC)、第17回会合:バレンシア、スペイン、2014年3月27日〜4月4日、http://phenix.int−evry.fr/jct/doc_end_user/documents/17_Valencia/wg11/JCTVC−Q1003−v1.zipから入手可能なドキュメントJCTVC−Q1003(v.1)(以下、HEVCバージョン1)は、HEVC規格について説明している別のドキュメントである。http://www.itu.int/rec/T−REC−H.265−201304−Iから入手可能な、Recommendation ITU−T H.265、High Efficiency Video Codingは、最新のHEVC仕様を含んでいる別のドキュメントである。ベースHEVC規格に加えて、HEVCのためのスケーラブルビデオコーディング拡張と、マルチビュービデオコーディング拡張と、3Dコーディング拡張とを作成するための作業が進行中である。
[0055] HEVC規格への別の拡張であるHEVC範囲拡張は、(「色フォーマット」とも呼ばれる)追加の色表現について、並びに増加した色ビット深度についてHEVCへのサポートを追加する。「HEVC RExt」と呼ばれることがあるHEVCへの範囲拡張も、JCT−VCによって開発されている。HEVC範囲拡張の最近のドラフトは、Flynnら、「High Efficiency Video Coding (HEVC) Range Extensions text specification: Draft 7」、ITU−T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11とのジョイントコラボレーティブチームオンビデオコーディング(JCT−VC)、第17回会合:バレンシア、スペイン、2014年3月27日〜4月4日、http://phenix.int−evry.fr/jct/doc_end_user/documents/17_Valencia/wg11/JCTVC−Q1005−v9.zipから入手可能であるJCTVC−Q1005_v9である。以下でRExt WD7と呼ばれる、HEVC範囲拡張の別の最近のワーキングドラフト(WD)は、http://phenix.int−evry.fr/jct/doc_end_user/documents/17_Valencia/wg11/JCTVC−Q1005−v4.zipから入手可能である、Flynnら、「High Efficiency Video Coding (HEVC) Range Extensions text specification: Draft 7」、ITU−T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11とのジョイントコラボレーティブチームオンビデオコーディング(JCT−VC)、第17回会合:バレンシア、スペイン、2014年3月27日〜4月4日に記載されている。
[0056] 上記のように、HEVC範囲拡張は、増加した色ビット深度のためのHEVCへのサポートを追加し得る。色ビット深度は、色表現の各成分を表すために使用されるビット数である。他の色フォーマットのためのサポートは、ビデオデータの赤緑青(RGB)ソース、並びに他の色表現を有するビデオデータを符号化および復号することと、HEVCメインプロファイルとは異なるクロマサブサンプリングパターンを使用することとのためのサポートを含み得る。
[0057] 範囲拡張仕様は、HEVCのバージョン2になり得る。しかしながら、おおむね、本開示の提案される技法、例えば、動きベクトル予測に関する限り、HEVCバージョン1およびHEVC範囲拡張仕様は技術的に同様である。従って、本開示がHEVCバージョン1に基づく変更に言及するときは常に、同じ変更がHEVC範囲拡張仕様に適用され得、本開示がHEVCバージョン1モジュールを再使用するときは常に、本開示は、実際には(同じサブクローズによって)HEVC範囲拡張モジュールをも再使用していることがある。
[0058] HEVCの別の拡張、すなわち、動きをもつテキストおよびグラフィックスなどのスクリーンコンテンツ素材をコーディングするための、スクリーンコンテンツコーディング(SCC)も開発中である。SCCの最近のワーキングドラフト(WD)、Joshiら、「High Efficiency Video Coding (HEVC) Screen Content Coding: Draft 1」、ITU−T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11とのジョイントコラボレーティブチームオンビデオコーディング(JCT−VC)、第18回会合:札幌、日本、2014年6月30日〜7月9日、ドキュメントJCTVC−R1005_v3(以下、「JCTVC−R1005」)は、http://phenix.int−evry.fr/jct/doc_end_user/documents/18_Sapporo/wg11/JCTVC−R1005−v3.zipから入手可能である。
[0059] HEVCおよび他のビデオコーディング規格では、ビデオシーケンスは、通常、一連のピクチャを含む。ピクチャは「フレーム」と呼ばれることもある。ピクチャは、SL、SCbおよびSCrと示される3つのサンプルアレイを含み得る。SLはルーマサンプルの2次元アレイ(すなわち、ブロック)である。SCbはCbクロミナンスサンプルの2次元アレイである。SCrはCrクロミナンスサンプルの2次元アレイである。クロミナンスサンプルは、本明細書では「クロマ」サンプルと呼ばれることもある。他の事例では、ピクチャはモノクロームであり得、ルーマサンプルのアレイのみを含み得る。
[0060] ピクチャの符号化表現を生成するために、ビデオエンコーダ20はコーディングツリーユニット(CTU)のセットを生成し得る。CTUの各々は、ルーマサンプルのコーディングツリーブロックと、クロマサンプルの2つの対応するコーディングツリーブロックと、それらのコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造とであり得る。コーディングツリーブロックはサンプルのN×Nブロックであり得る。CTUは「ツリーブロック」または「最大コーディングユニット」(LCU)と呼ばれることもある。スライスは、ラスター走査で連続的に順序付けられた整数個のCTUを含み得る。
[0061] コード化CTUを生成するために、ビデオエンコーダ20は、コーディングツリーブロックをコーディングブロックに分割するように、CTUのコーディングツリーブロックに対して4分木区分を再帰的に行い得、従って、「コーディングツリーユニット」という名称がある。コーディングブロックはサンプルのN×Nブロックである。コーディングユニット(CU)は、ルーマサンプルアレイと、Cbサンプルアレイと、Crサンプルアレイとを有するピクチャの、ルーマサンプルのコーディングブロックと、クロマサンプルの2つの対応するコーディングブロックと、それらのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とであり得る。モノクロームピクチャまたは3つの別々の色平面を有するピクチャでは、CUは、単一のコーディングブロックと、そのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。
[0062] ビデオエンコーダ20は、CUのコーディングブロックを1つまたは複数の予測ブロックに区分し得る。予測ブロックは、同じ予測が適用されるサンプルの長方形(すなわち、正方形または非正方形)ブロックであり得る。CUの予測ユニット(PU)は、ピクチャのルーマサンプルの予測ブロックと、クロマサンプルの2つの対応する予測ブロックと、予測ブロックサンプルを予測するために使用されるシンタックス構造とであり得る。ビデオエンコーダ20は、CUの各PUのルーマ予測ブロックとCb予測ブロックとCr予測ブロックとのための予測ルーマブロックと予測Cbブロックと予測Crブロックとを生成し得る。モノクロームピクチャまたは3つの別々の色平面を有するピクチャでは、PUは、単一の予測ブロックと、その予測ブロックを予測するために使用されるシンタックス構造とを備え得る。
[0063] ビデオエンコーダ20は、PUの予測ブロックを生成するためにイントラ予測またはインター予測を使用し得る。ビデオエンコーダ20がPUの予測ブロックを生成するためにイントラ予測を使用する場合、ビデオエンコーダ20は、PUに関連するピクチャの復号サンプルに基づいてPUの予測ブロックを生成し得る。ビデオエンコーダ20がPUの予測ブロックを生成するためにインター予測を使用する場合、ビデオエンコーダ20は、PUに関連するピクチャ以外の1つまたは複数のピクチャの復号されたサンプルに基づいて、PUの予測ブロックを生成し得る。
[0064] ビデオエンコーダ20がCUの1つまたは複数のPUのための予測ブロック(例えば、予測ルーマブロック、予測Cbブロック、および予測Crブロック)を生成した後に、ビデオエンコーダ20は、CUの残差ブロックを生成し得る。CUの残差ブロック中の各サンプルは、CUのPUのための予測ブロック中のサンプルと、CUのコーディングブロック中の対応するサンプルとの間の差分を示す。例えば、ビデオエンコーダ20はCUのルーマ残差ブロックを生成し得る。CUのルーマ残差ブロック中の各サンプルは、CUのPUの予測ルーマブロック中のルーマサンプルと、CUのルーマコーディングブロック中の対応するサンプルとの間の差分を示す。さらに、ビデオエンコーダ20は、CUのCb残差ブロックを生成し得る。CUのCb残差ブロック中の各サンプルは、CUのPUの予測Cbブロック中のCbサンプルと、CUのCbコーディングブロック中の対応するサンプルとの間の差分を示し得る。ビデオエンコーダ20はCUのCr残差ブロックをも生成し得る。CUのCr残差ブロック中の各サンプルは、CUのPUのための予測Crブロック中のCrサンプルと、CUのCrコーディングブロック中の対応するサンプルとの間の差分を示し得る。
[0065] さらに、ビデオエンコーダ20は、CUの残差ブロック(例えば、ルーマ残差ブロック、Cb残差ブロックおよびCr残差ブロック)を1つまたは複数の変換ブロック(例えば、ルーマ変換ブロック、Cb変換ブロックおよびCr変換ブロック)に分解するために、4分木区分を使用し得る。変換ブロックは、同じ変換が適用されるサンプルの長方形ブロックであり得る。CUの変換ユニット(TU)は、ルーマサンプルの変換ブロックと、クロマサンプルの2つの対応する変換ブロックと、それらの変換ブロックサンプルを変換するために使用されるシンタックス構造とであり得る。従って、CUの各TUは、ルーマ変換ブロックと、Cb変換ブロックと、Cr変換ブロックとに関連付けられ得る。TUに関連付けられたルーマ変換ブロックは、CUのルーマ残差ブロックのサブブロックであり得る。Cb変換ブロックは、CUのCb残差ブロックのサブブロックであり得る。Cr変換ブロックは、CUのCr残差ブロックのサブブロックであり得る。モノクロームピクチャまたは3つの別々の色平面を有するピクチャでは、TUは、単一の変換ブロックと、その変換ブロックのサンプルを変換するために使用されるシンタックス構造とを備え得る。
[0066] ビデオエンコーダ20は、TUのための係数ブロックを生成するために、TUの変換ブロックに1つまたは複数の変換を適用し得る。例えば、ビデオエンコーダ20は、TUのためのルーマ係数ブロックを生成するために、TUのルーマ変換ブロックに1つまたは複数の変換を適用し得る。ビデオエンコーダ20は、TUのためのCb係数ブロックを生成するために、TUのCb変換ブロックに1つまたは複数の変換を適用し得る。ビデオエンコーダ20は、TUのためのCr係数ブロックを生成するために、TUのCr変換ブロックに1つまたは複数の変換を適用し得る。係数ブロックは変換係数の2次元アレイであり得る。変換係数はスカラー量であり得る。
[0067] 係数ブロック(例えば、ルーマ係数ブロック、Cb係数ブロックまたはCr係数ブロック)を生成した後に、ビデオエンコーダ20は係数ブロックを量子化し得る。量子化は、概して、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を行うプロセスを指す。ビデオエンコーダ20が係数ブロックを量子化した後に、ビデオエンコーダ20は、量子化変換係数を示すシンタックス要素をエントロピー符号化し得る。例えば、ビデオエンコーダ20は、量子化変換係数を示すシンタックス要素に対してコンテキスト適応型バイナリ算術コーディング(CABAC)を行い得る。ビデオエンコーダ20は、エントロピー符号化されたシンタックス要素をビットストリーム中に出力し得る。ビットストリームはビデオデータの符号化表現を備え得る。
[0068] ビデオエンコーダ20は、エントロピー符号化されたシンタックス要素を含むビットストリームを出力し得る。ビットストリームは、コード化ピクチャおよび関連するデータの表現を形成するビットのシーケンスを含み得る。ビットストリームは、ネットワークアブストラクションレイヤ(NAL)ユニットのシーケンスを備え得る。NALユニットの各々はNALユニットヘッダを含み、ローバイトシーケンスペイロード(RBSP)をカプセル化する。NALユニットヘッダは、NALユニットタイプコードを示すシンタックス要素を含み得る。NALユニットのNALユニットヘッダによって規定されるNALユニットタイプコードは、NALユニットのタイプを示す。RBSPは、NALユニット内にカプセル化された整数個のバイトを含んでいるシンタックス構造であり得る。いくつかの例では、RBSPはゼロビットを含む。
[0069] 異なるタイプのNALユニットは、異なるタイプのRBSPをカプセル化し得る。例えば、第1のタイプのNALユニットはピクチャパラメータセット(PPS)のためのRBSPをカプセル化し得、第2のタイプのNALユニットはコード化スライスのためのRBSPをカプセル化し得、第3のタイプのNALユニットは補足エンハンスメント情報(SEI)のためのRBSPをカプセル化し得、以下同様である。(パラメータセットおよびSEIメッセージのためのRBSPではなく)ビデオコーディングデータのためのRBSPをカプセル化するNALユニットは、ビデオコーディングレイヤ(VCL)NALユニットと呼ばれることがある。
[0070] 図1の例では、ビデオデコーダ30は、ビデオエンコーダ20によって生成されたビットストリームを受信する。さらに、ビデオデコーダ30は、ビットストリームからシンタックス要素を取得するために、ビットストリームをパースし得る。ビデオデコーダ30は、ビットストリームから取得されたシンタックス要素に少なくとも部分的に基づいてビデオデータのピクチャを再構成し得る。ビデオデータを再構成するためのプロセスは、概して、ビデオエンコーダ20によって行われるプロセスの逆であり得る。例えば、ビデオデコーダ30は、現在CUのPUの予測ブロックを決定するためにイントラ予測またはインター予測を使用し得る。さらに、ビデオデコーダ30は、現在CUのTUのための係数ブロックを逆量子化し得る。ビデオデコーダ30は、現在CUのTUのための変換ブロックを再生成するために、係数ブロックに対して逆変換を行い得る。ビデオデコーダ30は、現在CUのPUのための予測ブロックのサンプルを現在CUのTUのための変換ブロックの対応するサンプルに加算することによって、現在CUのコーディングブロックを再構成し得る。ピクチャの各CUのコーディングブロックを再構成することによって、ビデオデコーダ30はピクチャを再構成し得る。
[0071] ビデオデータの各ブロックのピクセルは、「色表現」と呼ばれる、特定のフォーマットでの色をそれぞれ表す。異なるビデオコーディング規格は、ビデオデータのブロックのために異なる色表現を使用し得る。一例として、HEVCビデオ規格の主要プロファイルは、ビデオデータのブロックのピクセルを表すためにYCbCr色表現を使用する。
[0072] YCbCr色表現は、ビデオデータの各ピクセルが色情報の3つの成分またはチャネル、「Y」、「Cb」、および「Cr」によって表される色表現を概して指す。Yチャネルは、特定のピクセルのためのルミナンス(すなわち、光強度または輝度)データを表す。Cb成分およびCr成分は、それぞれ、青色差および赤色差クロミナンス、すなわち、「クロマ」成分である。Y成分とCb成分とCr成分との各々の間に強い無相関(decorrelation)があり、これは、Y成分とCb成分とCr成分の各々の間で重複しているかまたは冗長であるデータがほとんどないことを意味するので、YCbCrはしばしば、圧縮されたビデオデータで色を表すために使用される。従って、YCbCr色表現を使用してビデオデータをコーディングすると、多くの場合、良好な圧縮性能が提供される。
[0073] さらに、多くのビデオコーディング技法は、色データの圧縮をさらに改善するために「クロマサブサンプリング」と呼ばれる技法を利用する。YCbCr色表現を有するビデオデータのクロマサブサンプリングは、パターンに従ってクロマ成分を選択的に省略することによって、コード化ビデオビットストリーム中でシグナリングされるクロマ値の数を低減する。クロマサブサンプリングされたビデオデータのブロックでは、概して、ブロックのピクセルごとにルーマ値がある。しかしながら、Cb成分およびCr成分は、クロマ成分がルーマ成分に対してサブサンプリングされるように、ブロックのピクセルのうちのいくつかについてのみシグナリングされ得る。
[0074] ビデオコーダ(すなわち、ビデオエンコーダまたはビデオデコーダ)は、ピクセルについてCb成分とCr成分とを補間し得、ここで、Cb値とCr値とは、ピクセルのクロマサブサンプリングされたブロックについて明示的にシグナリングされない。クロマサブサンプリングは、より均一であるピクセルのブロック中にひずみをもたらすことなしにクロミナンスデータの量を低減するためにうまく動作する。クロマサブサンプリングは、大幅に異なるクロマ値を有するビデオデータを表すためにあまりうまく動作せず、それらの場合、大量のひずみをもたらし得る。
[0075] 上述のように、HEVCメインプロファイルは、色表現(色フォーマットとも呼ばれる)のルーマ成分と、2つのクロマ成分との間の概して強い色無相関のために、YCbCrを使用する。しかしながら、場合によっては、Y成分とCb成分とCr成分との間に相関が依然としてあり得る。色表現の成分間の相関は、クロス色成分相関またはインター色成分相関と呼ばれることがある。
[0076] ビデオコーダは、異なる成分(例えば、ルーマ成分のサンプル)の値に基づいて、ある成分(例えば、クロマ成分のサンプル)の値を予測するように構成され得る。第2の成分に基づいて第1の成分からのサンプルを予測するプロセスは、「カラービデオのための成分間予測」または「インター色成分予測」と呼ばれる。ビデオコーダは、第1の成分と第2の成分との間の相関に基づいて第1の成分の値を予測し得る。
[0077] ビデオデータがキャプチャされたとき、それは、様々な前処理のためにRGB色空間にしばしば変換される。前処理の後に、ビデオコーディングのために、ビデオデータは、通常、より良い圧縮効率のためにYCbCr4:2:0に変換される。しかしながら、色変換は、主観的な品質劣化につながる色ひずみを引き起こし得る。HEVCの範囲拡張は、YCbCr4:2:2、YCbCr4:4:4、およびRGB4:4:4など、YCbCr4:2:0以外の色空間のためのビデオコーディングを提供する。
[0078] RGBデータが色変換(例えば、色コンバージョン)なしに直接圧縮された場合、色チャネル間の冗長性が低減されないので、コーディング効率は低減され得る。一方、YCbCrのような従来の色変換は色ひずみを引き起こし得る。従って、色ひずみがより少ないコーディング効率改善を達成することができる技術を開発することが望ましいことがある。
[0079] HEVCのスクリーンコンテンツコーディング(SCC)は、3つの色成分間の冗長性を活用してより高い圧縮比を達成するために、2つのコーディングツール、すなわち、適応色変換(ACT)とクロス成分予測(CCP)とを採用する。L.Zhangら、「SCCE5 Test 3.2.1: In−loop color−space transform」、ITU−T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11とのジョイントコラボレーティブチームオンビデオコーディング(JCT−VC)、第18回会合:札幌、日本、2014年6月30日〜7月9日、ドキュメントJCTVC−R0147(以下、「JCTVC−R0147」)に記載されているように、ACTは、以下のように定義された、不可逆コーディングのためのそれの順色空間変換と逆色空間変換とがYCoCg変換行列を使用するループ内色空間変換である。
Figure 2018507622
上式において、元の色空間(C0,C1,C2)は(R,G,B)または(Y,U,V)に対応し得る。
[0080] CCPは、ルーマ(または第1の成分)からクロマ(または第2および第3の成分)を予測するためのプロセスである。CCPは、R.JoshiおよびJ.Xu、「High efficient video coding (HEVC) screen content coding: Draft 2」、JCTVC−S1005、ITU−T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11とのジョイントコラボレーティブチームオンビデオコーディング(JCT−VC)、第18回会合:札幌、日本、2014年6月30日〜7月9日(以下、「JCTVC−S1005」)に記載されている。CCPの式は次のように示される。
Figure 2018507622
[0081] 図2は、例示的なACTおよびCCP処理順序を示す概念図である。ACTとCCPの両方は残差ベースの演算であり、コーデック内のそれらの対応する処理順序が図2に示されている。図2の例では、ビデオエンコーダ(図2では「Enc」と省略)は、残差生成演算48を行って、(例えば、本開示の他の場所において説明した様式で)残差データ50を取得する。残差データ50は、図2では「Res」と省略されている。さらに、図2において、ビデオエンコーダは、残差データ50にACT52を適用し、それによって残差データ54を取得する。次に、ビデオエンコーダは、残差データ54にCCP変換56を適用し、それによって残差データ58を取得する。ビデオエンコーダは、次いで残差データ58に変換60を適用し、それによって残差データ62を取得する。残差データ62は、周波数領域などの変換領域中にあり得る。さらに、ビデオエンコーダは、残差データ62に量子化演算64を適用し、それによって量子化された残差データ66を取得し得る。
[0082] 図2において、ビデオデコーダは、量子化された残差データ66に逆量子化演算68を適用し、それによって逆量子化された残差データ70を取得する。次に、ビデオデコーダは、逆量子化された残差データ70に逆変換72を適用し、それによって残差データ74を取得する。残差データ74はサンプル領域中にあり得る。さらに、ビデオデコーダは、残差データ74に逆CCP変換(ICCP)76を適用し、それによって残差データ78を取得する。次に、ビデオデコーダは、残差データ78に逆ACT(IACT)80を適用し、それによって残差データ82を取得する。ビデオデコーダは、残差データ82に部分的に基づいて再構成演算84を適用してコーディングブロックを再構成し得る。ビデオエンコーダは、復号ループの一部としてビデオデコーダに関して説明した図2の一部分を行い得る。
[0083] HEVCデータ経路に沿う動的範囲分析は、C.Yeoら、「Dynamic Range Analysis in High Efficiency Video Coding Residual Coding and Reconstruction」、IEEE Trans. Circuits Syst. Video Technol.、第23巻、第7号、1131〜1136ページ、2013年7月と、M.Zhou、「AHG7: IDCT Output Range After T+Q+IQ+IT With Valid Residual Inputs」、ITU−T SG16 WP3とISO/IEC JTC1/SC29/WG11とのジョイントコラボレーティブチームオンビデオコーディング(JCT−VC)、第7回会合:ジュネーブ、スイス、2011年11月19〜30日、ドキュメントJCTVC−G856とにおいて詳細に研究されている。
[0084] 図3は、例示的なHEVCコード化入出力(IO)ビット深度を示す概念図である。図3に示されているように、再構成された残差中に最高5ビットのビット深度拡張が発生することができ、ここで、Bビットは、入力ピクセルと予測ピクセルとのビット深度である。特に、図3では、ビデオエンコーダは、残差生成演算100を行って残差データ102(図3では「Res」と省略)を取得し得る。残差データ102の各サンプルはB+1のビット深度を有し得る。次に、図3において、ビデオエンコーダは、残差データ102に変換104を適用して残差データ106を取得し得る。ビデオエンコーダは、残差データ106に量子化演算108を適用し、それによって量子化された残差データ110を取得し得る。
[0085] 図3において、ビデオデコーダは、量子化された残差データ110に逆量子化演算112を適用し、それによって逆量子化された残差データ114を取得し得る。次に、ビデオデコーダは、逆量子化された残差データ114に逆変換(IT)116を適用し、それによって逆変換(例えば、逆離散コサイン変換または逆サイン変換)された残差データ118を取得し得る。IT116は、変換領域からサンプル領域(すなわち、ピクセル領域)に残差データを変換し得る。図3に示されているように、逆変換116を適用したことの結果として、残差データ118の各サンプルはB+6のビット深度を有し得る。さらに、図3において、ビデオデコーダは、残差データ118に再構成演算120を適用してコーディングブロックのサンプルを再構成し得る。図3では、ビデオデコーダは、再構成演算120を行うことの一部としてクリッピング演算を適用し得る。クリッピング演算は、コーディングブロックの再構成されたサンプルのビット深度がBに等しくなることを保証し得る。
[0086] 図4Aは、CCPを使用するスクリーンコンテンツコーディングの構成のための例示的なビット深度情報を示す概念図である。図4Bは、ACTとCCPとを使用するスクリーンコンテンツコーディングの構成のための例示的なビット深度情報を示す概念図である。図4Aおよび図4Bは図3と同様であるが、CCPを含み、および図4Bでは、ACTを含む。図4Aでは、ビデオエンコーダは、残差データ160にCCP変換150を適用し、ビデオデコーダ(またはビデオエンコーダ再構成ループ)は、IT116によって取得された残差データ162に逆CCP変換152を適用する。図4Bでは、ビデオエンコーダは、残差データ164にACT154を、それに続いてCCP変換150を適用し、ビデオデコーダ(またはビデオエンコーダ再構成ループ)は、逆CCP変換152を、それに続いて逆ACT156を適用する。
[0087] SCCのACTおよびCCP演算を考慮して、動的範囲拡張が図4Aおよび図4Bに示されており、ここで、IACTは逆ACTを表し、ICCPは逆CCPを表す。図4Aおよび図4Bから、逆変換(IT)116の後のビット深度が、順CCP演算150と、図4Bでは、順ACT演算154との追加により、(B+7)ビットに増加されることが明らかである。これは、クロマ残差(または残差Δ)のビット深度を、1ビット多く(B+2)ビットに増加させ得る。CCPは、ルーマ残差データを使用してクロマ残差データのみに適用されるので、ルーマ残差データのビット深度はCCPによって不変である。
[0088] 図4Aおよび図4Bにおけるビット深度分析からわかるように、変換の入力におけるビット深度増加は、転置バッファ、ICCP、およびIACTにおけるように、データ経路に沿って動的範囲に影響を及ぼし得、これは、より高い実施コストを生じ得、概して実施では望ましくないことがある。「動的範囲」および「ビット深度」という用語は、本開示では同義で使用され得る。
[0089] 本開示は、ACTおよびCCPツールが有効にされたとき、ビット深度を不変に保持し得るかまたはビット深度増加を低減し得る技法を提案する。例えば、本開示の第1の例では、ビデオエンコーダにおけるクリッピング演算は、図5Aおよび図5BにおいてClip_Aとして示されているように順CCP演算の後に適用されることが提案される。本開示は、HEVCバージョン2(Recommendation ITU−T H.265、2014年10月)に示されている限界にCCPの出力の動的範囲が戻され得るように、CCPの出力の動的範囲をB+1ビットにクリッピングすることを提案し、ここで、Bビットは、入力ピクセルと予測ピクセルとのビット深度である。本開示の技法の潜在的恩恵は、デコーダ側を変更する必要がないことと、元のデータ経路の動的範囲の維持とを含み得、これは、既存の設計がデータ経路に沿ってそれのビット深度を変更する必要がないことを意味し得る。
[0090] 図5Aは、本開示の1つまたは複数の技法による、CCPのみを用いた、順CCPの後のクリッピングを示す概念図である。図5Bは、本開示の1つまたは複数の技法による、CCPのみを用いた、順CCPの後のクリッピングに起因する動的範囲変化を示す概念図である。図5Aの例では、ビデオエンコーダ20は、CCP150の出力に対してクリッピング演算170を行う。図5Bの例に示されているように、クリッピング演算170を行った結果は、変換104への入力のビット深度がB+2ビットではなくB+1ビットになる。さらに、図5Bの例に示されているように、クリッピング演算170を行った結果として、ICCP変換152への入力はB+7ビットではなくB+6ビットになる。同様に、図5Bの例に示されているように、クリッピング演算170を行った結果として、再構成演算120への入力はB+8ビットではなくB+7ビットになる。
[0091] 従って、図5Aおよび図5Bの例では、ビデオエンコーダ20は、コーディングブロックの元のサンプルと1つまたは複数の予測ブロックのサンプルとに基づいて、ビデオデータのCUのための残差データを生成し得る。さらに、ビデオエンコーダ20は、残差データにCCP変換を適用することによって、変換された残差データを生成し得る。残差データにCCP変換を適用した後に、ビデオエンコーダ20は、変換された残差データにクリッピング演算を適用し得る。図5Aおよび図5Bの例では、ビデオエンコーダ20は、変換された残差データの各サンプルのビット深度がB+1ビットになるようにクリッピング演算を行い得、ここで、Bは、コーディングブロックの元のサンプルのビット深度である。
[0092] 図5Cは、本開示の1つまたは複数の技法による、ACTとCCPとを用いた、順CCPの後のクリッピングを示す概念図である。図5Dは、本開示の1つまたは複数の技法による、ACTとCCPとを用いた、順CCPの後のクリッピングに起因する動的範囲変化を示す概念図である。図5Cの例では、ビデオエンコーダ20は、CCP150の出力に対してクリッピング演算170を行う。図5Dの例に示されているように、クリッピング演算170を行った結果は、変換104への入力のビット深度がB+2ビットではなくB+1ビットになる。さらに、図5Dの例に示されているように、クリッピング演算170を行った結果として、ICCP変換152への入力はB+7ビットではなくB+6ビットになる。同様に、図5Dの例に示されているように、クリッピング演算170を行った結果として、IACT156への入力はB+8ビットではなくB+7ビットになる。さらに、図5Bの例に示されているように、クリッピング演算170を行った結果として、再構成演算120の入力はB+9ビットではなくB+8ビットになる。
[0093] 従って、図5Cおよび図5Dの例では、ビデオエンコーダ20は、コーディングブロックの元のサンプルと1つまたは複数の予測ブロックのサンプルとに基づいて、ビデオデータのCUのための残差データを生成し得る。さらに、ビデオエンコーダ20は、残差データに適応色変換を適用することによって第1の残差データを生成し得る。第1の残差データを生成した後に、ビデオエンコーダ20は、第1の残差データにCCP変換を適用することによって第2の残差データを生成し得る。第1の残差データにCCP変換を適用した後に、ビデオエンコーダ20は、第2の残差データにクリッピング演算を適用し得る。図5Cおよび図5Dの例では、ビデオエンコーダ20は、残差データの各サンプルのビット深度がB+1ビットになるようにクリッピング演算を行い得、ここで、Bは、コーディングブロックの元のサンプルのビット深度である。
[0094] 本開示の第2の例によれば、ICCPへの入力の動的範囲をB+n1ビットにクリッピングすることが提案され、ここで、Bビットは、入力ピクセルと予測ピクセルとのビット深度であり、n1は、前段の結果の動的範囲および性能要件に依存する、1〜6であり得る。図6Aは、本開示の1つまたは複数の技法による、ビデオデコーダ30における例示的なクリッピングロケーション(Clip_B、Clip_C、およびClip_D)を示す概念図である。図6B、図6C、および図6Dは、図6Aに示されたクリッピングロケーションにおける例示的なクリッピングを示す概念図である。
[0095] 図6Aおよび図6Bの例では、ICCP152への入力の動的範囲をB+n1ビットにクリッピングするためのクリッピング演算180がClip_Bとして示されている。例えば、Clip_Bはデコーダ側において逆CCP入力に適用されるので、Clip_Bを追加するための修正は、そのようなクリッピングが存在せず不要である範囲拡張(RExt:range extension)デコーダとの適合性がないことがある。従って、SCCデコーダは範囲拡張ビットストリームを復号することが可能であることが好ましいことがあるが、そのような修正はSCC規格に適しないことがある。図6Aに示されているクリッピングロケーションはまた、ビデオエンコーダ20の復号ループ中に存在し得る。
[0096] このようにして、図6Bに示されている、本開示の第2の例によれば、ビデオデコーダ30は、逆変換116を適用することによって残差データ260を生成し得る。IT116は、変換領域からサンプル値領域に残差データを変換し得る。例えば、IT116は逆コサイン変換または逆サイン変換であり得る。さらに、IT116を適用して残差データ260を生成した後に、ビデオデコーダ30は、残差データ260にクリッピング演算180を適用することによって、クリッピングされた残差データ261を生成し得る。残差データ260にクリッピング演算180を適用した後に、ビデオデコーダ30は、クリッピングされた残差データ261にICCP152変換を適用することによって残差データ262を生成し得る。ビデオデコーダ30は、残差データ262に基づいて、ビデオデータのCUのコーディングブロックを再構成し得る。いくつかの事例では、コーディングブロックを再構成することの一部として、ビデオデコーダ30は、残差データ262にIACT156を適用することによって残差データ264を生成し得、残差データ264に基づいて、CUのコーディングブロックを生成し得る。この例では、クリッピングされた残差データ261を生成することの一部として、ビデオデコーダ30は、残差データ260の各サンプルのビット深度がB+n1ビットになるように残差データ260をクリッピングし得、ここで、Bはコーディングブロックのサンプルのビット深度であり、n1は1〜6の範囲内の値である。いくつかのそのような例では、n1の値は第1の逆変換の動的範囲に依存する。この例はまた、ビデオエンコーダ20の復号ループの一部として行われ得る。
[0097] 図6Bに示されている、本開示の第3の例では、IACT156への入力の動的範囲をB+n2ビットにクリッピングすることが提案され、ここで、Bビットは、入力ピクセルと予測ピクセルとのビット深度であり、n2の実施例は、前段の結果の動的範囲および性能要件に依存する、1〜7であり得る。この例では、クリッピングロケーションは、図6に示されているClip_Cである。言い換えれば、図6Aの例では、IACT152への入力の動的範囲をB+n2ビットにクリッピングするためのクリッピング演算182はClip_Cとして示されている。
[0098] このようにして、本開示の第3の例によれば、ビデオデコーダ30は、IT116を適用することによって残差データ260を生成し得る。残差データ260を生成した後に、ビデオデコーダ30は、残差データ260にICCP変換152を適用することによって残差データ262を生成し得る。残差データ262を生成した後に、ビデオデコーダ30は、残差データ262にクリッピング演算182を適用することによって、クリッピングされた残差データ263を生成し得る。さらに、この例では、ビデオデコーダ30は、クリッピングされた残差データ263にIACT156を適用することによって残差データ264を生成し得る。この例では、ビデオデコーダ30は、残差データ264に基づいて、ビデオデータのCUのコーディングブロックを再構成し得る。この例では、クリッピングされた残差データ263を生成することの一部として、ビデオデコーダ30は、残差データ262の各サンプルのビット深度がB+n2ビットになるように残差データ262をクリッピングし得、ここで、Bはコーディングブロックのサンプルのビット深度であり、n1は1〜7の範囲内の値である。さらに、この例では、n2の値はICCP152の動的範囲に依存し得る。この例はまた、ビデオエンコーダ20の復号ループの一部として行われ得る。
[0099] 図6Dに示されている、本開示の第4の例では、IACT156の出力の動的範囲をB+n3ビットにクリッピングすることが提案され、ここで、Bビットは、入力ピクセルと予測ピクセルとのビット深度であり、n3の例は、前段の結果の動的範囲および性能要件に依存し得る、1〜8であり得る。この例では、クリッピングロケーションは、図6Aおよび図6Dに示されているClip_Dである。言い換えれば、図6Aおよび6Dの例では、IACTへの入力の動的範囲をB+n2ビットにクリッピングするためのクリッピング演算184はClip_Dとして示されている。
[0100] このようにして、本開示の第4の例によれば、ビデオデコーダ30は、IT116を適用することによって残差データ260を生成し得る。残差データ260を生成した後に、ビデオデコーダ30は、残差データ260にICCP変換152を適用することによって残差データ262を生成し得る。残差データ262を生成した後に、ビデオデコーダ30は、残差データ262にIACT156を適用することによって残差データ264を生成し得る。残差データ264を生成した後に、ビデオデコーダ30は、残差データ264にクリッピング演算184を適用することによって、クリッピングされた残差データ265を生成し得る。この例では、ビデオデコーダ30は、クリッピングされた残差データ265に基づいて、ビデオデータのCUのコーディングブロックを再構成し得る。この例では、クリッピングされた残差データ265を生成することの一部として、ビデオデコーダ30は、残差データ264の各サンプルのビット深度がB+n3ビットになるように残差データ264をクリッピングし得、ここで、Bはコーディングブロックのサンプルのビット深度であり、n3は1〜8の範囲内の値である。この例では、n3の値はIACT156の動的範囲に依存し得る。この例はまた、ビデオエンコーダ20の復号ループの一部として行われ得る。
[0101] 本開示の第5の例は、IACTの入力バッファまたはアレイが以下のようになるように、IACTへの入力をMax(B+n4,16)ビットにクリッピングすることを提供する。
(1)入力のビット深度B≦12ビットである場合、16ビット解像度に保持され得る、または
(2)入力のビット深度B>12ビットである場合、(B+n4)ビット解像度まで行くようになる、ここで、n4の実施例は、n4≧4、およびn4<=32−Bなどである。
[0102] このクリッピングは、それの前のモジュールがICCPもしくはITまたは任意の他の可能な有効なモジュールであり得るように、IACTの入力において提案される。それは、拡張精度が無効にされ、入力ビット深度B≦12ビットおよびB>12ビットが考慮されるという仮定の下にある(JCTVCバグトラック#1321を参照されたい)。恩恵は、入力ビット深度<=12ビットの場合のために32ビットアレイではなく16ビットアレイ解像度が依然として保持され得るので、ソフトウェアとハードウェアの両方の、特にソフトウェアの記憶域が節約され得ることである。この第5の例におけるクリッピングから生じるビット深度は所定の値(例えば、16)または元のビット深度+n4であり得るので、この第5の例におけるクリッピングから生じるビット深度は可変範囲内にあり得る。範囲は、それが元のビット深度とn4とに依存するので、可変である。
[0103] 本開示の第5の例のための図は図7および図8に示されている。特に、図7は、本開示の1つまたは複数の技法による、前のモジュールが逆CCPに関する場合の、IACT入力におけるクリッピングの一例を示す概念図である。図7の例において、ビデオデコーダ30、またはビデオエンコーダ20の復号ループは、出力ICCP152(すなわち、IACT156への入力)にクリッピング演算200を適用し得る。クリッピング演算200の結果として、IACT156への入力は、B+n4と16とのうちの最大値である。
[0104] 図8は、本開示の1つまたは複数の技法による、前のモジュールが逆変換に関する場合の、IACT入力におけるクリッピングの一例を示す概念図である。図8の例において、ビデオデコーダ30、またはビデオエンコーダ20の復号ループは、IT116の出力(すなわち、IACT156への入力)にクリッピング演算210を適用し得る。クリッピング演算210の結果として、逆ACT156への入力は、B+n4と16とのうちの最大値である。
[0105] このようにして、図7と図8の両方において、ビデオエンコーダ20またはビデオデコーダ30などのビデオコーダは、残差データ282に逆変換(例えば、図7のICCP152または図8のIT116)を適用することによって残差データ280を生成し得る。図7の例では、残差データ282はサンプル領域中にあり、図8の例では、残差データ282は変換領域(例えば、周波数領域)中にある。残差データ280はIACT156への入力である。残差データ280を生成した後に、および残差データ284を生成するより前に、ビデオコーダは、IACT156への入力のビット深度に基づいてIACT156への入力を可変範囲にクリッピングし得る。さらに、ビデオコーダは、クリッピングされた入力にIACT156を適用することによって残差データ284を生成し得る。さらに、ビデオコーダは、残差データ284に基づいて、ビデオデータのCUのコーディングブロック286を再構成し得る。
[0106] IACT156への入力(すなわち、残差データ280)をクリッピングすることの一部として、残差データ280のビット深度が特定の値(例えば、12)よりも小さいかまたはそれに等しいことに基づいて、ビデオコーダは、残差データ280の解像度を特定の解像度(例えば、15または16)に保持し得る。本開示では、ビット深度および解像度という用語は同義であり得る。残差データ280のビット深度が特定の値よりも大きいことに基づいて、ビデオコーダは、残差データ280にクリッピング演算を適用し得る。例えば、クリッピング演算は、入力の(すなわち、残差データ280の)ビット深度B≦12ビットである場合、ビット深度を16ビット解像度に保持し得るか、または入力のビット深度B>12ビットである場合、ビット深度が(B+n4)ビット解像度まで行くことを可能にし得、ここで、n4≧4およびn4<=32−Bである。図7と図8の両方において、ビデオコーダは、残差データ280が(i)残差データ280のビット深度+ある値と(ii)特定の解像度とのうちの最大値に等しいビット深度を有するように、残差データ280をクリッピングし得る。
[0107] 本開示の第5の例の別のバージョンでは、ビデオコーダは、残差データに逆変換を適用することによって残差データ280を生成し得る。残差データ280を生成した後に、および残差データ284を生成するより前に、残差データ280のビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、ビデオコーダは、残差データ280の解像度を特定の解像度に保持し得る。代替的に、残差データ280のビット深度が特定の値よりも大きいことに基づいて、ビデオコーダは、残差データ280にクリッピング演算を適用し得る。この例では、ビデオコーダは、残差データ282にICCP変換152を適用することによって残差データ280を生成し得る。さらに、ビデオコーダは、残差データ284に基づいて、ビデオデータのCUのコーディングブロックを再構成し得る。
[0108] 図9Aは、本開示の第6の例による、ICCPへの入力が制約を受ける、例示的な一連の変換を示す概念図である。本開示の第6の例は、ICCPへの入力がMax(B+n5,15)ビットに限定されるように、すなわち、ICCPへの入力が以下のようになるようにビットストリームの符号化を抑制する。
(1)入力のビット深度B<=12ビットである場合、15ビット解像度に保持され得る、または
(2)入力のビット深度B>12ビットである場合、(B+n5)ビット解像度まで行くようになる、ここで、n5の実施例は、n5>=3、およびn5<=32−Bなどである。
概して、「制約」は、その制約に違反しているビットストリームがビデオコーディング規格に準拠しないことを指定する、ビデオコーディング規格によって定義される制限である。従って、ビットストリームがビデオコーディング規格に準拠する場合、ビットストリームは制約に違反しない。
[0109] ICCPは、データ経路に沿ってもう1ビットを導入することができる。その結果、ICCPの使用は、本開示の第5の例に関して上述したように、IACTの入力バッファ/アレイビット深度を依然としてMax(B+n4,16)ビットに整合させることができる。図9Aは、本開示の1つまたは複数の技法による、例示的な一連の変換を示す概念図である。この例については、拡張精度が無効にされ、入力ビット深度B≦12ビットおよびB>12ビットが考慮されるという仮定とともに説明した(JCTVCバグトラック#1321を参照されたい)。恩恵は、ソフトウェアとハードウェアの両方の、特にソフトウェアの記憶域が節約され得、入力ビット深度≦12ビットの場合のために32ビットアレイではなく16ビットアレイ解像度が依然として保持され得ることである。
[0110] 図9Aの例に示されているように、本開示の第6の例では、ビットストリームは、ICCP152への入力(すなわち、残差データ292)がB+n5と15のうちの最大値になるように符号化される。その上、図9Aの例に示されているように、本開示のこの第6の例では、ビットストリームは、IACT156への入力(すなわち、残差データ294)がB+n4と16のうちの最大値になるように符号化される。
[0111] このようにして、本開示の第6の例では、ビデオエンコーダ20は、ICCP152への入力として与えられる、残差データ292のサンプル値の解像度を限定する制約を受けるビットストリームを生成し得る。符号化ビットストリームはビデオデータの符号化表現を備える。この例では、ビデオエンコーダ20はビットストリームを出力し得る。この例では、残差データ292のそれぞれのサンプル値ごとに、制約は、それぞれのサンプル値の解像度を、予め定義された値、またはCUの元のサンプル値の解像度に依存する値のうちのどちらのより大きい値にも限定し得る。
[0112] 同様に、本開示の第6の例では、ビデオデコーダ30は、ビデオデータの符号化表現を備える符号化ビットストリームから取得されたシンタックス要素に基づいて、ビデオデータのCUのための残差データ292を決定し得る。この例では、符号化ビットストリームは、残差データ292のサンプル値の解像度を限定する制約を受ける。さらに、この例では、ビデオデコーダ30は、残差データ292に逆ICCPを適用することによって残差データ294を生成し得る。ビデオデコーダ30は、残差データ294に基づいて、CUのコーディングブロック298を再構成し得る。例えば、ビデオデコーダ30は、残差データ294にIACT156を適用することによって、残差データ294に基づいてコーディングブロックを再構成して残差データ296を生成し得、ビデオデコーダ30は、この残差データ296を使用してコーディングブロック298を再構成し得る。
[0113] ビデオエンコーダ20とビデオデコーダ30の両方について、第6の例では、残差データ292のそれぞれのサンプル値ごとに、制約は、それぞれのサンプル値の解像度を、予め定義された値(例えば、15)、またはCUの元のサンプル値の解像度に依存する値(B+n5)のうちのどちらのより大きい値にも限定し得る。この例では、CUの元のサンプル値の解像度に依存する値は、CUの元のサンプル値の解像度+3よりも大きいかまたはそれに等しく32よりも小さいかまたはそれに等しい値(例えば、n5)−CUの元のサンプル値の解像度に等しい(例えば、n5≧3およびn5≦32−B)。いくつかの事例では、予め定義された値は、16に等しいか、または特定の実施形態のために必要な精度に等しい別の値に等しい。
[0114] この第6の例では、CUの元のサンプル値のビット深度が第1の値(例えば、12)よりも小さいかまたはそれに等しいとき、残差データ292のサンプル値の解像度は第2の値(例えば、15))に保持される。CUの元のサンプル値のビット深度が第1の値よりも大きいとき、残差データ292のサンプル値の解像度は、CUの元のサンプル値のビット深度+第3の値(例えば、n5)に限定される。この第6の例では、第3の値は、3よりも大きいかまたはそれに等しい値と、32よりも小さいかまたはそれに等しい値−CUの元のサンプル値のビット深度との間にあり得る(例えば、n5≧3およびn5≦32−B)。
[0115] 図9Bは、本開示の第7の例による、IACTへの入力が制約を受ける、例示的な一連の変換を示す概念図である。本開示の第7の例は、IACT156への入力がMax(B+n5,16)ビットに限定されるように、すなわちIACT156への入力が以下のようになるように符号化ビットストリームを抑制する。
(1)入力のビット深度B<=12ビットである場合、16ビット解像度に保持され得る、または
(2)入力のビット深度がB>12ビットである場合、(B+n5)ビット解像度まで行くようになる、ここで、n5の実施例は、n5>=3、およびn5<=32−Bである。
[0116] このようにして、本開示の第7の例では、ビデオエンコーダ20は、ビデオデータのCUのための残差データ294のサンプル値の解像度を限定する制約を受けるビットストリームを生成し得る。この例では、符号化ビットストリームはビデオデータの符号化表現を備える。ビデオデコーダにおいて、残差データ294はIACT156への入力である。ビデオエンコーダ20はビットストリームを出力し得る。
[0117] 同様に、本開示の第7の例では、ビデオデコーダ30は、ビデオデータの符号化表現を備える符号化ビットストリームから取得されたシンタックス要素に基づいて、ビデオデータのCUのための残差データ294を決定し得る。例えば、ビデオデコーダ30は、ビットストリームからシンタックス要素を取得し、シンタックス要素に基づいて量子化変換係数を決定し、量子化変換係数を逆量子化し、逆変換IT116を適用し、ICCP152を適用し、それによって残差データ294を取得し得る。他の事例では、ビデオデコーダ30は、ビットストリームからシンタックス要素を取得し、シンタックス要素(例えば、データ230)に基づいて量子化サンプルを決定し、量子化サンプルを逆量子化し、ICCP152を適用し、それによって残差データ294を取得し得る。
[0118] 符号化ビットストリームは、残差データ294のサンプル値の解像度を限定する制約を受ける。この例では、ビデオデコーダ30は、残差データ292にICCP152を適用することによって残差データ294を生成し得る。ビデオデコーダ30は、残差データ294にIACT156を適用することによって残差データ296を生成し得る。ビデオデコーダ30は、残差データ296に基づいて、CUのコーディングブロック298を再構成し得る。
[0119] 本開示の第7の例では、ビデオエンコーダ20とビデオデコーダ30の両方について、残差データ294のそれぞれのサンプル値ごとに、制約は、それぞれのサンプル値の解像度を、予め定義された値(例えば、16)、またはCUの元のサンプル値の解像度に依存する値(例えば、B+n4)のうちのどちらのより大きい値にも限定する。さらに、CUの元のサンプル値の解像度に依存する値は、CUの元のサンプル値の解像度+3よりも大きいかまたはそれに等しく32よりも小さいかまたはそれに等しい値−CUの元のサンプル値の解像度に等しくなり得る。
[0120] さらに、本開示の第7の例では、ビデオエンコーダ20とビデオデコーダ30の両方について、CUの元のサンプル値のビット深度が第1の値(例えば、12)よりも小さいかまたはそれに等しいとき、残差データ294のサンプル値の解像度は第2の値(例えば、16)に保持される。CUの元のサンプル値のビット深度が第1の値(例えば、12)よりも大きいとき、残差データ294のサンプル値の解像度は、CUの元のサンプル値のビット深度(例えば、B)+第3の値(例えば、n4)に限定される。第3の値は、3よりも大きいかまたはそれに等しい値と、32よりも小さいかまたはそれに等しい値−CUの元のサンプル値のビット深度との間にある(例えば、n5≧3およびn5≦32−B)。
[0121] 図9Cは、本開示の1つまたは複数の技法による、図9Aと図9Bとの凝縮形態を示す例示的な一連の変換を示す概念図である。図9Cは、上記で説明した第6の例と第7の例の両方の効果を同時に示している。
[0122] 図10は、本開示の1つまたは複数の態様に従って技法を行い得るビデオエンコーダ20の一例を示すブロック図である。図10の例では、ビデオエンコーダ20は、ビデオデータメモリ300と、モード選択ユニット302と、復号ピクチャバッファ304と、加算器306と、変換処理ユニット308と、量子化ユニット310と、エントロピー符号化ユニット312とを含む。モード選択ユニット302は、動き補償ユニット314と、動き推定ユニット316と、イントラ予測処理ユニット318と、区分ユニット320とを含む。ビデオブロックの再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット322と、逆変換ユニット324と、加算器326とを含む。
[0123] ビデオデータメモリ300は、ビデオエンコーダ20の構成要素によって符号化されるべきビデオデータを記憶し得る。ビデオデータメモリ300に記憶されたビデオデータは、例えば、ビデオソース18から取得され得る。復号ピクチャバッファ304は、例えば、イントラコーディングモードまたはインターコーディングモードでビデオエンコーダ20によってビデオデータを符号化する際に使用するための、参照ビデオデータを記憶する参照ピクチャメモリであり得る。ビデオデータメモリ300および復号ピクチャバッファ116は、同期DRAM(SDRAM)を含む、ダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM(登録商標))、または他のタイプのメモリデバイスなど、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ300および復号ピクチャバッファ304は、同じメモリデバイスまたは別個のメモリデバイスによって与えられ得る。様々な例では、ビデオデータメモリ300は、ビデオエンコーダ20の他の構成要素とのオンチップであるか、またはそれらの構成要素に対してオフチップであり得る。
[0124] 符号化プロセス中に、ビデオエンコーダ20は、コーディングされるべきビデオフレームまたはスライスを受信する。フレームまたはスライスは複数のビデオブロックに分割され得る。このようにして、ビデオエンコーダ20は、符号化されるべきビデオフレーム内の現在ビデオブロックを受信し得る。
[0125] 動き推定ユニット316および動き補償ユニット314は、時間的予測を行うために、1つまたは複数の参照フレーム中の1つまたは複数のブロックに対して受信されたビデオブロックのインター予測コーディングを行う。イントラ予測処理ユニット318は、代替的に、空間的予測を行うために、コーディングされるべきブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対して受信されたビデオブロックのイントラ予測コーディングを行い得る。ビデオエンコーダ20は、例えば、ビデオデータのブロックごとに適切なコーディングモードを選択するために、複数のコーディングパスを行い得る。
[0126] 区分ユニット320は、以前のコーディングパスにおける以前の区分方式の評価に基づいて、ビデオデータのブロックをサブブロックに区分し得る。例えば、区分ユニット320は、レートひずみ分析(例えば、レートひずみ最適化)に基づいて、最初にフレームまたはスライスをLCUに区分し、LCUの各々をサブCUに区分し得る。モード選択ユニット302は、さらに、CUへのLCUの区分を示す4分木データ構造を生成し得る。4分木のリーフノードCUは、1つまたは複数のPUと、1つまたは複数のTUとを含み得る。
[0127] モード選択ユニット302は、例えば、誤差結果に基づいて、コーディングモード、イントラまたはインターのうちの1つを選択し得、得られたイントラコード化ブロックまたはインターコード化ブロックを加算器306に与え得る。加算器306は残差ブロックデータを生成し得る。例えば、加算器306は、残差ブロックデータの各サンプルが、現在CUのコーディングブロック中のサンプルと、現在CUのPUの予測ブロックの対応するサンプルとの間の差分に等しくなるように、現在CUの残差ブロックデータを生成し得る。加算器306は、図2の残差生成演算48と、図3、図4A、図4B、図5A、図5B、図5C、および図5Dの残差生成演算100とを行い得る。
[0128] 加算器326は、参照フレームとして使用するために符号化ブロック(すなわち、コーディングブロック)を再構成し得る。加算器326は、図2の再構成演算84と、図3、図4A、図4B、図5A、図5B、図5C、図5D、図6A、図6B、図6C、図6D、図7、図8、図9A、図9B、および図9Cの再構成演算120とを行い得る。モード選択ユニット302はまた、動きベクトル、イントラモードインジケータ、区分情報、および他のそのようなシンタックス情報など、シンタックス要素をエントロピー符号化ユニット312に与える。
[0129] 動き推定ユニット316によって行われる動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、例えば、現在フレーム(または他のコード化ユニット)内でコーディングされている現在ブロックに対する参照フレーム(または他のコード化ユニット)内の予測ブロックに対する現在ビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対差分和(SAD)、2乗差分和(SSD)、または他の差分メトリックによって決定され得るピクセル差分に関して、コーディングされるべきブロック(すなわち、予測ブロック)にぴったり一致することがわかるブロックである。
[0130] 動き補償ユニット314は動き補償を行い得る。動き補償は、動き推定ユニット316によってPUについて決定された1つまたは複数の動きベクトルに基づいて、PUのための1つまたは複数の予測ブロックをフェッチまたは生成することを伴い得る。現在ビデオブロックのPUのための動きベクトルを受信すると、動き補償ユニット314は、動きベクトルに基づいて、参照ピクチャリストのうちの1つのピクチャから予測ブロックを位置特定し得る。概して、動き推定ユニット316は、ルーマ成分に対して動き推定を行い、動き補償ユニット314は、クロマ成分とルーマ成分の両方について、ルーマ成分に基づいて計算された動きベクトルを使用する。モード選択ユニット302はまた、ビデオスライスのビデオブロックを復号する際のビデオデコーダ30による使用のために、ビデオブロックとビデオスライスとに関連付けられたシンタックス要素を生成し得る。
[0131] イントラ予測処理ユニット318は、動き推定ユニット316と動き補償ユニット314とによって行われるインター予測の代替として、現在ブロックをイントラ予測し得る。特に、イントラ予測処理ユニット318は、現在ブロックを符号化するために使用すべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測処理ユニット318は、例えば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測処理ユニット318(または、いくつかの例では、モード選択ユニット302)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。ブロックのイントラ予測モードを選択した後に、イントラ予測処理ユニット318は、エントロピー符号化ユニット312にブロックのための選択されたイントラ予測モードを示す情報を提供し得る。エントロピー符号化ユニット312は、選択されたイントラ予測モードを示す情報を符号化し得る。
[0132] ビデオエンコーダ20は、モード選択ユニット302からの予測データ(例えば、予測ブロック)と、コーディングされている元のビデオブロック(例えば、コーディングブロック)からのデータとの間の差分を決定することによって、残差ビデオブロックを形成し得る。加算器306は、この差分演算を行う1つまたは複数の構成要素を表す。変換処理ユニット308は、残差ブロックに変換を適用して、残差変換係数値を備えるビデオブロック(すなわち、変換係数ブロック)を生成し得る。例えば、変換処理ユニット308は、残差ブロックプロデュース残差係数値に離散コサイン変換(DCT)または概念的に同様の変換を適用し得る。
[0133] 変換処理ユニット308は、DCTと概念的に同様である他の変換を行い得る。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。いずれの場合でも、変換処理ユニット308は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル(またはサンプル)値領域から周波数領域などの変換領域に変換し得る。変換処理ユニット308は、得られた変換係数を量子化ユニット310に送り得る。
[0134] さらに、変換処理ユニット308は、残差データにACT変換および/またはCCP変換を適用し得る。さらに、本開示の1つまたは複数の技法によれば、変換処理ユニット308は、残差データにクリッピング演算を適用して、サンプル対変換領域変換、ACT変換、および/またはCCP変換から生じる残差データのビット深度を低減し得る。このようにして、変換処理ユニット308は、図2の変換60と、図3、図4A、図4B、図5A、図5B、図5C、および図5Dの変換104とを行い得る。さらに、変換処理ユニット308は、図2のCCP56と、図4A、図4B、図5A、図5B、図5C、および図5DのCCP150とを行い得る。さらに、変換処理ユニット308は、図2のACT52と、図4A、図4B、図5C、および図5DのACT154とを行い得る。いくつかの例では、変換処理ユニット308は、上記の第6および第7の例に関して説明した制約をエンフォースし得る。
[0135] 量子化ユニット310は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、係数の一部または全てに関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって修正され得る。いくつかの例では、量子化ユニット310は、図2の量子化演算64と、図3、図4A、図4B、図5A、図5B、図5C、および図5Dの量子化演算108とを行う。さらに、いくつかの例では、量子化ユニット310は、次いで、量子化された変換係数を含む行列の走査を行い得る。代替的に、エントロピー符号化ユニット312が走査を行い得る。
[0136] ビデオエンコーダ20は、コード化ビデオビットストリーム中で様々なパラメータセットを符号化し得る。そのようなパラメータセットは、1つもしくは複数のピクチャに共通であるシンタックス要素を含み得るピクチャパラメータセット(PPS)、および/またはピクチャの1つもしくは複数のシーケンスに共通であるシンタックス要素を含み得るシーケンスパラメータセットを含み得る。
[0137] 量子化に続いて、エントロピー符号化ユニット312は、量子化された変換係数をエントロピーコーディングする。言い換えれば、エントロピー符号化ユニット312は、量子化変換係数を表すシンタックス要素をエントロピー符号化し得る。例えば、エントロピー符号化ユニット312は、コンテキスト適応型バイナリ算術コーディング(CABAC)、コンテキスト適応型可変長コーディング(CAVLC)、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)、確率間隔区分エントロピー(PIPE)コーディングまたは別のエントロピーコーディング技法を行い得る。コンテキストベースエントロピーコーディングの場合、コンテキストは隣接ブロックに基づき得る。エントロピー符号化ユニット312によるエントロピーコーディングに続いて、ビデオエンコーダ20は、符号化ビットストリームを別のデバイス(例えば、ビデオデコーダ30)に送信するか、または後の送信もしくは取出しのためにアーカイブされ得る。図10の例では、送信機313がビットストリームを送信する。送信機313は出力インターフェース22の一部であり得る。
[0138] 逆量子化ユニット322および逆変換ユニット324は、例えば、参照ブロックとして後で使用するために、ピクセル領域において残差ブロックを生成するために、それぞれ逆量子化と逆変換とを適用する。例えば、逆量子化ユニット322は変換係数ブロックを逆量子化し得る。逆変換ユニット324は、逆量子化された変換係数ブロックに逆変換を適用することによってTUの変換ブロックを生成し得る。逆量子化ユニット322は、図2の逆量子化演算68と、図3、図4A、図4B、図5A、図5B、図5C、図5D、図6A、図6B、図6C、図6D、図7、図8、図9A、図9B、および図9Cの逆量子化演算112とを行い得る。逆変換ユニット322は、図2の逆変換72と、図3、図4A、図4B、図5A、図5B、図5C、図5D、図6A、図6B、図6C、図6D、図7、図8、図9A、図9B、および図9Cの逆変換116とを行い得る。さらに、逆変換ユニット322は、図2のICCP76と、図4A、図4B、図5A、図5B、図5C、図5D、図6A、図6B、図6C、図6D、図7、図9A、図9B、および図9CのICCP152とを行い得る。逆変換ユニット322は、図2のIACT80と、図4B、図5C、図5D、図6A、図6B、図6C、図6D、図7、図8、図9A、図9B、および図9CのIACT156とを行い得る。
[0139] 逆量子化ユニット322、逆変換ユニット324、および加算器326は、ビデオエンコーダ20の復号ループを形成し得る。本開示の1つまたは複数の技法によれば、逆変換ユニット324は、逆ACTと逆CCP変換とを適用し得る。さらに、本開示の1つまたは複数の技法によれば、逆変換ユニット324は、本開示の他の場所の例において説明しているように、クリッピング演算を行い得る。
[0140] 加算器326は、残差ブロックを、動き補償ユニット314によって生成された動き補償された予測ブロックに加算して、復号ピクチャバッファ304に記憶するための再構成されたビデオブロックを生成する。動き推定ユニット316および動き補償ユニット314は、後続のビデオフレーム中のブロックをインターコーディング(すなわち、インター予測)するために、再構築されたビデオブロックを参照ブロックとして使用し得る。
[0141] 動き推定ユニット316は、インター予測された1つまたは複数のPUのピクセル値を予測するためにビデオエンコーダ20が使用し得る1つまたは複数の参照ピクチャを決定し得る。動き推定ユニット316は、ピクチャが参照のために使用されないとマークされるまで、参照ピクチャを復号ピクチャバッファ304に記憶し得る。ビデオエンコーダ20のモード選択ユニット302は、1つまたは複数の参照ピクチャについての識別情報を含む様々なシンタックス要素を符号化し得る。
[0142] 図11は、本開示の1つまたは複数の態様に従って技法を行い得るビデオデコーダの一例を示すブロック図である。図11の例では、ビデオデコーダ30は、ビデオデータメモリ350と、エントロピー復号ユニット352と、動き補償ユニット354と、イントラ予測処理ユニット356と、逆量子化ユニット358と、逆変換ユニット360と、復号ピクチャバッファ362と、加算器364とを含む。いくつかの例では、ビデオデコーダ30は、ビデオエンコーダ20(図1および図10)に関して説明した符号化パスとは概して逆の復号パスを行い得る。
[0143] ビデオデータメモリ350は、ビデオデコーダ30の構成要素によって復号されるべき、符号化ビデオビットストリームなどのビデオデータを記憶し得る。ビデオデータメモリ350に記憶されるビデオデータは、例えば、チャネル16(図1)から、例えば、カメラなどのローカルビデオソースから、ビデオデータのワイヤードまたはワイヤレスネットワーク通信を介して、あるいは物理データ記憶媒体にアクセスすることによって取得され得る。ビデオデータメモリ350は、符号化ビデオビットストリームからの符号化ビデオデータを記憶するコーディングピクチャバッファ(CPB)を形成し得る。復号ピクチャバッファ362は、例えば、イントラコーディングモードまたはインターコーディングモードでビデオデコーダ30によってビデオデータを復号する際に使用するための参照ビデオデータを記憶する参照ピクチャメモリであり得る。ビデオデータメモリ350および復号ピクチャバッファ362は、同期DRAM(SDRAM)を含む、ダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗RAM(RRAM)、または他のタイプのメモリデバイスなど、様々なメモリデバイスのうちのいずれかによって形成され得る。ビデオデータメモリ350および復号ピクチャバッファ362は、同じメモリデバイスまたは別個のメモリデバイスによって与えられ得る。様々な例では、ビデオデータメモリ350は、ビデオデコーダ30の他の構成要素とともにオンチップであるか、またはそれらの構成要素に対してオフチップであり得る。図11の例に示されているように、ビデオデコーダ30は、受信機361から符号化ビデオビットストリームを受信し得る。受信機361は入力インターフェース28の一部であり得る。
[0144] 復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から符号化ビデオスライスのビデオブロック並びに関連するシンタックス要素および/またはシンタックスデータを表す符号化ビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット352は、量子化係数と、動きベクトルまたはイントラ予測モードインジケータと、他のシンタックス要素とを生成するために、ビットストリームをエントロピー復号する。エントロピー復号ユニット352は、シンタックス要素を動き補償ユニット354に転送し得る。
[0145] エントロピー複号ユニット352は、様々なパラメータセット中の追加のシンタックス要素を復号し、パースし得る。そのようなパラメータセットは、1つもしくは複数のピクチャに共通であるシンタックス要素を含み得るPPS、および/またはピクチャの1つもしくは複数のシーケンスに共通であるシンタックス要素を含み得るSPSを含み得る。
[0146] ビデオデコーダ30は、復号ピクチャバッファ362に記憶された参照ピクチャに基づいて(例えば、デフォルト構成技法を使用して)、参照ピクチャリストと、リスト0とリスト1とを構成し得る。ビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、イントラ予測処理ユニット356は、現在ビデオスライスのビデオブロックについての予測データを生成し得る。イントラ予測処理ユニット356は、シグナリングされたイントラ予測モードと、現在フレームまたはピクチャの以前に復号されたブロックからのデータとに基づいて予測データを生成し得る。ビデオデコーダ30がビデオフレームのスライスをインターコード化(すなわち、BまたはP)スライスとしてコーディングするとき、動き補償ユニット354は、エントロピー復号ユニット352から受信された動きベクトルと他のシンタックス要素とに基づいて、現在ビデオスライスのビデオブロックのための予測ブロックを生成し得る。動き補償ユニット354は、参照ピクチャリストのうちの1つ内の参照ピクチャのうち1つから予測ブロックを生じ得る。
[0147] 動き補償ユニット354は、現在ビデオスライスのビデオブロックについての予測情報を決定するために動きベクトルおよび/またはシンタックス要素を使用し得る。いくつかの例では、動き補償ユニット354は、エントロピー復号ユニット352から受信された動きベクトルに基づいて予測情報を生成し得る。動き補償ユニット354は、予測情報を使用して、復号されている現在ビデオブロックのための予測ブロックを生成し得る。例えば、動き補償ユニット354は、現在ビデオスライスのビデオブロックをコーディングするために使用される予測モード(例えば、イントラ予測またはインター予測)と、インター予測スライスタイプ(例えば、BスライスまたはPスライススライス)と、スライスのための参照ピクチャリストのうちの1つまたは複数についての構成情報と、現在ビデオスライスの各インター符号化ビデオブロックについての動きベクトルと、スライスの各インターコード化ビデオブロックについてのインター予測ステータスと、現在ビデオスライス中のビデオブロックを復号するための他の情報とを決定するために、受信されたシンタックス要素のうちのいくつかを使用する。
[0148] 逆量子化ユニット358は、ビットストリーム中で与えられ、エントロピー復号ユニット352によって復号された量子化変換係数を逆量子化、すなわち、量子化解除する。逆量子化プロセスは、量子化の程度を決定し、同様に、適用されるべき逆量子化の程度を決定するために、量子化パラメータQPYの使用を含み得る。ビデオデコーダ30は、ビデオスライス中の各ビデオブロックについて量子化パラメータQPYを計算し得る。
[0149] 逆変換ユニット360は、量子化解除された変換係数ブロックを受信し得る。現在ブロックについて変換がスキップされる場合、逆変換ユニット360は、量子化解除された残差ブロックを受信し得る。逆変換ユニット360は、逆変換を使用して、受信されたブロックを変換し得る。いくつかの例では、ピクセル領域中に残差ブロック(例えば、変換ブロック)を生成するための、変換係数への逆変換(例えば、逆DCT、逆整数変換、または概念的に同様の逆変換プロセス)。逆変換ユニット360は、「残差信号」と呼ばれる信号を出力し得る。
[0150] さらに、逆変換ユニット360は、(逆コサイン変換または逆サイン変換など)逆変換された残差データに逆ACT変換および/または逆CCP変換を適用し得る。さらに、本開示の1つまたは複数の技法によれば、逆変換ユニット360は、逆変換された残差データにクリッピング演算を適用して、変換対サンプル領域変換、逆ACT変換、および/または逆CCP変換から生じる逆変換された残差データのビット深度を低減し得る。
[0151] ビデオデコーダ30はまた、シンタックス要素または他の情報に基づいて現在ブロックがイントラ予測されていることを決定し得る。現在ビデオブロックがイントラ予測される場合、イントラ予測処理ユニット356は現在ブロックを復号し得る。イントラ予測処理ユニット356は、現在ブロックと同じピクチャから隣接する予測ブロックを決定し得る。イントラ予測処理ユニット356は、予測ブロックに基づいて変換係数ブロックおよび/または残差ブロックを生成し得る。
[0152] 動き補償ユニット354またはイントラ予測処理ユニット356が、動きベクトルおよび他のシンタックス要素に基づいて現在ビデオブロックのための変換係数ブロックおよび/または残差ブロックを生成した後に、ビデオデコーダ30は、逆変換ユニット358からの残差ブロックを、動き補償ユニット354によって生成された対応する予測ブロックと合成することによって、復号ビデオブロックを形成する。加算器364は、この加算演算を行う1つまたは複数の構成要素を表す。復号ピクチャバッファ362は、復号ビデオブロックを所与のフレームまたはピクチャに記憶し、ビデオデコーダ30は、それを後続の動き補償のために使用し得る。復号ピクチャバッファ362はまた、図1のディスプレイデバイス32など、ディスプレイデバイス上での後の表示のために、復号ビデオを記憶し得る。
[0153] 動き補償ユニット354および/またはイントラ予測処理ユニット356は、ルーマ残差ブロックと、スケールファクタと、予測クロマ残差サンプルとに基づいて、クロマ残差サンプルのブロックを決定し得る。クロマ残差サンプルのブロックを用いて、加算器364は、クロマ残差サンプルおよびルーマ残差サンプルを予測ブロックのそれぞれのクロマサンプルおよびルーマサンプルと加算して、現在ブロックを復号(例えば、現在ブロックを再構成)し得る。加算器364は、図3、図4A、図4B、図5A、図5B、図5C、図5D、図6A、図6B、図6C、図6D、図7、図8、図9A、図9B、および図9Cの再構成演算120を行い得る。ビデオデコーダ30が、再構成されたビデオを生成すると、ビデオデコーダ30は、いくつかの例では、再構成されたビデオブロックを(例えば、表示または記憶のために)復号ビデオとして出力し得る。
[0154] 上記で説明したように、インター予測中に、動き補償ユニット354は、復号されている現在ブロックのための予測ビデオブロックを形成するためにビデオデコーダ30が使用し得る1つまたは複数の参照ピクチャを決定し得る。動き補償ユニット354は、参照ピクチャが参照のために使用されないとマークされるまで、参照ピクチャを復号ピクチャバッファ362に記憶し得る。
[0155] 図12は、本開示の技法による、ビデオコーダの例示的な動作を示すフローチャートである。図12の動作は、ビデオエンコーダ(例えば、図1および図10のビデオエンコーダ20)、ビデオデコーダ(例えば、図1および図11のビデオデコーダ30)、あるいは別のユニットまたはデバイスによって行われ得る。
[0156] 図12の例では、ビデオコーダは、第1の残差データのビット深度に基づいて第1の残差データを可変範囲にクリッピングし得る(402)。いくつかの例では、ビデオコーダは、変換された残差データに逆変換を適用することによって第1の逆変換された残差データを生成し得る。いくつかの例では、逆変換は、変換領域からサンプル領域への変換である。例えば、逆変換は逆離散コサイン変換または逆離散サイン変換であり得る。他の例では、逆変換はICCPであり得る。第1の残差データはIACTへの入力である。
[0157] さらに、ビデオコーダは、クリッピングされた第1の残差データにIACTを適用することに少なくとも部分的によって第2の残差データを生成し得る(404)。いくつかの例では、第2の残差データを生成するためにIACTに加えて1つまたは複数の変更が適用され得る。ビデオコーダは、第2の残差データに基づいて、ビデオデータのCUのコーディングブロックを再構成し得る(406)。例えば、ビデオコーダは、第2の残差データのサンプルに対応するコーディングブロックの各それぞれのサンプルが、第2の残差データのサンプルとCUのPUの予測ブロックの対応するサンプルとの和に(例えば、可能な丸め誤差で)実質的に等しくなるように、CUのコーディングブロックを再構成し得る。
[0158] この例では、ビデオコーダは、残差データに逆変換を適用することによって第1の残差データを生成し得る。第1の残差データを生成した後に、および第2の残差データを生成するより前に、
(i)第1の逆変換された残差データのビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、ビデオコーダは、第1の逆変換された残差データの解像度を特定の解像度に保持することができるか、あるいは
(ii)第1の逆変換された残差データのビット深度が特定の値よりも大きいことに基づいて、ビデオコーダは、第1の逆変換された残差データにクリッピング演算を適用し得る。
この例では、ビデオコーダは、第1の残差データにIACTを適用することによって第2の残差データを生成し得る。ビデオコーダは、第2の残差データに基づいて、ビデオデータのCUのコーディングブロックを再構成し得る。
[0159] 上記の例に応じて、本明細書で説明した技法のうちのいずれかのいくつかの行為またはイベントは、異なるシーケンスで行われ得、追加、マージ、または完全に除外され得る(例えば、全ての説明した行為またはイベントが本技法の実践のために必要であるとは限らない)ことを認識されたい。その上、いくつかの例では、行為またはイベントは、連続的にではなく、例えば、マルチスレッド処理、割込み処理、または複数のプロセッサを通して同時に行われ得る。
[0160] 1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実施され得る。例えば、図10および図11のブロックは、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せにおいて実施され得る。ソフトウェアで実施された場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベース処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応する、コンピュータ可読記憶媒体を含み得るか、または、例えば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的な有形コンピュータ可読記憶媒体、または(2)信号もしくは搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実施のための命令、コードおよび/またはデータ構造を取り出すために、1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る、任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
[0161] 限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMもしくは他の光ディスクストレージ、磁気ディスクストレージ、もしくは他の磁気ストレージデバイス、フラッシュメモリ、または、命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を備えることができる。また、いかなるコン(con)もコンピュータ可読媒体と適切に呼ばれる。例えば、命令が、ウェブサイト、サーバ、または他のリモートソースから、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含むのではなく、代わりに、非一時的な有形記憶媒体を対象とすることを理解されたい。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびBlu−rayディスク(disc)を含み、ここで、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲に含まれるべきである。
[0162] 命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路など、1つまたは複数のプロセッサによって実行され得る。従って、本明細書で使用される「プロセッサ」という用語は、上記の構造、または本明細書で説明した技法の実施に好適な他の構造のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用ハードウェアおよび/またはソフトウェアモジュール内に与えられるか、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素において完全に実施され得る。
[0163] 本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(例えば、チップセット)を含む、多種多様なデバイスまたは装置において実施され得る。本開示では、開示された技法を行うように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられ得るか、または相互動作可能なハードウェアユニットの集合によって与えられ得る。
[0164] 様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内にある。
[0164] 様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内にある。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータを符号化または復号する方法であって、
第1の残差データのビット深度に基づいて前記第1の残差データを可変範囲にクリッピングすることと、
前記クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成することと、
前記第2の残差データに基づいて、前記ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成することとを備える、方法。
[C2]
前記第1の残差データをクリッピングすることは、
前記第1の残差データの前記ビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、前記第1の残差データの解像度を特定の解像度に保持することと、
前記第1の残差データの前記ビット深度が前記特定の値よりも大きいことに基づいて、前記第1の残差データにクリッピング演算を適用することとを備える、C1に記載の方法。
[C3]
前記特定の値は12である、C2に記載の方法。
[C4]
前記第1の残差データをクリッピングすることは、前記第1の残差データが(i)前記第1の残差データのビット深度+ある値と、(ii)前記特定の解像度とのうちの最大値に等しいビット深度を有するように、前記第1の残差データをクリッピングすることを備える、C2に記載の方法。
[C5]
前記第1の残差データを生成するために逆クロス成分予測(ICCP)変換を適用することをさらに備える、C1に記載の方法。
[C6]
前記第1の残差データを生成するために変換領域からサンプル領域への逆変換を適用することをさらに備える、C1に記載の方法。
[C7]
前記逆変換は逆離散コサイン変換である、C6に記載の方法。
[C8]
ワイヤレス通信デバイス上で実行可能であり、ここにおいて、前記ワイヤレス通信デバイスは、
前記ビデオデータを記憶するように構成されたメモリと、
前記メモリに記憶された前記ビデオデータを処理するための命令を実行するように構成されたプロセッサと、
前記ビデオデータの符号化表現を備えるビットストリームを送信するように構成された送信機、前記ビデオデータの前記符号化表現が前記CUの符号化表現を備える、または
前記ビデオデータの前記符号化表現を備える前記ビットストリームを受信するように構成された受信機
のうちの少なくとも1つとを備える、C1に記載の方法。
[C9]
前記ワイヤレス通信デバイスはセルラー電話であり、
前記ビットストリームはセルラー通信規格に従って変調され、
前記ビットストリームは前記送信機によって送信される、または
前記ビットストリームは前記受信機によって受信される
のうちの少なくとも1つ、C8に記載の方法。
[C10]
ビデオデータを符号化または復号するためのデバイスであって、
前記ビデオデータを記憶するように構成されたメモリと、
第1の残差データのビット深度に基づいて前記第1の残差データを可変範囲にクリッピングすることと、
前記クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の逆変換された残差データを生成することと、
前記第2の逆変換された残差データに基づいて、前記ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成することと
を行うように構成された1つまたは複数のプロセッサとを備える、デバイス。
[C11]
前記1つまたは複数のプロセッサは、前記第1の残差データをクリッピングすることの一部として、前記1つまたは複数のプロセッサが、
前記第1の残差データの前記ビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、前記第1の残差データの解像度を特定の解像度に保持することと、
前記第1の残差データの前記ビット深度が前記特定の値よりも大きいことに基づいて、前記第1の残差データにクリッピング演算を適用することとを行うように構成された、C10に記載のデバイス。
[C12]
前記特定の値は12である、C11に記載のデバイス。
[C13]
前記1つまたは複数のプロセッサは、前記第1の残差データに前記クリッピング演算を適用することの一部として、前記1つまたは複数のプロセッサが、前記第1の残差データが(i)前記第1の残差データのビット深度+ある値と、(ii)前記特定の解像度とのうちの最大値に等しいビット深度を有するように、前記第1の残差データをクリッピングするように構成された、C11に記載のデバイス。
[C14]
前記1つまたは複数のプロセッサは、前記第1の残差データを生成するために逆クロス成分予測(ICCP)変換を適用するように構成された、C10に記載のデバイス。
[C15]
前記1つまたは複数のプロセッサは、前記第1の残差データを生成するために変換領域からサンプル領域への逆変換を適用するように構成された、C10に記載のデバイス。
[C16]
前記逆変換は逆離散コサイン変換である、C15に記載のデバイス。
[C17]
前記1つまたは複数のプロセッサに通信可能に結合された送信機、前記送信機が、前記ビデオデータの符号化表現を備えるビットストリームを送信するように構成され、前記ビデオデータの前記符号化表現が前記CUの符号化表現を備える、または
前記1つまたは複数のプロセッサに通信可能に結合された受信機、前記受信機が、前記ビデオデータの前記符号化表現を備える前記ビットストリームを受信するように構成された、のうちの少なくとも1つをさらに備える、ワイヤレス通信デバイスである、C10に記載のデバイス。
[C18]
前記ワイヤレス通信デバイスはセルラー電話であり、
前記ビットストリームはセルラー通信規格に従って変調され、
前記ビットストリームは前記送信機によって送信される、または
前記ビットストリームは前記受信機によって受信される
のうちの少なくとも1つ、C17に記載のデバイス。
[C19]
ビデオデータを符号化または復号するためのデバイスであって、
第1の残差データのビット深度に基づいて前記第1の残差データを可変範囲にクリッピングするための手段と、
前記クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成するための手段と、
前記第2の逆変換された残差データに基づいて、前記ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成するための手段とを備える、デバイス。
[C20]
前記第1の残差データをクリッピングするための前記手段は、
前記第1の残差データの前記ビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、前記第1の残差データの解像度を特定の解像度に保持するための手段と、
前記第1の残差データの前記ビット深度が前記特定の値よりも大きいことに基づいて、前記第1の残差データにクリッピング演算を適用するための手段とを備える、C19に記載のデバイス。
[C21]
前記特定の値は12である、C20に記載のデバイス。
[C22]
前記第1の残差データをクリッピングするための前記手段は、前記第1の残差データが(i)前記第1の残差データのビット深度+ある値と、(ii)前記特定の解像度とのうちの最大値に等しいビット深度を有するように、前記第1の残差データをクリッピングするための手段を備える、C20に記載のデバイス。
[C23]
前記第1の残差データを生成するために逆クロス成分予測(ICCP)変換を適用するための手段をさらに備える、C19に記載のデバイス。
[C24]
前記第1の残差データを生成するために変換領域からサンプル領域への逆変換を適用するための手段をさらに備える、C19に記載のデバイス。
[C25]
前記逆変換は逆離散コサイン変換である、C24に記載のデバイス。
[C26]
命令を記憶したコンピュータ可読記憶媒体であって、前記命令は実行されたとき、ビデオデータを符号化または復号するためのデバイスの1つまたは複数のプロセッサに、
第1の残差データのビット深度に基づいて前記第1の残差データを可変範囲にクリッピングすることと、
前記クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成することと、
前記第2の残差データに基づいて、前記ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成することとを行わせる、コンピュータ可読記憶媒体。
[C27]
前記命令は、
前記第1の残差データの前記ビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、前記第1の残差データの解像度を特定の解像度に保持することと、
前記第1の残差データの前記ビット深度が前記特定の値よりも大きいことに基づいて、前記第1の残差データにクリッピング演算を適用することとを前記1つまたは複数のプロセッサに行わせることに部分的によって、前記第1の残差データをクリッピングすることを前記1つまたは複数のプロセッサに行わせる、C26に記載のコンピュータ可読記憶媒体。
[C28]
前記命令は、前記第1の残差データが(i)前記第1の残差データのビット深度+ある値と、(ii)前記特定の解像度とのうちの最大値に等しいビット深度を有するように、前記第1の残差データをクリッピングすることを前記1つまたは複数のプロセッサに行わせることに部分的によって、前記第1の残差データをクリッピングすることを前記1つまたは複数のプロセッサに行わせる、C26に記載のコンピュータ可読記憶媒体。

Claims (28)

  1. ビデオデータを符号化または復号する方法であって、
    第1の残差データのビット深度に基づいて前記第1の残差データを可変範囲にクリッピングすることと、
    前記クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成することと、
    前記第2の残差データに基づいて、前記ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成することと
    を備える、方法。
  2. 前記第1の残差データをクリッピングすることは、
    前記第1の残差データの前記ビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、前記第1の残差データの解像度を特定の解像度に保持することと、
    前記第1の残差データの前記ビット深度が前記特定の値よりも大きいことに基づいて、前記第1の残差データにクリッピング演算を適用することと
    を備える、請求項1に記載の方法。
  3. 前記特定の値は12である、請求項2に記載の方法。
  4. 前記第1の残差データをクリッピングすることは、前記第1の残差データが(i)前記第1の残差データのビット深度+ある値と、(ii)前記特定の解像度とのうちの最大値に等しいビット深度を有するように、前記第1の残差データをクリッピングすることを備える、請求項2に記載の方法。
  5. 前記第1の残差データを生成するために逆クロス成分予測(ICCP)変換を適用することをさらに備える、請求項1に記載の方法。
  6. 前記第1の残差データを生成するために変換領域からサンプル領域への逆変換を適用することをさらに備える、請求項1に記載の方法。
  7. 前記逆変換は逆離散コサイン変換である、請求項6に記載の方法。
  8. ワイヤレス通信デバイス上で実行可能であり、ここにおいて、前記ワイヤレス通信デバイスは、
    前記ビデオデータを記憶するように構成されたメモリと、
    前記メモリに記憶された前記ビデオデータを処理するための命令を実行するように構成されたプロセッサと、
    前記ビデオデータの符号化表現を備えるビットストリームを送信するように構成された送信機、前記ビデオデータの前記符号化表現が前記CUの符号化表現を備える、または
    前記ビデオデータの前記符号化表現を備える前記ビットストリームを受信するように構成された受信機
    のうちの少なくとも1つと
    を備える、請求項1に記載の方法。
  9. 前記ワイヤレス通信デバイスはセルラー電話であり、
    前記ビットストリームはセルラー通信規格に従って変調され、
    前記ビットストリームは前記送信機によって送信される、または
    前記ビットストリームは前記受信機によって受信される
    のうちの少なくとも1つ、
    請求項8に記載の方法。
  10. ビデオデータを符号化または復号するためのデバイスであって、
    前記ビデオデータを記憶するように構成されたメモリと、
    第1の残差データのビット深度に基づいて前記第1の残差データを可変範囲にクリッピングすることと、
    前記クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の逆変換された残差データを生成することと、
    前記第2の逆変換された残差データに基づいて、前記ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成することと
    を行うように構成された1つまたは複数のプロセッサと
    を備える、デバイス。
  11. 前記1つまたは複数のプロセッサは、前記第1の残差データをクリッピングすることの一部として、前記1つまたは複数のプロセッサが、
    前記第1の残差データの前記ビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、前記第1の残差データの解像度を特定の解像度に保持することと、
    前記第1の残差データの前記ビット深度が前記特定の値よりも大きいことに基づいて、前記第1の残差データにクリッピング演算を適用することと
    を行うように構成された、請求項10に記載のデバイス。
  12. 前記特定の値は12である、請求項11に記載のデバイス。
  13. 前記1つまたは複数のプロセッサは、前記第1の残差データに前記クリッピング演算を適用することの一部として、前記1つまたは複数のプロセッサが、前記第1の残差データが(i)前記第1の残差データのビット深度+ある値と、(ii)前記特定の解像度とのうちの最大値に等しいビット深度を有するように、前記第1の残差データをクリッピングするように構成された、請求項11に記載のデバイス。
  14. 前記1つまたは複数のプロセッサは、前記第1の残差データを生成するために逆クロス成分予測(ICCP)変換を適用するように構成された、請求項10に記載のデバイス。
  15. 前記1つまたは複数のプロセッサは、前記第1の残差データを生成するために変換領域からサンプル領域への逆変換を適用するように構成された、請求項10に記載のデバイス。
  16. 前記逆変換は逆離散コサイン変換である、請求項15に記載のデバイス。
  17. 前記1つまたは複数のプロセッサに通信可能に結合された送信機、前記送信機が、前記ビデオデータの符号化表現を備えるビットストリームを送信するように構成され、前記ビデオデータの前記符号化表現が前記CUの符号化表現を備える、または
    前記1つまたは複数のプロセッサに通信可能に結合された受信機、前記受信機が、前記ビデオデータの前記符号化表現を備える前記ビットストリームを受信するように構成された、
    のうちの少なくとも1つをさらに備える、ワイヤレス通信デバイスである、請求項10に記載のデバイス。
  18. 前記ワイヤレス通信デバイスはセルラー電話であり、
    前記ビットストリームはセルラー通信規格に従って変調され、
    前記ビットストリームは前記送信機によって送信される、または
    前記ビットストリームは前記受信機によって受信される
    のうちの少なくとも1つ、
    請求項17に記載のデバイス。
  19. ビデオデータを符号化または復号するためのデバイスであって、
    第1の残差データのビット深度に基づいて前記第1の残差データを可変範囲にクリッピングするための手段と、
    前記クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成するための手段と、
    前記第2の逆変換された残差データに基づいて、前記ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成するための手段と
    を備える、デバイス。
  20. 前記第1の残差データをクリッピングするための前記手段は、
    前記第1の残差データの前記ビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、前記第1の残差データの解像度を特定の解像度に保持するための手段と、
    前記第1の残差データの前記ビット深度が前記特定の値よりも大きいことに基づいて、前記第1の残差データにクリッピング演算を適用するための手段と
    を備える、請求項19に記載のデバイス。
  21. 前記特定の値は12である、請求項20に記載のデバイス。
  22. 前記第1の残差データをクリッピングするための前記手段は、前記第1の残差データが(i)前記第1の残差データのビット深度+ある値と、(ii)前記特定の解像度とのうちの最大値に等しいビット深度を有するように、前記第1の残差データをクリッピングするための手段を備える、請求項20に記載のデバイス。
  23. 前記第1の残差データを生成するために逆クロス成分予測(ICCP)変換を適用するための手段をさらに備える、請求項19に記載のデバイス。
  24. 前記第1の残差データを生成するために変換領域からサンプル領域への逆変換を適用するための手段をさらに備える、請求項19に記載のデバイス。
  25. 前記逆変換は逆離散コサイン変換である、請求項24に記載のデバイス。
  26. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は実行されたとき、ビデオデータを符号化または復号するためのデバイスの1つまたは複数のプロセッサに、
    第1の残差データのビット深度に基づいて前記第1の残差データを可変範囲にクリッピングすることと、
    前記クリッピングされた第1の残差データに逆適応色変換(IACT)を適用することに少なくとも部分的によって第2の残差データを生成することと、
    前記第2の残差データに基づいて、前記ビデオデータのコーディングユニット(CU)のコーディングブロックを再構成することと
    を行わせる、コンピュータ可読記憶媒体。
  27. 前記命令は、
    前記第1の残差データの前記ビット深度が特定の値よりも小さいかまたはそれに等しいことに基づいて、前記第1の残差データの解像度を特定の解像度に保持することと、
    前記第1の残差データの前記ビット深度が前記特定の値よりも大きいことに基づいて、前記第1の残差データにクリッピング演算を適用することと
    を前記1つまたは複数のプロセッサに行わせることに部分的によって、前記第1の残差データをクリッピングすることを前記1つまたは複数のプロセッサに行わせる、請求項26に記載のコンピュータ可読記憶媒体。
  28. 前記命令は、前記第1の残差データが(i)前記第1の残差データのビット深度+ある値と、(ii)前記特定の解像度とのうちの最大値に等しいビット深度を有するように、前記第1の残差データをクリッピングすることを前記1つまたは複数のプロセッサに行わせることに部分的によって、前記第1の残差データをクリッピングすることを前記1つまたは複数のプロセッサに行わせる、請求項26に記載のコンピュータ可読記憶媒体。
JP2017540094A 2015-01-30 2016-01-27 ビデオコーディングのためのクロス成分予測および適応色変換のためのクリッピング Active JP6608454B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201562110324P 2015-01-30 2015-01-30
US62/110,324 2015-01-30
US201562113269P 2015-02-06 2015-02-06
US62/113,269 2015-02-06
US201562115487P 2015-02-12 2015-02-12
US62/115,487 2015-02-12
US15/006,563 2016-01-26
US15/006,563 US10158836B2 (en) 2015-01-30 2016-01-26 Clipping for cross-component prediction and adaptive color transform for video coding
PCT/US2016/015149 WO2016123232A1 (en) 2015-01-30 2016-01-27 Clipping for cross-component prediction and adaptive color transform for video coding

Publications (3)

Publication Number Publication Date
JP2018507622A true JP2018507622A (ja) 2018-03-15
JP2018507622A5 JP2018507622A5 (ja) 2019-03-07
JP6608454B2 JP6608454B2 (ja) 2019-11-20

Family

ID=55398431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017540094A Active JP6608454B2 (ja) 2015-01-30 2016-01-27 ビデオコーディングのためのクロス成分予測および適応色変換のためのクリッピング

Country Status (9)

Country Link
US (1) US10158836B2 (ja)
EP (1) EP3251359A1 (ja)
JP (1) JP6608454B2 (ja)
KR (1) KR102060868B1 (ja)
CN (1) CN107211151B (ja)
AU (1) AU2016211519B2 (ja)
BR (1) BR112017016380A2 (ja)
TW (1) TWI678100B (ja)
WO (1) WO2016123232A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022553450A (ja) * 2020-01-05 2022-12-22 ベイジン・ダジア・インターネット・インフォメーション・テクノロジー・カンパニー,リミテッド 4:4:4色差フォーマットにおけるビデオコーディングの方法及び装置

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3198556B1 (en) * 2014-09-26 2018-05-16 Dolby Laboratories Licensing Corp. Encoding and decoding perceptually-quantized video content
EP3297282A1 (en) * 2016-09-15 2018-03-21 Thomson Licensing Method and apparatus for video coding with adaptive clipping
WO2019065487A1 (ja) * 2017-09-28 2019-04-04 シャープ株式会社 値制限フィルタ装置、動画像符号化装置および動画像復号装置
US11115660B2 (en) * 2018-04-30 2021-09-07 Mediatek Inc. Method and apparatus of syntax interleaving for separate coding tree in video coding
CN109451305B (zh) * 2018-10-26 2021-05-07 西安科锐盛创新科技有限公司 带宽压缩中的预测方法
CN113273203B (zh) * 2018-12-22 2024-03-12 北京字节跳动网络技术有限公司 两步交叉分量预测模式
US12114000B2 (en) * 2019-03-08 2024-10-08 Qualcomm Incorporated Combined residual coding in video coding
JP7233565B2 (ja) * 2019-03-24 2023-03-06 北京字節跳動網絡技術有限公司 ビデオ処理におけるマルチパラメータ適応ループフィルタリング
KR102609947B1 (ko) 2019-04-02 2023-12-04 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 양방향 광학 흐름 기반 비디오 코딩 및 디코딩
WO2020211864A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Region based gradient calculation in different motion vector refinements
CN113711609B (zh) 2019-04-19 2023-12-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程中的增量运动矢量
CN113711608B (zh) 2019-04-19 2023-09-01 北京字节跳动网络技术有限公司 利用光流的预测细化过程的适用性
US10818083B1 (en) * 2019-04-30 2020-10-27 International Business Machines Corporation Pyramid generation via depth-first walk
CN118138754A (zh) 2019-06-14 2024-06-04 北京字节跳动网络技术有限公司 处理视频单元边界和虚拟边界
WO2021004542A1 (en) 2019-07-11 2021-01-14 Beijing Bytedance Network Technology Co., Ltd. Sample padding in adaptive loop filtering
KR20230117266A (ko) 2019-10-11 2023-08-07 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 4:4:4 크로마 포맷의 비디오 코딩 방법 및 장치
WO2021121419A1 (en) 2019-12-19 2021-06-24 Beijing Bytedance Network Technology Co., Ltd. Interaction between adaptive color transform and quantization parameters
WO2021138476A1 (en) * 2019-12-30 2021-07-08 Beijing Dajia Internet Information Technology Co., Ltd. Coding of chrominance residuals
CN115191118A (zh) 2020-01-05 2022-10-14 抖音视界有限公司 在视频编解码中使用自适应颜色变换
WO2021139707A1 (en) * 2020-01-08 2021-07-15 Beijing Bytedance Network Technology Co., Ltd. Joint coding of chroma residuals and adaptive color transforms
CN115176470A (zh) * 2020-01-18 2022-10-11 抖音视界有限公司 图像/视频编解码中的自适应颜色变换
KR20220128338A (ko) * 2020-01-24 2022-09-20 소니그룹주식회사 화상 처리 장치 및 방법
WO2021150086A1 (ko) * 2020-01-25 2021-07-29 엘지전자 주식회사 Act 레지듀얼 기반 영상 또는 비디오 코딩
US12088832B2 (en) * 2020-01-25 2024-09-10 Lg Electronics Inc. Image or video coding for residuals using color space transformation
US12120299B2 (en) * 2020-01-25 2024-10-15 Lg Electronics Inc. Image or video coding based on color space conversion
WO2021252995A1 (en) 2020-06-12 2021-12-16 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatus of video coding in 4:4:4 color format
US20240080463A1 (en) * 2022-09-02 2024-03-07 Tencent America LLC Cross component sample clipping
CN117612072B (zh) * 2024-01-23 2024-04-19 中国科学技术大学 一种基于动态时空图的视频理解方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1538844A3 (en) * 2003-11-26 2006-05-31 Samsung Electronics Co., Ltd. Color image residue transformation and encoding method
US7949044B2 (en) 2005-04-12 2011-05-24 Lsi Corporation Method for coefficient bitdepth limitation, encoder and bitstream generation apparatus
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
US9456111B2 (en) * 2010-06-15 2016-09-27 Mediatek Inc. System and method for content adaptive clipping
CN104054338B (zh) * 2011-03-10 2019-04-05 杜比实验室特许公司 位深和颜色可伸缩视频编码
US9807403B2 (en) * 2011-10-21 2017-10-31 Qualcomm Incorporated Adaptive loop filtering for chroma components
US20140198846A1 (en) 2013-01-16 2014-07-17 Qualcomm Incorporated Device and method for scalable coding of video information
US9225991B2 (en) * 2013-05-30 2015-12-29 Apple Inc. Adaptive color space transform coding
US9648332B2 (en) * 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction
US9756337B2 (en) * 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
US9948933B2 (en) * 2014-03-14 2018-04-17 Qualcomm Incorporated Block adaptive color-space conversion coding
US9883184B2 (en) * 2014-10-07 2018-01-30 Qualcomm Incorporated QP derivation and offset for adaptive color transform in video coding
US9468332B2 (en) * 2014-11-10 2016-10-18 Haier Us Appliance Solutions, Inc. Docking station for a beverage dispenser having a reservoir

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022553450A (ja) * 2020-01-05 2022-12-22 ベイジン・ダジア・インターネット・インフォメーション・テクノロジー・カンパニー,リミテッド 4:4:4色差フォーマットにおけるビデオコーディングの方法及び装置
JP7509890B2 (ja) 2020-01-05 2024-07-02 ベイジン・ダジア・インターネット・インフォメーション・テクノロジー・カンパニー,リミテッド 4:4:4色差フォーマットにおけるビデオコーディングの方法及び装置

Also Published As

Publication number Publication date
CN107211151B (zh) 2020-03-27
TWI678100B (zh) 2019-11-21
CN107211151A (zh) 2017-09-26
KR20170108964A (ko) 2017-09-27
US10158836B2 (en) 2018-12-18
TW201633781A (zh) 2016-09-16
AU2016211519B2 (en) 2019-11-07
BR112017016380A2 (pt) 2018-03-27
JP6608454B2 (ja) 2019-11-20
AU2016211519A1 (en) 2017-07-13
US20160227224A1 (en) 2016-08-04
EP3251359A1 (en) 2017-12-06
WO2016123232A1 (en) 2016-08-04
KR102060868B1 (ko) 2019-12-30

Similar Documents

Publication Publication Date Title
JP6608454B2 (ja) ビデオコーディングのためのクロス成分予測および適応色変換のためのクリッピング
JP6396588B2 (ja) ビデオコード化における成分間予測及び適応色変換の調和
US10097842B2 (en) Restriction of escape pixel signaled values in palette mode video coding
US10455249B2 (en) Downsampling process for linear model prediction mode
JP6549223B2 (ja) ビデオコーディングにおける適応色変換のためのqp導出およびオフセット
TWI689195B (zh) 用於調色板寫碼之寫碼逃脫像素
CN107113436B (zh) 用于解码视频数据的方法和装置以及计算机可读存储媒体
JP6483160B2 (ja) ビデオコーディングにおけるパレットコード化ブロックへのデブロッキングフィルタ処理の適用の決定
JP6396439B2 (ja) 残差差分パルスコード変調(dpcm)拡張ならびに変換スキップ、回転、および走査との調和
KR101977450B1 (ko) 팔레트 코딩 모드에서의 비디오 블록의 이스케이프 픽셀들의 양자화
JP6553090B2 (ja) パレットベースのビデオコーディングにおけるコーディングのラン
US10097837B2 (en) Palette run hiding in palette-based video coding
JP2017521920A (ja) ビデオコーディングにおけるパレットコード化ブロックの量子化パラメータ(qp)値とデルタqp値の決定
US20160094851A1 (en) Parsing dependency reduction for palette index coding
TW201445981A (zh) 視訊寫碼中之禁用符號資料隱藏
JP2016526334A (ja) 色成分の間のサンプル予測を使用したビデオコード化
US20160227254A1 (en) Coding palette run in palette-based video coding
JP2015524216A (ja) 映像コーディングにおけるロスレスコーディングモード及びパルスコード変調(pcm)モードのシグナリングの統一
JP2023153802A (ja) イントラ・サブパーティション・コーディング・ツールによって引き起こされるサブパーティション境界のためのデブロッキングフィルタ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190124

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191023

R150 Certificate of patent or registration of utility model

Ref document number: 6608454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250