JP6734389B2 - ビデオコーディングにおける非正方形ブロックのための予測パラメータの決定 - Google Patents

ビデオコーディングにおける非正方形ブロックのための予測パラメータの決定 Download PDF

Info

Publication number
JP6734389B2
JP6734389B2 JP2018549274A JP2018549274A JP6734389B2 JP 6734389 B2 JP6734389 B2 JP 6734389B2 JP 2018549274 A JP2018549274 A JP 2018549274A JP 2018549274 A JP2018549274 A JP 2018549274A JP 6734389 B2 JP6734389 B2 JP 6734389B2
Authority
JP
Japan
Prior art keywords
block
video data
width
height
pdpc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018549274A
Other languages
English (en)
Other versions
JP2019509691A (ja
JP2019509691A5 (ja
Inventor
ヴァディム・セレジン
シン・ジャオ
アミール・サイド
マルタ・カルチェヴィッチ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2019509691A publication Critical patent/JP2019509691A/ja
Publication of JP2019509691A5 publication Critical patent/JP2019509691A5/ja
Application granted granted Critical
Publication of JP6734389B2 publication Critical patent/JP6734389B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/04Large scale networks; Deep hierarchical networks
    • H04W84/042Public Land Mobile systems, e.g. cellular systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Description

本出願は、その内容全体が参照により本明細書に組み込まれる、2016年3月21日に出願された米国仮出願第62/311,265号の利益を主張するものである。
本開示は、ビデオ符号化およびビデオ復号に関する。
デジタルビデオ能力は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダー、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、携帯電話または衛星無線電話、いわゆる「スマートフォン」、ビデオ遠隔会議デバイス、ビデオストリーミングデバイスなどを含む、広範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4、Part 10、Advanced Video Coding(AVC)、High Efficiency Video Coding(HEVCまたはH.265)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオコーディング技法などのビデオコーディング技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶することができる。
ビデオコーディング技法は、ビデオシーケンスに固有の冗長性を低減または除去するために、空間的(ピクチャ内)予測および/または時間的(ピクチャ間)予測を含む。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオフレーム、またはビデオフレームの一部分)は、ビデオブロックに区分されることがあり、ビデオブロックは、ツリーブロック、コーディング単位(CU)、および/またはコーディングノードと呼ばれることもある。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
空間的予測または時間的予測は、コーディングされるべきブロックの予測ブロックをもたらす。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。さらなる圧縮のために、残差データは、画素領域から変換領域に変換され、残差変換係数をもたらすことがあり、その残差変換係数は、次いで量子化され得る。さらなる圧縮を達成するために、エントロピーコーディングが適用されることがある。
J. An他、Block partitioning structure for next generation video coding、国際電気通信連合、COM16-C966、2015年9月
本開示は、独立した輝度区分枠組みおよび色差区分枠組みを使用して区分されたビデオデータをコーディングするための技法を説明する。いくつかの例では、本開示は、色差ブロックに対応する2つ以上の輝度ブロックがあるとき(たとえば、2つ以上の輝度ブロックが色差ブロックと同じ位置にあるとき)、輝度ブロックからのコーディング情報を色差ブロックのためにどのように再使用するかを決定するための技法を説明する。
他の例では、本開示は、ビデオデータのブロックが非正方形ブロックに区分され得るとき、場所に依存するイントラ予測組合せ(PDPC)モードのためのパラメータを決定するための技法を説明する。いくつかの例では、PDPCパラメータは、垂直関連のパラメータおよび水平関連のパラメータのための別々のテーブルを含む、複数のルックアップテーブルを使用して決定され得る。
本開示の一例では、ビデオデータを復号する方法は、符号化されたビデオデータのビットストリームを受信するステップであって、符号化されたビデオデータが区分された輝度ブロックおよび区分された色差ブロックを表し、色差ブロックが輝度ブロックと独立に区分される、ステップと、それぞれの区分された輝度ブロックに対応するそれぞれのコーディングモードを決定するステップと、決定されたそれぞれのコーディングモードに従って、それぞれの区分された輝度ブロックを復号するステップと、それぞれの区分された輝度ブロックと関連付けられるそれぞれのコーディングモードが第1の区分された色差ブロックを復号するために使用されるべきであることを示す第1のシンタックス要素を復号するステップであって、第1の区分された色差ブロックが2つ以上の区分された輝度ブロックと揃う、ステップと、2つ以上の区分された輝度ブロックのそれぞれのコーディングモードの関数に従って第1の区分された色差ブロックのための色差コーディングモードを決定するステップと、決定された色差コーディングモードに従って第1の区分された色差ブロックを復号するステップとを備える。
本開示の別の例では、ビデオデータを復号するように構成される装置は、符号化されたビデオデータのビットストリームを記憶するように構成されるメモリと、1つまたは複数のプロセッサとを備え、1つまたは複数のプロセッサは、符号化されたビデオデータのビットストリームを受信し、符号化されたビデオデータが区分された輝度ブロックおよび区分された色差ブロックを表し、色差ブロックが輝度ブロックと独立に区分され、それぞれの区分された輝度ブロックに対応するそれぞれのコーディングモードを決定し、決定されたそれぞれのコーディングモードに従って、それぞれの区分された輝度ブロックを復号し、それぞれの区分された輝度ブロックと関連付けられるそれぞれのコーディングモードが第1の区分された色差ブロックを復号するために使用されるべきであることを示す第1のシンタックス要素を復号し、第1の区分された色差ブロックが2つ以上の区分された輝度ブロックと揃い、2つ以上の区分された輝度ブロックのそれぞれのコーディングモードの関数に従って第1の区分された色差ブロックのための色差コーディングモードを決定し、決定された色差コーディングモードに従って第1の区分された色差ブロックを復号するように構成される。
本開示の別の例では、ビデオデータを復号するように構成される装置は、符号化されたビデオデータのビットストリームを受信するための手段であって、符号化されたビデオデータが区分された輝度ブロックおよび区分された色差ブロックを表し、色差ブロックが輝度ブロックと独立に区分される、手段と、それぞれの区分された輝度ブロックに対応するそれぞれのコーディングモードを決定するための手段と、決定されたそれぞれのコーディングモードに従って、それぞれの区分された輝度ブロックを復号するための手段と、それぞれの区分された輝度ブロックと関連付けられるそれぞれのコーディングモードが第1の区分された色差ブロックを復号するために使用されるべきであることを示す第1のシンタックス要素を復号するための手段であって、第1の区分された色差ブロックが2つ以上の区分された輝度ブロックと揃う、手段と、2つ以上の区分された輝度ブロックのそれぞれのコーディングモードの関数に従って第1の区分された色差ブロックのための色差コーディングモードを決定するための手段と、決定された色差コーディングモードに従って第1の区分された色差ブロックを復号するための手段とを備える。
別の例では、本開示は、命令を記憶した非一時的コンピュータ可読記憶媒体を説明し、この命令は、実行されると、ビデオデータを復号するように構成される1つまたは複数のプロセッサに、符号化されたビデオデータのビットストリームを受信することと、符号化されたビデオデータが区分された輝度ブロックおよび区分された色差ブロックを表し、色差ブロックが輝度ブロックと独立に区分され、それぞれの区分された輝度ブロックに対応するそれぞれのコーディングモードを決定することと、決定されたそれぞれのコーディングモードに従って、それぞれの区分された輝度ブロックを復号することと、それぞれの区分された輝度ブロックと関連付けられるそれぞれのコーディングモードが第1の区分された色差ブロックを復号するために使用されるべきであることを示す第1のシンタックス要素を復号することと、第1の区分された色差ブロックが2つ以上の区分された輝度ブロックと揃い、2つ以上の区分された輝度ブロックのそれぞれのコーディングモードの関数に従って第1の区分された色差ブロックのための色差コーディングモードを決定することと、決定された色差コーディングモードに従って第1の区分された色差ブロックを復号することとを行わせる。
本開示の別の例では、ビデオデータを復号する方法は、場所に依存するイントラ予測組合せ(PDPC)モードを使用して符号化されたビデオデータのブロックを受信するステップであって、ビデオデータのブロックが幅および高さによって定義される非正方形の形状を有する、ステップと、ビデオデータのブロックの幅または高さのうちの1つまたは複数に基づいて1つまたは複数のPDPCパラメータを決定するステップと、PDPCモードおよび決定されたPDPCパラメータを使用してビデオデータのブロックを復号するステップとを備える。
本開示の別の例では、ビデオデータを復号するように構成される装置は、PDPCモードを使用して符号化されたビデオデータのブロックを記憶するように構成されるメモリであって、ビデオデータのブロックが幅および高さによって定義される非正方形の形状を有する、メモリと、ビデオデータのブロックを受信することと、ビデオデータのブロックの幅または高さのうちの1つまたは複数に基づいて1つまたは複数のPDPCパラメータを決定することと、PDPCモードおよび決定されたPDPCパラメータを使用してビデオデータのブロックを復号することとを行うように構成される1つまたは複数のプロセッサとを備える。
本開示の別の例では、ビデオデータを復号するように構成される装置は、PDPCモードを使用して符号化されたビデオデータのブロックを受信するための手段であって、ビデオデータのブロックが幅および高さによって定義される非正方形の形状を有する、手段と、ビデオデータのブロックの幅または高さのうちの1つまたは複数に基づいて1つまたは複数のPDPCパラメータを決定するための手段と、PDPCモードおよび決定されたPDPCパラメータを使用してビデオデータのブロックを復号するための手段とを備える。
別の例では、本開示は、命令を記憶した非一時的コンピュータ可読記憶媒体を説明し、この命令は、実行されると、ビデオデータを復号するように構成されるデバイスの1つまたは複数のプロセッサに、PDPCモードを使用して符号化されたビデオデータのブロックを受信することと、ビデオデータのブロックが幅および高さによって定義される非正方形の形状を有し、ビデオデータのブロックの幅または高さのうちの1つまたは複数に基づいて1つまたは複数のPDPCパラメータを決定することと、PDPCモードおよび決定されたPDPCパラメータを使用してビデオデータのブロックを復号することとを行わせる。
本開示の別の例では、ビデオデータを符号化する方法は、ビデオデータのブロックを受信するステップであって、ビデオデータのブロックが幅および高さによって定義される非正方形の形状を有する、ステップと、ビデオデータのブロックの幅または高さのうちの1つまたは複数に基づいて1つまたは複数のPDPCパラメータを決定するステップと、PDPCモードおよび決定されたPDPCパラメータを使用してビデオデータのブロックを符号化するステップとを備える。
本開示の別の例では、ビデオデータを符号化するように構成される装置は、ビデオデータのブロックを記憶するように構成されるメモリであって、ビデオデータのブロックが幅および高さによって定義される非正方形の形状を有する、メモリと、ビデオデータのブロックを受信することと、ビデオデータのブロックの幅または高さのうちの1つまたは複数に基づいて1つまたは複数のPDPCパラメータを決定することと、PDPCモードおよび決定されたPDPCパラメータを使用してビデオデータのブロックを符号化することとを行うように構成される1つまたは複数のプロセッサとを備える。
本開示の1つまたは複数の態様の詳細が、添付の図面および下記の説明に記載される。本開示で説明される技法の他の特徴、目的、および利点は、これらの説明および図面、ならびに特許請求の範囲から明らかになろう。
本開示の技法を実施するように構成された例示的なビデオ符号化および復号システムを示すブロック図である。 四分木プラス二分木(QTBT)構造を使用したブロック区分の例を示す概念図である。 図2AのQTBT構造を使用したブロック区分に対応する例示的な木構造を示す概念図である。 本開示の技法による、輝度と色差の相対的な区分の例を示す概念図である。 本開示の技法による、輝度と色差の相対的な区分の別の例を示す概念図である。 本開示の技法による、フィルタリングされない参照を使用した4×4のブロックの予測を示す図である。 本開示の技法による、フィルタリングされる参照を使用した4×4のブロックの予測を示す図である。 本開示の一例による、長方形ブロックにおいて使用される予測パラメータのセットを決定するためのネストされたテーブルの使用を示す概念図である。 本開示の技法を実装するように構成されるビデオエンコーダの例を示すブロック図である。 本開示の技法を実装するように構成されるビデオデコーダの例を示すブロック図である。 本開示の技法による、ビデオコーダの例示的な動作を示すフローチャートである。 本開示の技法による、ビデオデコーダの例示的な動作を示すフローチャートである。 本開示の技法による、ビデオエンコーダの例示的な動作を示すフローチャートである。 本開示の技法による、ビデオデコーダの例示的な動作を示すフローチャートである。
一部のビデオブロック区分技法によれば、ビデオデータの色差ブロックはビデオデータの輝度ブロックとは独立に区分されるので、一部の色差ブロックは単一の対応する輝度ブロックと直接揃わないことがある。したがって、輝度ブロックと色差ブロックの間に1対1の対応がないことがあるので、色差ブロックのために輝度ブロックに関するシンタックス要素を再使用するのが難しくなる。本開示は、輝度ブロックおよび色差ブロックが独立に区分される状況において、ビデオデータの輝度ブロックに対応する情報(たとえば、シンタックス要素)を使用してビデオデータの色差ブロックをコーディングするための技法を説明する。
本開示はまた、場所に依存するイントラ予測組合せ(PDPC)コーディングモードのためのコーディングパラメータを決定するための技法を説明する。一例では、本開示は、非正方形ブロック(たとえば、非正方形の、長方形のブロック)へと区分されるビデオブロックのためのPDPCパラメータを決定するための技法を説明する。
図1は、本開示の技法を実行するように構成され得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示されるように、システム10は、宛先デバイス14によって後で復号されるべき符号化されたビデオデータを提供するソースデバイス12を含む。具体的には、ソースデバイス12は、コンピュータ可読媒体16を介して宛先デバイス14にビデオデータを提供する。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(たとえば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット(またはより一般的には移動局)、タブレットコンピュータ、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲のデバイスのうちのいずれかを備え得る。移動局は、ワイヤレスネットワークを通じて通信することが可能な任意のデバイスであり得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信に対応し得る。したがって、ソースデバイス12および宛先デバイス14はワイヤレス通信デバイス(たとえば、移動局)であり得る。ソースデバイス12は例示的なビデオ符号化デバイス(すなわち、ビデオデータを符号化するためのデバイス)である。宛先デバイス14は例示的なビデオ復号デバイス(すなわち、ビデオデータを復号するためのデバイス)である。
図1の例では、ソースデバイス12は、ビデオソース18、ビデオデータを記憶するように構成される記憶媒体20、ビデオエンコーダ22、および出力インターフェース24を含む。宛先デバイス14は、入力インターフェース26、符号化されたビデオデータを記憶するように構成される記憶媒体28、ビデオデコーダ30、およびディスプレイデバイス32を含む。他の例では、ソースデバイス12および宛先デバイス14は、他の構成要素または構成を含む。たとえば、ソースデバイス12は、外部カメラなどの外部ビデオソースからビデオデータを受信し得る。同様に、宛先デバイス14は、統合されたディスプレイデバイス32を含むのではなく、外部ディスプレイデバイスとインターフェースし得る。
図1の図示されたシステム10は一例にすぎない。ビデオデータを処理および/またはコーディングする(たとえば、符号化および/または復号する)ための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。本開示の技法は、一般にビデオ符号化デバイスおよび/またはビデオ復号デバイスによって実行されるが、通常「コーデック」と呼ばれるビデオエンコーダ/デコーダによって実行されることもある。ソースデバイス12および宛先デバイス14は、ソースデバイス12が宛先デバイス14への送信のためにコーディングされたビデオデータを生成するようなコーディングデバイスの例にすぎない。いくつかの例では、ソースデバイス12および宛先デバイス14は、ソースデバイス12および宛先デバイス14の各々がビデオ符号化および復号構成要素を含むように実質的に対称的な方式で動作し得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオ放送、またはビデオ電話のための、ソースデバイス12と宛先デバイス14の間の一方向または双方向のビデオ送信をサポートし得る。
ソースデバイス12のビデオソース18は、ビデオカメラ、以前にキャプチャされたビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオデータを受信するためのビデオフィードインターフェースなどのビデオキャプチャデバイスを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブされたビデオとコンピュータで生成されたビデオとの組合せを生成し得る。ソースデバイス12は、ビデオデータを記憶するように構成される1つまたは複数のデータ記憶媒体(たとえば、記憶媒体20)を備え得る。本開示において説明される技法は、ビデオコーディング全般に適用可能であることがあり、ワイヤレスおよび/または有線の適用例において適用されることがある。各場合において、キャプチャされた、事前にキャプチャされた、またはコンピュータで生成されたビデオは、ビデオエンコーダ22によって符号化され得る。出力インターフェース24は、符号化されたビデオ情報(たとえば、符号化されたビデオデータのビットストリーム)をコンピュータ可読媒体16に出力し得る。
宛先デバイス14は、コンピュータ可読媒体16を介して、復号されるべき符号化されたビデオデータを受信し得る。コンピュータ可読媒体16は、ソースデバイス12から宛先デバイス14に符号化されたビデオデータを移動することが可能な任意のタイプの媒体またはデバイスを備え得る。いくつかの例では、コンピュータ可読媒体16は、ソースデバイス12がリアルタイムで宛先デバイス14へ符号化されたビデオデータを直接送信することを可能にする通信媒体を備える。符号化されたビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14へ送信され得る。通信媒体は、高周波(RF)スペクトルまたは1つまたは複数の物理伝送線路などの、任意のワイヤレスまたは有線通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなどの、パケットベースネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス12から宛先デバイス14への通信を容易にするのに有用であり得る任意の他の機器を含み得る。宛先デバイス14は、符号化されたビデオデータおよび復号されたビデオデータを記憶するように構成される1つまたは複数のデータ記憶媒体を備え得る。
いくつかの例では、符号化されたデータは、出力インターフェース24から記憶デバイスに出力され得る。同様に、符号化されたデータは、入力インターフェースによって記憶デバイスからアクセスされ得る。記憶デバイスは、ハードドライブ、Blu-ray(登録商標)ディスク、DVD、CD-ROM、フラッシュメモリ、揮発性メモリもしくは不揮発性メモリ、または符号化されたビデオデータを記憶するための任意の他の適切なデジタル記憶媒体などの、分散されるかまたは局所的にアクセスされる様々なデータ記憶媒体のいずれかを含み得る。さらなる一例では、記憶デバイスは、ソースデバイス12によって生成された符号化されたビデオを記憶し得るファイルサーバまたは別の中間記憶デバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介して記憶デバイスからの記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化されたビデオデータを記憶するとともにその符号化されたビデオデータを宛先デバイス14へ送信することが可能な、任意のタイプのサーバであり得る。例示的なファイルサーバは、(たとえば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワークアタッチストレージ(NAS)デバイス、またはローカルディスクドライブを含む。宛先デバイス14は、インターネット接続を含む任意の標準的なデータ接続を通じて、符号化されたビデオデータにアクセスし得る。これは、ワイヤレスチャネル(たとえば、Wi-Fi接続)、有線接続(たとえば、DSL、ケーブルモデムなど)、またはファイルサーバ上に記憶された符号化されたビデオデータにアクセスするのに適した両方の組合せを含み得る。記憶デバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組合せであり得る。
本開示で説明される技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、dynamic adaptive streaming over HTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されているデジタルビデオ、データ記憶媒体上に記憶されたデジタルビデオの復号、または他の用途などの、様々なマルチメディア用途のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオ電話などの用途をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
コンピュータ可読媒体16は、ワイヤレス放送もしくは有線ネットワーク送信などの一時媒体、またはハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、Blu-ray(登録商標)ディスク、もしくは他のコンピュータ可読媒体などの記憶媒体(すなわち、非一時的記憶媒体)を含み得る。いくつかの例では、ネットワークサーバ(図示せず)が、たとえば、ネットワーク送信を介して、ソースデバイス12から符号化されたビデオデータを受信し、符号化されたビデオデータを宛先デバイス14に提供し得る。同様に、ディスクスタンピング設備などの媒体製造設備のコンピューティングデバイスが、ソースデバイス12から符号化されたビデオデータを受信し、符号化されたビデオデータを含むディスクを製造し得る。したがって、コンピュータ可読媒体16は、様々な例において、様々な形態の1つまたは複数のコンピュータ可読媒体を含むものと理解されてよい。
宛先デバイス14の入力インターフェース26は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ22によって定義され、ビデオデコーダ30によっても使用される、シンタックス情報を含むことがあり、シンタックス情報は、ブロックおよび他のコーディングされたユニット、たとえばピクチャグループ(GOP)の特性および/または処理を記述するシンタックス要素を含む。記憶媒体28は、入力インターフェース26によって受信される符号化されたビデオデータを記憶し得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなどの、様々なディスプレイデバイスのいずれかを備え得る。
ビデオエンコーダ22およびビデオデコーダ30は各々、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せなどの、様々な適切なビデオエンコーダおよび/またはビデオデコーダ回路のいずれかとして実装され得る。技法が部分的にソフトウェアで実装されるとき、デバイスは、適切な非一時的コンピュータ可読媒体にソフトウェアのための命令を記憶し、本開示の技法を実行するための1つまたは複数のプロセッサを使用してハードウェアで命令を実行し得る。ビデオエンコーダ22およびビデオデコーダ30の各々は、1つまたは複数のエンコーダまたはデコーダに含まれることがあり、そのいずれもが、それぞれのデバイスにおいて複合コーデックの一部として統合されることがある。
いくつかの例では、ビデオエンコーダ22およびビデオデコーダ30は、ビデオコーディング規格に従って動作し得る。例示的なビデオコーディング規格は、限定はされないが、そのスケーラブルビデオコーディング(SVC)拡張およびマルチビュービデオコーディング(MVC)拡張を含む、ITU-T H.261、ISO/IEC MPEG-1 Visual、ITU-T H.262またはISO/IEC MPEG-2 Visual、ITU-T H.263、ISO/IEC MPEG-4 Visual、およびITU-T H.264(ISO/IEC MPEG-4 AVCとも知られる)を含む。加えて、新しいビデオコーディング規格、すなわちHigh Efficiency Video Coding(HEVC)またはITU-T H.265が、その範囲拡張、スクリーンコンテンツコーディング拡張、3Dビデオコーディング(3D-HEVC)拡張、およびマルチビュー拡張(MV-HEVC)ならびにスケーラブル(SHVC)拡張を含めて、JITU-T Video Coding Experts Group(VCEG)およびISO/IEC Motion Picture Experts Group(MPEG)のJoint Collaboration Team on Video Coding(JCT-VC)によって最近開発された。
他の例では、ビデオエンコーダ22およびビデオデコーダ30は、Joint Video Exploration Team(JVET)によって研究されている新しいビデオコーディング技法を含む、他のビデオコーディング技法および/または規格に従って動作するように構成され得る。本開示のいくつかの例では、ビデオエンコーダ22およびビデオデコーダ30は、ビデオデータの輝度ブロックおよび色差ブロックが揃うことを求められないように、独立した輝度区分および色差区分を使用するビデオコーディング規格に従って動作するように構成され得る。そのような区分技法は、ピクチャの特定の位置内で、色差ブロックが単一の輝度ブロックに揃わない状況につながり得る。本開示の他の例では、ビデオエンコーダ22およびビデオデコーダ30は、非正方形ブロックを許容する区分枠組みを使用するビデオコーディング規格に従って動作するように構成され得る。
本開示の技法によれば、以下でより詳細に説明されるように、ビデオデコーダ30は、符号化されたビデオデータのビットストリームを受信することと、符号化されたビデオデータが区分された輝度ブロックおよび区分された色差ブロックを表し、色差ブロックが輝度ブロックと独立に区分され、それぞれの区分された輝度ブロックに対応するそれぞれのコーディングモードを決定することと、決定されたそれぞれのコーディングモードに従って、それぞれの区分された輝度ブロックを復号することと、それぞれの区分された輝度ブロックと関連付けられるそれぞれのコーディングモードが第1の区分された色差ブロックを復号するために使用されるべきであることを示す第1のシンタックス要素を復号することと、第1の区分された色差ブロックが2つ以上の区分された輝度ブロックと揃い、2つ以上の区分された輝度ブロックのそれぞれのコーディングモードの関数に従って第1の区分された色差ブロックのための色差コーディングモードを決定することと、決定された色差コーディングモードに従って第1の区分された色差ブロックを復号することとを行うように構成され得る。ビデオエンコーダ22は、ビデオデコーダ30の技法とは逆の技法を実行するように構成され得る。いくつかの例では、ビデオエンコーダ22は、2つ以上の区分された輝度ブロックのそれぞれのコーディングモードの関数に基づいて色差ブロックが2つ以上の輝度ブロックからのコーディングモード情報を再使用すべきか否かを示すシンタックス要素を生成するように構成され得る。
HEVCおよび他のビデオコーディング規格では、ビデオシーケンスは、通常、一連のピクチャを含む。ピクチャは、「フレーム」と呼ばれることもある。ピクチャは、SL、SCb、およびSCrと表記される3つのサンプルアレイを含み得る。SLは、輝度サンプルの2次元アレイ(たとえば、ブロック)である。SCbは、Cbクロミナンスサンプルの2次元アレイである。SCrは、Crクロミナンスサンプルの2次元アレイである。クロミナンスサンプルは、本明細書では「色差」サンプルと呼ばれることもある。他の事例では、ピクチャはモノクロームであることがあり、輝度サンプルのアレイしか含まないことがある。
ピクチャの符号化された表現を生成するために(たとえば、符号化されたビデオビットストリーム)、ビデオエンコーダ22は、コーディングツリー単位(CTU)のセットを生成し得る。CTUの各々は、輝度サンプルのコーディングツリーブロック、色差サンプルの2つの対応するコーディングツリーブロック、およびコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造を備え得る。モノクロームピクチャ、または3つの別個の色平面を有するピクチャでは、CTUは、単一のコーディングツリーブロック、およびコーディングツリーブロックのサンプルをコーディングするために使用されるシンタックス構造を備え得る。コーディングツリーブロックは、サンプルのN×Nブロックであり得る。CTUは、「ツリーブロック」または「最大コーディング単位」(LCU)と呼ばれることもある。HEVCのCTUは、H.264/AVCなどの他の規格のマクロブロックと概ね類似していることがある。しかしながら、CTUは、必ずしも特定のサイズに限定されるとは限らず、1つまたは複数のコーディング単位(CU)を含むことがある。スライスは、ラスタ走査順序で連続的に順序付けられた整数個のCTUを含むことがある。
コーディングされたCTUを生成するために、ビデオエンコーダ22は、CTUのコーディングツリーブロック上で四分木区分を再帰的に実行して、コーディングツリーブロックをコーディングブロックへと分けることができ、したがって、「コーディングツリー単位」という名前である。コーディングブロックは、サンプルのN×Nブロックである。CUは、輝度サンプルアレイ、Cbサンプルアレイ、およびCrサンプルアレイを有するピクチャの輝度サンプルのコーディングブロックおよび色差サンプルの2つの対応するコーディングブロックと、コーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。モノクロームピクチャまたは3つの別々の色平面を有するピクチャでは、CUは、単一のコーディングブロックと、そのコーディングブロックのサンプルをコーディングするために使用されるシンタックス構造とを備え得る。
ビデオエンコーダ22は、CUのコーディングブロックを1つまたは複数の予測ブロックに区分し得る。予測ブロックは、同じ予測が適用されるサンプルの長方形(すなわち、正方形または非正方形)ブロックである。CUの予測単位(PU)は、輝度サンプルの予測ブロック、色差サンプルの2つの対応する予測ブロック、および予測ブロックを予測するために使用されるシンタックス構造を備え得る。モノクロームピクチャまたは3つの別個の色平面を有するピクチャでは、PUは、単一の予測ブロック、およびその予測ブロックを予測するために使用されるシンタックス構造を備え得る。ビデオエンコーダ22は、CUの各PUの予測ブロック(たとえば、輝度予測ブロック、Cb予測ブロック、およびCr予測ブロック)の予測ブロック(たとえば、輝度予測ブロック、Cb予測ブロック、およびCr予測ブロック)を生成し得る。
ビデオエンコーダ22は、PUの予測ブロックを生成するためにイントラ予測またはインター予測を使用し得る。ビデオエンコーダ22がPUの予測ブロックを生成するためにイントラ予測を使用する場合、ビデオエンコーダ22は、PUを含むピクチャの復号されたサンプルに基づいて、PUの予測ブロックを生成し得る。
ビデオエンコーダ22がCUの1つまたは複数のPUの予測ブロック(たとえば、輝度予測ブロック、Cb予測ブロック、およびCr予測ブロック)を生成した後、ビデオエンコーダ22は、CUの1つまたは複数の残差ブロックを生成し得る。一例として、ビデオエンコーダ22は、CUの輝度残差ブロックを生成し得る。CUの輝度残差ブロックの中の各サンプルは、CUの予測輝度ブロックの1つの中の輝度サンプルとCUの元の輝度コーディングブロック中の対応するサンプルとの差分を示す。加えて、ビデオエンコーダ22は、CUのCb残差ブロックを生成し得る。色差予測の一例では、CUのCb残差ブロックの中の各サンプルは、CUの予測Cbブロックのうちの1つの中のCbサンプルと、CUの元のCbコーディングブロックの中の対応するサンプルとの差分を示し得る。ビデオエンコーダ22は、CUのためのCr残差ブロックも生成し得る。CUのCr残差ブロックの中の各サンプルは、CUの予測Crブロックのうちの1つの中のCrサンプルと、CUの元のCrコーディングブロックの中の対応するサンプルとの間の差分を示し得る。しかしながら、色差予測のための他の技法が使用され得ることを理解されたい。
さらに、ビデオエンコーダ22は、四分木区分を使用して、CUの残差ブロック(たとえば、輝度残差ブロック、Cb残差ブロック、およびCr残差ブロック)を1つまたは複数の変換ブロック(たとえば、輝度変換ブロック、Cb変換ブロック、およびCr変換ブロック)に分解し得る。変換ブロックは、同じ変換が適用されるサンプルの長方形(たとえば、正方形または非正方形)ブロックである。CUの変換単位(TU)は、輝度サンプルの変換ブロック、色差サンプルの2つの対応する変換ブロック、およびそれらの変換ブロックサンプルを変換するために使用されるシンタックス構造を備え得る。したがって、CUの各TUは、輝度変換ブロック、Cb変換ブロック、およびCr変換ブロックを有し得る。TUの輝度変換ブロックは、CUの輝度残差ブロックのサブブロックであり得る。Cb変換ブロックは、CUのCb残差ブロックのサブブロックであり得る。Cr変換ブロックは、CUのCr残差ブロックのサブブロックであり得る。モノクロームピクチャまたは3つの別々の色平面を有するピクチャでは、TUは、単一の変換ブロックと、その変換ブロックのサンプルを変換するために使用されるシンタックス構造とを備え得る。
ビデオエンコーダ22は、1つまたは複数の変換をTUの変換ブロックに適用して、TUの係数ブロックを生成し得る。たとえば、ビデオエンコーダ22は、1つまたは複数の変換をTUの輝度変換ブロックに適用して、TUの輝度係数ブロックを生成し得る。係数ブロックは、変換係数の2次元アレイであり得る。変換係数は、スカラー量であり得る。ビデオエンコーダ22は、TUのCb変換ブロックに1つまたは複数の変換を適用して、TUのCb係数ブロックを生成することができる。ビデオエンコーダ22は、TUのCr変換ブロックに1つまたは複数の変換を適用して、TUのCr係数ブロックを生成することができる。
係数ブロック(たとえば、輝度係数ブロック、Cb係数ブロック、またはCr係数ブロック)を生成した後に、ビデオエンコーダ22は、係数ブロックを量子化し得る。量子化は一般に、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を実現するプロセスを指す。ビデオエンコーダ22が係数ブロックを量子化した後、ビデオエンコーダ22は、量子化された変換係数を示すシンタックス要素をエントロピー符号化することができる。たとえば、ビデオエンコーダ22は、量子化された変換係数を示すシンタックス要素に対してコンテキスト適応型バイナリ算術コーディング(CABAC)を実行することができる。
ビデオエンコーダ22は、コーディングされたピクチャの表現および関連するデータを形成するビットのシーケンスを含むビットストリームを出力し得る。したがって、ビットストリームは、ビデオデータの符号化された表現を備える。ビットストリームは、ネットワーク抽象化レイヤ(NAL)ユニットのシーケンスを備え得る。NALユニットは、NALユニットの中のデータのタイプを示すものと、必要に応じてエミュレーション防止ビットが散りばめられているローバイトシーケンスペイロード(RBSP)の形態でそのデータを含むバイトとを含む、シンタックス構造である。NALユニットの各々は、NALユニットヘッダを含むことがあり、RBSPをカプセル化する。NALユニットヘッダは、NALユニットタイプコードを示すシンタックス要素を含み得る。NALユニットのNALユニットヘッダによって指定されるNALユニットタイプコードは、NALユニットのタイプを示す。RBSPは、NALユニット内にカプセル化されている整数個のバイトを含むシンタックス構造であり得る。いくつかの事例では、RBSPは0個のビットを含む。
ビデオデコーダ30は、ビデオエンコーダ22によって生成された符号化されたビットストリームを受信し得る。加えて、ビデオデコーダ30は、ビットストリームを構文解析して、ビットストリームからシンタックス要素を取得することができる。ビデオデコーダ30は、ビットストリームから取得されたシンタックス要素に少なくとも部分的に基づいて、ビデオデータのピクチャを再構築することができる。ビデオデータを再構築するプロセスは、全体的に、ビデオエンコーダ22によって実行されるプロセスの逆であり得る。たとえば、ビデオデコーダ30は、現在のCUのPUの予測ブロックを決定するために、PUの動きベクトルを使用し得る。加えて、ビデオデコーダ30は、現在のCUのTUの係数ブロックを逆量子化し得る。ビデオデコーダ30は、係数ブロックに対して逆変換を実行して、現在のCUのTUの変換ブロックを再構築し得る。ビデオデコーダ30は、現在のCUのPUの予測ブロックのサンプルを、現在のCUのTUの変換ブロックの対応するサンプルに加算することによって、現在のCUのコーディングブロックを再構築し得る。ピクチャのCUごとにコーディングブロックを再構築することによって、ビデオデコーダ30はピクチャを再構築し得る。
HEVCの四分木区分枠組みなどのいくつかの例示的なビデオコーデックの枠組みでは、色成分のためのブロック(たとえば、輝度ブロックおよび色度ブロック)へのビデオデータの区分は一緒に実行される。すなわち、いくつかの例では、2つ以上の輝度ブロックがあるピクチャ内の特定の位置におけるある色差ブロックに対応しないように、輝度ブロックおよび色差ブロックが同じ方式で区分される。一例では、ビデオデータのブロックの区分はさらに、サブブロックに分けられ得る。ビデオブロックまたはビデオブロックの区分に関する情報(たとえば、ビデオブロックがどのようにコーディングされるべきかを示すサンプル値およびシンタックス要素)は、サブブロックレベルで記憶される。または、より一般的には、ビデオブロックまたはビデオブロックの区分に関する情報は、ビデオデータのブロックの1つまたは複数の代表的な位置(たとえば、任意のサンプルまたはサブサンプルに対応する)に関連して記憶され得る。たとえば、区分が16×16ピクセルであり、区分の中の各サブブロックが4×4ピクセルである場合、区分の中には16個のサブブロックがある。情報はサブブロックの粒度で、この例では4×4で記憶され、すべての16個のサブブロックが同じ情報を有することがある。
本開示の文脈では、「区分」、「ブロック」、および「区分されたブロック」という用語は交換可能に使用され得る。一般に、ブロックは、ビデオコーディングが実行されるサンプル(たとえば、輝度サンプルまたは色差サンプル)のグループである。本開示の文脈では、「サブブロック」は、ブロックのためのコーディングモード情報を記憶する関連するメモリ位置を有するブロックの部分である。
ビデオエンコーダ22およびビデオデコーダ30は、各々のそれぞれの位置(たとえば、サブブロック)のための情報を記憶するために、メモリの中の位置を割り振り得る。いくつかの例では、情報の値(たとえば、特定のコーディングモードのための特定のシンタックス要素の値)は、各々の代表的な位置(たとえば、サブブロック)と関連付けられる別々のメモリ位置に記憶され得る。他の例では、情報は、区分の複数の代表的な位置(たとえば、サブブロック)のうちの1つに対して1回記憶され得る。区分の他のサブブロックのメモリ位置は、情報の実際の値を記憶するメモリ位置へのポインタを含み得る。本開示の技法はサブブロックに関して以下で説明されるが、ブロックのどのような代表的な位置も使用され得ることを理解されたい。
上で言及されたように、サブブロックレベルで記憶される情報は、区分に対してコーディングプロセスを実行するために使用される任意の情報であり得る。そのような情報は、シグナリングされたシンタックス情報または導出された補足情報であり得る。導出される補足情報の一例は、コーディング輝度ブロックに関する情報から導出される色差ブロックをコーディングするために使用される情報であり得る。HEVCにおいて使用するための導出された補足情報の一例は直接モード情報であり、ここで輝度イントラ予測情報(たとえば、イントラ予測方向)が、色差ブロックのためのイントラ予測方向自体のシグナリングを伴わない色差予測のために使用される。情報の他の例は、イントラ予測またはインター予測、イントラ予測方向、動き情報などの、モードの決定であり得る。
輝度区分サイズと色差区分サイズが比較されるとき、4:4:4、4:2:2、4:2:0などの色差カラーフォーマット(たとえば、色差サブサンプリングフォーマット)が考慮され得る。たとえば、輝度区分が16×16ピクセルである場合、対応するまたは同じ位置にある色差区分は、4:2:0のカラーフォーマットに対しては8×8ピクセルであり、4:4:4の色差カラーフォーマットに対しては16×16ピクセルである。区分は必ずしも正方形ではなく、たとえば、長方形の形状であることがある。したがって、4:2:0の色差サブサンプリングフォーマットでは、輝度区分および色差区分は同じサイズにならない。しかしながら、輝度ブロックおよび色差ブロックが一緒に区分されるときでも、得られる区分は、任意の特定の色差ブロックに対応する唯一の輝度ブロックをもたらす。
四分木プラス二分木(QTBT)区分構造は現在、Joint Video Exploration Team(JVET)によって研究されている。J. An他、「Block partitioning structure for next generation video coding」、国際電気通信連合、COM16-C966、2015年9月(以後、「VCEG proposal COM16-C966」)において、HEVCを超えた未来のビデオコーディング規格のためのQTBT区分技法が説明された。提案されたQTBT構造は、HEVCにおいて使用される四分木構造より効率的であり得ることを、シミュレーションが示している。
VCEG proposal COM16-C966で説明されるQTBT構造では、CTBはまず四分木区分技法を使用して区分され、ノードが最小の許容される四分木リーフノードサイズに達するまで1つのノードの四分木分割が繰り返され得る。最小の許容される四分木リーフノードサイズは、シンタックス要素MinQTSizeの値によってビデオデコーダ30に示され得る。四分木リーフノードサイズが最大の許容される二分木ルートノードサイズ(たとえば、シンタックス要素MaxBTSizeにより表記されるような)より大きくない場合、四分木リーフノードはさらに、二分木区分を使用して区分され得る。ノードが最小の許容される二分木リーフノードサイズ(たとえば、シンタックス要素MinBTSizeにより表記されるような)または最大の許容される二分木深度(たとえば、シンタックス要素MaxBTDepthにより表記されるような)に達するまで、1つのノードの二分木区分が繰り返され得る。VCEG proposal COM16-C966は、二分木リーフノードを指すために「CU」という用語を使用する。VCEG proposal COM16-C966では、CUは、さらなる区分を伴わない予測(たとえば、イントラ予測、インター予測など)および変換のために使用される。一般に、QTBT技法によれば、対称的な水平の分割および対称的な垂直の分割という、二分木分割のための2つの分割タイプがある。各々の場合において、ブロックは、水平または垂直のいずれかに、ブロックを中央で分けることによって分割される。これは、ブロックを4つのブロックに分ける四分木区分とは異なる。
QTBT区分構造の一例では、CTUサイズは128×128として設定され(たとえば、128×128の輝度ブロックおよび2つの対応する64×64の色差ブロック)、MinQTSizeは16×16として設定され、MaxBTSizeは64×64として設定され、MinBTSize(幅と高さの両方のための)は4として設定され、MaxBTDepthは4として設定される。四分木区分は、四分木リーフノードを生成するために、CTUにまず適用される。四分木リーフノードは、16×16(すなわち、MinQTSizeは16×16である)から128×128(すなわち、CTUサイズ)までのサイズを有し得る。QTBT区分の一例によれば、リーフ四分木ノードが128×128である場合、リーフ四分木ノードをさらに二分木によって分割することはできず、それは、リーフ四分木ノードのサイズがMaxBTSize(すなわち、64×64)を超えるからである。それ以外の場合、リーフ四分木ノードはさらに二分木によって区分される。したがって、四分木リーフノードは二分木のルートノードでもあり、0として二分木深度を有する。MaxBTDepth(たとえば、4)に達する二分木深度は、さらなる分割がないことを示唆する。MinBTSize(たとえば、4)に等しい幅を有する二分木ノードは、さらなる水平の分割がないことを示唆する。同様に、MinBTSizeに等しい高さを有する二分木ノードは、さらなる垂直の分割がないことを示唆する。二分木のリーフノード(CU)はさらに、さらなる区分なしで(たとえば、予測プロセスおよび変換プロセスを実行することによって)処理される。
図2Aは、QTBT区分技法を使用して区分されるブロック50(たとえば、CTB)の例を示す。図2Aに示されるように、QTBT区分技法を使用して、得られるブロックの各々は、各ブロックの中心を通って対称的に分割される。図2Bは、図2Aのブロック区分に対応する木構造を示す。図2Bの実線は四分木分割を示し、点線は二分木分割を示す。一例では、二分木の各分割(すなわち、非リーフ)ノードにおいて、実行される分割のタイプ(たとえば、水平または垂直)を示すために、シンタックス要素(たとえば、フラグ)がシグナリングされ、ここで0は水平の分割を示し、1は垂直の分割を示す。四分木分割では、四分木分割は常にブロックを等しいサイズで水平および垂直に4つのサブブロックへと分割するので、分割タイプを示す必要はない。
図2Bに示されるように、ノード70において、ブロック50は、四分木区分を使用して、図2Aに示される4つのブロック51、52、53、および54へと分割される。ブロック54はさらに分割されないので、リーフノードである。ノード72において、ブロック51はさらに二分木区分を使用して2つのブロックへと分割される。図2Bに示されるように、ノード72は、垂直の分割を示す1でマークされる。したがって、ノード72での分割は、ブロック57と、ブロック55と56の両方を含むブロックとをもたらす。ブロック55および56は、ノード74におけるさらなる垂直の分割によって作成される。ノード76において、ブロック52はさらに二分木区分を使用して2つのブロック58および59へと分割される。図2Bに示されるように、ノード76は、水平の分割を示す1でマークされる。
ノード78において、ブロック53は四分木区分を使用して4つの等しいサイズのブロックへと分割される。ブロック63および66は、この四分木区分から作成され、さらに分割されない。ノード80において、左上のブロックがまず垂直の二分木分割を使用して分割されて、ブロック60および右側の垂直ブロックをもたらす。次いで、右側の垂直ブロックが水平の二分木分割を使用してブロック61および62へと分割される。ノード78における四分木分割から作成される右下のブロックは、水平の二分木分割を使用してブロック64および65へとノード84において分割される。
QTBT区分の一例では、たとえば、四分木区分が輝度ブロックおよび色差ブロックに対して一緒に実行されるHEVCとは対照的に、輝度区分および色差区分は、Iスライスのために互いに独立して実行され得る。すなわち、研究されているいくつかの例では、輝度ブロックおよび色差ブロックは、直接重複しないように別々に区分され得る。したがって、QTBT区分のいくつかの例では、色差ブロックは、少なくとも1つの区分された色差ブロックが単一の区分された輝度ブロックと空間的に揃わないような方式で区分され得る。すなわち、ある特定の色差ブロックと同じ位置にある輝度サンプルは、2つ以上の異なる輝度区分の中にあることがある。
上で説明されたように、いくつかの例では、色差ブロックがどのようにコーディングされるべきかに関する情報は、対応する輝度ブロックに関する情報から導出され得る。しかしながら、輝度区分および色差区分が独立に実行される場合、輝度ブロックおよび色差ブロックは揃わないことがある(たとえば、輝度ブロックおよび色差ブロックがピクセルの同じセットに対応しないことがある)。たとえば、色差区分は、色差ブロックが対応する輝度区分より大きくなるような、または小さくなるようなものであり得る。加えて、色差ブロックは、2つ以上の輝度ブロックと空間的に重複し得る。上で説明されたように、区分された色差ブロックが区分された輝度ブロックより大きい場合、ある特定の色差ブロックに空間的に対応する2つ以上の輝度ブロックがあるので、色差区分のサイズに対応する輝度区分と関連付けられる輝度情報(たとえば、シンタックス要素など)の2つ以上のセットがあるということがあり得る。そのような場合、どのように輝度情報から色差情報を導出するかは不明確である。そのような状況は、JVETにより研究されている例示的なQTBT区分構造だけではなく、輝度ブロックおよび色差ブロックが独立に区分されるどのような区分構造でも生じ得ることを理解されたい。
これらの欠点に鑑みて、本開示は、別々のおよび/または独立の輝度区分および色差区分を使用して区分されるピクチャのための輝度情報から色差情報を導出するための方法およびデバイスを説明する。上で説明されたように、輝度区分および色差区分は揃っていないことがあり、たとえば異なるサイズまたは形状であることがある。輝度ブロックからの導出された情報(たとえば、決定されたコーディングモード情報)は、色差情報のための予測子として使用することができ(たとえば、色差ブロックのために使用されるべきコーディングモード)、または、ビデオデータの色差ブロックをコーディングするために使用することができる。代わりに、または加えて、輝度情報は、色差情報のコンテキストコーディングにおいてコンテキストモデリングのために使用することができる。任意選択で、コンテキストモデリングは、予測情報と組み合わせることができる。以下で説明される技法の各々は、独立に使用されてもよく、または任意の組合せで他の技法と組み合わされてもよいことを理解されたい。
本開示の一例として、ビデオエンコーダ22は、ある特定のコーディングモード(たとえば、ある特定のイントラ予測モード、ある特定のインター予測モード、ある特定のフィルタリングモード、ある特定の動きベクトル予測モードなど)を使用してビデオデータの輝度ブロックを符号化する。いくつかの例では、ビデオエンコーダ22はさらに、どのコーディングモードがある特定の輝度ブロックを符号化するために使用されたかを示すシンタックス要素を符号化し得る。ビデオデコーダ30は、輝度ブロックを復号するために使用すべきコーディングモードを決定するために、シンタックス要素を復号するように構成され得る。他の例では、ビデオデコーダ30は、ある特定のコーディングモードを明示的に示すシンタックス要素を受信しないことがある。むしろ、ビデオデコーダ30は、様々なビデオ特性(たとえば、ブロックサイズ、隣接ブロックからの情報など)および所定の規則のセットに基づいて、輝度ブロックのためのある特定のコーディングモードを導出するように構成され得る。他の例では、ビデオデコーダ30は、明示的にシグナリングされるシンタックス要素および所定の規則の組合せに基づいて、コーディングモードを決定し得る。
一例では、ビデオエンコーダ22は任意選択で、対応する輝度ブロックと同じコーディングモードを使用して、色差ブロック(たとえば、Crブロックおよび/またはCbブロック)を符号化し得る。ビデオエンコーダ22が単に、色差ブロックのコーディングモードを示すシンタックス要素および/または他の情報をシグナリングするのではなく、ビデオエンコーダ22は、1つまたは複数の対応する色差ブロックのコーディングモードのための予測子として輝度ブロックのコーディングモードを決定するための任意のシグナリングまたは導出された情報を再使用するようにビデオデコーダ30に示す、シンタックス要素(たとえば、フラグ)をシグナリングし得る。たとえば、色差ブロックが対応する輝度ブロックと同じコーディングモードを用いてコーディングされるかどうかを示すために、フラグが1つまたは複数の色差ブロックのためにコーディングされ得る。同じコーディングモードを用いてコーディングされない場合、ビデオエンコーダ22は、色差ブロックのコーディングモードを示すシンタックス要素を独立に生成し、ここでビデオエンコーダ22は、色差モードが輝度モードと等しくないことを考慮することができる。すなわち、ビデオエンコーダ22およびビデオデコーダは、色差ブロックのコーディングモードが輝度ブロックのコーディングモードと同じではないと決定することが可能であり得るので、輝度ブロックのコーディングモードは色差ブロックに対する可能性として除外され得る。さらなる例として、色差成分が輝度成分と同じモードを使用してコーディングされるかどうかを示すフラグをコーディングするために、別個のコンテキストが使用され得る。
上で説明された例では、ビデオエンコーダ22およびビデオデコーダ30は輝度ブロックをまずコーディングし、続いて1つまたは複数の色差ブロックをコーディングすると仮定される。この例では、色差ブロックがコーディングされているときに、輝度情報はすでに利用可能である。ビデオエンコーダ22およびビデオデコーダ30が別の順序でブロックをコーディングするように構成される場合(たとえば、色差ブロックが最初にコーディングされる)、輝度および色差の用語は、以下の例では単に交換され得る。
本開示の一例では、ビデオデコーダ30は、符号化されたビデオデータのビットストリームを受信し、符号化されたビデオデータをメモリ(たとえば、図1の記憶媒体28)に記憶するように構成され得る。符号化されたビデオデータは、区分された輝度ブロックと区分された色差ブロックの両方を表し得る。いくつかの例では、区分された色差ブロックは、Cr色差ブロックとCb色差ブロックの両方を含み得る。本開示において使用される場合、「色差ブロック」という用語は、任意のタイプの色差情報を含む任意のタイプのブロックを指し得る。本開示の例では、色差ブロックは輝度ブロックとは独立に区分される。すなわち、ビデオエンコーダ22は、輝度ブロックおよび色差ブロックのために別々の区分構造を使用してビデオデータを符号化するように構成され得る。
そのような別々の区分構造により、少なくとも1つの区分された色差ブロックが単一の区分された輝度ブロックと揃わないようになり得る。したがって、ピクチャの特定の空間的な位置に対して、ビデオエンコーダ22は、単一の色差ブロックを区分できるが、複数の輝度ブロックを区分できない。しかしながら、ピクチャの他の空間的な位置に対しては、輝度ブロックと色差ブロックとの間に1対1の対応があり得ること、または、単一の輝度ブロックに対して複数の色差ブロックがあり得ることを理解されたい。上で説明されたQTBT区分構造は、輝度ブロックおよび色差ブロックが独立に/別々に区分されるタイプの区分構造である。しかしながら、本開示の技法は、輝度ブロックおよび色差ブロックが独立に区分される任意の区分構造に従って区分されるビデオデータに適用され得る。
ビデオデコーダ30はさらに、符号化されたビデオビットストリームにおいて受信されるそれぞれの区分された輝度ブロックのコーディングモードを決定し、決定されたそれぞれのコーディングモードに従ってそれぞれの区分された輝度ブロックを復号するように構成され得る。ビデオデコーダ30は、符号化されたビデオビットストリームにおいて受信されるシンタックス要素によって示される情報からコーディングモードを決定するように構成され得る。そのようなシンタックス要素は、コーディングモードを明示的に示し得る。他の例では、ビデオデコーダ30は、ビデオデータの特性および何らかの所定の規則から、輝度ブロックのコーディングモードを暗黙的に決定するように構成され得る。他の例では、ビデオデコーダ30は、明示的にシグナリングされたシンタックス要素、ならびに、所定の規則およびビデオデータの特性から暗黙的に決定されたコーディングモードの組合せを使用して、輝度ブロックのコーディングモードを決定し得る。
本開示の文脈では、コーディングモードは、ビデオエンコーダ22がどのように符号化されたビデオデータを符号化したか、およびビデオデコーダ30がビデオデータをどのように復号すべきかをビデオデコーダ30に示す、任意の情報であり得る。例示的なコーディングモードは、色差イントラ予測のための直接モード、場所に依存するイントラ予測組合せ(PDPC)フラグ(たとえば、PDPCモードが使用されるかどうかを示す)、PDPCパラメータ、分離不能二次変換(NSST: Non-Separable Secondary Transform)のための二次変換セット、増強複数変換(EMT: Enhanced Multiple Transform)、適応複数変換(AMT: Adaptive Multiple Transform)、およびエントロピーコーディングデータモードを選択するためのコンテキストを含み得る。上記は、ビデオデコーダ30によって決定される輝度コーディングモード(輝度ブロックをコーディングするために使用されるコーディングモード)から導出することができ、JVETで研究されているJEM試験モデルにおいて使用されている、色差コーディングモードの例である。しかしながら、コーディングモードは、色差ブロックをコーディングするために再使用され得る、または色差ブロックのコーディングモードを予測するために使用され得る、輝度ブロックをコーディングするために使用される任意のコーディングモードを含み得る。
コーディングモードのタイプまたはコーディングモードが決定された方式とは無関係に、ビデオデコーダ30は、特定の区分された輝度ブロックと関連付けられる複数の異なるメモリ位置に、その特定の区分された輝度ブロックの決定されたコーディングモードを記憶するように構成され得る。図3を参照して以下でより詳細に説明されるように、ある特定の区分される輝度ブロックはサブブロックへと分けられることがあり、ビデオデコーダ30は、サブブロックの各々に対応するメモリ位置に、特定の区分された輝度ブロック全体に対して決定されたコーディングモードを記憶することができる。したがって、N個のサブブロックへと分けられるある特定の区分された輝度ブロックに対して、コーディングモードはN個の異なるメモリ位置に記憶され、各メモリ位置は、区分された輝度ブロック内の特定の空間的に配置されたサブブロックに対応する。サブブロックは、任意のサイズの長方形または正方形ブロックであり得る。いくつかの例では、サブブロックは1つだけのサンプル、すなわち1×1のサイズのブロックであり得る。いくつかの例では、各メモリ位置は、特定の区分された輝度ブロックのコーディングモードを明示的に示すデータを記憶し得る。他の例では、特定の区分された輝度ブロックと関連付けられる1つまたは複数のメモリ位置はコーディングモードを示す情報を明示的に記憶するが、特定の区分された輝度ブロックと関連付けられる他のメモリ位置は、コーディングモードを明示的に記憶するメモリ位置を指す。
本開示のいくつかの例によれば、ビデオデコーダ30は、色差ブロックを復号するときに使用するために、輝度ブロックのために受信されたコーディングモード情報を再使用するように構成され得る。いくつかの例では、ビデオデコーダ30は、それぞれの区分された輝度ブロックと関連付けられるコーディングモードが特定の区分された色差ブロックを復号するために使用されるべきであるかどうかを示す、第1のシンタックス要素を受信して復号することができる。上で説明されたように、ある区分された色差ブロックは、2つ以上の異なる区分された輝度ブロックと空間的に揃うことがある。したがって、そのような色差ブロックのために輝度コーディングモードをどのように再使用するかを決定するのは難しいことがあり、それは、どの輝度ブロックからコーディングモード情報を受け継ぐ(たとえば、再使用する)かが不明確であるからである。複数のサブブロック位置に対応する複数のメモリ位置に輝度コーディングモード情報を記憶することによって、ビデオデコーダ30は、特定の色差ブロックの空間的な位置に対応するサブブロックのために記憶されているコーディングモード情報の関数を使用して、その特定の色差ブロックのために輝度ブロックからのどのコーディングモード情報を再使用すべきかを決定するように構成され得る。この文脈では、この関数は、2つ以上の同じ位置にある区分された輝度ブロックのどのコーディングモードを区分された色差ブロックのために再使用すべきかを決定するためにビデオデコーダ30が使用する、所定の規則および分析技法のセットであり得る。再使用すべき輝度コーディングモードが決定されると、ビデオデコーダ30は、決定されたコーディングモードを用いて特定の区分された色差ブロックを復号し得る。
ビデオデコーダ30は、区分された輝度ブロックのサブブロックと関連付けられるメモリ位置に記憶されているコーディングモード情報の関数に基づいて、2つ以上の空間的に揃っている輝度ブロックからどのコーディングモードを再使用すべきかを決定するように構成され得る。いくつかの異なる機能が使用され得る。本開示の一例では、ビデオデコーダ30は、色差区分と同じ位置にある2つ以上の輝度区分に対応する輝度コーディングモード情報の統計的な分析を実行するように構成され得る。色差ブロックが使用するための、輝度ブロックからの決定された輝度コーディングモード情報は、輝度コーディングモード情報全体(たとえば、色差ブロックと同じ位置にある1つ1つの輝度サブブロックに含まれるコーディングモード情報)と、輝度ブロックの中の同じ位置にあるサブブロックにわたって輝度コーディングモード情報がどのように変化するか(たとえば、情報がどの程度類似しているか、または異なるか)ということとの、関数であり得る。コーディングモードの再使用のための以前の技法と本開示の技法の1つの違いは、別々の輝度区分および色差区分により、輝度コーディングモード情報が2つ以上の輝度ブロック(または区分)に関連し得るということである。
2つ以上の区分された輝度ブロックからどの輝度コーディングモード情報を同じ位置にある色差ブロックのために再使用できるかを決定するために使用され得る関数の例は、限定はされないが、以下で説明される関数の1つまたは複数を含み得る。一例では、ビデオデコーダ30は、2つ以上の区分された輝度ブロックの決定されたそれぞれのコーディングモードを示すコーディングモード情報の統計的分析を含む関数を実行し得る。コーディングモード情報は、2つ以上の区分された輝度ブロックのそれぞれのサブブロックと関連付けられるそれぞれのメモリ位置に記憶される。一例では、ビデオデコーダ30は、コーディングモード情報を分析し、2つ以上の区分された輝度ブロックの同じ位置にあるサブブロックに対して最も頻繁に現れるコーディングモード情報を返す(たとえば、使用しメモリから取得すると決定する)ことができる。すなわち、この関数は、対応する輝度ブロックにおいて使用される輝度情報の大半を返す。このようにして、この関数は、同じ位置にある色差ブロックのために再使用されるべき、2つ以上の区分された輝度ブロックからの特定の輝度コーディングモード情報を示す。
他の例では、ビデオデコーダ30は、2つ以上の区分された輝度ブロックのサブブロックのためのコーディングモード情報の分析を実行する関数を使用することができ、この分析は、その情報の平滑性を測定するために、輝度コーディングモード情報の勾配またはより高次の導関数を測定することを含む。たとえば、2つ以上の輝度ブロックに関するコーディングモード情報の大半と大きく異なり得る、2つ以上の輝度ブロックの中のいくつかの極端な(たとえば、外れ値の)コーディングモード情報を無視して、色差ブロックのために再使用しないようにすることができる。他の例では、ビデオデコーダ30は、それぞれのサブブロックのために記憶されている輝度コーディングモード情報に異なる重みを割り当て、色差ブロックのためにどのモードを再使用すべきかを決定するために、コーディングモードの加重平均を使用することができる。この重みは、色差ブロックと同じ位置にある輝度サブブロックの相対的な位置に基づいて割り当てられ得る。
他の例では、色差ブロックのためにどの輝度コーディングモードを再使用すべきかを決定するために使用される関数は、以下のビデオコーディング特性の1つまたは複数を含み得る。色差ブロックのためにどの輝度コーディングモードを再使用すべきかを決定するためにビデオデコーダ30が使用し得る関数は、ブロックの形状(長方形、正方形)、ブロックの向き(垂直または水平の向きの長方形ブロック)、色差ブロックの形状、代表的な位置を含む輝度ブロックの形状、輝度および/または色差ブロックの幅もしくは高さ、色差ブロックに対応するエリアのより頻繁に使用される輝度モードを含み得る。他の例では、関数は、代表的な位置における予測モードまたは輝度情報に基づき得る。たとえば、ビデオデコーダ30が色差ブロックの輝度イントラモードを再使用するように構成されるが、代表的な位置における輝度ブロックがインターモードを用いてコーディングされる場合、ビデオデコーダ30は、色差ブロックのために再使用すべき輝度イントラモードを決定するために、別の代表的な位置を選択するように構成され得る。より一般的には、ビデオデコーダ30が色差ブロックをコーディングするためにどの輝度情報を再使用すべきかを決定するが、輝度情報がこの色差ブロックに対して有効ではない可能性がある場合、ビデオデコーダ30は、輝度ブロックの中の別の代表的な位置からの輝度情報を考慮することがあり、またはそうでなければ、何らかのデフォルトの輝度情報を使用することがある。
本開示の別の例では、ビデオデコーダ30は、所定のサブブロック位置に基づいてコーディングモード情報を再使用し得る。たとえば、ビデオデコーダ30は単に、色差ブロックと同じ位置にある特定のサブブロック位置のために記憶されているコーディングモード情報を再使用することができる。一例として、ビデオデコーダ30は、区分された色差ブロックの特定の角と同じ位置にある輝度サブブロックに記憶されているコーディングモード情報を再使用することができる。任意の角のサブブロックが使用され得る。別の例として、ビデオデコーダ30は、区分された色差ブロックの中心と同じ位置にある輝度サブブロックに記憶されているコーディングモード情報を再使用することができる。他の例では、ビデオデコーダ30は、何らかの所定の数の輝度サブブロック位置のために記憶されているコーディングモード情報の統計的分析(たとえば、上で説明されたような)を実行することができる。すなわち、ビデオデコーダ30は、輝度区分のいくつかのサブブロックを分析し、そこに含まれている輝度情報に基づいて色差情報を導出する、関数を使用することができる。
別の例では、ビデオデコーダ30は、区分された色差ブロックを、複数のサブブロック、たとえば1×1、2×2、4×4、または他のサイズのサブブロックへと分けることができる。次いで、各サブブロックに対して、ビデオデコーダ30は、特定の輝度サブブロックのために記憶されている輝度コーディングモード情報を、同じ位置にある色差サブブロックのために受け継ぐ(たとえば、再使用する)ことができる。このようにして、対応する輝度ブロックからの異なるコーディング情報は、単一の色差ブロックにおいて適用され得る。
上で論じられたように、ビデオデコーダ30は、色差ブロックのために輝度コーディングモード情報をどのように再使用するかを決定するための、複数の所定の関数のうちの1つを使用することができる。いくつかの例では、ビデオデコーダ30は、単一の所定の関数を使用し、すべてのピクチャのためにその関数を使用するように構成され得る。他の例では、ビデオデコーダ30は、いくつかのビデオコーディング特性に基づいて、どの関数を使用するかを決定することができる。他の例では、ビデオエンコーダ22は、輝度コーディングモード情報をどのように再使用するかを決定するためにどの関数を使用すべきかをビデオデコーダ30に示すシンタックス要素をシグナリングするように構成され得る。そのようなシンタックス要素は、任意のレベルで、たとえばシーケンスレベル、ピクチャレベル、スライスレベル、タイルレベル、CTBレベルなどでシグナリングされ得る。
図3は、本開示の技法による、輝度と色差の相対的な区分の例を示す概念図である。図3に示されるように、情報は、区分のサブブロック(点線のボックス)に区分(たとえば、区分された輝度ブロック)ごとに記憶される。サブブロックは、最小で個々のサンプルのサイズまでの、任意のサイズであり得る。図3は、4:4:4サブサンプリングフォーマットであるか4:2:0サブサンプリングフォーマットであるかにかかわらず、1つの色差区分が2つ以上の関連する輝度区分を有し得ることを示す。したがって、単一の色差区分は、2つ以上の対応する輝度情報のセットを有し得る。上で説明されたように、輝度区分のいくつかの代表的な位置(たとえば、サブブロック)は、対応する色差区分のための色差情報を導出するために、輝度情報(たとえば、コーディングモード)を分析するために使用され得る。
図4は、本開示の技法による、輝度と色差の相対的な区分の別の例を示す概念図である。図4に示されるように、情報は輝度区分のサブブロック(点線のボックス)に区分ごとに記憶される。図4は、1つの色差区分の中の各サブブロックが1つの関連する輝度サブブロックを有し得ることと、関連する1つの輝度サブブロックの輝度情報が対応する色差サブブロックのための色差情報を導出するために分析され得ることとを示す。
以下のセクションは、本開示の技法を使用し得るいくつかの例を説明する。色差直接モードでは、輝度イントラ方向が色差イントラ予測のために使用される。このモードの例はHEVCにおいて使用された。本開示の1つの例示的な技法によれば、色差構造および輝度構造が(たとえば、独立の色差区分および輝度区分が原因で)揃わないとき、輝度イントラ予測モードを取得するために、中心の代表的な輝度サブブロックが選択され、輝度イントラ予測モードが次いで、直接モードとして色差区分に適用される。対応する輝度区分の他の輝度サブブロックは、選択されたサブブロックとは異なる他のイントラ方向を有し得る。上で説明されたように、中心の代表的なサブブロックを使用する代わりに、他の関数も使用され得る。
別の例では、色差直接モードでは、色差構造および輝度構造が揃わないとき、色差イントラ予測が2×2(または4×4)サブブロック単位で実行される。各々の2×2(または4×4)色差サブブロックに対して、1つの関連する4×4の輝度サブブロックが特定され、この特定された4×4の輝度サブブロックのイントラ予測モードは、現在の色差2×2(または4×4)サブブロックに適用される。
別の例では、色差PDPC制御フラグ(すなわち、PDPCモードが適用される、またはされない)およびPDPCパラメータが、たとえば、中心の代表的な輝度サブブロックから導出され、色差区分に適用される。上で説明されたように、中心の代表的なサブブロックを使用する代わりに、他の関数も使用され得る。
別の例では、二次変換(NSST)セットが、中心の代表的な輝度サブブロックからビデオデコーダ30によって選択され、色差区分に適用される。上で説明されたように、中心の代表的なサブブロックを使用する代わりに、他の関数も使用され得る。
同様の技法が、輝度情報から導出される任意の色差情報に、ビデオデコーダ30によって適用され得る。
前述の例は、ビデオデコーダ30を参照して説明された。しかしながら、ビデオエンコーダ22は、輝度ブロックのために生成され、導出され、かつ/またはシグナリングされた情報を、色差ブロックのためにどのように再使用するかを決定するための同じ技法を利用し得る。具体的には、ビデオエンコーダ22は、どの輝度コーディングモード情報を再使用すべきかを決定するためにビデオデコーダが使用する関数に基づいて、色差ブロックのために輝度コーディングモード情報が再使用されるべきかどうかを示す、シンタックス要素をシグナリングするかどうかを決定することができる。
以下のセクションは、非正方形の長方形区分へと区分され得るビデオデータのブロックに対して、場所に依存するイントラ予測組合せ(PDPC)コーディングモードのためのパラメータを決定するための技法を説明する。上で説明されたQTBT区分構造は、非正方形の長方形ブロックを許容する区分構造の例である。しかしながら、本開示の技法は、非正方形の長方形ブロックを産生する任意の区分構造とともに使用され得る。
PDPCコーディングモードを使用してビデオデータをコーディングするとき、ビデオエンコーダ22および/またはビデオデコーダ30は、フィルタリングされたおよびフィルタリングされない参照値に基づいて、かつ予測されたピクセルの場所に基づいて、どのように予測を組み合わせるかを定義する1つまたは複数のパラメータ化された等式を使用し得る。ビデオエンコーダ22がパラメータのセットを(たとえば、レートひずみ分析を介して)試験し、最適なパラメータ(たとえば、試験されるパラメータの中で最良のレートひずみ性能をもたらすパラメータ)をビデオデコーダ30にシグナリングするように構成され得るような、パラメータのいくつかのセットを本開示は説明する。他の例では、ビデオデコーダ30は、ビデオデータの特性(たとえば、ブロックのサイズ、ブロックの高さ、ブロックの幅など)からPDPCパラメータを決定するように構成され得る。
図5Aは、本開示の技法による、フィルタリングされない参照(r)を使用した4×4のブロック(p)の予測を示す。図5Bは、本開示の技法による、フィルタリングされる参照(s)を使用した4×4のブロック(q)の予測を示す。図5Aと図5Bの両方が4×4のピクセルブロックと17(4×4+1)個のそれぞれの参照値を示すが、本開示の技法は参照値の任意のブロックサイズおよび数に適用され得る。
ビデオエンコーダ22および/またはビデオデコーダ30は、PDPCコーディングモードを実行するとき、コーディングされるべき現在のブロックのための予測されるブロックがフィルタリングされた(s)参照アレイとフィルタリングされない(r)参照アレイの両方からのピクセル値を使用して計算され得るように、フィルタリングされた(q)予測とフィルタリングされない(p)予測の組合せを利用し得る。
PDPCの技法の一例では、それぞれフィルタリングされない参照rおよびフィルタリングされた参照sのみを使用して計算される、ピクセル予測の任意の2つのセットpr[x,y]およびqs[x,y]を仮定すると、v[x,y]と表記されるピクセルの合成の予測される値は、
v[x,y]=c[x,y] pr[x,y]+(1-c[x,y]) qs[x,y] (1)
によって定義され、c[x,y]は合成パラメータのセットである。重みc[x,y]の値は0と1の間の値であり得る。重みc[x,y]と(1-c[x,y])の合計は1に等しいことがある。
いくつかの例では、ブロックの中のピクセルの数と同じくらい大きなパラメータのセットを有することは現実的ではないことがある。そのような例では、c[x,y]は、パラメータのはるかに小さなセットと、それらのパラメータからのすべての合成値を計算するための等式とによって定義され得る。そのような例では、以下の式が使用され得る。
ここで、c1 v,c2 v,c1 h,c2 h,g,dv,dh∈{1,2}は予測パラメータであり、Nはブロックサイズであり、pr[x,y]およびqs[x,y]は、HEVC規格に従って、特定のモードに対してそれぞれフィルタリングされない参照およびフィルタリングされた参照を使用して計算される予測値であり、
は正規化係数(すなわち、
および
に割り当てられる全体の重みが合計で1になるようにするための)であり、予測パラメータにより定義される。
式2は、式2Aにおいて任意のビデオコーディング規格に対して一般化され得る。
ここで、c1 v,c2 v,c1 h,c2 h,g,dv,d_h∈{1,2}は予測パラメータであり、Nはブロックサイズであり、
および
はビデオコーディング規格(またはビデオコーディング方式またはアルゴリズム)に従って、特定のモードに対してそれぞれフィルタリングされない参照およびフィルタリングされた参照を使用して計算される予測値であり、
は正規化係数(すなわち、
および
に割り当てられる全体の重みが合計で1になるようにするための)であり、予測パラメータにより定義される。
これらの予測パラメータは、使用される予測モードのタイプ(たとえば、DC、平面、およびHEVCの33個の方向性モード)に従って、予測される項の最適な線形の合成を提供するための重みを含み得る。たとえば、HEVCは35個の予測モードを含む。ルックアップテーブルは、予測モードの各々に対する予測パラメータc1 v,c2 v,c1 h,c2 h,g,dv,dhの各々の値(すなわち、各予測モードに対するc1 v,c2 v,c1 h,c2 h,g,dv,dhの35個の値)を用いて構築され得る。そのような値は、ビデオについてビットストリームにおいて符号化されることがあり、または前もってエンコーダおよびデコーダによって知られている定数値であることがあり、ファイルまたはビットストリームにおいて送信される必要はないことがある。c1 v,c2 v,c1 h,c2 h,g,dv,dhの値は、訓練ビデオのセットに対する最良の圧縮を与える予測パラメータの値を見つけることによる、最適な訓練アルゴリズムによって決定され得る。
別の例では、各予測モードに対して複数の事前に定義された予測パラメータセットが(たとえば、ルックアップテーブルの中に)あり、選択された予測パラメータセットが符号化されたファイルまたはビットストリームにおいてデコーダに送信される(しかしパラメータ自体は送信されない)。別の例では、c1 v,c2 v,c1 h,c2 h,g,dv,dhの値は、ビデオエンコーダによってオンザフライで生成され、符号化されたファイルまたはビットストリームにおいてデコーダに送信され得る。
別の例では、HEVC予測を使用する代わりに、これらの技法を実行するビデオコーディングデバイスは、33個の方向性予測の代わりに65個の方向性予測を使用するものなどの、HEVCの修正されたバージョンを使用し得る。実際に、任意のタイプのフレーム内予測が使用され得る。
別の例では、式は計算を容易にするように選ばれ得る。たとえば、以下のタイプの予測子を使用することができ、
ここで、
かつ
である。
そのような手法は、HEVC(または他の)予測の線形性を利用し得る。事前に定義されたセットからのフィルタkのインパルス応答としてhを定義すると、
s=a r+(1-a)(h*r) (7)
であり、「*」が畳み込みを表す場合、
であり、すなわち、線形に合成された予測が線形に合成された参照から計算され得る。
式4、6、および8は、式4A、6A、および8Aにおいて任意のビデオコーディング規格に対して一般化され得る。
ここで、
かつ
である。
そのような手法は、コーディング規格の予測の線形性を利用し得る。事前に定義されたセットからのフィルタkのインパルス応答としてhを定義すると、
s=a r+(1-a)(h*r) (7A)
であり、「*」が畳み込みを表す場合、
であり、すなわち、線形に合成された予測が線形に合成された参照から計算され得る。
ある例では、予測関数は参照ベクトル(たとえば、rおよびs)を入力としてのみ使用し得る。この例では、参照ベクトルの挙動は、参照がフィルタリングされていてもされていなくても変化しない。rとsが等しい(たとえば、いくつかのフィルタリングされない参照rが別のフィルタリングされた参照sと偶然同じである)場合、フィルタリングされた参照およびフィルタリングされない参照に適用される予測関数は等しく、たとえばpr[x,y](p(x,y,r)とも書かれる)はps[x,y](p(x,y,s)とも書かれる)に等しい。加えて、ピクセル予測pおよびqは等価であり得る(たとえば、同じ入力であれば同じ出力を産生する)。そのような例では、式(1)〜(8)は、ピクセル予測q[x,y]をピクセル予測p[x,y]で置き換えて書き換えられ得る。
別の例では、予測(たとえば、関数のセット)は、参照がフィルタリングされたという情報に依存して変化し得る。この例では、関数の異なるセットが表記され得る(たとえば、pr[x,y]およびqs[x,y])。この場合、rとsが等しい場合であっても、pr[x,y]およびqs[x,y]は等しくないことがある。言い換えると、同じ入力は、入力がフィルタリングされたか否かに応じて異なる出力を生み出し得る。そのような例では、p[x,y]はq[x,y]によって置き換えられることが可能ではないことがある。
示される予測式の利点は、パラメータ化された式を用いると、最適なパラメータのセット(すなわち、予測精度を最適化するもの)が、訓練などの技法を使用して、様々なタイプのビデオテクスチャに対して決定され得るということである。そして、この手法は、いくつかの例では、いくつかの典型的なタイプのテクスチャに対して予測子パラメータのいくつかのセットを計算し、エンコーダが各セットからの予測子を試験して最良の圧縮を生むものをサイド情報として符号化するような圧縮方式を用いることによって、拡張され得る。
上で説明された技法のいくつかの例では、PDPCコーディングモードが有効であるとき、たとえば、フィルタリングされたサンプルまたはフィルタリングされないサンプルを使用して、PDPCモードのイントラ予測の重みおよび制御のために使用されるPDPCパラメータは、事前に計算されルックアップテーブル(LUT)に記憶される。一例では、ビデオデコーダ30は、ブロックサイズおよびイントラ予測方向に従ってPDPCパラメータを決定する。PDPCコーディングモードの以前の技法は、イントラ予測されるブロックが常に正方形のサイズであると仮定していた。
JVET試験モデルは、PDPCコーディングモードを含む。上で論じられたように、JVET試験モデルは、非正方形の長方形ブロックを許容するQTBT区分を使用する。以下のセクションは、長方形ブロックのためのPDPCコーディングの拡張のための例示的な技法を論じる。しかしながら、本開示の技法は、サンプル場所に従って予測子および参照サンプルに加重平均を適用する予測モードを含む、非正方形ブロックを使用する任意の予測モードのための予測モードパラメータを決定するために使用され得ることを理解されたい。
水平関連のパラメータに対しては、ブロックの幅がLUTからのPDPCパラメータを記憶するために、またはそれにアクセスするために使用され、垂直関連のパラメータに対しては、ブロックの高さがLUTからのPDPCパラメータを記憶するために、またはそれにアクセスするために使用されるように、PDPCパラメータを決定するために使用されるLUTの構造、またはLUTからパラメータを導出するために使用される技法を修正することが提案される。水平または垂直の関係を有しない他のパラメータに対しては、ブロックの幅と高さの関数が、LUTからのそれらのパラメータを記憶するために、またはそれらにアクセスするために適用され得る。
ビデオデコーダ30は、PDPCモードを使用して符号化されたビデオデータのブロックを受信し得る。この例では、ビデオデータのブロックは、幅および高さによって定義される非正方形の長方形の形状を有し得る。ビデオデコーダ30は、イントラ予測モードとブロックの幅との関数として、水平関連のPDPCパラメータを決定し得る。ビデオデコーダ30は、イントラ予測モードとブロックの高さとの関数として、垂直関連のPDPCパラメータを決定し得る。加えて、ビデオデコーダ30は、イントラ予測モードならびにブロックの高さおよび幅の関数に基づいて、非方向性のPDPCパラメータ(たとえば、水平関連でも垂直関連でもないPDPCパラメータ)を決定し得る。例示的な垂直関連のパラメータは、上付き文字vとともに上で示されている。例示的な水平関連のパラメータは、上付き文字hとともに上で示されている。たとえば、関数は、限定はされないが、ブロックの高さと幅の大きい方もしくは小さい方、またはブロックの高さと幅の加重平均であることがあり、ここで重みは、ある次元がブロックの別の次元よりどのように大きいかに依存し得る。たとえば、より大きな次元(幅または高さ)は、加重平均において他の次元より大きい重みを有し得る。
許容されるブロック形状(幅および高さ)はある数しかないので、この関数は、すべてのあり得るブロックの幅と高さ、または部分組合せに対しても明示的に表され得る。たとえば、NwおよびNh個のあり得るブロックの幅および高さがある場合、サイズNw×Nhのテーブルは、各長方形ブロックまたは正方形ブロックに対して、イントラ予測処理において使用されるべきデータを記憶することができる。
図6は、本開示の一例による、長方形ブロックにおいて使用される予測パラメータのセットを決定するためのネストされたテーブルの使用を示す概念図である。ビデオデコーダ30は、ブロックの幅と高さの両方に対してエントリーがインデクシングされる、1つまたは複数のLUTを使用してPDPCパラメータを決定し得る。図6に示されるように、幅(W)および/または高さ(H)は、サイズ対パラメータテーブル90への入力として使用され得る。サイズ対パラメータテーブル90は、予測パラメータテーブル92の中のエントリーを指すインデックスを含む(LUT)として構成され得る。上で論じられたように、サイズ対パラメータテーブル90は、NwおよびNh個のあり得るブロックの幅および高さを考慮するためにサイズがNw×Nhであり得る。この例では、サイズ対パラメータテーブル90は、単一のイントラ予測モード(たとえば、DC、平面、または他の予測方向)のために使用され得る。他の例では、サイズ対パラメータテーブル90は、すべてのイントラ予測モードのためのエントリーを含み、テーブルへのエントリーとしてブロックの高さ、ブロックの幅、およびイントラ予測モードを使用し得る。一般に、メモリを最小限にするために、ビデオデコーダ30およびビデオエンコーダ22は、行および列においてテーブルのエントリーを合成し、テーブル(たとえば、サイズ対パラメータテーブル90)のサイズを減らし、場合によっては異なるサイズのいくつかのテーブルを作成するように構成され得る。
一例として、特定のイントラ予測モードを仮定すると、ビデオデコーダ30は、復号されているビデオデータのブロックの幅を使用してサイズ対パラメータテーブル90の中のエントリーにアクセスし、1つまたは複数の水平関連のPDPCパラメータを決定することができる。ブロックの幅に基づいて、サイズ対パラメータテーブル90の中の対応するエントリーは、予測パラメータテーブル92への入力として使用され得る。予測パラメータテーブル92は、サイズがNp×Neであり、実際のPDPCパラメータのエントリーを含む。したがって、サイズ対パラメータテーブル90から得られたエントリーは、復号ブロック94において次いで使用される予測パラメータテーブル92の中の実際の水平関連のPDPCパラメータを指すインデックスである。
同様に、ビデオデコーダ30は、復号されているビデオデータのブロックの高さを使用してサイズ対パラメータテーブル90の中のエントリーにアクセスし、1つまたは複数の垂直関連のPDPCパラメータを決定することができる。ブロックの幅に基づいて、サイズ対パラメータテーブル90の中の対応するエントリーは、復号ブロック94において次いで使用される予測パラメータテーブル92の中の実際の垂直関連のPDPCパラメータを取得するために、予測パラメータテーブル92への入力として使用され得る。同じプロセスが、ブロックの高さおよび幅の関数に基づいたインデックスである、非方向性のPDPCパラメータのために適用され得る。
図7は、本開示の技法を実施することができる例示的なビデオエンコーダ22を示すブロック図である。図7は説明のために提供され、広く例示されるとともに本開示において説明されるような技法の限定と見なされるべきでない。本開示の技法は、様々なコーディング規格または方法に適用可能であり得る。
図7の例では、ビデオエンコーダ22は、予測処理ユニット100、ビデオデータメモリ101、残差生成ユニット102、変換処理ユニット104、量子化ユニット106、逆量子化ユニット108、逆変換処理ユニット110、再構築ユニット112、フィルタユニット114、復号ピクチャバッファ116、およびエントロピー符号化ユニット118を含む。予測処理ユニット100は、インター予測処理ユニット120およびイントラ予測処理ユニット126を含む。インター予測処理ユニット120は、動き推定ユニットおよび動き補償ユニット(図示せず)を含み得る。
ビデオデータメモリ101は、ビデオエンコーダ22の構成要素によって符号化されるべきビデオデータを記憶するように構成され得る。ビデオデータメモリ101に記憶されるビデオデータは、たとえば、ビデオソース18から取得され得る。復号ピクチャバッファ116は、たとえば、イントラコーディングモードまたはインターコーディングモードにおいて、ビデオエンコーダ22によってビデオデータを符号化する際に使用するための参照ビデオデータを記憶する参照ピクチャメモリであり得る。ビデオデータメモリ101および復号ピクチャバッファ116は、シンクロナスDRAM(SDRAM)を含むダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗変化RAM(RRAM(登録商標))、または他のタイプのメモリデバイスなどの、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ101および復号ピクチャバッファ116は、同一のメモリデバイスまたは別々のメモリデバイスによって提供され得る。様々な例において、ビデオデータメモリ101は、ビデオエンコーダ22の他の構成要素とともにオンチップであってもよく、または、これらの構成要素に対してオフチップであってもよい。ビデオデータメモリ101は、図1の記憶媒体20と同じであることがあり、またはその一部であることがある。
ビデオエンコーダ22は、ビデオデータを受信する。ビデオエンコーダ22は、ビデオデータのピクチャのスライスの中の各CTUを符号化し得る。CTUの各々は、ピクチャの、等しいサイズの輝度コーディングツリーブロック(CTB)、および対応するCTBと関連付けられ得る。CTUを符号化することの一部として、予測処理ユニット100は、区分を実行して、CTUのCTBを次第に小さくなるブロックに分割し得る。いくつかの例では、ビデオエンコーダ22は、QTBT構造を使用してブロックを区分し得る。より小さいブロックは、CUのコーディングブロックであり得る。たとえば、予測処理ユニット100は、木構造に従ってCTUと関連付けられるCTBを区分し得る。本開示の1つまたは複数の技法によれば、木構造の各深度レベルにおいて木構造の各々のそれぞれの非リーフノードに対して、それぞれの非リーフノードに対して複数の許容される分割パターンがあり、それぞれの非リーフノードに対応するビデオブロックは、複数の許容可能な分割パターンのうちの1つに従って、それぞれの非リーフノードの子ノードに対応するビデオブロックへと区分される。
ビデオエンコーダ22は、CTUのCUを符号化して、CUの符号化された表現(すなわち、コーディングされたCU)を生成し得る。CUを符号化することの一部として、予測処理ユニット100は、CUの1つまたは複数のPUの間でCUと関連付けられるコーディングブロックを区分し得る。したがって、各PUは、輝度予測ブロックおよび対応する色差予測ブロックと関連付けられ得る。ビデオエンコーダ22およびビデオデコーダ30は、様々なサイズを有するPUをサポートし得る。上で示されたように、CUのサイズは、CUの輝度コーディングブロックのサイズを指すことがあり、PUのサイズは、PUの輝度予測ブロックのサイズを指すことがある。特定のCUのサイズが2N×2Nであると仮定すると、ビデオエンコーダ22およびビデオデコーダ30は、イントラ予測に対して2N×2NまたはN×NというPUサイズ、およびインター予測に対して2N×2N、2N×N、N×2N、N×N、または類似の、対称のPUサイズをサポートし得る。ビデオエンコーダ22およびビデオデコーダ30はまた、インター予測に対して、2N×nU、2N×nD、nL×2N、およびnR×2NというPUサイズのための非対称区分をサポートし得る。
インター予測処理ユニット120は、インター予測をCUの各PUに対して実行することによって、PUの予測データを生成し得る。PUの予測データは、PUの予測ブロックおよびPUの動き情報を含み得る。インター予測処理ユニット120は、PUがIスライスの中にあるか、Pスライスの中にあるか、またはBスライスの中にあるかに応じて、CUのPUに対して異なる動作を実行し得る。Iスライスの中では、すべてのPUがイントラ予測される。したがって、PUがIスライスの中にある場合、インター予測処理ユニット120は、インター予測をPUに対して実行しない。したがって、Iモードで符号化されるブロックの場合、予測されるブロックは、同じフレーム内で以前符号化された隣接ブロックからの空間予測を使用して形成される。PUがPスライスの中にある場合、インター予測処理ユニット120は、単方向インター予測を使用してPUの予測ブロックを生成することができる。PUがBスライスの中にある場合、インター予測処理ユニット120は、単方向または双方向インター予測を使用してPUの予測ブロックを生成することができる。
イントラ予測処理ユニット126は、PUに対してイントラ予測を実行することによって、PUの予測データを生成し得る。PUの予測データは、PUの予測ブロックおよび様々なシンタックス要素を含み得る。イントラ予測処理ユニット126は、Iスライス、Pスライス、およびBスライスの中のPUに対して、イントラ予測を実行し得る。
イントラ予測をPUに対して実行するために、イントラ予測処理ユニット126は、複数のイントラ予測モードを使用して、PUの予測データの複数のセットを生成し得る。イントラ予測処理ユニット126は、隣接PUのサンプルブロックからのサンプルを使用して、PUの予測ブロックを生成し得る。PU、CU、およびCTUに対して左から右、上から下への符号化順序を仮定すると、隣接PUは、PUの上、右上、左上、または左であり得る。イントラ予測処理ユニット126は、様々な数のイントラ予測モード、たとえば、33個の方向性イントラ予測モードを使用し得る。いくつかの例では、イントラ予測モードの数は、PUと関連付けられる領域のサイズに依存し得る。加えて、図11を参照して以下でより詳細に説明されるように、イントラ予測処理ユニット126は、ビデオデータのブロックの高さおよび/または幅の関数として、ビデオデータのブロックを符号化するためのPDPCパラメータを決定するように構成され得る。
予測処理ユニット100は、PUのためにインター予測処理ユニット120によって生成される予測データ、またはPUのためにイントラ予測処理ユニット126によって生成される予測データの中から、CUのPUの予測データを選択し得る。いくつかの例では、予測処理ユニット100は、予測データのセットのレート/ひずみの尺度に基づいて、CUのPUの予測データを選択する。選択される予測データの予測ブロックは、選択予測ブロックと本明細書で呼ばれることがある。
残差生成ユニット102は、CUのコーディングブロック(たとえば、輝度コーディングブロック、Cbコーディングブロック、およびCrコーディングブロック)およびCUのPUの選択された予測ブロック(たとえば、予測輝度ブロック、予測Cbブロック、および予測Crブロック)に基づいて、CUの残差ブロック(たとえば、輝度残差ブロック、Cb残差ブロック、およびCr残差ブロック)を生成し得る。たとえば、残差生成ユニット102は、残差ブロックの中の各サンプルがCUのコーディングブロックの中のサンプルとCUのPUの対応する選択された予測ブロックの中の対応するサンプルとの間の差分に等しい値を有するように、CUの残差ブロックを生成し得る。
変換処理ユニット104は、四分木区分を実行して、CUと関連付けられた残差ブロックをCUのTUと関連付けられた変換ブロックに区分し得る。したがって、TUは、輝度変換ブロックおよび2つの色差変換ブロックと関連付けられ得る。CUのTUの輝度変換ブロックおよび色差変換ブロックのサイズおよび位置は、CUのPUの予測ブロックのサイズおよび位置に基づいても基づかなくてもよい。「残差四分木」(RQT)として知られる四分木構造が、領域の各々と関連付けられたノードを含み得る。CUのTUは、RQTのリーフノードに相当し得る。
変換処理ユニット104は、TUの変換ブロックに1つまたは複数の変換を適用することによって、CUのTUごとに変換係数ブロックを生成し得る。変換処理ユニット104は、TUと関連付けられた変換ブロックに様々な変換を適用し得る。たとえば、変換処理ユニット104は、離散コサイン変換(DCT)、方向変換、または概念的に類似の変換を、変換ブロックに適用し得る。いくつかの例では、変換処理ユニット104は、変換ブロックに変換を適用しない。そのような例では、変換ブロックは、変換係数ブロックとして扱われ得る。
量子化ユニット106は、係数ブロックの中の変換係数を量子化し得る。量子化プロセスは、変換係数の一部またはすべてと関連付けられるビット深度を低減し得る。たとえば、nビットの変換係数は、量子化の間にmビットの変換係数に切り捨てられてよく、nはmよりも大きい。量子化ユニット106は、CUと関連付けられる量子化パラメータ(QP)値に基づいて、CUのTUと関連付けられる係数ブロックを量子化し得る。ビデオエンコーダ22は、CUと関連付けられるQP値を調整することによって、CUと関連付けられた係数ブロックに適用される量子化の程度を調整し得る。量子化は情報の喪失をもたらし得る。したがって、量子化された変換係数は、元の変換係数より精度が低いことがある。
逆量子化ユニット108および逆変換処理ユニット110は、それぞれ、逆量子化および逆変換を係数ブロックに適用して、係数ブロックから残差ブロックを再構築し得る。再構築ユニット112は、予測処理ユニット100によって生成された1つまたは複数の予測ブロックからの対応するサンプルに、再構築された残差ブロックを加算して、TUと関連付けられる再構築された変換ブロックを生成し得る。このようにしてCUのTUごとに変換ブロックを再構築することによって、ビデオエンコーダ22は、CUのコーディングブロックを再構築し得る。
フィルタユニット114は、1つまたは複数のデブロッキング動作を実行して、CUと関連付けられるコーディングブロックにおけるブロッキングアーティファクトを低減し得る。フィルタユニット114が1つまたは複数のデブロッキング動作を再構築されたコーディングブロックに対して実行した後、復号ピクチャバッファ116は、再構築されたコーディングブロックを記憶し得る。インター予測処理ユニット120は、インター予測を他のピクチャのPUに対して実行するために、再構築されたコーディングブロックを含む参照ピクチャを使用し得る。加えて、イントラ予測処理ユニット126は、CUと同じピクチャの中の他のPUに対してイントラ予測を実行するために、復号ピクチャバッファ116の中の再構築されたコーディングブロックを使用し得る。
エントロピー符号化ユニット118は、ビデオエンコーダ22の他の機能構成要素からデータを受け取り得る。たとえば、エントロピー符号化ユニット118は、係数ブロックを量子化ユニット106から受け取ることができ、シンタックス要素を予測処理ユニット100から受け取ることができる。エントロピー符号化ユニット118は、データに対して1つまたは複数のエントロピー符号化動作を実行して、エントロピー符号化データを生成し得る。たとえば、エントロピー符号化ユニット118は、CABAC動作、コンテキスト適応型可変長コーディング(CAVLC)動作、可変長対可変長(V2V)コーディング動作、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC)動作、確率区間区分エントロピー(PIPE)コーディング動作、指数ゴロム符号化動作、または別のタイプのエントロピー符号化動作を、データに対して実行し得る。ビデオエンコーダ22は、エントロピー符号化ユニット118によって生成されたエントロピー符号化されたデータを含むビットストリームを出力し得る。たとえば、ビットストリームは、CUに対するRQTを表すデータを含み得る。
図8は、本開示の技法を実施するように構成される例示的なビデオデコーダ30を示すブロック図である。図8は説明のために提供され、広く例示されるとともに本開示で説明されるような技法を限定するものではない。説明のために、本開示は、HEVCコーディングの文脈においてビデオデコーダ30を説明する。しかしながら、本開示の技法は、非正方形区分および/または独立した輝度と色差の区分を許容する技法を含む、他のコーディング規格または方法に適用可能であり得る。
図8の例では、ビデオデコーダ30は、エントロピー復号ユニット150、ビデオデータメモリ151、予測処理ユニット152、逆量子化ユニット154、逆変換処理ユニット156、再構築ユニット158、フィルタユニット160、および復号ピクチャバッファ162を含む。予測処理ユニット152は、動き補償ユニット164およびイントラ予測処理ユニット166を含む。他の例では、ビデオデコーダ30は、より多数の、より少数の、または異なる機能構成要素を含み得る。
ビデオデータメモリ151は、ビデオデコーダ30の構成要素によって復号されるべき、符号化されたビデオビットストリームなどの符号化されたビデオデータを記憶し得る。ビデオデータメモリ151に記憶されるビデオデータは、たとえば、コンピュータ可読媒体16から、たとえば、カメラなどのローカルビデオソースから、ビデオデータの有線ネットワーク通信もしくはワイヤレスネットワーク通信を介して、または物理データ記憶媒体にアクセスすることによって、取得され得る。ビデオデータメモリ151は、符号化されたビデオビットストリームからの符号化されたビデオデータを記憶するコーディングピクチャバッファ(CPB: coded picture buffer)を形成し得る。復号ピクチャバッファ162は、たとえば、イントラコーディングモードまたはインターコーディングモードにおいて、ビデオデコーダ30によってビデオデータを復号する際に使用するための、または出力のための、参照ビデオデータを記憶する参照ピクチャメモリであってもよい。ビデオデータメモリ151および復号ピクチャバッファ162は、シンクロナスDRAM(SDRAM)を含むダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗変化RAM(RRAM(登録商標))、または他のタイプのメモリデバイスなど、様々なメモリデバイスのいずれかによって形成され得る。ビデオデータメモリ151および復号ピクチャバッファ162は、同じメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ151は、ビデオデコーダ30の他の構成要素とともにオンチップであることがあり、または、それらの構成要素に対してオフチップであることがある。ビデオデータメモリ151は、図1の記憶媒体28と同じであることがあり、またはその一部であることがある。
ビデオデータメモリ151は、ビットストリームの符号化されたビデオデータ(たとえば、NALユニット)を受信し記憶する。エントロピー復号ユニット150は、符号化されたビデオデータ(たとえば、NALユニット)をビデオデータメモリ151から受信することができ、NALユニットを構文解析して、シンタックス要素を取得することができる。エントロピー復号ユニット150は、NALユニットの中のエントロピー符号化されたシンタックス要素をエントロピー復号し得る。予測処理ユニット152、逆量子化ユニット154、逆変換処理ユニット156、再構築ユニット158、およびフィルタユニット160は、ビットストリームから抽出されたシンタックス要素に基づいて、復号されたビデオデータを生成し得る。エントロピー復号ユニット150は、エントロピー符号化ユニット118のプロセスとは全般に逆のプロセスを実行し得る。
本開示のいくつかの例によれば、エントロピー復号ユニット150は、ビットストリームからシンタックス要素を取得することの一部として、木構造を決定し得る。木構造は、CTBなどの初期のビデオブロックが、コーディング単位などのより小さいビデオブロックへとどのように区分されるかを規定し得る。本開示の1つまたは複数の技法によれば、木構造の各深度レベルにおいて木構造の各々のそれぞれの非リーフノードに対して、それぞれの非リーフノードに対して複数の許容される分割パターンがあり、それぞれの非リーフノードに対応するビデオブロックは、複数の許容可能な分割パターンのうちの1つに従って、それぞれの非リーフノードの子ノードに対応するビデオブロックへと区分される。
加えて、図10を参照して以下でより詳細に説明されるように、ビデオデコーダ30は、単一の色差ブロックに対応する2つ以上の輝度ブロックがある状況において、色差ブロックを復号するときに使用するために、輝度ブロックのために受信されたコーディングモード情報をどのように再使用すべきかを決定するように構成され得る。
ビットストリームからシンタックス要素を取得することに加えて、ビデオデコーダ30は、区分されていないCUに対して再構築動作を実行し得る。CUに対して再構築動作を実行するために、ビデオデコーダ30は、CUの各TUに対して再構築動作を実行し得る。CUのTUごとに再構築動作を実行することによって、ビデオデコーダ30は、CUの残差ブロックを再構築し得る。
CUのTUに対して再構築動作を実行することの一部として、逆量子化ユニット154は、TUと関連付けられた係数ブロックを逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)し得る。逆量子化ユニット154が係数ブロックを逆量子化した後、逆変換処理ユニット156は、TUと関連付けられた残差ブロックを生成するために、1つまたは複数の逆変換を係数ブロックに適用し得る。たとえば、逆変換処理ユニット156は、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT)、逆回転変換、逆方向変換、または別の逆変換を係数ブロックに適用し得る。
PUがイントラ予測を使用して符号化されている場合、イントラ予測処理ユニット166は、イントラ予測を実行してPUの予測ブロックを生成し得る。イントラ予測処理ユニット166は、イントラ予測モードを使用して、空間的に隣接するブロックのサンプルに基づいて、PUの予測ブロックを生成し得る。イントラ予測処理ユニット166は、ビットストリームから取得された1つまたは複数のシンタックス要素に基づいて、PUのイントラ予測モードを決定し得る。加えて、図12を参照して以下でより詳細に説明されるように、イントラ予測処理ユニット166は、ビデオデータのブロックの高さおよび/または幅の関数として、ビデオデータのブロックを符号化するためのPDPCパラメータを決定するように構成され得る。
PUがインター予測を使用して符号化される場合、エントロピー復号ユニット150は、PUの動き情報を決定し得る。動き補償ユニット164は、PUの動き情報に基づいて、1つまたは複数の参照ブロックを決定し得る。動き補償ユニット164は、1つまたは複数の参照ブロックに基づいて、PUの予測ブロック(たとえば、予測輝度ブロック、予測Cbブロック、および予測Crブロック)を生成し得る。
再構築ユニット158は、CUのTUのための変換ブロック(たとえば、輝度変換ブロック、Cb変換ブロック、およびCr変換ブロック)、ならびにCUのPUの予測ブロック(たとえば、輝度ブロック、Cbブロック、およびCrブロック)、すなわちイントラ予測データまたはインター予測データのいずれかを適宜使用して、CUのコーディングブロック(たとえば、輝度コーディングブロック、Cbコーディングブロック、およびCrコーディングブロック)を再構築し得る。たとえば、再構築ユニット158は、予測ブロック(たとえば、輝度予測ブロック、Cb予測ブロック、およびCr予測ブロック)の対応するサンプルに、変換ブロック(たとえば、輝度変換ブロック、Cb変換ブロック、およびCr変換ブロック)のサンプルを加算して、CUのコーディングブロック(たとえば、輝度コーディングブロック、Cbコーディングブロック、およびCrコーディングブロック)を再構築し得る。
フィルタユニット160は、デブロッキング動作を実行して、CUのコーディングブロックと関連付けられるブロッキングアーティファクトを低減し得る。ビデオデコーダ30は、CUのコーディングブロックを復号ピクチャバッファ162に記憶し得る。復号ピクチャバッファ162は、後続の動き補償、イントラ予測、および図1のディスプレイデバイス32などのディスプレイデバイス上での提示のために、参照ピクチャを提供し得る。たとえば、ビデオデコーダ30は、復号ピクチャバッファ162の中のブロックに基づいて、他のCUのPUのためにイントラ予測動作またはインター予測動作を実行し得る。
図9は、本開示の技法による、ビデオコーダの例示的な動作を示すフローチャートである。ビデオコーダは、ビデオエンコーダ22および/またはビデオデコーダ30であり得る。本開示の技法によれば、エンコーダ22および/またはビデオデコーダ30は、ビデオデータを輝度成分の区分へと区分することと(200)、ビデオデータを色差成分の区分へと区分することと、色差成分が輝度成分とは独立に区分され(202)、輝度成分の第1の区分をコーディングすることと(204)、輝度成分の第1の区分をコーディングすることと関連付けられる情報が色差成分の第2の区分をコーディングするために使用されるべきであるかどうかを示すシンタックス要素をコーディングすることと(206)、シンタックス要素に従って色差成分の第2の区分をコーディングすることと(208)を行うように構成され得る。
図10は、本開示の技法による、ビデオデコーダの例示的な動作を示すフローチャートである。図10の技法は、ビデオデコーダ30の1つまたは複数のハードウェア構造によって実行され得る。
本開示の一例では、ビデオデコーダ30は、符号化されたビデオデータのビットストリームを受信するように構成されることがあり、符号化されたビデオデータは区分された輝度ブロックおよび区分された色差ブロックを表し、色差ブロックは輝度ブロックとは独立に区分される(212)。ビデオデコーダ30はさらに、それぞれの区分された輝度ブロックに対応するそれぞれのコーディングモードを決定することと(214)、決定されたそれぞれのコーディングモードに従ってそれぞれの区分された輝度ブロックを復号することと(216)を行うように構成され得る。
ビデオデコーダ30はさらに、それぞれの区分された輝度ブロックと関連付けられるそれぞれのコーディングモードが第1の区分された色差ブロックを復号するために使用されるべきであることを示す第1のシンタックス要素を復号するように構成されることがあり、第1の区分された色差ブロックは2つ以上の区分された輝度ブロックと揃う(218)。ビデオデコーダ30はさらに、2つ以上の区分された輝度ブロックのそれぞれのコーディングモードの関数に従って、第1の区分された色差ブロックの色差コーディングモードを決定し(220)、決定された色差コーディングモードに従って第1の区分された色差ブロックを復号することができる(222)。
本開示の一例では、色差ブロックは、少なくとも1つの区分された色差ブロックが単一の区分された輝度ブロックと揃わないように、輝度ブロックとは独立に区分される。
本開示の別の例では、それぞれの区分された輝度ブロックに対応するそれぞれのコーディングモードを決定するために、ビデオデコーダ30はさらに、それぞれの区分された輝度ブロックに対応する第2のシンタックス要素を受信することと、第2のシンタックス要素がそれぞれのコーディングモードを示し、それぞれのコーディングモードを決定するためにそれぞれの区分された輝度ブロックに対応する第2のシンタックス要素を復号することとを行うように構成され得る。
本開示の別の例では、それぞれの区分された輝度ブロックに対応するそれぞれのコーディングモードを決定するために、ビデオデコーダ30はさらに、それぞれの区分された輝度ブロックの1つまたは複数の代表的な位置から1つまたは複数のそれぞれのコーディングモードを選択するように構成される。別の例では、ビデオデコーダ30は、関数に従って1つまたは複数のそれぞれのコーディングモードを選択するように構成される。
別の例では、1つまたは複数の代表的な位置は、それぞれの区分された輝度ブロックの中心の代表的な位置を含み、関数に従って第1の区分された色差ブロックの色差コーディングモードを決定するために、ビデオデコーダ30はさらに、中心の代表的な位置に対して記憶されている決定されたそれぞれのコーディングモードを示す情報を取得するように構成される。
別の例では、1つまたは複数の代表的な位置は、それぞれの区分された輝度ブロックの角の代表的な位置を含み、関数に従って第1の区分された色差ブロックの色差コーディングモードを決定するために、ビデオデコーダ30はさらに、角の代表的な位置に対して記憶されている決定されたそれぞれのコーディングモードを示す情報を取得するように構成される。一例では、1つまたは複数の代表的な位置は1つまたは複数のサブブロックを備える。
本開示の別の例では、ビデオデコーダ30はさらに、それぞれの区分された輝度ブロックをそれぞれのサブブロックへと分けることと、決定されたそれぞれのコーディングモードを示す情報をそれぞれのサブブロックと関連付けられるそれぞれのメモリ位置に記憶することとを行うように構成され得る。
本開示の別の例では、関数は、2つ以上の区分された輝度ブロックの1つまたは複数のそれぞれのサブブロックの位置を含む。本開示の別の例では、1つまたは複数のそれぞれのサブブロックの位置は、2つ以上の区分された輝度ブロックの中心のサブブロックであり、関数に従って第1の区分された色差ブロックの色差コーディングモードを決定するために、ビデオデコーダ30は、中心のサブブロックに対して記憶されている決定されたそれぞれのコーディングモードを示す情報を取得するように構成される。
本開示の別の例では、1つまたは複数のそれぞれのサブブロックの位置は、2つ以上の区分された輝度ブロックの角のサブブロックであり、関数に従って第1の区分された色差ブロックの色差コーディングモードを決定するために、ビデオデコーダ30は、角のサブブロックに対して記憶されている決定されたそれぞれのコーディングモードを示す情報を取得するように構成される。
本開示の別の例では、関数は、それぞれのサブブロックと関連付けられるそれぞれのメモリ位置における、決定されたそれぞれのコーディングモードを示す情報の統計的分析を含む。
本開示の別の例では、関数に従って第1の区分された色差ブロックの色差コーディングモードを決定するために、ビデオデコーダ30はさらに、勾配またはより高次の導関数のうちの1つを使用して、それぞれのメモリ位置に記憶されている情報を分析するように構成される。
本開示の別の例では、情報は、色差予測のための直接モードの指示、予測方向、動き情報、場所に依存するイントラ予測組合せモードに対するフラグ、場所に依存するイントラ予測組合せモードに対する1つまたは複数のパラメータ、分離不能変換に対する1つまたは複数の第2の変換セット、増強複数変換、適応複数変換、または、エントロピーコーディングデータモデルを決定するための1つまたは複数のコンテキストのうちの1つまたは複数を含む。
本開示の別の例では、ビデオデコーダ30は、関数を示す第3のシンタックス要素を受信するように構成され得る。
本開示の別の例では、ビデオデコーダ30はワイヤレス通信デバイスの一部であり、ワイヤレス通信デバイスはさらに、符号化されたビデオデータのビットストリームを受信するように構成される受信機を備える。一例では、ワイヤレス通信デバイスは移動局であり、符号化されたビデオデータのビットストリームは、受信機によって受信され、セルラー通信規格に従って変調される。
図11は、本開示の技法による、ビデオエンコーダ22の例示的な動作を示すフローチャートである。図12の技法は、ビデオエンコーダ22の1つまたは複数のハードウェア構造によって実行され得る。
本開示の一例では、ビデオエンコーダ22は、ビデオデータのブロックを受信することと、ビデオデータのブロックが幅および高さによって定義される非正方形の形状を有し(230)、ビデオデータのブロックの幅または高さのうちの1つまたは複数に基づいて1つまたは複数のPDPCパラメータを決定することと(232)、PDPCモードおよび決定されたPDPCパラメータを使用してビデオデータのブロックを符号化することと(234)を行うように構成され得る。上で論じられたように、図11の技法は、サンプル場所に従って予測子および参照サンプルに加重平均を適用する予測モードを含む、非正方形ブロックを使用する任意の予測モードのための予測モードパラメータを決定するために使用され得ることを理解されたい。
一例では、1つまたは複数のPDPCパラメータは、1つまたは複数の水平関連のPDPCパラメータおよび1つまたは複数の垂直関連のPDPCパラメータを含み、1つまたは複数のPDPCパラメータを決定するために、ビデオエンコーダ22はさらに、ビデオデータのブロックの幅に基づいて1つまたは複数の水平関連のPDPCパラメータを決定することと、ビデオデータのブロックの高さに基づいて1つまたは複数の垂直関連のPDPCパラメータを決定することとを行うように構成される。
本開示の別の例では、1つまたは複数の水平関連のPDPCパラメータを決定するために、ビデオエンコーダ22はさらに、ビデオデータのブロックの幅の関数として、1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すように構成され、1つまたは複数の垂直関連のPDPCパラメータを決定するために、ビデオエンコーダ22はさらに、ビデオデータのブロックの高さの関数として、1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すように構成される。
本開示の別の例では、ビデオデータのブロックの幅の関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すために、ビデオエンコーダ22はさらに、ビデオデータのブロックの幅に基づいて、第1のルックアップテーブルの中の第1のインデックスを取り出すことと、第1のインデックスが第2のルックアップテーブルの中の第1のエントリーを指し、取り出された第1のインデックスに基づいて、第2のルックアップテーブルの中の1つまたは複数の水平関連のPDPCパラメータを取り出すこととを行うように構成される。さらなる例では、ビデオデータのブロックの高さの関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すために、ビデオエンコーダ22はさらに、ビデオデータのブロックの高さに基づいて、第1のルックアップテーブルの中の第2のインデックスを取り出すことと、第2のインデックスが第2のルックアップテーブルの中の第2のエントリーを指し、取り出された第2のインデックスに基づいて、第2のルックアップテーブルの中の1つまたは複数の垂直関連のPDPCパラメータを取り出すこととを行うように構成される。
本開示の別の例では、1つまたは複数のPDPCパラメータは、水平関連ではなく垂直関連ではない1つまたは複数の非方向性のPDPCパラメータを含み、1つまたは複数のPDPCパラメータを決定するために、ビデオエンコーダ22はさらに、ビデオデータのブロックの幅および高さの関数に基づいて1つまたは複数の非方向性のPDPCパラメータを決定するように構成される。
本開示の別の例では、関数は、ビデオデータのブロックの幅および高さのうちの小さい方、ビデオデータのブロックの幅および高さのうちの大きい方、またはビデオデータのブロックの幅および高さの加重平均のうちの1つまたは複数である。さらなる例では、1つまたは複数の非方向性のPDPCパラメータを決定するために、ビデオエンコーダ22はさらに、ビデオデータのブロックの幅および高さの関数として、1つまたは複数のルックアップテーブルの1つまたは複数のエントリーにアクセスするように構成される。
本開示の別の例では、ビデオエンコーダ22はワイヤレス通信デバイスに含まれ、ワイヤレス通信デバイスはさらに、ビデオデータの符号化されたブロックを送信するように構成される送信機を備える。別の例では、ワイヤレス通信デバイスは移動局であり、ビデオデータの符号化されたブロックは、送信機によって受信され、セルラー通信規格に従って変調される。
図12は、本開示の技法による、ビデオデコーダ30の例示的な動作を示すフローチャートである。図12の技法は、ビデオデコーダ30の1つまたは複数のハードウェア構造によって実行され得る。
本開示の一例では、ビデオデコーダ30は、PDPCモードを使用して符号化されたビデオデータのブロックを受信することと、ビデオデータのブロックが幅および高さによって定義される非正方形の形状を有し(240)、ビデオデータのブロックの幅または高さのうちの1つまたは複数に基づいて1つまたは複数のPDPCパラメータを決定することと(242)、PDPCモードおよび決定されたPDPCパラメータを使用してビデオデータのブロックを復号することと(244)を行うように構成され得る。上で論じられたように、図12の技法は、サンプル場所に従って予測子および参照サンプルに加重平均を適用する予測モードを含む、非正方形ブロックを使用する任意の予測モードのための予測モードパラメータを決定するために使用され得ることを理解されたい。
本開示の一例では、1つまたは複数のPDPCパラメータは、1つまたは複数の水平関連のPDPCパラメータおよび1つまたは複数の垂直関連のPDPCパラメータを含み、1つまたは複数のPDPCパラメータを決定するために、ビデオデコーダ30はさらに、ビデオデータのブロックの幅に基づいて1つまたは複数の水平関連のPDPCパラメータを決定することと、ビデオデータのブロックの高さに基づいて1つまたは複数の垂直関連のPDPCパラメータを決定することとを行うように構成される。
本開示の別の例では、1つまたは複数の水平関連のPDPCパラメータを決定するために、ビデオデコーダ30はさらに、ビデオデータのブロックの幅の関数として、1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すように構成され、1つまたは複数の垂直関連のPDPCパラメータを決定するために、ビデオデコーダ30はさらに、ビデオデータのブロックの高さの関数として、1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すように構成される。
本開示の別の例では、ビデオデータのブロックの幅の関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すために、ビデオデコーダ30はさらに、ビデオデータのブロックの幅に基づいて、第1のルックアップテーブルの中の第1のインデックスを取り出すことと、第1のインデックスが第2のルックアップテーブルの中の第1のエントリーを指し、取り出された第1のインデックスに基づいて、第2のルックアップテーブルの中の1つまたは複数の水平関連のPDPCパラメータを取り出すこととを行うように構成される。さらなる例では、ビデオデータのブロックの高さの関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すために、ビデオデコーダ30はさらに、ビデオデータのブロックの高さに基づいて、第1のルックアップテーブルの中の第2のインデックスを取り出すことと、第2のインデックスが第2のルックアップテーブルの中の第2のエントリーを指し、取り出された第2のインデックスに基づいて、第2のルックアップテーブルの中の1つまたは複数の垂直関連のPDPCパラメータを取り出すこととを行うように構成される。
別の例では、1つまたは複数のPDPCパラメータは、水平関連ではなく垂直関連ではない1つまたは複数の非方向性のPDPCパラメータを含み、1つまたは複数のPDPCパラメータを決定するために、ビデオデコーダ30はさらに、ビデオデータのブロックの幅および高さの関数に基づいて1つまたは複数の非方向性のPDPCパラメータを決定するように構成される。
別の例では、関数は、ビデオデータのブロックの幅および高さのうちの小さい方、ビデオデータのブロックの幅および高さのうちの大きい方、またはビデオデータのブロックの幅および高さの加重平均のうちの1つまたは複数である。
本開示の別の例では、1つまたは複数の非方向性のPDPCパラメータを決定するために、ビデオデコーダ30はさらに、ビデオデータのブロックの幅および高さの関数として、1つまたは複数のルックアップテーブルの1つまたは複数のエントリーにアクセスするように構成される。
本開示の別の例では、ビデオデコーダ30はワイヤレス通信デバイスの一部であり、ワイヤレス通信デバイスはさらに、ビデオデータのブロックを受信するように構成される受信機を備える。さらなる例では、ワイヤレス通信デバイスは移動局であり、ビデオデータのブロックは、受信機によって受信され、セルラー通信規格に従って変調される。
本開示のいくつかの態様は、説明を目的にHEVC規格の拡張に関して説明されている。しかしながら、本開示において説明される技法は、開発中のまたはまだ開発されていない他の標準的なまたは独自のビデオコーディングプロセスを含む、他のビデオコーディングプロセスにとって有用であり得る。
ビデオコーダは、本開示において説明されるように、ビデオエンコーダまたはビデオデコーダを指すことがある。同様に、ビデオコーディングユニットは、ビデオエンコーダまたはビデオデコーダを指すことがある。同様に、ビデオコーディングは、場合により、ビデオ符号化またはビデオ復号を指すことがある。
例によっては、本明細書において説明された技法のうちのいずれかのいくつかの行為またはイベントが、異なるシーケンスで実行されてよく、追加され、統合され、または完全に除外されてよい(たとえば、説明されたすべての行為またはイベントが技法の実践にとって必要であるとは限らない)ことを認識されたい。その上、いくつかの例では、行為またはイベントは、連続的にではなく、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通じて並行して実行されてよい。
1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せとして実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体上に記憶されるか、またはコンピュータ可読媒体を介して送信され、ハードウェアベース処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に対応する、コンピュータ可読記憶媒体を含み得るか、または、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含み得る。このように、コンピュータ可読媒体は、一般に、(1)非一時的な有形コンピュータ可読記憶媒体、または(2)信号もしくは搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技法の実装のための命令、コード、および/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、フラッシュメモリ、または、命令もしくはデータ構造の形態の所望のプログラムコードを記憶するために使用されコンピュータによってアクセスされ得る任意の他の媒体を備え得る。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)およびBlu-ray(登録商標)ディスク(disc)を含み、ディスク(disk)は通常、データを磁気的に再生し、ディスク(disc)は、レーザーを用いてデータを光学的に再生する。上記の組合せもまた、コンピュータ可読媒体の範囲内に含まれるべきである。
命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または他の等価な集積論理回路構成もしくは個別論理回路構成などの、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書において使用される「プロセッサ」という用語は、上記の構造、または本明細書において説明される技法の実装に適した任意の他の構造のいずれかを指すことがある。加えて、いくつかの態様では、本明細書において説明される機能は、符号化および復号のために構成された専用のハードウェアモジュールおよび/もしくはソフトウェアモジュール内で与えられることがあり、または複合コーデックに組み込まれることがある。また、技法は、1つまたは複数の回路または論理要素において完全に実装され得る。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。開示された技法を実施するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットが本開示に記載されているが、それらは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上で説明されたように、様々なユニットは、コーデックハードウェアユニットにおいて組み合わされるか、または適切なソフトウェアおよび/もしくはファームウェアとともに、上で説明された1つもしくは複数のプロセッサを含む、相互動作可能なハードウェアユニットの集合によって提供され得る。
様々な例が説明された。これらおよび他の例は、以下の特許請求の範囲内に入る。
10 ビデオ符号化および復号システム
12 ソースデバイス
14 宛先デバイス
16 コンピュータ可読媒体
18 ビデオソース
20 記憶媒体
22 ビデオエンコーダ
24 出力インターフェース
26 入力インターフェース
28 記憶媒体
30 ビデオデコーダ
32 ディスプレイデバイス
50 ブロック
51 ブロック
52 ブロック
53 ブロック
54 ブロック
55 ブロック
56 ブロック
57 ブロック
58 ブロック
59 ブロック
60 ブロック
61 ブロック
62 ブロック
63 ブロック
64 ブロック
65 ブロック
66 ブロック
70 ノード
72 ノード
74 ノード
76 ノード
78 ノード
80 ノード
84 ノード
90 サイズ対パラメータテーブル
92 予測パラメータテーブル
94 復号ブロック
100 予測処理ユニット
101 ビデオデータメモリ
102 残差生成ユニット
104 変換処理ユニット
106 量子化ユニット
108 逆量子化ユニット
110 逆変換処理ユニット
112 再構築ユニット
114 フィルタユニット
116 復号ピクチャバッファ
118 エントロピー符号化ユニット
120 インター予測処理ユニット
126 イントラ予測処理ユニット
150 エントロピー復号ユニット
151 ビデオデータメモリ
152 予測処理ユニット
154 逆量子化ユニット
156 逆変換処理ユニット
158 再構築ユニット
160 フィルタユニット
162 復号ピクチャバッファ
164 動き補償ユニット
166 イントラ予測処理ユニット

Claims (26)

  1. ビデオデータを復号する方法であって、
    場所に依存するイントラ予測組合せ(PDPC)モードを使用して符号化されたビデオデータのブロックを受信するステップであって、ビデオデータの前記ブロックが幅および高さによって定義される非正方形の形状を有する、ステップと、
    ビデオデータの前記ブロックの前記幅に基づいて、前記PDPCモードのための1つまたは複数の水平関連のPDPCパラメータを決定するステップであって、前記1つまたは複数の水平関連のPDPCパラメータを決定するステップが、ビデオデータの前記ブロックの前記幅の関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すステップを含み、当該取り出すステップが、
    ビデオデータの前記ブロックの前記幅に基づいて第1のルックアップテーブルの中の第1のインデックスを取り出すステップであって、前記第1のインデックスが第2のルックアップテーブルの中の第1のエントリーを指す、ステップと、
    前記取り出された第1のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の水平関連のPDPCパラメータを取り出すステップとを含む、決定するステップと、
    ビデオデータの前記ブロックの前記高さに基づいて、1つまたは複数の垂直関連のPDPCパラメータを決定するステップであって、前記1つまたは複数の垂直関連のPDPCパラメータを決定するステップが、ビデオデータの前記ブロックの前記高さの関数として前記1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すステップを含み、当該取り出すステップが、
    ビデオデータの前記ブロックの前記高さに基づいて前記第1のルックアップテーブルの中の第2のインデックスを取り出すステップであって、前記第2のインデックスが前記第2のルックアップテーブルの中の第2のエントリーを指す、ステップと、
    前記取り出された第2のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の垂直関連のPDPCパラメータを取り出すステップとを含む、決定するステップと、
    前記PDPCモードおよび前記決定されたPDPCパラメータを使用してビデオデータの前記ブロックを復号するステップとを含む、方法。
  2. 前記1つまたは複数のPDPCパラメータが、水平関連ではなく垂直関連ではない1つまたは複数の非方向性のPDPCパラメータを含み、前記1つまたは複数のPDPCパラメータを決定することが、
    ビデオデータの前記ブロックの前記幅および前記高さの関数に基づいて前記1つまたは複数の非方向性のPDPCパラメータを決定すること含む、請求項1に記載の方法。
  3. 前記関数が、ビデオデータの前記ブロックの前記幅と前記高さの小さい方、ビデオデータの前記ブロックの前記幅と前記高さの大きい方、またはビデオデータの前記ブロックの前記幅と前記高さの加重平均のうちの1つまたは複数である、請求項2に記載の方法。
  4. 前記1つまたは複数の非方向性のPDPCパラメータを決定することが、ビデオデータの前記ブロックの前記幅および前記高さの関数として前記1つまたは複数のルックアップテーブルの1つまたは複数のエントリーにアクセスすること含む、請求項3に記載の方法。
  5. 前記方法がワイヤレス通信デバイス上で実行可能であり、前記デバイスが、
    ビデオデータの前記ブロックを記憶するように構成されるメモリと、
    前記メモリに記憶されているビデオデータの前記ブロックを処理するための命令を実行するように構成されるプロセッサと、
    ビデオデータの前記ブロックを受信するように構成される受信機とを備える、請求項1に記載の方法。
  6. 前記ワイヤレス通信デバイスが移動局であり、ビデオデータの前記ブロックが前記受信機によって受信され、セルラー通信規格に従って変調される、請求項5に記載の方法。
  7. ビデオデータを復号するように構成される装置であって、
    場所に依存するイントラ予測組合せ(PDPC)モードを使用して符号化されたビデオデータのブロックを記憶するように構成されるメモリであって、ビデオデータの前記ブロックが幅および高さによって定義される非正方形の形状を有する、メモリと、
    1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
    ビデオデータの前記ブロックを受信することと、
    ビデオデータの前記ブロックの前記幅に基づいて、前記PDPCモードのための1つまたは複数の水平関連のPDPCパラメータを決定することであって、前記1つまたは複数の水平関連のPDPCパラメータを決定するために、前記1つまたは複数のプロセッサは、ビデオデータの前記ブロックの前記幅の関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すように構成され、当該取り出すことが、
    ビデオデータの前記ブロックの前記幅に基づいて第1のルックアップテーブルの中の第1のインデックスを取り出すことであって、前記第1のインデックスが第2のルックアップテーブルの中の第1のエントリーを指す、取り出すことと、
    前記取り出された第1のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の水平関連のPDPCパラメータを取り出すこととを含む、決定することと、
    ビデオデータの前記ブロックの前記高さに基づいて、1つまたは複数の垂直関連のPDPCパラメータを決定することであって、前記1つまたは複数の垂直関連のPDPCパラメータを決定するために、前記1つまたは複数のプロセッサは、ビデオデータの前記ブロックの前記高さの関数として前記1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すようにさらに構成され、当該取り出すことが、
    ビデオデータの前記ブロックの前記高さに基づいて前記第1のルックアップテーブルの中の第2のインデックスを取り出すことであって、前記第2のインデックスが前記第2のルックアップテーブルの中の第2のエントリーを指す、取り出すことと、
    前記取り出された第2のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の垂直関連のPDPCパラメータを取り出すこととを含む、決定することと、
    前記PDPCモードおよび前記決定されたPDPCパラメータを使用してビデオデータの前記ブロックを復号することと
    を行うように構成される、装置。
  8. 前記1つまたは複数のPDPCパラメータが、水平関連ではなく垂直関連ではない1つまたは複数の非方向性のPDPCパラメータを含み、前記1つまたは複数のPDPCパラメータを決定するために、前記1つまたは複数のプロセッサがさらに、ビデオデータの前記ブロックの前記幅および前記高さの関数に基づいて前記1つまたは複数の非方向性のPDPCパラメータを決定するように構成される、請求項7に記載の装置。
  9. 前記関数が、ビデオデータの前記ブロックの前記幅と前記高さの小さい方、ビデオデータの前記ブロックの前記幅と前記高さの大きい方、またはビデオデータの前記ブロックの前記幅と前記高さの加重平均のうちの1つまたは複数である、請求項8に記載の装置。
  10. 前記1つまたは複数の非方向性のPDPCパラメータを決定するために、前記1つまたは複数のプロセッサがさらに、ビデオデータの前記ブロックの前記幅および前記高さの関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーにアクセスするように構成される、請求項9に記載の装置。
  11. 前記装置が、ワイヤレス通信デバイスであり、
    前記装置が、ビデオデータの前記ブロックを受信するように構成される受信機をさらに備える、請求項7に記載の装置。
  12. 前記ワイヤレス通信デバイスが移動局であり、ビデオデータの前記ブロックが前記受信機によって受信され、セルラー通信規格に従って変調される、請求項11に記載の装置。
  13. ビデオデータを復号するように構成される装置であって、
    場所に依存するイントラ予測組合せ(PDPC)モードを使用して符号化されたビデオデータのブロックを受信するための手段であって、ビデオデータの前記ブロックが幅および高さによって定義される非正方形の形状を有する、手段と、
    ビデオデータの前記ブロックの前記幅に基づいて、前記PDPCモードのための1つまたは複数の水平関連のPDPCパラメータを決定するための手段であって、前記1つまたは複数の水平関連のPDPCパラメータを決定するための手段が、ビデオデータの前記ブロックの前記幅の関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すための手段を含み、当該取り出すための手段が、
    ビデオデータの前記ブロックの前記幅に基づいて第1のルックアップテーブルの中の第1のインデックスを取り出すための手段であって、前記第1のインデックスが第2のルックアップテーブルの中の第1のエントリーを指す、手段と、
    前記取り出された第1のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の水平関連のPDPCパラメータを取り出すための手段とを含む、決定するための手段と、
    ビデオデータの前記ブロックの前記高さに基づいて、1つまたは複数の垂直関連のPDPCパラメータを決定するための手段であって、前記前記1つまたは複数の垂直関連のPDPCパラメータを決定するための手段が、ビデオデータの前記ブロックの前記高さの関数として前記1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すための手段を含み、当該取り出すための手段が、
    ビデオデータの前記ブロックの前記高さに基づいて前記第1のルックアップテーブルの中の第2のインデックスを取り出すための手段であって、前記第2のインデックスが前記第2のルックアップテーブルの中の第2のエントリーを指す、手段と、
    前記取り出された第2のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の垂直関連のPDPCパラメータを取り出すための手段とを含む、決定するための手段と、
    前記PDPCモードおよび前記決定されたPDPCパラメータを使用してビデオデータの前記ブロックを復号するための手段と
    を備える、装置。
  14. 命令を記憶した非一時的コンピュータ可読記憶媒体であって、前記命令が、実行されると、ビデオデータを復号するように構成されるデバイスの1つまたは複数のプロセッサに、
    場所に依存するイントラ予測組合せ(PDPC)モードを使用して符号化されたビデオデータのブロックを受信することであって、ビデオデータの前記ブロックが幅および高さによって定義される非正方形の形状を有する受信することと、
    ビデオデータの前記ブロックの前記幅に基づいて、前記PDPCモードのための1つまたは複数の水平関連のPDPCパラメータを決定することであって、前記1つまたは複数の水平関連のPDPCパラメータを決定するために前記命令は、前記1つまたは複数のプロセッサに、ビデオデータの前記ブロックの前記幅の関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出させ、当該取り出すことが、
    ビデオデータの前記ブロックの前記幅に基づいて第1のルックアップテーブルの中の第1のインデックスを取り出すことであって、前記第1のインデックスが第2のルックアップテーブルの中の第1のエントリーを指す、取り出すことと、
    前記取り出された第1のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の水平関連のPDPCパラメータを取り出すことを含む、決定することと、
    ビデオデータの前記ブロックの前記高さに基づいて、1つまたは複数の垂直関連のPDPCパラメータを決定することであって、前記1つまたは複数の垂直関連のPDPCパラメータを決定するために前記命令は、前記1つまたは複数のプロセッサに、ビデオデータの前記ブロックの前記高さの関数として前記1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出させ、当該取り出すことが、
    ビデオデータの前記ブロックの前記高さに基づいて前記第1のルックアップテーブルの中の第2のインデックスを取り出すことであって、前記第2のインデックスが前記第2のルックアップテーブルの中の第2のエントリーを指す、取り出すことと、
    前記取り出された第2のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の垂直関連のPDPCパラメータを取り出すこととを含む、決定することと、
    前記PDPCモードおよび前記決定されたPDPCパラメータを使用してビデオデータの前記ブロックを復号することとを行わせる、非一時的コンピュータ可読記憶媒体。
  15. ビデオデータを符号化する方法であって、
    ビデオデータのブロックを受信するステップであって、ビデオデータの前記ブロックが幅および高さによって定義される非正方形の形状を有する、ステップと、
    ビデオデータの前記ブロックの前記幅に基づいて、場所に依存するイントラ予測組合せ(PDPC)予測モードのための1つまたは複数の水平関連のPDPCパラメータを決定するステップであって、前記1つまたは複数の水平関連のPDPCパラメータを決定するステップが、ビデオデータの前記ブロックの前記幅の関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すステップを含み、当該取り出すステップが、
    ビデオデータの前記ブロックの前記幅に基づいて第1のルックアップテーブルの中の第1のインデックスを取り出すステップであって、前記第1のインデックスが第2のルックアップテーブルの中の第1のエントリーを指す、ステップと、
    前記取り出された第1のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の水平関連のPDPCパラメータを取り出すステップとを含む、決定するステップと、
    ビデオデータの前記ブロックの前記高さに基づいて、1つまたは複数の垂直関連のPDPCパラメータを決定するステップであって、前記1つまたは複数の垂直関連のPDPCパラメータを決定するステップが、ビデオデータの前記ブロックの前記高さの関数として前記1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すステップを含み、当該取り出すステップが、
    ビデオデータの前記ブロックの前記高さに基づいて前記第1のルックアップテーブルの中の第2のインデックスを取り出すステップであって、前記第2のインデックスが前記第2のルックアップテーブルの中の第2のエントリーを指す、ステップと、
    前記取り出された第2のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の垂直関連のPDPCパラメータを取り出すステップとを含む、決定するステップと、
    前記予測モードおよび前記決定された1つまたは複数のパラメータを使用してビデオデータの前記ブロックを符号化するステップと
    含む、方法。
  16. 前記1つまたは複数のPDPCパラメータが、水平関連ではなく垂直関連ではない1つまたは複数の非方向性のPDPCパラメータを含み、前記1つまたは複数のPDPCパラメータを決定することが、
    ビデオデータの前記ブロックの前記幅および前記高さの関数に基づいて前記1つまたは複数の非方向性のPDPCパラメータを決定すること含む、請求項15に記載の方法。
  17. 前記関数が、ビデオデータの前記ブロックの前記幅と前記高さの小さい方、ビデオデータの前記ブロックの前記幅と前記高さの大きい方、またはビデオデータの前記ブロックの前記幅と前記高さの加重平均のうちの1つまたは複数である、請求項16に記載の方法。
  18. 前記1つまたは複数の非方向性のPDPCパラメータを決定することが、ビデオデータの前記ブロックの前記幅および前記高さの関数として前記1つまたは複数のルックアップテーブルの1つまたは複数のエントリーにアクセスすること含む、請求項17に記載の方法。
  19. 前記方法がワイヤレス通信デバイス上で実行可能であり、前記デバイスが、
    ビデオデータの前記ブロックを記憶するように構成されるメモリと、
    前記メモリに記憶されているビデオデータの前記ブロックを処理するための命令を実行するように構成されるプロセッサと、
    ビデオデータの前記符号化されたブロックを送信するように構成される送信機とを備える、請求項15に記載の方法。
  20. 前記ワイヤレス通信デバイスが移動局であり、ビデオデータの前記符号化されたブロックが前記送信機によって送信され、セルラー通信規格に従って変調される、請求項19に記載の方法。
  21. ビデオデータを符号化するように構成される装置であって、
    ビデオデータのブロックを記憶するように構成されるメモリであって、ビデオデータの前記ブロックが幅および高さによって定義される非正方形の形状を有する、メモリと、
    1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
    ビデオデータの前記ブロックを受信することと、
    ビデオデータの前記ブロックの前記幅に基づいて、場所に依存するイントラ予測組合せ(PDPC)予測モードのための1つまたは複数の水平関連のPDPCパラメータを決定することであって、前記1つまたは複数の水平関連のPDPCパラメータを決定するために、前記1つまたは複数のプロセッサは、ビデオデータの前記ブロックの前記幅の関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すように構成され、当該取り出すことが、
    ビデオデータの前記ブロックの前記幅に基づいて第1のルックアップテーブルの中の第1のインデックスを取り出すことであって、前記第1のインデックスが第2のルックアップテーブルの中の第1のエントリーを指す、取り出すことと、
    前記取り出された第1のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の水平関連のPDPCパラメータを取り出すこととを含む、決定することと、
    ビデオデータの前記ブロックの前記高さに基づいて、1つまたは複数の垂直関連のPDPCパラメータを決定することであって、前記1つまたは複数の垂直関連のPDPCパラメータを決定するために、前記1つまたは複数のプロセッサは、ビデオデータの前記ブロックの前記高さの関数として前記1つまたは複数のルックアップテーブルの1つまたは複数のエントリーを取り出すようにさらに構成され、
    ビデオデータの前記ブロックの前記高さに基づいて前記第1のルックアップテーブルの中の第2のインデックスを取り出すことであって、前記第2のインデックスが前記第2のルックアップテーブルの中の第2のエントリーを指す、取り出すことと、
    前記取り出された第2のインデックスに基づいて、前記第2のルックアップテーブルの中の前記1つまたは複数の垂直関連のPDPCパラメータを取り出すこととを含む、決定することと、
    前記予測モードおよび前記決定された1つまたは複数のパラメータを使用してビデオデータの前記ブロックを符号化することと
    を行うように構成される、装置。
  22. 前記1つまたは複数のPDPCパラメータが、水平関連ではなく垂直関連ではない1つまたは複数の非方向性のPDPCパラメータを含み、前記1つまたは複数のPDPCパラメータを決定するために、前記1つまたは複数のプロセッサがさらに、ビデオデータの前記ブロックの前記幅および前記高さの関数に基づいて前記1つまたは複数の非方向性のPDPCパラメータを決定するように構成される、請求項21に記載の装置。
  23. 前記関数が、ビデオデータの前記ブロックの前記幅と前記高さの小さい方、ビデオデータの前記ブロックの前記幅と前記高さの大きい方、またはビデオデータの前記ブロックの前記幅と前記高さの加重平均のうちの1つまたは複数である、請求項22に記載の装置。
  24. 前記1つまたは複数の非方向性のPDPCパラメータを決定するために、前記1つまたは複数のプロセッサがさらに、ビデオデータの前記ブロックの前記幅および前記高さの関数として1つまたは複数のルックアップテーブルの1つまたは複数のエントリーにアクセスするように構成される、請求項23に記載の装置。
  25. 前記装置が、ワイヤレス通信デバイスであり、
    前記装置が、ビデオデータの前記符号化されたブロックを送信するように構成される送信機をさらに備える、請求項21に記載の装置。
  26. 前記ワイヤレス通信デバイスが移動局であり、ビデオデータの前記符号化されたブロックが前記送信機によって送信され、セルラー通信規格に従って変調される、請求項25に記載の装置。
JP2018549274A 2016-03-21 2017-03-21 ビデオコーディングにおける非正方形ブロックのための予測パラメータの決定 Active JP6734389B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662311265P 2016-03-21 2016-03-21
US62/311,265 2016-03-21
US15/463,474 US10455228B2 (en) 2016-03-21 2017-03-20 Determining prediction parameters for non-square blocks in video coding
US15/463,474 2017-03-20
PCT/US2017/023378 WO2017165395A1 (en) 2016-03-21 2017-03-21 Determining prediction parameters for non-square blocks in video coding

Publications (3)

Publication Number Publication Date
JP2019509691A JP2019509691A (ja) 2019-04-04
JP2019509691A5 JP2019509691A5 (ja) 2020-02-06
JP6734389B2 true JP6734389B2 (ja) 2020-08-05

Family

ID=59847236

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018547383A Pending JP2019509684A (ja) 2016-03-21 2017-03-21 ビデオコーディングにおける別々の輝度−色差枠組みを用いた色差予測のために輝度情報を使用すること
JP2018549274A Active JP6734389B2 (ja) 2016-03-21 2017-03-21 ビデオコーディングにおける非正方形ブロックのための予測パラメータの決定

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018547383A Pending JP2019509684A (ja) 2016-03-21 2017-03-21 ビデオコーディングにおける別々の輝度−色差枠組みを用いた色差予測のために輝度情報を使用すること

Country Status (20)

Country Link
US (2) US10455228B2 (ja)
EP (2) EP3434020A1 (ja)
JP (2) JP2019509684A (ja)
KR (2) KR102089202B1 (ja)
CN (2) CN108781282B (ja)
AU (2) AU2017238088B2 (ja)
BR (2) BR112018068928A2 (ja)
CA (2) CA3014787A1 (ja)
CL (2) CL2018002662A1 (ja)
CO (2) CO2018009859A2 (ja)
HK (2) HK1257557A1 (ja)
IL (2) IL260985B (ja)
MX (2) MX2018011556A (ja)
NZ (1) NZ745047A (ja)
PH (2) PH12018501710A1 (ja)
RU (2) RU2726151C2 (ja)
SG (2) SG11201806739UA (ja)
TW (2) TWI693820B (ja)
WO (2) WO2017165391A1 (ja)
ZA (2) ZA201806314B (ja)

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10455228B2 (en) 2016-03-21 2019-10-22 Qualcomm Incorporated Determining prediction parameters for non-square blocks in video coding
MX2018014493A (es) * 2016-05-25 2019-08-12 Arris Entpr Llc Particionamiento binario, ternario, cuaternario para jvet.
US10944963B2 (en) 2016-05-25 2021-03-09 Arris Enterprises Llc Coding weighted angular prediction for intra coding
CN109196863B (zh) * 2016-05-27 2021-07-30 夏普株式会社 用于改变量化参数的系统和方法
US10972733B2 (en) 2016-07-15 2021-04-06 Qualcomm Incorporated Look-up table for enhanced multiple transform
US10368107B2 (en) 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
WO2018062921A1 (ko) * 2016-09-30 2018-04-05 엘지전자 주식회사 영상 코딩 시스템에서 블록 분할 및 인트라 예측 방법 및 장치
KR20180110061A (ko) * 2016-12-26 2018-10-08 닛본 덴끼 가부시끼가이샤 영상 인코딩 방법, 영상 디코딩 방법, 영상 인코딩 장치, 영상 디코딩 장치, 및 프로그램
KR20180110047A (ko) * 2016-12-26 2018-10-08 닛본 덴끼 가부시끼가이샤 영상 인코딩 방법, 영상 디코딩 방법, 영상 인코딩 장치, 영상 디코딩 장치, 및 프로그램
WO2018125972A1 (en) 2016-12-28 2018-07-05 Arris Enterprises Llc Adaptive unequal weight planar prediction
CA3041856A1 (en) * 2016-12-28 2018-07-05 Sony Corporation Image processing apparatus and method for curbing deterioration in coding efficiency
US10554974B2 (en) * 2017-01-13 2020-02-04 Mediatek Inc. Method and apparatus enabling adaptive multiple transform for chroma transport blocks using control flags
US10638126B2 (en) * 2017-05-05 2020-04-28 Qualcomm Incorporated Intra reference filter for video coding
KR102622465B1 (ko) * 2017-06-21 2024-01-09 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
WO2019066384A1 (ko) * 2017-09-26 2019-04-04 삼성전자 주식회사 크로스-성분 예측에 의한 비디오 복호화 방법 및 장치, 크로스-성분 예측에 의한 비디오 부호화 방법 및 장치
US10965941B2 (en) 2017-10-09 2021-03-30 Qualcomm Incorporated Position-dependent prediction combinations in video coding
WO2019117634A1 (ko) * 2017-12-15 2019-06-20 엘지전자 주식회사 2차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2019135629A1 (ko) * 2018-01-05 2019-07-11 에스케이텔레콤 주식회사 크로마 블록의 복원 방법 및 이를 이용한 영상 복호화 장치
WO2019147087A1 (ko) * 2018-01-25 2019-08-01 주식회사 윌러스표준기술연구소 비디오 신호 처리 방법 및 장치
US10841578B2 (en) 2018-02-12 2020-11-17 Tencent America LLC Method and apparatus for using an intra prediction coding tool for intra prediction of non-square blocks in video compression
US11418803B2 (en) * 2018-04-01 2022-08-16 Lg Electronics Inc. Intra-prediction-based image coding method and device therefor
WO2019194496A1 (ko) * 2018-04-01 2019-10-10 엘지전자 주식회사 비디오 신호의 컬러 컴포넌트에 대한 병렬 처리 방법 및 이를 위한 장치
US11611757B2 (en) 2018-04-02 2023-03-21 Qualcomm Incorproated Position dependent intra prediction combination extended with angular modes
EP3777172A4 (en) 2018-04-02 2022-01-19 Sharp Kabushiki Kaisha SYSTEMS AND METHODS FOR DRIVING QUANTIFICATION PARAMETERS FOR VIDEO BLOCKS DURING VIDEO CODING
WO2019199142A1 (ko) * 2018-04-13 2019-10-17 엘지전자 주식회사 인트라 예측 방법을 결정하기 위한 영상 코딩 방법 및 장치
CN112055964B (zh) 2018-04-30 2022-06-07 寰发股份有限公司 用于视频编解码中的独立编码树的语法交错方法和装置
KR102584502B1 (ko) * 2018-05-10 2023-10-04 삼성전자주식회사 영상의 부호화 및 복호화를 위한 영상의 분할 방법 및 장치
EP3794829A1 (en) 2018-05-14 2021-03-24 InterDigital VC Holdings, Inc. Block shape adaptive intra prediction directions for quadtree-binary tree
JP2021525468A (ja) * 2018-05-29 2021-09-24 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 部分的に共有されている輝度および彩度のコード化木を用いたビデオ符号化および復号化の方法および装置
WO2019229683A1 (en) 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
US10778971B2 (en) * 2018-06-01 2020-09-15 Tencent America LLC Method and apparatus for video coding
WO2019234612A1 (en) * 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Partition tree with four sub-blocks symmetric or asymmetric
JP7104186B2 (ja) 2018-06-05 2022-07-20 北京字節跳動網絡技術有限公司 Ibcとatmvpとの間でのインタラクション
CN112385212A (zh) 2018-06-07 2021-02-19 交互数字Vc控股公司 用于视频编码或解码的语法元素
EP3804331A4 (en) 2018-06-15 2021-08-11 Huawei Technologies Co., Ltd. INTRA PREDICTION PROCESS AND APPARATUS
KR102618692B1 (ko) * 2018-06-15 2024-01-02 삼성전자주식회사 노이즈 또는 디서의 영향을 감소시키기 위한 디스플레이 구동 회로 및 방법
WO2019244115A2 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Automatic partition for cross blocks
EP3788782A1 (en) 2018-06-21 2021-03-10 Beijing Bytedance Network Technology Co. Ltd. Sub-block mv inheritance between color components
CN110636298B (zh) 2018-06-21 2022-09-13 北京字节跳动网络技术有限公司 对于Merge仿射模式和非Merge仿射模式的统一约束
US11197006B2 (en) * 2018-06-29 2021-12-07 Interdigital Vc Holdings, Inc. Wavefront parallel processing of luma and chroma components
EP3624450A1 (en) * 2018-09-17 2020-03-18 InterDigital VC Holdings, Inc. Wavefront parallel processing of luma and chroma components
US10567752B2 (en) * 2018-07-02 2020-02-18 Tencent America LLC Method and apparatus for intra prediction for non-square blocks in video compression
US11190764B2 (en) * 2018-07-06 2021-11-30 Qualcomm Incorporated Merged mode dependent intra smoothing (MDIS) and intra interpolation filter switching with position dependent intra prediction combination (PDPC)
CN110719478B (zh) 2018-07-15 2023-02-07 北京字节跳动网络技术有限公司 跨分量帧内预测模式导出
US12022079B2 (en) 2018-07-16 2024-06-25 Interdigital Vc Holdings, Inc. Wide angle intra prediction and position dependent intra prediction combination
US11128872B2 (en) * 2018-07-16 2021-09-21 Qualcomm Incorporated Position dependent intra prediction combination with wide angle intra prediction
US11265579B2 (en) 2018-08-01 2022-03-01 Comcast Cable Communications, Llc Systems, methods, and apparatuses for video processing
US10911765B2 (en) * 2018-08-01 2021-02-02 Tencent America LLC Method and apparatus for video coding
EP3834413A4 (en) * 2018-08-16 2022-06-15 HFI Innovation Inc. METHODS AND DEVICES FOR DERIVING CHROMA QUANTIZATION PARAMETERS IN A VIDEO PROCESSING SYSTEM
EP3843391A4 (en) 2018-08-24 2022-06-01 Samsung Electronics Co., Ltd. VIDEO DECODING METHOD AND APPARATUS, AND VIDEO CODING METHOD AND APPARATUS
CN111758261B (zh) * 2018-09-02 2022-06-10 Lg电子株式会社 用于处理图像信号的方法和设备
WO2020050607A1 (ko) * 2018-09-05 2020-03-12 엘지전자 주식회사 크로마 인트라 예측 모드를 도출하기 위한 영상 예측 방법 및 장치
US11509908B2 (en) * 2018-09-11 2022-11-22 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
CN110944170B (zh) 2018-09-24 2023-05-02 北京字节跳动网络技术有限公司 扩展Merge预测
CN116962720A (zh) 2018-10-12 2023-10-27 三星电子株式会社 通过使用交叉分量线性模型来处理视频信号的方法和设备
CN112913248A (zh) * 2018-10-25 2021-06-04 交互数字Vc控股公司 用译码类型或译码树类型的信令进行视频编码和解码的方法和装置
EP3861723A4 (en) 2018-11-10 2022-04-20 Beijing Bytedance Network Technology Co., Ltd. ROUNDS IN PAIRS OF MEDIUM CANDIDATE BILLS
CN111436230A (zh) 2018-11-12 2020-07-21 北京字节跳动网络技术有限公司 仿射预测的带宽控制方法
CN111630858B (zh) * 2018-11-16 2024-03-29 北京字节跳动网络技术有限公司 组合帧间帧内预测模式中的权重
TWI729569B (zh) * 2018-11-16 2021-06-01 聯發科技股份有限公司 帶有約束的亮度-色度單獨的編碼樹編碼的方法和設備
WO2020106653A1 (en) 2018-11-20 2020-05-28 Interdigital Vc Holdings, Inc. Current picture referencing block vector initialization with dual tree
WO2020116848A1 (ko) * 2018-12-05 2020-06-11 엘지전자 주식회사 크로마 인트라 예측 모드를 도출하기 위한 영상 예측 방법 및 장치
BR112021010706A2 (pt) 2018-12-07 2021-11-30 Samsung Electronics Co Ltd Método de decodificação de vídeo, método de codificação de vídeo, e dispositivo de decodificação de vídeo
WO2020131583A1 (en) * 2018-12-21 2020-06-25 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatus of video coding for deriving affine motion vectors for chroma components
CN113196763B (zh) * 2018-12-21 2024-04-12 北京字节跳动网络技术有限公司 使用多项式模型的帧内预测
PT3881549T (pt) * 2018-12-21 2024-05-20 Huawei Tech Co Ltd Método e aparelho de restrições ao nível do bloco dependente do modo e do tamanho
WO2020135206A1 (en) 2018-12-29 2020-07-02 Zhejiang Dahua Technology Co., Ltd. Systems and methods for intra prediction
CN113597760A (zh) * 2019-01-02 2021-11-02 北京字节跳动网络技术有限公司 视频处理的方法
US11330283B2 (en) * 2019-02-01 2022-05-10 Tencent America LLC Method and apparatus for video coding
WO2020162737A1 (ko) 2019-02-08 2020-08-13 주식회사 윌러스표준기술연구소 이차 변환을 이용하는 비디오 신호 처리 방법 및 장치
US12022060B2 (en) 2019-02-28 2024-06-25 Samsung Electronics Co., Ltd. Video encoding and decoding method for predicting chroma component, and video encoding and decoding device for predicting chroma component
CN113545056A (zh) * 2019-02-28 2021-10-22 交互数字Vc控股公司 用于图片编码和解码的方法及设备
KR20210122797A (ko) 2019-02-28 2021-10-12 주식회사 윌러스표준기술연구소 인트라 예측 기반 비디오 신호 처리 방법 및 장치
KR20210113367A (ko) 2019-03-05 2021-09-15 후아웨이 테크놀러지 컴퍼니 리미티드 인트라 서브-파티션 코딩 모드를 위한 방법 및 장치
JP2022521554A (ja) 2019-03-06 2022-04-08 北京字節跳動網絡技術有限公司 変換された片予測候補の利用
WO2020184566A1 (ja) * 2019-03-11 2020-09-17 日本放送協会 画像符号化装置、画像復号装置、及びプログラム
AU2019201649A1 (en) * 2019-03-11 2020-10-01 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a tree of blocks of video samples
AU2019201653A1 (en) * 2019-03-11 2020-10-01 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a tree of blocks of video samples
CN113615179B (zh) * 2019-03-13 2024-02-09 Lg 电子株式会社 图像编码/解码方法和装置以及发送比特流的方法
KR20210116676A (ko) * 2019-03-14 2021-09-27 엘지전자 주식회사 인트라 예측을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US11019332B2 (en) * 2019-03-29 2021-05-25 Qualcomm Incorporated Chroma intra prediction in video coding
CN113678453B (zh) 2019-04-12 2024-05-14 北京字节跳动网络技术有限公司 基于矩阵的帧内预测的上下文确定
CN113711604B (zh) 2019-04-20 2023-10-27 北京字节跳动网络技术有限公司 视频编解码中色度和亮度语法元素的信令
CN117221558A (zh) * 2019-05-08 2023-12-12 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
US20220224891A1 (en) * 2019-05-10 2022-07-14 Mediatek Inc. Method and Apparatus of Chroma Direct Mode Generation for Video Coding
CN115633173A (zh) 2019-05-28 2023-01-20 杜比实验室特许公司 用信号发送量化参数
JP2022535726A (ja) 2019-05-31 2022-08-10 北京字節跳動網絡技術有限公司 行列ベースイントラ予測における制約されたアップサンプリングプロセス
US11197025B2 (en) * 2019-06-21 2021-12-07 Qualcomm Incorporated Signaling of matrix intra prediction parameters in video coding
CN114128280B (zh) 2019-07-07 2023-11-14 北京字节跳动网络技术有限公司 色度残差缩放的信令通知
BR112022001981A2 (pt) * 2019-08-06 2022-05-10 Beijing Bytedance Network Tech Co Ltd Método e aparelho de processamento de vídeo, e, mídia legível por computador
WO2021025478A1 (ko) * 2019-08-06 2021-02-11 현대자동차주식회사 동영상 데이터의 인트라 예측 코딩을 위한 방법 및 장치
US11375220B2 (en) * 2019-11-27 2022-06-28 Tencent America LLC Method and apparatus for video decoding using a nominal directional mode and an angular offset
MX2022007503A (es) 2019-12-27 2022-07-04 Beijing Bytedance Network Tech Co Ltd Se?alizacion de tipos de corte en encabezados de imagenes de video.
US11546592B2 (en) * 2020-01-08 2023-01-03 Tencent America LLC Flexible block partitioning for chroma component
CN117528122A (zh) * 2020-03-27 2024-02-06 北京达佳互联信息技术有限公司 对视频进行解码的方法、电子装置、存储介质和程序产品
US11330266B2 (en) 2020-05-18 2022-05-10 Tencent America LLC Signaling method for chroma intra prediction mode
WO2022103240A1 (ko) * 2020-11-16 2022-05-19 현대자동차주식회사 크로마 인트라 방향성 예측모드를 적응적으로 결정하는 영상 부호화 및 복호화 방법
US20240007620A1 (en) * 2020-11-23 2024-01-04 Hyundai Motor Company Image encoding and decoding method using adaptive alternative mode
US12010316B2 (en) 2021-10-05 2024-06-11 Tencent America LLC Modification on fusion of intra prediction

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
JP2008193627A (ja) * 2007-01-12 2008-08-21 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
KR102481998B1 (ko) * 2009-08-12 2022-12-27 인터디지털 브이씨 홀딩스 인코포레이티드 개선된 인트라 색차 엔코딩 및 디코딩을 위한 방법 및 장치
US9602839B2 (en) * 2011-06-15 2017-03-21 Futurewei Technologies, Inc. Mode dependent intra smoothing filter table mapping methods for non-square prediction units
US9294770B2 (en) * 2011-06-24 2016-03-22 Lg Electronics Inc. Image information encoding and decoding method
BR112013033707A2 (pt) * 2011-06-28 2017-06-27 Samsung Electronics Co Ltd método e aparelho de predição para componente de croma de imagem usando componente de luma de imagem
US9462275B2 (en) * 2012-01-30 2016-10-04 Qualcomm Incorporated Residual quad tree (RQT) coding for video coding
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
WO2014115283A1 (ja) 2013-01-24 2014-07-31 シャープ株式会社 画像復号装置、および画像符号化装置
WO2015005749A1 (ko) 2013-07-12 2015-01-15 삼성전자 주식회사 인터 레이어 비디오 복호화 및 부호화 장치 및 방법을 위한 블록 기반 디스패리티 벡터 예측 방법
CA2944445C (en) * 2014-03-31 2019-11-26 Samsung Electronics Co., Ltd. Interlayer video decoding method for performing sub-block-based prediction and apparatus therefor, and interlayer video encoding method for performing sub-block-based prediction and apparatus therefor
CN110278437B (zh) * 2014-06-20 2022-03-08 寰发股份有限公司 一种视频数据块的编码方法
WO2016074147A1 (en) 2014-11-11 2016-05-19 Mediatek Singapore Pte. Ltd. Separated coding tree for luma and chroma
US10425648B2 (en) 2015-09-29 2019-09-24 Qualcomm Incorporated Video intra-prediction using position-dependent prediction combination for video coding
US10477233B2 (en) 2015-09-30 2019-11-12 Apple Inc. Predictor candidates for motion estimation search systems and methods
SG11201804135XA (en) 2015-11-17 2018-06-28 Huawei Tech Co Ltd Method and apparatus of adaptive filtering of samples for video coding
US10455228B2 (en) 2016-03-21 2019-10-22 Qualcomm Incorporated Determining prediction parameters for non-square blocks in video coding

Also Published As

Publication number Publication date
EP3434020A1 (en) 2019-01-30
WO2017165395A1 (en) 2017-09-28
RU2018133019A3 (ja) 2020-04-22
CN108781296A (zh) 2018-11-09
HK1257827A1 (zh) 2019-11-01
CN108781282A (zh) 2018-11-09
AU2017238084A1 (en) 2018-08-30
MX2018011555A (es) 2019-01-10
CN108781282B (zh) 2022-08-30
TWI693820B (zh) 2020-05-11
CO2018009869A2 (es) 2018-09-28
RU2018133019A (ru) 2020-04-22
IL260985B (en) 2020-09-30
SG11201806739UA (en) 2018-10-30
IL260984B (en) 2020-09-30
RU2723568C2 (ru) 2020-06-16
ZA201806315B (en) 2020-05-27
BR112018068928A2 (pt) 2019-01-22
HK1257557A1 (zh) 2019-10-25
US20170272759A1 (en) 2017-09-21
KR102089202B1 (ko) 2020-03-16
ZA201806314B (en) 2021-09-29
BR112018068895A2 (pt) 2019-01-22
AU2017238084B2 (en) 2021-03-11
US20170272748A1 (en) 2017-09-21
MX2018011556A (es) 2019-01-10
JP2019509684A (ja) 2019-04-04
JP2019509691A (ja) 2019-04-04
CL2018002661A1 (es) 2019-01-25
TW201801531A (zh) 2018-01-01
US10567759B2 (en) 2020-02-18
PH12018501710A1 (en) 2019-05-20
SG11201806738PA (en) 2018-10-30
WO2017165391A1 (en) 2017-09-28
CL2018002662A1 (es) 2019-01-25
CN108781296B (zh) 2022-08-26
RU2726151C2 (ru) 2020-07-09
NZ745047A (en) 2021-07-30
PH12018501883A1 (en) 2019-01-28
TW201737710A (zh) 2017-10-16
TWI702829B (zh) 2020-08-21
RU2018133014A (ru) 2020-04-22
EP3434013A1 (en) 2019-01-30
CA3015156A1 (en) 2017-09-28
RU2018133014A3 (ja) 2020-04-27
AU2017238088B2 (en) 2020-10-22
KR20180122362A (ko) 2018-11-12
CO2018009859A2 (es) 2018-09-28
AU2017238088A1 (en) 2018-08-23
US10455228B2 (en) 2019-10-22
CA3014787A1 (en) 2017-09-28
KR20180122361A (ko) 2018-11-12

Similar Documents

Publication Publication Date Title
JP6734389B2 (ja) ビデオコーディングにおける非正方形ブロックのための予測パラメータの決定
CA3063559C (en) Intra filtering applied together with transform processing in video coding
US11611757B2 (en) Position dependent intra prediction combination extended with angular modes
US10212444B2 (en) Multi-type-tree framework for video coding
JP2020504506A (ja) ビデオコーディングのためのマルチタイプツリーフレームワーク
JP2019525585A (ja) 四分木だけで区分化されないビデオコーディングにおける量子化情報のシグナリング
RU2785816C2 (ru) Комбинация позиционно-зависимого интра-предсказания, расширенная угловыми режимами

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200422

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200709

R150 Certificate of patent or registration of utility model

Ref document number: 6734389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250