TW202335497A - 跨分量線性模型預測 - Google Patents

跨分量線性模型預測 Download PDF

Info

Publication number
TW202335497A
TW202335497A TW111150575A TW111150575A TW202335497A TW 202335497 A TW202335497 A TW 202335497A TW 111150575 A TW111150575 A TW 111150575A TW 111150575 A TW111150575 A TW 111150575A TW 202335497 A TW202335497 A TW 202335497A
Authority
TW
Taiwan
Prior art keywords
current block
chroma
samples
model
prediction
Prior art date
Application number
TW111150575A
Other languages
English (en)
Inventor
蔡佳銘
陳俊嘉
蕭裕霖
江嫚書
徐志瑋
歐萊娜 邱巴赫
莊子德
陳慶曄
黃毓文
Original Assignee
聯發科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 聯發科技股份有限公司 filed Critical 聯發科技股份有限公司
Publication of TW202335497A publication Critical patent/TW202335497A/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

提供了一種使用多個模型來預測色度樣本的視頻編解碼系統。視頻編解碼系統接收要被編碼或解碼為視頻的當前圖片的當前塊的像素塊的資料。視頻編解碼系統基於與當前塊相鄰的亮度和色度樣本導出多個預測線性模型。視頻編解碼系統基於多個預測線性模型構建複合線性模型。視頻編解碼系統將復合線性模型應用於當前塊的輸入或重構亮度樣本,以生成當前塊的色度預測值。視頻編解碼系統使用色度預測子來重構當前塊的色度樣本或對當前塊進行編碼。

Description

跨分量線性模型預測
本發明涉及視頻編解碼系統。特別地,本發明涉及跨分量線性模型(cross-component linear model,CCLM)預測。
除非本文另有說明,否則本節中描述的方法不是下面列出的請求項的現有技術,並且不因包含在本節中而被承認為現有技術。
高效視頻編碼(HEVC)是由視頻編碼聯合協作小組(JCT-VC)開發的國際視頻編碼標準。HEVC基於混合的基於塊的運動補償類DCT變換編碼架構。壓縮的基本單元,稱為編碼單元(CU),是一個2Nx2N的方形像素塊,每個CU可以遞歸地分成四個更小的CU,直到達到預定義的最小尺寸。每個CU包含一個或多個預測單元(PU)。
多功能視頻編碼(VVC)是一種編解碼器,旨在滿足視頻會議、OTT流媒體、移動電話等方面即將到來的需求。VVC旨在提供多種功能,滿足從低分辨率和低位元率到高分辨率和高位元率、高動態範圍(HDR)、360全向等的所有視頻需求。VVC支持具有4:2:0採樣、每個分量10位元、YCbCr/RGB 4:4:4和YCbCr 4:2:2的YCbCr色彩空間,每個分量的位元深度高達16位元,具有HDR和廣色域顏色,以及用於透明度、深度等的輔助通道。
以下概述僅是說明性的,並不旨在以任何方式進行限制。即,提供以下概述以介紹本文描述的新穎的和非顯而易見的技術的概念、亮點、好處和優勢。在下面的詳細描述中進一步描述了選擇的而不是所有的實施方式。因此,以下概述不旨在識別要求保護的主題的基本特徵,也不旨在用於確定要求保護的主題的範圍。
本公開的一些實施例提供了一種使用多個模型來預測色度樣本的視頻編碼系統。視頻編解碼系統接收要被編碼或解碼為視頻的當前圖片的當前塊的像素塊的資料。視頻編解碼系統基於與當前塊相鄰的亮度和色度樣本導出多個預測線性模型。視頻編解碼系統基於多個預測線性模型構建複合線性模型。複合線性模型的參數來源於多個預測線性模型的參數。視頻編解碼系統將復合線性模型應用於當前塊的輸入或重構亮度樣本,以生成當前塊的色度預測子。視頻編碼系統使用色度預測子來重構當前塊的色度樣本或對當前塊進行編碼。
在一些實施例中,視頻編解碼系統可以從多個預測線性模型中選擇一個預測線性模型,並將選擇的預測線性模型的參數用作複合線性模型的參數。在一些實施例中,選擇的預測線性模型在多個預測線性模型中具有最好的邊界相似度。預測線性模型的邊界相似性可以通過比較(i)與當前塊相鄰的重構色度樣本和(ii)由基於當前塊的亮度樣本的預測線性模型產生的色度預測子的邊界樣本來計算。
在一些實施例中,當前塊的多條相鄰像素隊列用於提供用於導出複合線性模型的參數的樣本。多條相鄰像素隊列中的每一行用於導出多個預測線性模型中的一個預測線性模型。複合線性模型的參數可以通過對多個預測線性模型的參數進行平均來導出。視頻編解碼系統可以用信號通知多隊列之一的選擇,並且從所選擇的相鄰像素隊列導出的預測線性模型被用作複合線性模型。
在一些實施例中,根據像素大小將像素分為不同的組,並且針對不同的大小組相應地導出多個預測線性模型。在一些實施例中,根據一組分割信息將當前塊的相鄰像素分割成多個片段,多個預測線性模型包括基於多個片段導出的線性模型。視頻編碼系統可以在導出多個預測線性模型之前預處理亮度和色度樣本。
在一些實施例中,多個預測線性模型包括基於到當前塊的頂部和/或左側邊界的距離導出的線性模型。在一些實施例中,在混合模式下,為當前塊的第一色度分量構建多個預測線性模型,而為當前塊的第二色度分量僅構建一個預測線性模型。在一些實施例中,多個預測線性模型的參數是基於多個不同的亮度塊導出的。
在一些實施例中,視頻編碼系統可以在使用色度預測子重構當前塊的色度樣本或編碼當前塊之前對色度預測子進行後處理。在一些實施例中,當前塊的第一區域通過使用色度預測子來編碼並且當前塊的第二區域通過使用幀間預測來編碼。在一些實施例中,第一和第二區域是基於當前塊的亮度殘差樣本來識別的。
在下面的詳細描述中,通過示例的方式闡述了許多具體細節,以便提供對相關教導的透徹理解。基於本文描述的教導的任何變化、導出和/或擴展都在本公開的保護範圍內。在一些情況下,可以在相對較高的水平上描述與本文公開的一個或多個示例實現有關的眾所周知的方法、處理、組件和/或電路而不詳細,以避免不必要地模糊本公開的教導的方面。 I. 跨分量線性模型(CCLM)
跨分量線性模型(Cross Component Linear Model,CCLM)或線性模型(Linear Model,LM)模式是一種跨分量色度預測模式,其中塊的色度分量是通過線性模型從並置的重構亮度樣本中預測的。線性模型的參數(例如,比例和偏移)源自與塊相鄰的已經重構的亮度和色度樣本。例如,在VVC中,CCLM模式利用通道間依賴性從重構的亮度樣本中預測色度樣本。該預測是使用以下形式的線性模型進行的: 等式(1)
等式(1)中的P(i,j)表示一個CU中的預測色度樣本(或當前CU的預測色度樣本), 表示同一CU的下採樣重構亮度樣本(或當前CU對應的重構亮度樣本的CU)。
CCLM模型參數 (縮放參數)和 (偏移參數)是基於最多四個相鄰色度樣本及其對應的下採樣亮度樣本導出的。在LM_A模式(也稱為LM-T模式)中,僅使用上面或頂部相鄰的模板來計算線性模型係數。在LM_L模式(也稱為LM-L模式)下,只使用左模板計算線性模型係數。在LM-LA模式(也稱為LM-LT模式)中,左側和上方模板都用於計算線性模型係數。
假設當前色度塊維度為W×H,則W'和H'設置為 – 當應用 LM-LT 模式時,W' = W,H' = H; – 當應用 LM-T 模式時,W' = W + H; – 當應用 LM-L 模式時,H’ = H+W
上面的相鄰位置表示為S[ 0, −1 ]...S[ W' − 1, −1 ],左邊的相鄰位置表示為S[ -1, 0 ]... S[ -1, H' - 1]。然後選擇四個樣本作為 – S[W' / 4, −1 ], S[ 3 * W' / 4, −1 ], S[ −1, H' / 4 ], S[ −1, 3 * H' / 4 ] 當應用LM模式(上方和左側相鄰樣本均可用); – S[ W' / 8, -1 ], S[ 3 * W' / 8, -1 ], S[ 5 * W' / 8, -1 ], S[ 7 * W' / 8, -1 ] 當應用LM-T模式時(只有頂部相鄰樣本可用); – S[ −1, H' / 8 ], S[ −1, 3 * H' / 8 ], S[ −1, 5 * H' / 8 ], S[ −1, 7 * H' / 8 ] 當應用 LM-L 模式時(只有左側相鄰樣本可用);
所選位置的四個相鄰亮度樣本被下採樣並比較四次以找到兩個較大的值:x 0 A和 x 1A,以及兩個較小的值:x 0 B和x 1 B。它們對應的色度樣本值表示為y 0 A、y 1 A、y 0 B和y 1 B。那麼X A、X B、Y A和Y B推導為: X a= (x 0A+ x 1A+1)>>1; X b=(x 0B+ x 1B+1)>>1;                  等式(2) Y a= (y 0A+ y 1A+1)>>1; Y b=(y 0B+ y 1B+1)>>1                        等式(3)
線性模型參數 根據以下等式獲得 等式(4) 等式(5)
可以通過查找表來實現根據等式(4)和(5)計算 參數的操作。在一些實施例中,為了減少儲存查找表所需的內存,diff值(最大值和最小值之間的差值)和參數 用指數表示法表示。例如,diff由一個4位元有效部分和一個指數來近似。因此,對於16個有效數字值,1/diff的表減少為16個元素,如下所示: DivTable [ ] = { 0, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0 } 等式(6)
這降低了計算的複雜性以及儲存所需表格所需的內存大小。
在一些實施例中,為了獲得用於計算CCLM模型參數 的更多樣本,將上述模板擴展為包含用於LM-T模式的(W+H)個樣本,將左側模板擴展為包含用於LM-L模式的(H+W)個樣本。對於LM-LT模式,擴展左模板和擴展上模板均用於計算線性模型係數。
為了匹配4:2:0視頻序列的色度樣本位置,將兩種類型的下採樣濾波器應用於亮度樣本以實現2:1水平和垂直方向的下採樣率。下採樣濾波器的選擇由序列參數集(SPS)級別標誌指定。兩個下採樣濾波器如下,分別對應“類型-0”和“類型-2”內容。 等式(7) 等式(8)
在一些實施例中,當上參考線在CTU邊界處時,僅使用一條亮度線(line)(幀內預測中的通用線緩衝器)來製作下採樣的亮度樣本。
在一些實施例中, 參數計算作為解碼處理的一部分執行,而不僅僅是作為編碼器搜索操作。因此,沒有語法用於將 值傳送給解碼器。
對於色度幀內模式編碼,總共允許8種幀內模式。這些模式包括五種傳統幀內模式和三種跨分量線性模型模式(LM_LA、LM_A和LM_L)。色度模式編碼直接依賴於相應亮度塊的幀內預測模式。色度(幀內)模式信令和相應的亮度幀內預測模式根據下表:
色度幀內預測模式 相應的亮度幀內預測模式
0 50 18 1 X (0 ≤ X ≤66)
0 66 0 0 0 0
1 50 66 50 50 50
2 18 18 66 18 18
3 1 1 1 66 1
4 0 50 18 1 X
5 81 81 81 81 81
6 82 82 82 82 82
7 83 83 83 83 83
由於在I切片中啟用了用於亮度和色度分量的單獨塊劃分結構,所以一個色度塊可以對應於多個亮度塊。因此,對於色度DM(**什麼是DM**)模式,直接繼承覆蓋當前色度塊中心位置的對應亮度塊的幀內預測模式。
根據下表,單個統一二值化表(映射到bin字符串)用於色度幀內預測模式:
色度幀內預測模式 Bin字符串
4 00
0 0100
1 0101
2 0110
3 0111
5 10
6 110
7 111
在表中,第一個bin表示它是常規(0)還是LM模式 (1)。如果是LM模式,則下一個bin表示是否為LM_色度(0)。 如果不是LM_色度,則下一個1 bin表示是LM_L(0)還是LM_A(1)。對於這種情況,當sps_cclm_enabled_flag為0時,可以在熵編碼之前丟棄相應intra_chroma_pred_mode的二值化表的第一個bin。或者,換句話說,第一個bin被推斷為 0,因此未被編碼。此單個二值化表用於sps_cclm_enabled_flag等於0和1的情況。表中的前兩個bin使用其自己的上下文模型進行上下文編碼,其餘bin進行旁路編碼。
此外,為了降低雙樹中的亮度-色度延遲,當64x64亮度編碼樹節點未分裂(且ISP未用於64x64 CU)或應用QT分區時,32x32/32x16色度編碼中的色度CU樹節點可以通過以下方式使用CCLM: • 如果32x32色度節點沒有被拆分或者QT拆分分區,那麼32x32節點中的所有色度CU都可以使用CCLM • 如果32x32色度節點採用水平BT劃分,32x16子節點不拆分或使用垂直BT拆分,則32x16色度節點中的所有色度CU都可以使用CCLM。 • 在所有其他亮度和色度編碼樹分裂條件下,CCLM不允許用於色度CU。 II. 多模型CCLM
本公開的一些實施例提供多模型CCLM模式,視頻編碼器或解碼器根據該模式為當前正在編碼或解碼的像素塊(當前塊)生成多個CCLM模型。CCLM模型用於根據亮度分量生成色度預測子(或色度分量的預測樣本)。第1圖概念性地說明了視頻編碼器中的多模型CCLM預測。如圖所示,對於包括亮度樣本101和色度樣本102的當前塊100,色度樣本102將通過將復合線性模型110應用於亮度樣本101來編碼。複合線性模型110源自多個不同線性模型111-113的參數。複合線性模型110為當前塊產生色度預測子130。將色度預測子130與色度預測殘差132相加重構了當前塊的色度樣本102。可以為Cr和Cb分量複製該示例的資料流。
多個CCLM模型111-113是基於當前塊100頂部的重構相鄰像素140和/或當前塊100左側的重構相鄰像素150中的亮度和色度樣本導出的。在一些實施例中,多個不同模型111-113可以基於重構的相鄰像素140和150中的不同像素集生成色度預測值。在一些實施例中,視頻編碼器比較不同模型的預測以選擇最佳模型來生成當前塊的色度預測值。
在一些實施例中,視頻編碼器或解碼器為編碼或解碼像素塊(當前塊)準備不同類型和/或不同區域的多個模型。視頻編碼器將當前塊的像素分類為不同的類型/區域,並對這些不同的類型/區域應用不同的CCLM模型。這是因為對象的像素直方圖與其在當前塊內的背景可能非常不同。僅使用一個LM模型可能會導致不准確的跨分量預測。
在一些實施例中,當前塊的相鄰像素被分成若干組。每組用於推導當前塊的CCLM預測的一個線性模型。
在一些實施例中,這些組是根據像素大小來分類的,例如,具有一定範圍內的亮度值的像素被分類到同一組(大小組)中。在一些實施例中,當當前塊的內部像素的像素值屬於某個幅度集合時,基於該幅度集合推導的線性模型用於CCLM模型推導。將參考第6圖進一步描述針對不同幅度集合推導多個CCLM模型。
在一些實施例中,根據區域對組進行分類,使得同一區域中的像素被分類到同一組(區域組)中。當前塊可以是編碼單元(CU)或編碼樹單元(CTU),區域可以是當前塊的四叉樹(QT)分割、二叉樹(BT)分割、三元樹(TT)分割或多類型樹(MTT)拆分的分區拆分。當前塊的區域也可以是虛擬流水線資料單元(VPDU)。
將線性模型應用於當前塊的內部像素時,可以使用多種方法來確定使用哪個線性模型。在一些實施例中,當當前塊的內部像素在特定相鄰區域附近時,從相鄰區域的像素導出的線性模型用於執行CCLM預測。
第2圖說明了使用為不同區域組導出的多個模型。在示例中,在當前塊200的頂部邊界上方有兩個相鄰區域210和220。相鄰區域210附近的內部像素212可以使用從相鄰區域210導出的第一線性模型215,而內部像素222在相鄰區域220附近使用從相鄰區域220導出的第二線性模型225。
在一些實施例中,當前塊被劃分為多個區域(例如,劃分為多個矩形區域)。對於當前塊的每個區域,使用相應的L形鄰居來導出線性模型。因此,對於當前塊的每個區域,可以導出並使用不同的CCLM線性模型。在一些實施例中,如果該區域不與相鄰塊相鄰(即,不與當前塊的邊界相鄰),則可以使用垂直或水平對應的相鄰像素來導出當前塊的區域的CCLM線性模型。
在一些實施例中,兩個線性模型(頂部和左側模型)用於CCLM。一個線性模型(頂部模型)是基於當前塊上方的相鄰重構樣本(例如CCLM_A或LM-T模型)導出的,而另一個線性模型(左模型)是基於當前塊左側的相鄰重構樣本導出的(例如,CCLM_L或LM-L模型)。在一些實施例中,計算頂部相鄰重構像素的像素值的均值和左側相鄰重構像素的像素值的均值。如果樣本的像素值接近特定側(例如頂部或左側)的計算平均值,則使用從該側導出的模型來預測樣本。在一些實施例中,如果樣本在位置上靠近頂部相鄰,則樣本的CCLM預測使用頂部模型。如果樣本在位置上靠近左側相鄰,則樣本的CCLM預測使用左模型。在一些實施例中,CCLM預測可以使用頂部模型生成第一頂部模型預測子(pixelA),使用左側模型生成第二左側模型預測子(pixelB),並使用一些加權因子來混合這兩個模型預測子。例如,如果樣本在位置上或幅度上更接近頂部相鄰而不是左側鄰居,則頂部模型預測子在混合期間比左側模型預測子加權更多(更大的權重因子)。
在一些實施例中,當前塊的相鄰像素被劃分為多個區域,並且基於這些不同的區域導出用於CCLM預測的多個線性模型。在一些實施例中,對於當前塊內的每個像素樣本,基於到當前塊的上邊界和/或左邊界的距離實時導出另一個線性模型。將多個不同的線性模型組合起來形成線性組合CCLM模型。
第3圖概念性地說明了線性組合CCLM模型的推導。如圖所示,當前塊300具有在左邊界左側的左側相鄰310和在上邊界上方的頂部相鄰320。頂部相鄰310被劃分為部分A、B、C、D,而左側相鄰320被劃分為部分E和F。像素樣本330具有dx和dy作為到頂部和左側相鄰310和320的距離。當執行對於樣本330的CCLM預測時,視頻編碼器可以基於對應的源線性模型(例如,基於部分C和F中的像素導出)和到頂部和左側的鄰居的距離(dx和dy),實時導出CCLM模型。該模型的示例可以根據以下內容得出: α’ = dy/(dx+dy) * α C+ dy/(dx+dy) * α F等式 (9) β’ = dy/(dx+dy) * β C+ dy/(dx+dy) * β F等式(10)
α'和β'是動態模型的線性模型參數。這兩個參數是基於(i)距離dx和dy,(ii)基於頂部部分C導出的線性模型的參數α C和β C,以及(iii)基於左側部分F導出的線性模型的參數α F和β F,導出的。
當頂部和左側鄰居310和320未分區時,可以根據 α’ = dy/(dx+dy) * α L+ dy/(dx+dy) * α T等式(11) β’ = dy/(dx+dy) * β L+ dy/(dx+dy) * β T等式(12)
其中α T和β T是基於頂部相鄰310(即LM-T模型)導出的線性模型參數,α L和β L是基於左側相鄰320(即LM-L模型)導出的線性模型參數。這被稱為線性組合CCLM模型。另一個示例線性組合CCLM模型可以根據: α’ = ((W-dx)/W * α L+ dx/W * α T)* A + ((dy)/H * α L+ (H-dx)/H * α T)* B                   等式(13)
其中A和B=0.5,或A=W/(W+H)和B=H/(W+H),或A=H/(W+H)和B=W/(W+H)。類似的線性組合方法可以用於組合多個LM-T和多個LM-L模型的預測。
在一些實施例中,CCLM使用多個模型,根據當前塊的頂部和/或左邊界處的邊界樣本的相似性來選擇最佳模型。例如,視頻編解碼器可以使用兩個線性預測模型,模型A和模型B,來導出/預測當前塊的兩個色度預測值。對於每個色度預測子,視頻編碼器檢查邊界處的平滑度或相似性,例如,通過將沿邊界的色度預測樣本與當前塊的相鄰像素進行比較。選擇在邊界處的平滑度或相似性方面產生更好色度預測的模型作為當前塊的最終CCLM模型。第4圖說明了基於邊界處的相似性從多個模型中選擇最佳CCLM預測模型。
如圖所示,將第一CCLM模型(模型A)421應用於當前塊400的亮度樣本410以獲得第一色度預測411,將第二CCLM模型(模型B)422也應用於亮度樣本410以獲得第二色度預測412。將模型A色度預測411的邊界樣本與頂部相鄰402和左側相鄰404中的(重構的)色度樣本進行比較以確定模型A的邊界相似度。將模型B色度預測412的邊界樣本與頂部相鄰402和左側相鄰404中的重構樣本進行比較,以確定模型B的邊界相似性。在此示例中,模型A的邊界相似度為70%,模型B的邊界相似度為95%。視頻編解碼器因此選擇模型B作為用於當前塊400的CCLM預測的線性模型。
在一些實施例中,邊界相似度是基於當前塊中的預測像素(色度預測值)與沿當前塊的左邊界和上邊界與當前塊相鄰的重構像素之間的差異度量來計算的(因此較低的差異度量表示相似度更高)。邊界相似性的這種差異度量的示例根據以下計算:
其中predx是沿著頂部邊界的預測樣本,recox是沿著頂部邊界重構的相鄰樣本;其中perdy是沿左邊界的預測樣本,recoy是沿左邊界重構的相鄰樣本。根據等式(14),沿頂部和左側邊界的兩行預測樣本和兩行重構的相鄰樣本用於計算差異度量(或相似性度量)。
在一些實施例中,視頻譯碼器可為當前塊的每個色度樣本導出不同的線性模型。在一些實施例中,針對不同的色度樣本導出來自不同相鄰樣本的線性模型。每個色度樣本可以參考一些對應的相鄰位置來建立線性模型。
在一些實施例中,視頻解碼器可以針對當前塊的不同區域採用不同的線性模型,即,視頻解碼器可以針對當前塊的每個區域導出不同的線性模型。 在一些實施例中,視頻解碼器可為當前塊的不同分區導出兩個或更多個線性模型。這樣的分區可以通過垂直二叉樹分裂(VBT)、水平二叉樹分裂(HBT)、三元樹分裂(TT)或對角線分區來創建。例如,當當前塊被VBT劃分為左右區域時,CCLM預測可以使用兩種線性模型:一種線性模型用於左分區,一種線性模型用於右分區。
在一些實施例中,視頻譯碼器可以以基於行的方式(對每行使用不同的相鄰樣本)、基於列的方式(對每列使用不同的相鄰樣本)或基於對角線的方式(對每個對角線分區的樣本使用不同的相鄰樣本)來選擇相鄰樣本。
在一些實施例中,為了增加CCLM的編碼增益,多行相鄰像素用於CCLM推導。第5A-C圖圖示了使用多行相鄰像素來導出用於CCLM預測的線性模型。該圖圖示了具有多條相鄰像素隊列(line)的當前塊500,這些相鄰像素至少包括隊列511、512和513。這些隊列用於CCLM模型推導。
在一些實施例中,CCLM模型可以由分別通過坐標為(xA,yA)和(xB,yB)的點A和B的直線來指定,其中xA和xB是亮度值,yA和yB是亮度值對應的預測色度值。在一些實施例中,yA和yB可以代替α和β用作CCLM線性模型的參數。
在一些實施例中,當使用多條相鄰像素隊列來導出CCLM模型時,從多條相鄰像素隊列確定一個yA和一個yB。第5B圖圖示了基於相鄰像素的所有三條隊列511-513中的亮度和色度樣本來定義CCLM模型的yA和yB。在示例中,一直線(xA,yA0)、(xB,yB0)定義了CCLM模型520。
在一些實施例中,為每條隊列確定一個線性模型(包含一個yA和一個yB的一對)。第5C圖圖示了分別從三個相鄰隊列511-513的樣本導出三個線性模型(三個yAs和三個yBs)521-523。具體來說,線(xA,yA1),(xB,yB1)是從隊列511導出的,線(xA,yA2),(xB,yB2)是從隊列512導出的,線(xA,yA3),(xB,yB3)從隊列513導出。在一些實施例中,不同yAs和yBs的平均值可以用作yA和yB以導出一個CCLM模型。在第5C圖的例子中,yA1、yA2、yA3、yB1、yB2、yB3可用於導出由線(xA,yA')、(xB,yB')定義的CCLM模型529,其中yA'是yA1、yA2、yA3的平均值,yB'是yB1,yB2,yB3的平均值。
在一些實施例中,一個CCLM模型是基於從相鄰像素的多隊列中選擇的一隊列導出的。可以在編碼視頻或位元流中用信號通知從多條線中選擇一條線以用於LM模型推導。在一些實施例中,語法元素被發送以識別用於LM模型推導的頂部相鄰和/或左側相鄰的一個選定隊列或一些選定隊列。解碼器可以接收語法並為LM模型推導選擇相應的隊列。語法可以包括當前塊的相鄰像素的隊列選擇。亮度和色度樣本的行選擇可以在一個語法信號集中共享或分成不同的語法信號集。例如,語法元素可用於用信號表示相鄰隊列512將用於CCLM推導。視頻解碼器然後可以使用重構的相鄰隊列512中的相應亮度和色度樣本來導出yA2和yB2,用於指定當前塊500的線性模型。
如前所述,在一些實施例中,像素根據像素大小被分為不同的組(magnitude groups),並且針對不同的大小組導出用於CCLM預測的多個不同模型。具體地,當當前塊的內部像素的像素值屬於某個幅度組時,CCLM模型推導使用基於該幅度組的相鄰像素推導的線性模型。
第6圖概念性地說明了基於像素大小為 CCLM 分類像素。 該圖圖示了用於構建當前塊600的CCLM線性模型的重構相鄰像素611-614。當前塊600的像素被分類為兩組。令閾值是四個選定的相鄰亮度樣本611-614的平均值,視頻譯碼器可根據閾值對當前塊600的像素進行分類。在此示例中,當前塊600的亮度幅度≤閾值(平均值)的內部樣本是組A的成員,而其他樣本(亮度幅度>閾值)是組B的成員。這兩個組可以使用兩個用於色度預測的不同線性模型621(模型A)和622(模型B),在一些實施例中被表示為參數集[0]和參數集[1]。因此,對於≤閾值的內部亮度樣本值,線性模型621被應用於色度預測,否則線性模型622被應用於色度預測。通常,一些預定義或導出的閾值可用於將像素分類為應用不同線性模型的多個不同組。
在一些實施例中,通過邊緣和紋理分析將像素分類為多個組(對於多模型CCLM)。例如,Sobel邊緣檢測器可以應用於重構的三個相鄰隊列、非下採樣亮度樣本,以將樣本分為兩組,特別是紋理或邊緣。如果Sobel邊緣檢測器將重構的相鄰亮度樣本分類為紋理,則將第一個模型(模型0)應用於CCLM預測。否則(例如,樣本被分類為邊緣),應用第二個模型(模型1)。邊緣/紋理的閾值可以基於編碼視頻中的信號(例如圖片參數集、圖片標頭或切片標頭)檢測。在一些實施例中,可以基於當前塊的周圍條件(例如,相鄰CU的邊緣檢測結果作為紋理或邊緣等)來確定閾值。 III.  具有多個亮度塊的 CCLM
在一些實施例中,選擇多個亮度塊用於LM推導以提高CCLM預測的編碼增益。CCLM線性模型的α和β參數是基於所選的多個亮度塊導出的。在一些實施例中,多個不同亮度塊的像素值被平均並用作線性模型推導的輸入值。在一些實施例中,可以使用加權平均值(例如,如果塊靠近並置(collocated)位置,它將具有更高的權重)作為用於推導線性模型(α和β值)的輸入值。
不同的實施例不同地選擇多個塊。在一些實施例中,選擇並置塊的一些相鄰塊。在一些實施例中,父塊(用於分裂樹)被下採樣以獲得多個塊。在一些實施例中,使用塊內運動搜索方法(類似於VVC中的塊內復制模式)來搜索當前圖片內部的一些候選以獲得多個塊。可以應用類似的方法來選擇多個亮度塊或多個色度塊用於線性模型推導。 IV. 多區域LM 模式
在一些實施例中,視頻編碼器實現多區域LM模式。該模式將當前塊劃分為兩個或四個分區,每個分區使用其自己對應的頂部/左側鄰居來導出CCLM預測模型。在一些實施例中,針對由VBT、HBT、TT或對角線劃分創建的不同劃分導出兩個或更多個線性模型。 V. 混合LM模式
在一些實施例中,視頻編碼器實現混合LM模式。在混合LM模式中,一個顏色分量由多模型LM編碼,而另一個顏色分量由單模型LM編碼。例如,Cb分量可以使用多模型LM編碼(基於不同空間區域的多模型,或基於不同像素分類的多模型),而Cr分量可以使用單模型LM編碼。 VI. 基於分段的LM模式
本公開的一些實施例提供基於分段的LM模式。在這種模式下,相鄰的L形像素被分割並分類為兩個或多個片段。根據分段信息,將當前塊內的內部像素劃分或分類為兩個或多個區域。每個區域使用相應的L形相鄰像素來推導LM模型。
第7圖概念性地說明了基於分段的LM模式。如圖所示,當前塊700包括描繪(部分)背景710的像素和(部分)前景對象720的像素。當前塊700的L形相鄰像素730將用於導出用於CCLM的多個LM模型。提供分段信息740,根據該分段信息指定L形相鄰像素730的兩個分段731和732。具體地,片段731用於生成用於對對象720進行色度預測的第一LM模型741。片段732用於生成用於對背景710進行色度預測的第二LM模型742。 VII.  CCLM 預測後的像素細化
在一些實施例中,在執行LM過程以生成色度像素預測子之後執行像素細化。當前塊的頂部相鄰像素用於細化或調整當前塊靠近頂部邊界的像素。當前塊的左側相鄰像素用於細化或調整當前塊左邊界附近的像素。
細化使當前塊邊界附近的像素值更接近相鄰像素的像素值。例如,可以通過使用當前塊上方的相鄰像素過濾當前塊頂部附近的內部像素來完成細化。也可以使用加權平均程序。例如,對於最接近頂邊的當前塊的內部像素線,上方的相鄰像素將具有最大的加權因子。對於遠離頂部的內部像素線,上述相鄰像素將具有較低的權重因子。同樣,對於最靠近左側的當前塊的內部像素行,左側相鄰像素將具有最大的加權因子。對於遠離左側的內部像素線,上方的相鄰像素將具有較低的權重因子。
在一些實施例中,視頻編碼器可以在應用CCLM線性模型之前預處理亮度重構樣本。在一些實施例中,視頻編碼器在應用CCLM線性模型之後對色度預測子採樣進行後處理。預處理和/或後處理可包括以下內容:3x3或5x5濾波、偏置、削波、自適應環路濾波(ALF)、樣本自適應偏移(SAO)、信號濾波器組等。對於第一顏色分量(例如,Cb),在應用LM模型後應用色度濾波,視頻解碼器可以基於對第一顏色分量的處理來選擇用於第二顏色分量(例如,Cr)的線性模型。例如,當使用CCLM預測來預測和重構Cb分量(添加了殘差)時,視頻編碼器可能會在重構的Cb樣本上嘗試不同的濾波方法(在解碼器端)並查看哪種濾波方法是最好的(例如, 最好的邊界平滑度)。然後,可以對Cr分量應用相同的濾波器選擇。 VIII. 通過部分-LM + 部分-幀間模式解決遮擋
對象遮擋是圖像或視頻處理中的一個問題,當兩個或多個對象放置得太近時,經常會發生這種問題,以至於不同的對像看起來彼此合併或結合。在某些情況下,對象遮擋可能導致視頻編碼器將塊編碼為部分幀間和部分幀內。
第8圖概念性地圖示了由於遮擋而被編碼為部分幀間和部分幀內的像素塊。該圖說明在當前圖片805中編碼的當前塊800和參考圖片815中的一組參考像素810。當前塊820具有左區域822和右區域824。左區域822通過幀內編碼來編解碼。右區域824通過幀間編碼被編解碼。子區域826具有在參考圖片815中被遮擋的相應參考像素。雖然子區域826是運動對象的一部分,但是編碼器可以使用基於LM的色度幀內預測編碼來對被遮擋的子區域826進行編碼。
在一些實施例中,如果編碼器沒有用信號通知解碼器哪個區域被遮擋,則解碼器可以隱含地確定哪些區域通過幀間模式編碼,哪些區域通過幀內模式編碼,以及哪些區域通過LM模式編碼。在一些實施例中,當前塊800的亮度分量完全使用幀間模式來編碼。編碼器/解碼器可以使用亮度殘差的大小(IDCT結果)來決定是否使用幀間、幀內和/或 LM 模式對特定區域的色度分量進行編碼。 如果該區域的相應亮度分量在殘差中具有更高的幅度,則編碼器/解碼器使用基於LM的色度幀內預測編碼來導出該區域的色度分量。如果該區域的相應亮度分量在殘差中具有較低的幅度,則編碼器/解碼器使用基於幀間預測的色度預測方法來導出該區域的色度分量。
在一些實施例中,確定是否對區域的色度分量使用LM、幀內預測或幀間預測是基於亮度分量的子塊變換(SBT)信號。例如,如果亮度分量的SBT信號指示解碼器只有當前塊的左半部分有殘差,則當前塊的右半部分將沒有殘差值。對於色度預測,左半部分(有殘差)將進行幀內編碼(使用LM),右半部分將進行幀間編碼(很少或沒有殘差)。 IX. 示例視頻編碼器
第9圖説明實施色度預測的實例視頻編碼器900。如圖所示,視頻編碼器900接收視頻源905輸入視頻信號並將該信號編碼為位元流995。視頻編碼器900具有用於對來自視頻源905的信號進行編碼的若干組件或模塊,至少包括選自以下的一些組件:變換模塊910、量化模塊911、逆量化模塊914、逆變換模塊915、幀內估計模塊920、幀內預測模塊925、運動補償模塊930、運動估計模塊935、環路濾波器945、重構圖片緩衝器950、MV緩衝器965、MV預測模塊975和熵編碼器990。運動補償模塊930和運動估計模塊935是幀間預測模塊940的一部分。
在一些實施例中,模塊910-990是由計算設備或電子設備的一個或多個處理單元(例如,處理器)執行的軟體指令模塊。在一些實施例中,模塊910-990是由電子裝置的一個或多個集成電路(IC)實現的硬體電路模塊。儘管模塊910-990被示為單獨的模塊,但是一些模塊可以組合成單個模塊。
視頻源905提供未壓縮的原始視頻信號,其呈現每個視頻幀的像素資料。減法器908計算視頻源905的原始視頻像素資料與來自運動補償模塊930或幀內預測模塊925的預測像素資料913之間的差異。變換模塊910將差異(或殘差像素資料或殘差信號908)轉換成變換係數(例如,通過執行離散餘弦變換或DCT)。量化模塊911將變換係數量化為量化資料(或量化係數)912,其由熵編碼器990編碼為位元流995。
逆量化模塊914對量化資料(或量化係數)912進行逆量化以獲得變換係數,逆變換模塊915對變換係數進行逆變換以產生重構殘差919。重構殘差919與預測像素資料913相加以產生重構像素資料917。在一些實施例中,重構像素資料917被臨時儲存在行緩衝器(未示出)中用於幀内預測和空間MV預測。重構像素由環路濾波器945過濾並儲存在重構圖片緩衝器950中。在一些實施例中,重構圖片緩衝器950是視頻編碼器900外部的儲存器。在一些實施例中,重構圖片緩衝器950是視頻編碼器900內部的儲存器。
幀内估計模塊920基於重構像素資料917執行幀内預測以產生幀内預測資料。幀內預測資料被提供給熵編碼器990以被編碼成位元流995。幀內預測資料也被幀內預測模塊925用來產生預測像素資料913。
運動估計模塊935通過產生MV以參考儲存在重構圖片緩衝器950中的先前解碼幀的像素資料來執行幀間預測。這些MV被提供給運動補償模塊930以產生預測像素資料。
視頻編碼器900不是在位元流中編碼完整的實際MV,而是使用MV預測來生成預測MV,並且用於運動補償的MV與預測MV之間的差異被編碼為殘差運動資料並儲存在位元流995中。
MV預測模塊975基於為先前編碼視頻幀而生成的參考MV,即用於執行運動補償的運動補償MV,生成預測MV。MV預測模塊975從MV緩衝器965中檢索來自先前視頻幀的參考MV。視頻編碼器900將為當前視頻幀生成的MV儲存在MV緩衝器965中作為用於生成預測MV的參考MV。
MV預測模塊975使用參考MV來創建預測MV。預測MV可以通過空間MV預測或時間MV預測來計算。熵編碼器990將預測MV與當前幀的運動補償MV(MC MV)之間的差異(殘差運動資料)編碼到位元流995中。
熵編碼器990通過使用諸如上下文自適應二進制算術編碼(CABAC)或霍夫曼編碼的熵編碼技術將各種參數和資料編碼到位元流995中。熵編碼器990將各種報頭元素、標誌連同量化變換係數912和殘差運動資料作為語法元素編碼到位元流995中。位元流995又儲存在儲存設備中或通過網絡通信媒介,例如網絡,傳輸到解碼器。
環內濾波器945對重構的像素資料917執行濾波或平滑操作以減少編碼的偽像,特別是在像素塊的邊界處。在一些實施例中,執行的濾波操作包括樣本自適應偏移(SAO)。在一些實施例中,濾波操作包括自適應環路濾波器(ALF)。
第10圖解說了實現多模型色度預測的視頻編碼器900的部分。如圖所示,視頻源905提供輸入的亮度和色度樣本1002和1004,而重構圖片緩衝器950提供重構的亮度和色度樣本1006。
色度預測模塊1010應用於輸入亮度樣本1002以生成色度預測子1012。色度預測子1012然後用於通過減去輸入色度樣本1004來產生色度預測殘差1015。色度預測殘差信號1015被編碼(轉換、幀間/幀內預測等)代替常規色度樣本。
複合預測模型1020源自多個不同的預測線性模型1025。在一些實施例中,複合線性模型1020的參數(例如,α和β,或yA和yB)源自多個預測線性模型1025的參數。在一些實施例中,選擇具有最佳邊界相似性度量的預測線性模型1025之一,並且將所選擇的預測線性模型的參數用作複合預測模型的參數。在一些實施例中,多個不同的預測線性模型1025的參數被平均成為複合線性模型1020的參數。
多個預測線性模型1025基於從重構圖片緩衝器950檢索的重構亮度和色度樣本1006導出。多個不同的預測線性模型1025可以從不同類型或區域或段的重構亮度和色度樣本1006導出,如上文第II-VIII節所述。例如,在一些實施例中,多個不同的預測線性模型1025可以從相鄰像素的不同隊列導出。在一些實施例中,多個不同的預測線性模型1025可以從當前塊的左邊界和上邊界處的相鄰像素的不同片段導出。在一些實施例中,預測線性模型1025之一可以從多個不同的亮度塊導出。
第11圖概念性地說明使用多模型色度預測來編碼像素塊的處理1100。在一些實施例中,實現編碼器1100的計算設備的一個或多個處理單元(例如,處理器)通過執行儲存在計算機可讀介質中的指令來執行處理1100。在一些實施例中,實現編碼器900的電子設備執行處理1100。
編碼器接收(在框1110)要被編碼為視頻的當前圖片中的當前塊的像素塊的資料。
編碼器基於與當前塊相鄰的亮度和色度樣本導出(在塊1120)多個預測線性模型。在一些實施例中,根據像素大小將像素分為不同的組,並且針對不同的大小組相應地導出多個預測線性模型。在一些實施例中,根據一組分割信息將當前塊的相鄰像素分割成多個片段,多個預測線性模型包括基於多個片段導出的線性模型。編碼器可以在導出多個預測線性模型之前預處理亮度和色度樣本。
在一些實施例中,多個預測線性模型包括基於到當前塊的上邊界或左邊界的距離導出的線性模型。在一些實施例中,在混合模式中,多個預測線性模型是針對當前塊的第一色度分量(例如,Cb)構建的,其中僅一個預測線性模型是針對當前塊的第二色度分量(例如,Cr)構建的。在一些實施例中,多個預測線性模型的參數是基於多個不同的亮度塊導出的。
編碼器基於多個預測線性模型構建(在框1130)複合線性模型。 在一些實施例中,編碼器可以從多個預測線性模型中選擇一個預測線性模型並將所選擇的預測線性模型的參數用作複合線性模型的參數。在一些實施例中,選擇的預測線性模型在多個預測線性模型中具有最好的邊界相似度。預測線性模型的邊界相似性可以通過比較(i)與當前塊相鄰的重構色度樣本和(ii)由基於當前塊的亮度樣本的預測線性模型產生的色度預測子的邊界樣本來計算。
在一些實施例中,當前塊的多條相鄰像素隊列用於提供用於導出複合線性模型的參數的樣本。在一些實施例中,多個預測線性模型中的至少一個預測線性模型是使用相鄰像素的多條隊列中的一條隊列或多條隊列導出的。在一些實施例中,多條相鄰像素隊列中的每一隊列用於導出多個預測線性模型中的一個預測線性模型。複合線性模型的參數可以通過對多個預測線性模型的參數進行平均來導出。編碼器可以用信號通知多條隊列之一的選擇,並且從所選擇的相鄰像素線導出的預測線性模型被用作複合線性模型。
編碼器將復合線性模型應用(在塊1140)到當前塊的輸入或重構的亮度樣本以生成當前塊的色度預測子。編碼器使用(在塊1150處)色度預測子來對當前塊進行編碼。具體而言,預測的色度樣本用於通過減去傳入的實際色度樣本來產生色度預測殘差。色度預測殘差信號被編碼(變換、幀間/幀內預測等)為位元流。在一些實施例中,編碼器可以在使用色度預測子重構當前塊的色度樣本或編碼當前塊之前對色度預測子進行後處理。在一些實施例中,當前塊的第一區域通過使用色度預測子來編碼並且當前塊的第二區域通過使用幀間預測來編碼。在一些實施例中,編碼器基於當前塊的亮度殘差樣本識別第一和第二區域。 IV. 示例視頻解碼器
在一些實施例中,編碼器可以用信號通知(或生成)位元流中的一個或多個語法元素,使得解碼器可以從位元流中解析所述一個或多個語法元素。
第12圖說明可實施色度預測的實例視頻解碼器1200。如圖所示,視頻解碼器1200是圖像解碼或視頻解碼電路,其接收位元流1295並將位元流的內容解碼成視頻幀的像素資料以供顯示。視頻解碼器1200具有用於解碼位元流1295的若干組件或模塊,包括選自逆量化模塊1211、逆變換模塊1210、幀內預測模塊1225、運動補償模塊1230、環路濾波器1245的一些組件、解碼圖片緩衝器1250、MV緩衝器1265、MV預測模塊1275和解析器1290。運動補償模塊1230是幀間預測模塊1240的一部分。
在一些實施例中,模塊1210-1290是由計算設備的一個或多個處理單元(例如處理器)執行的軟體指令模塊。在一些實施例中,模塊1210-1290是由電子裝置的一個或多個IC實現的硬體電路模塊。儘管模塊1210-1290被示為單獨的模塊,但是一些模塊可以組合成單個模塊。
解析器1290(或熵解碼器)接收位元流1295並根據由視頻編碼或圖像編碼標准定義的語法執行初始解析。解析的語法元素包括各種頭部元素、標誌以及量化資料(或量化係數)1212。解析器1290通過以下方式解析出各種語法元素使用熵編碼技術,例如上下文自適應二進制算術編碼(CABAC)或霍夫曼編碼。
逆量化模塊1211對量化資料(或量化係數)1212進行逆量化得到變換係數,逆變換模塊1210對變換係數1216進行逆變換得到重構殘差信號1219。將重構殘差信號1219與來自幀內預測模塊1225或運動補償模塊1230的預測像素資料1213相加一起產生解碼像素資料1217。解碼像素資料由環內濾波器1245過濾並儲存在解碼圖片緩衝器1250中。如圖所示,在一些實施例中,解碼圖片緩衝器1250是視頻解碼器1200外部的儲存。在一些實施例中,解碼圖片緩衝器1250是視頻解碼器1200內部的儲存。
幀內預測模塊1225從位元流1295接收幀內預測資料,並據此從解碼圖片緩衝器1250中儲存的解碼像素資料1217中生成預測像素資料1213。在一些實施例中,解碼像素資料1217也是儲存在行緩衝器(未示出)中用於幀内預測和空間MV預測。
在一些實施例中,解碼圖片緩衝器1250的內容用於顯示。顯示設備1255或者檢索解碼圖片緩衝器1250的內容以直接顯示,或者檢索解碼圖片緩衝器的內容到顯示緩衝器。在一些實施例中,顯示設備通過像素傳輸從解碼圖片緩衝器1250接收像素值。
運動補償模塊1230根據運動補償MV(MC MV)從儲存在解碼圖片緩衝器1250中的解碼像素資料1217產生預測像素資料1213。通過將從位元流1295接收的殘差運動資料與從MV預測模塊1275接收的預測MV相加來解碼這些運動補償MV。
MV預測模塊1275基於為解碼先前視頻幀而生成的參考MV生成預測MV,例如,用於執行運動補償的運動補償MV。MV預測模塊1275從MV緩衝器1265中檢索先前視頻幀的參考MV。視頻解碼器1200將為解碼當前視頻幀而生成的運動補償MV儲存在MV緩衝器1265中作為用於產生預測MV的參考MV。
環內濾波器1245對解碼像素資料1217執行濾波或平滑操作以減少編碼偽像,特別是在像素塊的邊界處。在一些實施例中,執行的濾波操作包括樣本自適應偏移(SAO)。在一些實施例中,濾波操作包括自適應環路濾波器(ALF)。
第13圖說明實施多模型色度預測的視頻解碼器1200的部分。如圖所示,解碼圖片緩衝器1250將解碼亮度和色度樣本提供給色度預測模塊1310,色度預測模塊1310通過基於亮度樣本預測色度樣本來產生用於顯示或輸出的重構色度樣本1335。
色度預測模塊1310接收解碼像素資料1217,其包括重構亮度樣本1325和色度預測殘差1315。色度預測模塊1310使用重構亮度樣本1325產生預測色度樣本1312。然後混合預測色度樣本1312與色度預測殘差1315以產生重構的色度樣本1335。重構的色度樣本1335隨後被儲存在解碼圖片緩衝器1250中用於顯示以及供後續塊和圖片參考。
複合預測模型1320源自多個不同的預測線性模型1325。在一些實施例中,複合線性模型1320的參數(例如,α和β,或yA和yB)源自多個預測線性模型1325的參數。在一些實施例中,選擇具有最佳邊界相似性度量的預測線性模型1325之一,並且將所選擇的預測線性模型的參數用作複合預測模型的參數。在一些實施例中,多個不同預測線性模型1325的參數被平均成為複合線性模型1320的參數。
多個預測線性模型1325基於從解碼圖片緩衝器1250檢索的解碼亮度和色度樣本1306導出。多個不同的預測線性模型1325可以從不同類型或區域或片段的解碼亮度和色度樣本1306導出,如上文第II-VIII 節所述。例如,在一些實施例中,多個不同的預測線性模型1325可以從相鄰像素的不同隊列導出。在一些實施例中,多個不同的預測線性模型1325可以從當前塊的左邊界和上邊界處的相鄰像素的不同片段導出。在一些實施例中,預測線性模型1325之一可以從多個不同的亮度塊導出。
第14圖概念性地說明用於使用多模型色度預測來解碼像素塊的處理1400。在一些實施例中,實現解碼器900的計算設備的一個或多個處理單元(例如,處理器)通過執行儲存在計算機可讀介質中的指令來執行處理1400。在一些實施例中,實現解碼器900的電子設備執行處理1400。
解碼器接收(在框1410)要解碼為視頻的當前圖片中的當前塊的像素塊的資料。
解碼器基於與當前塊相鄰的亮度和色度樣本導出(在塊1420)多個預測線性模型。在一些實施例中,根據像素大小將像素分為不同的組,並且針對不同的大小組相應地導出多個預測線性模型。在一些實施例中,根據一組分割信息將當前塊的相鄰像素分割成多個片段,多個預測線性模型包括基於多個片段導出的線性模型。解碼器可以在導出多個預測線性模型之前預處理亮度和色度樣本。
在一些實施例中,多個預測線性模型包括基於到當前塊的上邊界或左邊界的距離導出的線性模型。在一些實施例中,在混合模式中,多個預測線性模型是針對當前塊的第一色度分量(例如,Cb)構建的,其中僅一個預測線性模型是針對當前塊的第二色度分量(例如,Cr)構建的。在一些實施例中,多個預測線性模型的參數是基於多個不同的亮度塊導出的。
解碼器基於多個預測線性模型構建(在框1430)複合線性模型。 在一些實施例中,解碼器可以從多個預測線性模型中選擇一個預測線性模型,並將選擇的預測線性模型的參數用作複合線性模型的參數。在一些實施例中,選擇的預測線性模型在多個預測線性模型中具有最好的邊界相似度。預測線性模型的邊界相似性可以通過比較(i)與當前塊相鄰的重構色度樣本和(ii)由基於當前塊的亮度樣本的預測線性模型產生的色度預測子的邊界樣本來計算。
在一些實施例中,當前塊的多條相鄰像素隊列用於提供用於導出複合線性模型的參數的樣本。在一些實施例中,多個預測線性模型中的至少一個預測線性模型是使用相鄰像素的多條隊列中的一條隊列或多條隊列導出的。在一些實施例中,多行相鄰像素中的每一行用於導出多個預測線性模型中的一個預測線性模型。複合線性模型的參數可以通過對多個預測線性模型的參數進行平均來導出。解碼器可以接收對多條隊列之一的選擇,並且從相鄰像素的所選隊列導出的預測線性模型被用作複合線性模型。
解碼器將復合線性模型應用(在框1440)到當前塊的重構亮度樣本以生成當前塊的色度預測子。解碼器通過使用色度預測子重構(在塊1450)當前塊。具體來說,色度預測子與色度預測殘差相加以產生當前塊的重構色度樣本。重構的色度樣本被提供用於顯示和/或存儲以供後續塊和圖片參考。在一些實施例中,解碼器可以在使用色度預測子重構當前塊的色度樣本或編碼當前塊之前對色度預測子進行後處理。在一些實施例中,當前塊的第一區域通過使用色度預測子來解碼並且當前塊的第二區域通過使用幀間預測來解碼。在一些實施例中,編碼器基於當前塊的亮度殘差樣本識別第一和第二區域。
許多上述特徵和應用被實現為軟體處理,這些軟體處理被指定為記錄在計算機可讀儲存介質(也稱為計算機可讀介質)上的一組指令。當這些指令由一個或多個計算或處理單元(例如,一個或多個處理器、處理器核心或其他處理單元)執行時,它們會導致處理單元執行指令中指示的動作。計算機可讀介質的示例包括但不限於CD-ROM、閃存驅動器、隨機存取儲存器(RAM)芯片、硬盤驅動器、可擦除可編程只讀儲存器(EPROM)、電可擦除可編程只讀儲存器 (EEPROM)等。計算機可讀介質不包括無線或通過有線連接傳遞的載波和電子信號。
在本說明書中,術語“軟體”意味著包括駐留在只讀儲存器中的軔體或儲存在磁儲存器中的應用程序,其可以被讀入儲存器以供處理器處理。此外,在一些實施例中,多個軟體發明可以作為較大程序的子部分來實現,同時保留不同的軟體發明。在一些實施例中,多個軟體發明也可以被實現為單獨的程序。最後,一起實現這裡描述的軟體發明的單獨程序的任何組合都在本公開的範圍內。在一些實施例中,當軟體程序被安裝以在一個或多個電子系統上運行時,定義了一個或多個執行和執行軟體程序的操作的特定機器實現。
第15圖概念性地圖示了實現本公開的一些實施例的電子系統1500。電子系統1500可以是計算機(例如台式計算機、個人計算機、平板計算機等)、電話、PDA或任何其他種類的電子設備。這樣的電子系統包括各種類型的計算機可讀介質和用於各種其他類型的計算機可讀介質的接口。電子系統1500包括總線1505、處理單元1510、圖形處理單元(GPU)1515、系統儲存器1520、網絡1525、只讀儲存器1530、永久儲存設備1535、輸入設備1540和輸出設備1545。
總線1505共同表示通信連接電子系統1500的眾多內部設備的所有系統、外圍設備和芯片組總線。例如,總線1505通信連接處理單元1510和GPU1515,只讀儲存器1530、系統儲存器1520和永久儲存設備1535。
從這些不同的儲存器單元,處理單元1510檢索要執行的指令和要處理的資料以便執行本公開的處理。在不同的實施例中,處理單元可以是單處理器或多核處理器。一些指令被傳遞到GPU1515並由其執行。GPU1515可以卸載各種計算或補充由處理單元1510提供的圖像處理。
只讀儲存器(ROM)1530儲存由處理單元1510和電子系統的其他模塊使用的靜態資料和指令。另一方面,永久儲存設備1535是讀寫儲存設備。該設備是即使在電子系統1500關閉時也儲存指令和資料的非易失性儲存單元。本公開的一些實施例使用大容量儲存設備(例如磁盤或光盤及其相應的磁盤驅動器)作為永久儲存設備1535。
其他實施例使用可移動儲存設備(例如軟盤、閃存設備等及其對應的磁盤驅動器)作為永久儲存設備。與永久儲存設備1535一樣,系統儲存器1520是讀寫儲存設備。然而,與儲存設備1535不同,系統儲存器1520是易失性讀寫儲存器,例如隨機存取儲存器。系統儲存器1520儲存處理器在運行時使用的一些指令和資料。在一些實施例中,根據本公開的處理儲存在系統儲存器1520、永久儲存設備1535和/或只讀儲存器1530中。例如,各種儲存器單元包括用於處理多媒體剪輯的指令 與一些實施例。從這些不同的儲存器單元,處理單元1510檢索要執行的指令和要處理的資料以便執行一些實施例的處理。
總線1505還連接到輸入和輸出設備1540和1545。輸入設備1540使用戶能夠向電子系統傳送信息和選擇命令。輸入設備1540包括字母數字鍵盤和d指點設備(也稱為“光標控制設備”)、相機(例如,網絡攝像頭)、麥克風或用於接收語音命令的類似設備等。輸出設備1545顯示由電子系統生成的圖像或以其他方式輸出資料。輸出設備1545包括打印機和顯示設備,例如陰極射線管(CRT)或液晶顯示器(LCD),以及揚聲器或類似的音頻輸出設備。一些實施例包括同時用作輸入和輸出設備的設備,例如觸摸屏。
最後,如第15圖所示,總線1505還通過網絡適配器(未示出)將電子系統1500耦合到網絡1525。以這種方式,計算機可以是計算機網絡的一部分,例如局域網(“LAN”)、廣域網(“WAN”)或內聯網,或網絡網絡。電子系統1500的任何或所有組件可以結合本公開使用。
一些實施例包括電子元件,例如微處理器、儲存器和儲存器,其將計算機程序指令儲存在機器可讀或計算機可讀介質(或者稱為計算機可讀儲存介質、機器可讀介質或機器可讀儲存介質)中。此類計算機可讀介質的一些示例包括RAM、ROM、只讀光盤 (CD-ROM)、可記錄光盤(CD-R)、可重寫光盤 (CD-RW)、只讀數字多功能光盤(例如DVD-ROM,雙層DVD-ROM),各種可刻錄/可重寫DVD(例如,DVD-RAM,DVD-RW,DVD+RW,等等), 閃存(例如,SD卡,mini-SD卡、微型SD 卡等)、磁性和/或固態硬盤驅動器、只讀和可刻錄Blu-Ray® 光盤、超密度光盤、任何其他光學或磁性介質以及軟盤。計算機可讀介質可以儲存可由至少一個處理單元執行並且包括用於執行各種操作的指令集的計算機程序。計算機程序或計算機代碼的示例包括機器代碼,例如由編譯器生成的機器代碼,以及包括由計算機、電子組件或使用解釋器的微處理器執行的高級代碼的文件。
雖然上述討論主要涉及執行軟體的微處理器或多核處理器,但上述許多功能和應用都是由一個或多個集成電路執行的,例如專用集成電路 (ASIC) 或現場可編程門陣列 ( FPGA)。在一些實施例中,這樣的集成電路執行儲存在電路本身上的指令。此外,一些實施例執行儲存在可編程邏輯設備(PLD)、ROM或RAM設備中的軟體。
如本說明書和本申請的任何請求項中所用,術語“計算機”、“服務器”、“處理器”和“儲存器”均指電子或其他技術設備。 這些術語不包括人或人群。出於說明書的目的,術語顯示或顯示表示在電子設備上顯示。如本說明書和本申請的任何請求項中所使用,術語“計算機可讀介質”、“計算機可讀介質”和“機器可讀介質”完全限於以可讀形式儲存信息的有形物理對象。這些術語不包括任何無線信號、有線下載信號和任何其他臨時信號。
儘管已經參考許多具體細節描述了本公開,但是本領域的普通技術人員將認識到,在不脫離本公開的精神的情況下,可以以其他具體形式來實施本公開。此外,多個附圖(包括第12圖和第14圖)概念性地說明了處理。這些處理的特定操作可能不會按照所示和描述的確切順序執行。具體操作可以不在一個連續的系列操作中執行,並且可以在不同的實施例中執行不同的具體操作。此外,該處理可以使用多個子處理或作為更大的宏處理的一部分來實現。因此,本領域的普通技術人員將理解本公開不受前述說明性細節的限制,而是由所附請求項限定。 補充筆記
此處描述的主題有時說明包含在不同的其他組件內或與不同的其他組件連接的不同組件。應當理解,這樣描繪的架構僅僅是示例,並且實際上可以實現實現相同功能的許多其他架構。從概念上講,實現相同功能的組件的任何佈置都被有效地“關聯”,從而實現了所需的功能。因此,本文中的任何兩個組件組合以實現無論架構或中間組件如何,都可以將特定功能視為彼此“關聯”,從而實現所需的功能。同樣,如此關聯的任何兩個組件也可被視為彼此“可操作地連接”或“可操作地耦合”以實現期望的功能,並且能夠如此關聯的任何兩個組件也可被視為“可操作地連接” 耦合”,彼此實現所需的功能。可操作地耦合的具體示例包括但不限於物理上可配合和/或物理上交互的組件和/或無線上可交互和/或無線上交互的組件和/或邏輯上交互和/或邏輯上可交互的組件。
此外,關於本文中基本上任何復數和/或單數術語的使用,本領域技術人員可以根據上下文和/或從復數翻譯成單數和/或從單數翻譯成複數。 應用。為了清楚起見,可以在本文中明確地闡述各種單數/複數排列。
此外,本領域技術人員將理解,一般而言,本文使用的術語,尤其是所附請求項中使用的術語,例如所附請求項的主體,通常意在作為“開放”術語,例如,術語“包含”應解釋為“包括但不限於”、“具有”應解釋為“至少有”。本領域的技術人員將進一步理解,如果意圖引入特定數量的請求項陳述,則該意圖將在請求項中明確地陳述,並且在沒有該陳述的情況下不存在該意圖。例如,為了幫助理解,以下所附請求項可能包含使用介紹性短語“至少一個”和“一個或多個”來介紹請求項的敘述。然而,使用此類短語不應被解釋為暗示通過不定冠詞“一”或“一個”引入的請求項將包含此類引入的請求項的任何特定請求項限制為僅包含一個此類陳述的實現,即使當同一請求項包括介紹性短語“一個或多個”或“至少一個”和不定冠詞如“一個”,應解釋為“至少一個”或“一個或多個”。這同樣適用於使用定冠詞來引入索賠陳述。此外,即使明確引用了引入的請求項記載的具體數目,本領域技術人員將認識到,這種記載應被解釋為至少表示引用的數目,例如,“兩次迭代”的引用,而不包含其他修飾語,表示至少兩次迭代,或者兩次或更多次迭代。此外,在那些約定使用類似於“A、B和C等中的至少一個”的情況下,一般來說,這樣的結構意在本領域技術人員會理解約定的意義上,例如,“具有A、B和C中的至少一個的系統”將包括但不限於這樣的系統:單獨有A,單獨有B,單獨有C,A和B在一起,A和C在一起,B和C 在一起,和/或A、B和C在一起,等等。在那些使用類似於“至少一個A、B或C”的情況下,通常這樣的結構意在本領域技術人員理解約定的意義上,例如,“具有A、B或C中的至少一個的系統”將包括但不限於系統:具有單獨的A、單獨的B、單獨的C、A和B在一起、A和C在一起、B和C在一起和/或A、B和C在一起等。本領域技術人員將進一步理解實際上,無論是在說明書、請求項書還是附圖中,任何出現兩個或更多替代術語的分離詞和/或短語都應該被理解為考慮包括一個術語、一個術語或兩個術語的可能性。例如,短語“A或 B”將被理解為包括“A”或“B”或“A和B”的可能性。
從上文中可以理解,為了說明的目的,本文已經描述了本公開的各種實施方式,並且在不脫離本公開的範圍和精神的情況下可以進行各種修改。因此,本文公開的各種實施方式並非旨在限制,真正的範圍和精神由所附請求項指示。
110:複合線性模型 100、200、300、400、500、600、700、800:當前塊 101:亮度樣本 102:色度樣本 111-113:線性模型 130:色度預測子 132:色度預測殘差 140:頂部重構相鄰像素 150:左側重構相鄰像素 215:第一線性模型 225:第二線性模型 222、212:內部像素 220、210:相鄰區域 320、420:左側相鄰 310、410:頂部相鄰 330:像素樣本 410:亮度樣本 411:第一色度預測 421:第一CCLM模型(模型A) 422:第二CCLM模型(模型B) 412:第二色度預測 511、512、513:隊列 520、529:CCLM模型 521-523、621、622:線性模型 611-614:重構相鄰像素 710:背景 720:前景對象 730:L形相鄰像素 740:分段信息 731、732:分段 741:第一LM模型 742:第二LM模型 805:當前圖片 815:參考圖片 810:參考像素 822:左區域 824:右區域 826:子區域 900:視頻編碼器 905:視頻源 995、1295:位元流 910:變換模塊 911:量化模塊 914、1211:逆量化模塊 915、1210:逆變換模塊 920:幀內估計模塊 925、1225:幀內預測模塊 930、1230:運動補償模塊 935:運動估計模塊 945、1245:環路濾波器 950:重構圖片緩衝器 965、1265:MV緩衝器 975:MV預測模塊 990:熵編碼器 913:預測像素資料 908:殘差信號 912、1212:量化係數 919:重構殘差 913:預測像素資料 917:重構像素資料 1002:輸入亮度樣本 1012:色度預測 1004:輸入色度樣本 1006:重構亮度和色度樣本 1015:色度預測殘差 1010:色度預測模塊 1020:複合預測模型 1025:LM預測模型 1100、1300:處理 1110-1150、1410-1450:步驟 1200:視頻解碼器 1250:解碼圖片緩衝器 1275:MV預測模塊 1290:解析器 1240:幀間預測模塊 1216:變換係數 1219:重構殘差信號 1213:預測像素資料 1217:解碼像素資料 1310:色度預測模塊 1335:重構色度樣本 1325:重構亮度樣本 1315:色度預測殘差 1312:預測色度樣本 1320:複合預測模型 1330:權重因子 1345:預測線性模型 1306:解碼色度+亮度樣本 1500:電子系統 1505:總線 1510:處理單元 1515:圖形處理單元(GPU) 1520:系統儲存器 1525:網絡 1530:只讀儲存器 1335:永久儲存設備 1540:輸入設備 1545:輸出設備
所包含的附圖是為了提供對本公開的進一步理解,並且併入並構成本公開的一部分。附圖圖示了本公開的實施方式,並且與描述一起用於解釋本公開的原理。值得注意的是,附圖不一定是按比例繪製的,因為為了清楚地說明本公開的概念,一些組件可能被示出為與實際實施中的尺寸不成比例。 第1圖概念性地說明了視頻編碼器中的多模型CCLM預測。 第2圖說明了使用為不同區域組導出的多個模型。 第3圖概念性地說明了線性組合CCLM模型的推導。 第4圖說明了基於邊界處的相似性從多個模型中選擇最佳CCLM預測模型。 第5A-C圖圖示了使用多行相鄰像素來導出用於CCLM預測的線性模型。 第6圖概念性地說明了基於像素大小為CCLM分類像素。 第7圖從概念上說明了基於分段的LM模式。 第8圖概念性地圖示了由於遮擋而被編碼為部分幀間和部分幀內的像素塊。 第9圖說明可實施多模型色度預測的實例視頻編碼器。 第10圖解說了實現多模型色度預測的視頻編碼器的部分。 第11圖概念性地說明使用多模型色度預測來編碼像素塊的處理。 第12圖說明可實施多模型色度預測的實例視頻解碼器。 第13圖說明實施多模型色度預測的視頻解碼器的部分。 第14圖概念性地說明使用多模型色度預測來解碼像素塊的處理。 第15圖概念性地圖示了實現本公開的一些實施例的電子系統。
1410-1450:步驟

Claims (19)

  1. 一種視頻編解碼方法,包括: 接收作為視頻的當前圖片的當前塊的待編碼或解碼的像素塊的資料; 基於與所述當前塊相鄰的亮度和色度樣本導出多個預測線性模型; 基於所述多個預測線性模型構建複合線性模型; 將所述復合線性模型應用於所述當前塊的輸入或重構亮度樣本以生成所述當前塊的色度預測子;以及 使用所述色度預測子重構所述當前塊的色度樣本或對所述當前塊進行編碼。
  2. 如請求項1所述的視頻編碼方法,還包括: 從所述多個預測線性模型中選擇一個預測線性模型;以及 基於所選擇的預測線性模型導出複合線性模型的參數。
  3. 如請求項2所述的視頻編碼方法,其中,所選擇的預測線性模型在所述多個預測線性模型中具有最佳邊界相似度,其中預測線性模型的邊界相似度是通過比較以下兩項來計算的:(i)所述當前塊的相鄰重構色度樣本和(ii)基於所述當前塊的重構亮度樣本的,由預測線性模型產生的色度預測子的邊界樣本。
  4. 如請求項1所述的視頻編碼方法,其中,所述當前塊的多條相鄰像素隊列用於提供用於推導所述複合線性模型的參數的樣本。
  5. 如請求項4所述的視頻編碼方法,其中使用相鄰像素的多隊列中的一隊列或多隊列導出所述多個預測線性模型中的至少一個預測線性模型。
  6. 如請求項4所述的視頻編碼方法,其中,所述多條相鄰像素隊列中的每一隊列用於導出所述多個預測線性模型中的一個預測線性模型。
  7. 如請求項6所述的視頻編碼方法,其中,通過對所述多個預測線性模型的參數進行平均來導出複合線性模型的參數。
  8. 如請求項6所述的視頻編碼方法,還包括發信號通知或接收對多條隊列之一的選擇,其中從所選擇的相鄰像素隊列導出的預測線性模型被用作複合線性模型。
  9. 如請求項1所述的視頻編碼方法,其中,根據像素大小將像素分為不同的組,其中針對不同的大小組相應地導出所述多個預測線性模型。
  10. 如請求項1所述的視頻編碼方法,其中,根據一組分割信息將所述當前塊的相鄰像素分割成多個段,所述多個預測線性模型包括基於所述多個段得到的線性模型。
  11. 如請求項10所述的視頻編碼方法,其中,所述多個預測線性模型包括基於到所述當前塊的上邊界或左邊界的距離導出的線性模型。
  12. 如請求項1所述的視頻編碼方法,其中,為所述當前塊的第一色度分量構建多個預測線性模型,其中為所述當前塊的第二色度分量僅構建一個預測線性模型。
  13. 如請求項1所述的視頻編碼方法,其中,所述多個預測線性模型的參數是基於多個亮度塊導出的。
  14. 如請求項1所述的視頻編碼方法,其中,與所述當前塊相鄰的亮度和色度樣本屬於多個不同的相鄰像素段,其中不同的預測線性模型是從不同的相鄰像素段的亮度和色度樣本導出的。
  15. 如請求項1所述的視頻編碼方法,還包括: 在導出多個預測線性模型之前預處理亮度和色度樣本;以及 在使用色度預測子重構所述當前塊的色度樣本或編碼所述當前塊之前對色度預測子進行後處理。
  16. 如請求項1所述的視頻編碼方法,其中所述當前塊包括第一區域和第二區域,其中所述第一區域通過使用色度預測子編碼並且所述第二區域通過使用幀間預測編碼,其中基於所述當前塊的亮度殘差樣本識別所述第一和第二區域。
  17. 一種電子設備,包括: 一種視頻編解碼電路,被配置為執行操作,包括: 接收作為視頻的當前圖片的當前塊的待編碼或解碼的像素塊的資料; 基於與所述當前塊相鄰的亮度和色度樣本導出多個預測線性模型; 基於所述多個預測線性模型構建複合線性模型,其中復合線性模型的參數源自所述多個預測線性模型的參數; 將所述復合線性模型應用於所述當前塊的輸入或重構亮度樣本以生成所述當前塊的色度預測子;以及 使用所述色度預測子重構所述當前塊的色度樣本或對所述當前塊進行編碼。
  18. 一種視頻編碼方法,包括: 接收要被編碼為視頻的當前圖片的當前塊的像素塊的資料; 基於與所述當前塊相鄰的亮度和色度樣本導出多個預測線性模型; 基於所述多個預測線性模型構建複合線性模型,其中所述復合線性模型的參數由多個預測線性模型的參數導出; 將所述復合線性模型應用於所述當前塊的輸入或重構亮度樣本以生成所述當前塊的色度預測子;以及 使用所述色度預測子對所述當前塊進行編碼。
  19. 一種視頻解碼方法,包括: 接收作為視頻的當前圖片的當前塊的待解碼像素塊的資料; 基於與所述當前塊相鄰的亮度和色度樣本導出多個預測線性模型; 基於所述多個預測線性模型構建複合線性模型,其中所述復合線性模型的參數由所述多個預測線性模型的參數導出; 將所述復合線性模型應用於所述當前塊的重構亮度樣本以生成所述當前塊的色度預測子;以及 使用所述色度預測子重構當前塊的色度樣本。
TW111150575A 2021-12-29 2022-12-29 跨分量線性模型預測 TW202335497A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163294429P 2021-12-29 2021-12-29
US63/294,429 2021-12-29
WOPCT/CN2022/143254 2022-12-29
PCT/CN2022/143254 WO2023125771A1 (en) 2021-12-29 2022-12-29 Cross-component linear model prediction

Publications (1)

Publication Number Publication Date
TW202335497A true TW202335497A (zh) 2023-09-01

Family

ID=86998119

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111150575A TW202335497A (zh) 2021-12-29 2022-12-29 跨分量線性模型預測

Country Status (2)

Country Link
TW (1) TW202335497A (zh)
WO (1) WO2023125771A1 (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2805496B1 (en) * 2012-01-19 2016-12-21 Huawei Technologies Co., Ltd. Reference pixel reduction for intra lm prediction
WO2019031703A1 (ko) * 2017-08-09 2019-02-14 엘지전자 주식회사 영상 코딩 시스템에서 선형 모델에 따른 영상 디코딩 방법 및 장치
CN110858903B (zh) * 2018-08-22 2022-07-12 华为技术有限公司 色度块预测方法及装置
CN116320454A (zh) * 2019-01-03 2023-06-23 华为技术有限公司 色度块的预测方法和装置

Also Published As

Publication number Publication date
WO2023125771A1 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
US11979600B2 (en) Encoder-side search ranges having horizontal bias or vertical bias
US10887594B2 (en) Entropy coding of coding units in image and video data
TW202044834A (zh) 用於處理視訊內容的方法及系統
TW201946470A (zh) 用於照度補償的信令
TWI792074B (zh) 發信圖像以及視訊的塊分割
US11778235B2 (en) Signaling coding of transform-skipped blocks
CN110999295B (zh) 边界强制分区的改进
TWI785502B (zh) 在分塊中指明切片之切片組塊的視訊編解碼方法及電子裝置
TWI722465B (zh) 子塊的邊界增強
US20190320204A1 (en) Adaptive Implicit Transform Setting
TWI821103B (zh) 在視訊編解碼系統中使用邊界匹配進行重疊塊運動補償的方法和裝置
CN118044184A (zh) 用于执行组合帧间预测和帧内预测的方法和系统
CN117837145A (zh) 使用模板匹配细化候选选择
TW202335497A (zh) 跨分量線性模型預測
TWI826079B (zh) 視訊編解碼方法及裝置
WO2023208131A1 (en) Efficient geometric partitioning mode video coding
WO2023131299A1 (en) Signaling for transform coding
TW202335499A (zh) 多模型跨分量線性模型預測
WO2023174426A1 (en) Geometric partitioning mode and merge candidate reordering
WO2023197998A1 (en) Extended block partition types for video coding
TW202404354A (zh) 利用卷積模型的預測改進
TW202349957A (zh) 基於模板的幀內模式推導和預測
TW202406350A (zh) 統一的交叉分量模型推導
TW202406334A (zh) 電子設備和視訊編解碼的方法
TW202349952A (zh) 視訊編解碼方法及其裝置