TWI734501B - 視訊編解碼的方法和裝置 - Google Patents

視訊編解碼的方法和裝置 Download PDF

Info

Publication number
TWI734501B
TWI734501B TW109118139A TW109118139A TWI734501B TW I734501 B TWI734501 B TW I734501B TW 109118139 A TW109118139 A TW 109118139A TW 109118139 A TW109118139 A TW 109118139A TW I734501 B TWI734501 B TW I734501B
Authority
TW
Taiwan
Prior art keywords
mapping
segment
segments
pivot point
signal domain
Prior art date
Application number
TW109118139A
Other languages
English (en)
Other versions
TW202046732A (zh
Inventor
林芷儀
莊子德
陳慶曄
徐志瑋
Original Assignee
聯發科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 聯發科技股份有限公司 filed Critical 聯發科技股份有限公司
Publication of TW202046732A publication Critical patent/TW202046732A/zh
Application granted granted Critical
Publication of TWI734501B publication Critical patent/TWI734501B/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

公開了一種視訊編解碼的方法和裝置。分段線性映射(piece-wise liear mapping)被導出以將目標亮度樣本從第一訊號域映射到第二訊號域,反之亦然。分段線性映射過程包括確定第一樞軸點,以使用分段線性映射來執行亮度樣本的視訊編碼或解碼。第一樞軸點被確定,使得:如果與第二訊號域中的一第一樞軸點相對應的目標映射樞軸點具有目標間隔值的倍數,則目標映射樞軸點和下一映射樞軸點被允許位於同一第二段中;否則,目標映射樞軸點和下一映射樞軸點不被允許位於該同一第二段中。

Description

視訊編解碼的方法和裝置
本發明涉及用於彩色視訊資料的視訊編解碼,其中亮度映射被應用於亮度分量。更具體的是,本發明公開了簡化逆亮度映射的推導的技術。
多功能視訊編解碼(Versatile Video Coding,簡稱VVC)是由聯合視訊專家組(Joint Video Experts Team,簡稱JVET)開發的新興視訊編解碼標準,該聯合視訊專家組由國際電訊聯盟電訊標準分局(ITU Telecommunication Standardization Sector,簡稱ITU-T)第16研究組視訊編解碼專家組和ISO/IEC JTC1 SC29/WG11(運動圖像專家組(Moving Picture Experts Group,簡稱MPEG)組成。VVC基於高效率視訊編解碼(High Efficiency Video Coding,簡稱HEVC)視訊標準,具有改進的和新的編解碼工具。例如,重塑過程(reshaping process)是VTM-4.0(VVC測試模型4.0版)中採用的新編解碼工具。重塑過程也被稱為亮度映射和色度縮放(Luma Mapping and Chroma Scaling,簡稱LMCS)。當重塑被應用時,在環路濾波之前視訊樣本在重塑域中進行編解碼和重構。藉由使用逆重塑,重塑的域重構的樣本被轉換為原始域。經環路濾波的原始域重構樣本被存儲在解碼圖像緩衝區中。對於幀間模式,藉由使用正向重塑,運動補償(motion compensated,簡稱MC)預測子被轉換為重塑域。第1圖示出了在解碼器側的重塑過程的示例。
如第1圖所示,位元流由上下文自我調整二進位算術編解碼 (context-adaptive binary arithmetic coding,簡稱CABAC)解碼器(即CABAC-1),逆量化(即Q-1)和逆變換(T-1)處理得出重構的亮度殘差Yres。重構的亮度殘差被提供給亮度重構塊120以生成重構的亮度訊號。對於幀內模式,預測子來自幀內預測塊130。對於幀間模式,預測子來自運動補償塊140。由於重塑被應用於編碼器側的亮度訊號,因此正向重塑塊150被應用於預測子。在預測子被提供給重構塊120之前,正向重塑塊150被提供給來自運動補償塊140的預測子。逆重塑塊160被應用於來自重構塊120的重構的亮度訊號以恢復未重塑的重構亮度訊號。然後,在該訊號被存儲在解碼圖像緩衝區(decoed picture buffer,簡稱DPB)180中之前,環路濾波器170被應用於未重塑的重構亮度訊號。
當重塑被應用時,色度殘差縮放也被應用。色度殘差縮放可補償亮度訊號與色度訊號的相互作用,如第2圖所示。在第2圖中,上部對應於亮度解碼,下部對應於色度解碼。
根據以下分別在編碼器端和解碼器端的公式,色度殘差縮放在TU級別被應用:編碼器端:CResScale=CRes*CScale=CRes/CScaleInv (1)
解碼器端:CRes=CResScale/CScale=CResScale*CScaleInv (2)
在以上公式中,CRes是原始色度殘差訊號,CResScale是縮放的色度殘差訊號。CScale是用於幀間模式預測子的使用FwdLUT(即,正向查閱資料表)計算的縮放因數,並且被轉換為其倒數CScaleInv以在解碼器側執行乘法而不是除法,從而降低了實現複雜度。編碼器和解碼器端的縮放操作均藉由定點整數演算法經由以下公式實現:c’=sign(c)*((abs(c)*s+2CSCALE_FP_PREC-1)>>CSCALE_FP_PREC) (3)
在以上公式中,c是色度殘差,s是cScaleInv[pieceIdx]中的色度殘差縮放因數,pieceIdx由TU的相應平均亮度值確定,CSCALE_FP_PREC是用 於指定精度的常數。為了得出比例因數,整個TU的預測子被使用。CScaleInv的值是按照以下步驟計算的:
(1)如果是幀內模式,则計算幀內預測亮度值的平均值;如果是幀間模式,则计算正向重塑的幀間预测亮度值的平均值。換句話說,平均亮度值avgY'TU在重塑域中被計算。
(2)尋找索引idx,其中avgY'TU屬於逆映射PWL。
(3)C ScaleInv =cScaleInv[idx]
導出色度縮放因數C ScaleInv 的步驟由第2圖中的塊210執行。導出的色度縮放因數C ScaleInv 被用於轉換縮放的色度殘差,該色度殘差藉由CABAC解碼(即,CABAC-1),逆量化(即Q-1)和逆變換(T-1)來重構。藉由將預測子添加到重構的色度殘差,重構塊220重構色度訊號。對於幀內模式,預測子來自幀內預測塊230。對於幀間模式,預測子來自運動補償塊240。然後,在訊號被存儲在色度DPB280中之前,環路濾波器270被應用於重構的色度訊號。
第3圖示出了亮度映射的示例。在第3A圖中,示出了1:1的映射,其中輸出(即,重塑的亮度)與輸入相同。由於亮度樣本的直方圖通常不是平坦的,因此使用強度重塑可利於提高速率失真優化(rate-distortion optimizaiton,簡稱RDO)意義上的性能。對圖像區域(例如圖像)計算亮度樣本的統計量。然後根據統計映射曲線被確定。通常,分段線性(piece-wise linear,簡稱PWL)映射曲線被使用。第3B圖示出了具有3個段(segment)的PWL映射的示例,其中兩個相鄰段具有不同的斜率。虛線340對應於1:1映射。如果從0到340範圍內的樣本具有較大的空間方差(spatial variance)並且出現的次數數量較小,則輸入範圍0-340被映射到較小的輸出範圍(即0-170),如第3B圖的段310所示。如果從340到680範圍內的樣本具有較小的空間方差並且出現次數數量較大,則輸入範圍340-680被映射到較大的輸出範圍(即170-850),如第3B圖的段320所示。如 果從680到1023範圍內的樣本具有較大的空間方差並且出現的次數較小,則輸入範圍680-1023被映射到較小的輸出範圍(即850-1023),如第3B圖的段330所示。第3B圖旨在示出簡單的PWL映射。實際上,PWL映射可具有更多或更少的段。
幀內子塊劃分(Intra sub-block partition,簡稱ISP)和子塊變換(sub-block transform,簡稱SBT)
為了生成更好的幀內模式預測子,ISP被應用。當ISP被應用時,亮度分量被分為多個子TB。子TB一個接一個地被重構。對於每個子TU,相鄰子TB的重構樣本可被用作幀內預測的相鄰重構樣本。對於色度分量TB,不會像亮度那樣被分為多個子TB。
類似於ISP,SBT可被應用於幀間模式。當SBT被應用時,僅部分CU資料被轉換。例如,藉由水平分割或垂直分割當前塊被分為兩個分區。分區中只有一個可被用於變換編解碼。另一個分區的殘差被設置為零。例如,CU被分為兩個TU或四個TU。TU中只有一個具有非零係數。
LMCS參數的發送
表1中顯示了VVC正在考慮的LMCS參數的語法表。
Figure 109118139-A0305-02-0006-1
Figure 109118139-A0305-02-0007-3
在以上語法表中,語法的語義定義如下:lmcs_min_bin_idx指定亮度映射的PWL(分段線性)模型的最小bin索引,lmcs_delta_max_bin_idx指定介於15和lmcs中使用的最大bin索引LmesMaxBinIdx之間的delta值。該值應在1到15之間(包括1和15)。
lmcs_delta_cw_prec_minus1加1是用於表示lmcs_delta_abs_cw[i]語法的位元數。
lmcs_delta_abs_cw[i]是第i個bin的絕對delta碼字值。
lmcs_delta_sign_cw_flag[i]是變數lmcsDeltaCW[i]的符號。
變數lmcsDeltaCW[i]如以下導出:lmcsDeltaCW[i]=(1-2*lmcs_delta_sign_cw_flag[i])*lmcs_delta_abs_cw[i]。
i=0...15的變數lmcsCW[i]指定映射域中每個間隔的碼字數量,其可如以下導出:
-OrgCW=(1<<BitDepthY)/16
-對於i=0...lmcs_min_bin_idx-1,lmcsCW[i]被設置為等於0。
-對於i=lmcs_min_bin_idx...LmcsMaxBinIdx,以下應用:
-lmcsCW[i]=OrgCW+lmcsDeltaCW[i]
-lmcsCW[i]的值應在(OrgCW>>3)到(OrgCW<<3-1)之間(包括(OrgCW>>3)和(OrgCW<<3-1))。
-對於i=LmcaMaxBinIdx+1...15,lmcsCW[i]被設置為等於0。
為了表示重塑曲線的PWL模型,三個變數:i=0...16的LmcsPivot[i],i=0...15的ScaleCoeff[i]以及i=0...15的InvScalcCoeff[i]可推導如下:
Figure 109118139-A0305-02-0008-4
在以上推導中,SCALE_FP_PREC是用於指定精度的常數值。
在傳統的LMCS過程中,逆亮度映射(例如,將待映射的亮度樣本與多個閾值進行比較)相當耗時。因此,期望開發簡化逆映射過程的技術。
本發明公開了一種視訊編解碼的方法和裝置。根據本發明的一種方法,多個第一段被確定,其中將與第一訊號域中的亮度樣本相對應的亮度樣本範圍劃分為多個第一段,每個第一段對應將亮度樣本從第一訊號域映射到第 二訊號域一線段。另外,多個第二段被確定,其中與第二訊號域中的亮度樣本相對應的亮度樣本範圍被劃分為多個第二段,並且所有第二段具有等於目標間隔值的相同大小。一個或多個第一樞軸點被確定或導出,其中每個第一樞軸點與一個第一段相關聯,並且其中所述一個或多個第一樞軸點被確定或導出,使得:如果與第二訊號域中的一第一樞軸點相對應的目標映射樞軸點具有目標間隔值的倍數,目標映射樞軸點和下一映射樞軸點被允許位於同一第二段中;否則,目標映射的樞軸點和下一映射的樞軸點不被允許位於同一第二段中。分段線性映射被用來執行亮度樣本的視訊編碼或解碼,以將目標亮度樣本從第一訊號域映射到第二訊號域,或者從第二訊號域映射到第一訊號域。
在一實施例中,分段線性映射與多個第一段,多個第二段以及所述一個或多個第一樞軸點相關聯。
在一實施例中,所有的第一段具有相同的第一間隔值。例如,第一間隔值對應於2到第一預定義(pre-defined)數的冪,並且第一預定義(pre-defined)數是整數。此外,第一預定義數可等於(bitDepth-4),並且bitDepth代表亮度樣本的位元深度。
在一實施例中,目標間隔值對應於2到第二預定義(pre-defined)數的冪,並且第二預定義(pre-defined)數是整數。例如,第二預定義數等於(bitDepth-5),並且bitDepth表示亮度樣本的位元深度。
在一實施例中,每個第二段具有至多兩個映射的樞軸點。在一實施例中,亮度樣本範圍等於0至1023(包括0和1023),並且目標間隔值等於32。
110:CABAC-1
120:重構塊
130:幀內預測塊
140:運動補償塊
150:正向重塑塊
160:逆重塑塊
170:LF
180:DPB
210:塊
220:重構塊
230:幀內預測塊
240:運動補償塊
250:色度殘差縮放塊
270:LF
280:DPB
410、420、430、440:步驟
第1圖示出結合了亮度重塑過程的視訊解碼器的示例性框圖。
第3A圖示出1:1亮度映射的示例,其中輸出(即重塑的亮度)與輸入相同。
第3B圖示出具有3段的分段線性(PWL)亮度映射的示例。
第4圖示出根據本發明實施例的用於確定或導出逆亮度映射的樞軸點的示例性編解碼系統的流程圖。
以下描述是實施本發明的最佳構思模式。進行該描述是為了說明本發明的一般原理,而不應被認為是限制性的。本發明的範圍最好藉由參考所附的申請專利範圍來確定。
LMCS將原始域中的亮度樣本映射到重塑域中以進行更好的資料估計。映射曲線由分段線性模型來估算。要將樣本值從原始域轉換為重塑域,查閱資料表(look-up-table,簡稱LUT)被使用。LUT的條目號與輸入樣本動態範圍相同。例如,如果10位元輸入被使用,則1024條目的LUT被使用。如果14位元輸入被使用,則8192條目的LUT被使用。在硬體實現中,此種LUT成本昂貴。因此,分段線性模型可被使用。輸入可與每個片段進行比較,以找出輸入屬於哪個片段。在每個片段中,相應的輸出值可根據該片段的特性計算。
方法1-具有默認數量的碼字的LMCS
在一實施例中,映射域中每個bin的碼字數量(例如lmcsCW[i])使用默認數量的碼字而不是使用OrgCW來導出,僅取決於輸入資料的位元深度。
在所提出的方法中,i=lmcs_min_bin_idx到LmcsMaxBinIdx的變數lmcsCW[i]可根據如下推導:lmesCW[i]=default_CW+lmesDeltaCW[i],在以上公式中,default_CW在解碼器側導出或從編碼器側發送。
在一實施例中,如果default_CW是在解碼器側導出的,則它可根 據lmcs_min_bin_idx和LmcsMaxBinIdx導出。如果小於lmcs_min_bin_idx的bin數量和大於LmcsMaxBinIdx的bin數量之和較大,則default_CW可被調整為大於OrgCW的值。
例如,如果小於lmcs_min_bin_idx的bin數量與大於LmcsMaxBinIdx的bin數量之和等於2,則default_CW導出為default_CW=OrgCW+A,其中A為正整數(例如1,2、3...)。
如果小於lmcs_min_bin_idx的bin數量與大於LmcsMaxBinIdx的bin數量之和等於0,則default_CW等於OrgCW。
在一實施例中,如果default_CW被發送,則在lmcs_delta_cw_prec_minus1之前,兩種語法default_delta_abs_CW和default_delta_sign_CW_flag被發送。
變數default_delta_abs_CW表示default_CW和OrgCW的絕對差,變數default_delta_sign_CW_flag表示增量值是正還是負。僅當default_delta_abs_CW大於0時,default_delta_sign_CW_flag才被發出。
在一實施例中,如果defaultCW被發送,則在lmcs_delta_cw_prec_minus1之後,語法default_delta_CW被發送。
在一實施例中,如果default_CW被發送,則在語法default_delta_CW之前,另一種語法lmcs_delta_default_cw_prec_minus1被發送,指示語法default_delta_CW需要多少個bin。
變數default_delta_CW表示default_CW與OrgCW之間的差值。
方法2-簡化的逆映射
對於亮度映射,變數InputPivot[i]被定義,其中InputPivot[i]代表輸入亮度樣本的樞軸點。i=0...16的變數InputPivot[i]的可推導如下:InputPivot[i]=i*OrgCW。
在原始設計中,逆縮放值存儲在具有16個條目的表中,並且每個條目對應於PWL映射的每個片段(piece)。因此,在進行逆映射時,為了知道待映射亮度樣本所屬的片段,待映射的亮度樣本需要與重塑域中所有片段的樞軸進行比較,以查找待映射的亮度樣本所屬的片段。對於每個待映射的亮度樣本,此過程最多需要15個比較,並且推導如下。
Figure 109118139-A0305-02-0012-5
在上述推導中,lumaSample是待映射亮度樣本,i=0...16的LmcsPivot[i]是重塑域中每個片段的樞軸,lmcs_min_bin_idx是亮度映射中使用的最小bin索引,LmcsMaxBinIdx是亮度映射中使用的最大bin索引,而idxYInv是亮度樣本lumaSample所屬的片段。
方法2.1:重構逆重塑曲線
為了簡化逆映射過程,提出了根據發送的正向映射曲線來重構逆映射曲線。重塑域中的亮度樣本被分成大小等於(1<<LOG2_INVERSE_INTERVAL)的片段,並且每個片段都有自己的逆縮放值和逆 輸入樞軸。每塊的逆縮放值使用大小等於((1<<bitDepth)>>LOG2_INVERSE_INTERVAL)的表來實現,其中bitDepth是內部位元深度。當查找待映射的亮度樣本所屬的片段時,我們只需要將待映射的亮度樣本右移LOG2_INVERSE_INTERVAL(即log2(INVERSE_INTERVAL)),然後片段的索引和逆輸入樞軸可被導出,因此逆縮放值和逆輸入樞軸可被找到。
藉由將第一逆亮度樣本和最後逆亮度樣本之差除以重塑域中的間隔大小,重塑域中每個間隔的逆縮放值被導出。
在一示例中,藉由以下步驟,逆縮放值表被構建:
步驟1. 根據發送的LMCS資料導出正向縮放值
為了表示重塑曲綫的PWL模型,三個變數:i=0...16的LmcsPivot[i],i=0...15的ScaleCoeff[i]以及i=0...15的InvScaleCoeff_tmp[i]可推導如下:
Figure 109118139-A0305-02-0013-6
步驟2.查找逆映射樞軸值
對於等於(1<<LOG2_INVERSE_INTERVAL)的0到(1<<BitDepth)-1範圍內(包括0和(1<<BitDepth)-1)的倍數的亮度樣本,變數InputPivot_inv[i>>LOG2_INVERSE_INTERVAL]可推導如下:
Figure 109118139-A0305-02-0014-7
在以上公式中,藉由將lumaSample設置為i,idxYInv被導出,然後遵循以下過程:
Figure 109118139-A0305-02-0014-8
Figure 109118139-A0305-02-0015-9
步驟3.導出每個片段的逆縮放值
對於索引等於i(i=0...(LmcsPivot[LmcsMaxBinIdx+1]>>LOG2_INVEESE_INTERVAL))的片段:
Figure 109118139-A0305-02-0015-11
在另一實施例中,對於索引等於i(i=0...(((1<<bitDepth)-1)>>LOG2_INVERSE_INTERVAL)-1)的片段:InvScaleCoeff[i]=(InputPivot_inv[i+1]-InputPivot_inv[i])*(1<<SCALE_FP_PREC)/(1<<LOG2_INVERSE_INTERVAL)
逆映射
對於逆映射,變數idxYInv由(lumaSample>> LOG2_INVERSE_INTERVAL)導出,其中lumaSample是待映射的亮度樣本。換句話說,idxYInv是藉由將lumaSample右移LOG2_INVERSE_INTERVAL位元而得出的。變數invSample推導如下:invSample=InputPivot_inv[idxYInv]+(InvScaleCoeff[idxYInv]*(lumaSample-(idxYInv<<LOG2_INVERSE_INTERVAL))+(1<<(SCALE_FP_PREC-1)))>>SCALE_FP_PREC
逆映射的色度樣本invLumaSample推導如下:invLumaSample=Clip1(invSample)。
在上式中,Clip1(x)=Clip3(0,(1<<BitDepth)-1,x),其中BitDepth是基礎數據x的位元深度。Clip3(x,y,z)被定義為:
Figure 109118139-A0305-02-0016-32
色度縮放被啟用的情況
在該情況下,變數ChromaScaleCoeff[i](其中i=0...((((1<<bitDepth)-1)>>LOG2_INVERSE_INTERVAL)-1)推導如下:
Figure 109118139-A0305-02-0016-17
在以上公式中,CSCALE_FP_PREC是用於指定精度的常數值。查找色度縮放值的過程變為:
1.查找一個或多個參考亮度樣本值
2.Idx=(S>>LOG2_INVERSE_INTERVAL)
3.色度縮放因數(varScale)=ChromaScaleCoeff[Idx]
方法2.2:構建從piece_reshaped到piece_original的映射表(MapIdxRtoIdxO[])
該方法提出根據發送的正向映射曲線構建從pieceIdx_reshaped到pieceIdx_original的映射表。重塑域中的亮度樣本被分成大小等於(1<<LOG2_INVERSE_INTERVAL)的間隔,並且每個間隔在原始域中都有其對應的片段索引。映射表MapIdxRtoIdxO的大小等於((1<<bitDepth)-1>>LOG2_INVERSE_INTERVAL),其中bitDepth是內部位元深度。當查找用於逆映射的待映射的亮度樣本所屬的片段時,我們只需將待映射的亮度樣本右移LOG2_INVERSE_INTERVAL,並在原始域中查找其對應的片段索引即可,其藉由表MapIdxRtoIdxO(例如MapIdxRtoIdxO[S>>LOG2_INVERSE_INTERVAL],其中S是待映射的亮度樣本)來查找。
在另一實施例中,對於重塑域中的每個片段,藉由使用原始域的大部分亮度樣本的索引,該片段在原始域中的相應索引可被導出。
在一實施例中,對於重塑域中的每個片段,藉由使用原始域的第一亮度樣本的索引,該片段在原始域中的相應索引可被導出。在一示例中,表MapIdxRtoIdxO可如下構建。對於等於(i<<LOG2_INVERSE_INTERVAL)的亮度樣本,其中i=0...((((1<<bitDepth)-1)>>LOG2_INVERSE_INTERVAL):
Figure 109118139-A0305-02-0017-15
在上式中,藉由將lumaSample設置為等於(i<< LOG2_INVERSE_INTERVAL),idxYInv被導出,並且遵循以下過程:
Figure 109118139-A0305-02-0018-18
逆映射
變數idxYInv由MapIdxRtoIdxO[(lumaSample>>LOG2_INVERSE_INTERVAL)]導出,其中LumaSample是待映射的亮度樣本。變數invSample推導如下:invSampLe=InputPivot[idxYInv]+(InvScaleCoeff[idxYInv]*(lumaSample-LmcsPivot[idxYInv])+(1<<(SCALE_FP_PREC-1)))>>SCALE_FP_PREC
逆映射亮度樣本invLumaSample推導如下:invLumaSample=Clip1(invSample)
色度縮放被啟用的情況
在該情況下,查找色度縮放值的過程變成:
1.查找一個或多個參照亮度樣本值
2. Idx=MapIdxRtoIdxO[(S>>LOG2_INVERSE_INTERVAL)]
3.色度縮放因數(varScale)=ChromaScaleCoeff[Idx]
方法2.3:在原始域中導出片段的索引時最多進行N次比較
重塑域中的亮度樣本被分成間隔等於(1<<LOG2_INVERSE_INTERVAL)的多個片段。對於每個間隔,存在N個閾值。藉由將待映射的亮度樣本與N個閾值進行比較,逆索引可被找到。為了確保在每個間隔中僅存在N個轉折點,存在位元流一致性,即在每個間隔中只能存在N個轉折點。如果在同一間隔中有N個以上的轉折點,則該間隔中的碼字數量應被調整。
當查找亮度樣本的逆索引時,我們首先藉由(亮度樣本>>LOG2_INVERSE_INTERVAL)在重塑域中查找間隔索引,然後將亮度樣本與該間隔中的N個閾值進行比較以在原始域中查找片段的正確的索引。在一實施例中,N等於1、2、3、4,…15。
方法3-簡化的逆映射-在原始域中導出片段的索引時,最多進行N次比較
為了簡化用於導出間隔索引的過程,建議在查找間隔索引時最多進行N次比較。為此,重塑域中的亮度樣本被分為大小等於(1<<LOG2_INVERSE_INTERVAL)的多個段。對於每個段,存在N個閾值(LmcsSegPivot[(((1<<bitDepth)>>LOG2_INVERSE_INTERVAL)])和一個基本間隔索引(idxYBase[((1<<bitDepth)>>LOG2_INVERSE_INTERVAL)+1])。在一實施例中,LOG2_INVERSE_INTERVAL等於5且N等於1。以下實施例是針對INVERSE_INTERVAL等於5並且N等於1的情況。
在另一實施例中,在重塑域中的亮度樣本被劃分為(1<<K)個相等大小的段。對於每個段,存在N個閾值(LmcsSegPivot)和一個基本間隔索引(idxYBase)。
在一實施例中,bitDepth分別等於10,K等於5,並且N等於1。以下實施例是針對bitDepth等於10,K等於5且N等於1的情況。
在另一實施例中,段的數量是LMCS分段映射曲線的間隔的數量的倍數。在一實施例中,如果LMCS分段映射曲線的間隔數目等於X,則段的數目等於M*X,其中M是整數,並且可以是2、3、4、5、6、7等等。
在一實施例中,M等於2,如果LMCS分段映射曲線的間隔數等於16(=24),則段數等於32(=25)。
方法3.1:具有相等大小的段的逆亮度映射
對於每個段,索引(idxYSeg)(藉由將待映射的亮度樣本除以32來計算的)指定當前片段的索引。在另一實施例中,藉由獲取亮度樣本的前5個MSB(最高有效位),idxYse被導出。在另一實施例中,藉由將待映射的亮度樣本除以(1<<(bitDeptn-K)),idxYseg被導出。idxYBase[idxYSeg]是索引等於idxYSeg的段中最低映射亮度樣本的間隔索引。藉由將當前段中映射的最低亮度樣本與最多15個LmcsPivot值進行比較,idxYBase[idxYSeg]被導出。LmcsSegPivot[idxYSeg]設置為等於LmcsPivot[idxYBase[idxYSeg]+1]。當查找任一亮度樣本(lumaSample)的間隔索引(idxYinv)時,以下步驟被應用。
1.藉由將lumaSample除以32導出idxYSeg。
2.藉由比較lumaSample和LmcsSegPivot[idxYSeg],查找逆間隔索引(idxYInv)。
Figure 109118139-A0305-02-0020-23
Figure 109118139-A0305-02-0021-24
在另一實施例中,當找到任一亮度樣本(即,lumaSample)的間隔指數(即,idxYinv)時,以下步驟被採用。
1.藉由將lumaSample除以32或藉由獲取亮度樣本的前5MSB來導出idxYSeg。
2.藉由將lumaSample與LmcsSegPivot[idxYSeg]比較,逆間隔索引(idxYInv)被找到。
idxYInv=(lumaSample>=LmcsSegPivot[idxYSeg])?idxYBase[idxYSeg]+1:idxYBase[idxYSeg]
當色度縮放被啟用時,步驟1和步驟2被應用以得出參考亮度樣本的間隔索引。
1.逆亮度樣本推導如下:invSample=InputPivot[idxYInv]+(InvScaleCoeff[idxYInv]*(lumaSample-LmcsPivot[idxYInv])+(1<<10))>>11
2.將invSample裁剪為10位元值。
方法3.2:具有相等大小的段和減小的位元深度的逆亮度映射
在該方法中,藉由限制用於將縮放因數乘以[-32,31]範圍內的項(例如(lumaSample-LmcsPivot[idxYInv])),逆映射計算的位元深度被進一步減少。
對於每個段,索引(idxYSeg)(藉由將待映射的亮度樣本除以32來計算的)指定當前段的索引。在另一實施例中,藉由獲取亮度樣本的前5個MSB,idxYseg被導出。在另一實施例中,藉由將待映射的亮度樣本除以(1<< (bitDeptn-K)),idxYseg被導出。idxYBase[i],其中i=0...((1<<bitDepth)>>5))-1,是具有等於i的索引的段中最低映射亮度樣本的間隔索引。藉由將第(i+1)段中的最低映射亮度樣本與最多15個LmcsPivot值進行比較,idxYBase[i]中的每一個被導出。i=0...((1<<bitDepth)>>5)-1的LmcsSegPivot[i]的推導如下。如果在第(i+1)段中只有一個轉折點,則LmcsSegPivot[i]被設置為等於LmcsPivot[idxYBase[i]+1];否則,其被設置為(i+1)*32(或等於i*(1<<(bitDepth-K)))。
在索引為“i”的段中是否只有一個轉折點可藉由比較idxYBase[i]和idxYBase[i+1]來知曉。如果兩個值相同,並且LmcsPivot[LmcsMaxBinIdx+1]不在當前段中,或者LmcsPivot[LmcsMaxBinIdx+1]在當前段中且LmcsPivot[LmcsMaxBinIdx+1]等於i*32(或等於i*(1<<(bitDepth-K)),意味著沒有轉折點;否則,在第(i+1)段中有一個轉折點。i=0...((1<<bitDepth)>>5)-1的inputSegPivot[i]設置為等於LmcsSegPivot[i]的逆映射亮度樣本,並且它的推導遵循原始設計。在另一實施例中,如果當前段中沒有轉折點,則InputSegPivot[i]被設置為等於亮度樣本i*32的逆映射亮度樣本,並且它的推導遵循原始設計。
當查找任一亮度樣本(lumaSample)的間隔索引(idxYinv)時,以下步驟被應用。
1.藉由將lumaSample除以32導出idxYSeg
2.藉由比較lumaSample和LmcsSegPivot[idxYSeg],逆間隔索引(idxYInv)可被找到。
Figure 109118139-A0305-02-0022-25
Figure 109118139-A0305-02-0023-26
在另一實施例中,當查找任一亮度樣本(lumaSample)的間隔索引(idxYinv)時,以下步驟被應用。
1.藉由將lumaSample除以32或藉由獲取luma樣本的5MSB來導出idxYSeg,2.藉由比較lumaSample和LmcsSegPivot[idxYSeg],逆間隔索引(idxYInv)可被找到。
idxYInv=(lumaSample>=LmcsSegPivot[idxYSeg])?idxYBase[idxYSeg]+1:idxYBase[idxYSeg]
當色度縮放被啟用時,步驟1和步驟2被應用以得出參考亮度樣本的間隔索引。
當導出逆亮度樣本時,以下步驟被應用:
1.逆亮度樣本推導如下:dxYSeg=(lumaSample>>5)or idxYSeg=the first 5 MSB of lumaSample invSample=InputSegPivot[idxYSeg]+(InvScaleCoeff[idxYInv]*(lumaSample-LmcsSegPivot[idxYSeg])+(1<<10))>>11
在另一實施例中,如果當前段中沒有轉折點,則InputSegPivot[i]被設置為等於亮度樣本idxYSeg*32的逆映射的亮度樣本,並且它的推導遵循原始設計,逆映射可藉由以下方式導出:invSample=InputSegPivot[idxYSeg]+(InvScaleCoeff[idxYInv]*(lumaSample-(idxYSeg<<5))+(1<<10))>>11
2.將invSample裁剪為10位元值。
方法3.3:約束以確保在一段中僅存在N個轉折點
為了確保在每個間隔(或稱為每個段)中僅存在N個轉折點,存在位元流一致性或規範約束,其中在每個間隔中僅存在N個轉折點。如果在同一間隔中有N個以上的轉折點,則該間隔中的碼字數量應被調整。
在一實施例中,對於具有i=lmcs_min_bin_idx...LmcsMaxBinIdx的變數LmcsPivot[i],位元流一致性的要求為(LmcsPivot[i]>>5)和(LmcsPivot[i+1]>>5)不得相同。
在另一實施例中,對於具有i=lmcs_min_bin_idx..LmcsMaxBinIdx的變數LmcsPivot[i],要求(LmcsPivot[i]>>LOG2_INVERSE_INTERVAL)和(LmcsPivot[i+1]>>LOG2_INVERSE)不得相同。在一實施例中,LOG2_INVERSE_INTERVAL取決於亮度樣本的位元深度,並且等於bitDepth-5。在一實施例中,LOG2_INVERSE_INTERVAL等於5且N等於1。
對於具有idxYSeg=0...((1<<bitDepth)>>5)-1的段的“多於一個轉折點”的檢測可以藉由以下步驟進行:對於間隔索引intervalIdx=0...15
1. idxLow=LmcsPivot[intervalIdx]>>5
2. idxHigh=LmcsPivot[intervalIdx+1]>>5
3.如果idexLow等於idxHigh,LmcsPivot[intervalIdx]不等於LmcsPivot[intervalIdx+1],並且LmcsPivot[intervalIdx]不是32的倍數,則“多個轉折點”被檢測到。
當在間隔i中檢測到“一個以上的轉折點”時,LmcsPivot[i+1]需要依據如下修改。
- adjVal=(idxHigh+1)*32-LmcsPivot[i+1]
- LmcsPivot[i+1]=LmcsPivot[i+1]+adjVal
- lmcsCW[i]=lmcsCW[i]+adjVal
- 具有j=i+1...15的以下過程被應用,直到adjVal等於0:
Figure 109118139-A0305-02-0025-30
儘管以上示例是針對LOG2_INVERSE_INTERVAL等於5且N等於1的情況。該些方法可被擴展到LOG2_INVERSE_INTERVAL和N的不同設置。
在另一實施例中,對於具有i=lmcs_min_bin_idx..LmcsMaxBinIdx的變數LmcsPivot[i],位元流一致性的要求是LmcsPivot[i]的前5個MSB和LmcsPivot[i+1]不得相同。
方法3.4:約束以確保一個片段中的所有亮度樣本最多屬於兩個不同的間隔
為了在導出間隔索引時對於每個待映射的亮度樣本僅使用一個比較,存在位元流一致性,或者編碼器規範約束或規範約束,以確保一個片段中的所有亮度樣本都屬於最多兩個不同的間隔。
對於i=lmcs_min_bin_idx...LmcsMaxBinIdx的變數LmcsPivot[i],位元流一致性的要求是:如果LmcsPivot[i]不是32的倍數,那麽(LmcsPivot[i] >>5)和(LmcsPivot[i+1]>>5)不得相同。
在另一示例中,為了在導出間隔索引時對每個待映射的亮度樣本僅使用一個比較,每個間隔中的碼字的數量被限制為特定值。以下實施例示出了位元流一致性,以確保在大小等於OrgCW/2的每個段中僅存在一個轉折點。
在一實施例中,對於具有i=lmcs_min_bin_idx...LmcsMaxBinIdx的變數lmcsCW[i],位元流一致性的要求是:lmcsCW[i]應大於OrgCW/2-1。
在另一實施例中,對於具有i=lmcs_min_bin_idx...LmcsMaxBinIdx的變數lmcsCW[i],位元流一致性的要求是:lmcsCW[i]應大於OrgCW/2+1。
方法4-CIIP的色度縮放
在一實施例中,不同的模式可在不同位置使用參考亮度樣本。
在另一實施例中,對於其預測過程可參考相鄰的重構樣本的塊,用於縮放值推導的參考亮度樣本來自當前CU或TU的相鄰的重構樣本。例如,如果當前塊是幀內預測模式,則參考亮度樣本是當前CU的左上,上,左參考邊界樣本,因此,對於幀內子塊劃分預測(sub-partition prediction,簡稱ISP)模式,色度殘差縮放值使用當前CU/TU(不是子分區TU)的左上,上,左L形邊界重構樣本得出。在另一示例中,如果當前塊是幀內預測模式,則參考亮度樣本是當前TU的左上參考邊界樣本。因此,對於幀內ISP模式,色度殘差縮放值使用當前TU(子分區)的左上,上,左L形邊界重構樣本來導出。左上L形邊界重構樣本可以是一個樣本。
在另一實施例中,如果當前塊是除了CIIP模式之外的幀間預測模式,則參考亮度樣本可以是當前CU或TU的左上亮度預測樣本。例如,如果當前CU是幀間預測模式,但是藉由組合幀間幀內模式(combined Inter Intra modes,簡稱CIIP)或需要相鄰重構樣本的其他預測方法來預測,則參考亮度樣本可以是 前述的當前CU或參考CU/TU的參考邊界重構樣本。例如,左上相鄰重構樣本可被使用。
在另一實施例中,如果當前塊是幀間預測模式,則參考亮度樣本可以是當前CU或TU的左上亮度預測樣本。例如,如果當前塊是CIIP模式,則參考亮度樣本可以是當前CU或TU的左上亮度預測樣本。
在另一實施例中,如果當前塊是IBC模式,則參考亮度樣本的確定與幀間預測模式相同。
在另一實施例中,如果當前塊是IBC模式,則參考亮度樣本的確定與幀內預測模式相同。
任一前述提出的方法可在編碼器和/或解碼器中實現。例如,任一提出的方法都可在編碼器的重塑模組或殘差縮放/重塑模組和/或解碼器的重塑模組或殘差縮放/重塑模組中實現。可替代地,任一提出的方法可被實現為耦合到編碼器的重塑模組或殘差縮放/重塑模組和/或解碼器的重塑模組或殘差縮放/重塑模組的電路,從而提供重塑模組或殘差縮放/整形模組所需的資訊。
在一些實施例中,視訊編碼器必須遵循前述語法設計以便生成合法的位元流,並且僅當解析過程符合前述語法設計時,視訊解碼器才能夠正確地解碼位元流。當語法在位元流中被跳過時,編碼器和解碼器應將語法值設置為推斷值,以確保編碼和解碼結果匹配。
第4圖示出了根據本發明的實施例的用於確定或推導逆亮度映射的樞軸點的示例性編碼系統的流程圖。流程圖中所示的步驟以及本公開中的其他後續流程圖可被實現為可在編碼器側和/或解碼器側的一個或多個處理器(例如,一個或多個CPU)上執行的程式碼。流程圖中所示的步驟也可基於硬體來實現,例如被佈置為執行流程圖中的步驟的一個或多個電子裝置或處理器。根據該方法,在步驟410中確定多個第一段(segment),其中與第一訊號域中的亮 度樣本相對應的亮度樣本範圍被劃分為多個第一段,並且其中每個第一段對應於將亮度樣本從第一訊號域映射到第二訊號域的一線段(line piece)。在步驟420中確定多個第二段,其中將與第二訊號域中的亮度樣本相對應的亮度樣本範圍劃分為多個第二段,並且其中所有第二段具有等於目標間隔值的相同大小。在步驟430中一個或多個第一樞軸點被確定或導出,其中每個第一樞軸點與一第一段相關聯,並且其中所述一個或多個第一樞軸點被確定或導出,使得:如果與第二訊號域中的一第一樞軸點對應的目標映射樞軸點的值為目標間隔值的倍數,目標映射樞軸點和下一映射樞軸點被允許位於同一第二段中;否則,目標映射樞軸點和下一映射的樞軸點不被允許位於同一第二段中。在步驟440中,使用分段線性映射來執行亮度樣本的視訊編碼或解碼,以將目標亮度樣本從第一訊號域映射到第二訊號域,或者從第二訊號域映射到第一訊號域。
所示流程圖旨在說明根據本發明的視訊編碼的示例。本領域之通常技術者可修改每個步驟,重新佈置步驟,拆分步驟或組合步驟以實踐本發明,而不背離本發明的精神。在本公開中,特定的語法和語義被用來說明用於實現本發明的實施例的示例。本領域之通常技術者可藉由用等效的語法和語義替換語法和語義來實踐本發明,而不背離本發明的精神。
呈現以上描述是為了使本領域之通常技術者能夠實踐在特定應用及其要求的上下文中提供的本發明。對所描述的實施例的各種修改對於本領域之通常技術者將是顯而易見的,並且本文中定義的一般原理可被應用於其他實施例。因此,本發明不旨在限於所示出和描述的特定實施例,而是與符合本文公開的原理和新穎性特徵的最寬範圍相一致。在以上詳細描述中,示出了各種具體細節以便提供對本發明的透徹理解。然而,本領域之通常技術者將理解,本發明可被實施。
前述的本發明的實施例可以各種硬體,軟體代碼或兩者的組合來 實現。例如,本發明的實施例可以是集成到視訊壓縮晶片中的一個或多個電路電路或集成到視訊壓縮軟體中以執行本文描述的處理的程式碼。本發明的實施例還可以是要在數位訊號處理器(Digital Signal Processor,簡稱DSP)上執行以執行本文描述的處理的程式碼。本發明還可涉及由電腦處理器,數位訊號處理器,微處理器或現場可程式設計閘陣列(field programmable gate array,簡稱FPGA)執行的許多功能。該些處理器可被配置為藉由執行定義本發明所體現的特定方法的機器可讀軟體代碼或韌體代碼來執行根據本發明的特定任務。軟體代碼或韌體代碼可以不同的程式設計語言和不同的格式或樣式來開發。軟體代碼也可被不同的目標平臺編譯。然而,不同的代碼格式,軟體代碼的樣式和語言以及配置代碼以執行根據本發明的任務的其他手段將不脫離本發明的精神和範圍。
在不脫離本發明的精神或基本特徵的情況下,本發明可以其他特定形式實施。所描述的示例在所有方面僅應被認為是說明性的而非限制性的。因此,本發明的範圍由所附申請專利範圍而不是前述描述來指示。等同於申請專利範圍的含義和範圍內的所有改變均應包含在其範圍之內。
410、420、430、440:步驟

Claims (18)

  1. 一種視訊編解碼方法,包括: 確定多個第一段,其中與一第一訊號域中的多個亮度樣本相對應的一亮度樣本範圍被劃分該多個第一段,並且每個第一段對應於將該多個亮度樣本從該第一訊號域映射到一第二訊號域的一線段; 確定多個第二段,其中將與該第二訊號域中的該多個亮度樣本相對應的該亮度樣本範圍劃分為多個第二段,並且所有的該多個第二段具有等於一目標間隔值的相同大小; 確定或導出一個或多個第一樞軸點,其中每個第一樞軸點與一第一段相關聯,並且該一個或多個第一樞軸點被確定或導出,使得:如果與該第二訊號域中的一第一樞軸點所對應的一目標映射樞軸點之值為該目標間隔值的一倍數,該目標映射樞軸點和一下一映射樞軸點被允許位於同一第二段中;否則,該目標映射樞軸點和該下一映射的樞軸點不被允許位於該同一第二段中;以及 使用一分段線性映射來執行該多個亮度樣本的視訊編碼或解碼,以將一目標亮度樣本從該第一訊號域映射到該第二訊號域,或者從該第二訊號域映射到該第一訊號域。
  2. 如請求項1所述之視訊編解碼方法,其中,該分段線性映射與該多個第一段,該多個第二段以及該一個或多個第一樞軸點相關聯。
  3. 如請求項1所述之視訊編解碼方法,其中,所有的該多個第一段具有相同的一第一間隔值。
  4. 如請求項3所述之視訊編解碼方法,其中,該第一間隔值對應於2到一第一預定義數的冪,並且該第一預定義數是整數。
  5. 如請求項4所述之視訊編解碼方法,其中,該第一預定義數等於(bitDepth - 4),並且bitDepth表示該多個亮度樣本的位元深度。
  6. 如請求項1所述之視訊編解碼方法,其中,該目標間隔值對應於2到一第二預定義數的冪,並且該第二預定義數是整數。
  7. 如請求項6所述之視訊編解碼方法,其中,該第二預定義數等於(bitDepth - 5),並且bitDepth表示該多個亮度樣本的位元深度。
  8. 如請求項1所述之視訊編解碼方法,其中,每個第二段具有至多兩個映射樞軸點。
  9. 如請求項1所述之視訊編解碼方法,其中,該亮度樣本範圍等於0到1023(包括0和1023),並且該目標間隔值等於32。
  10. 一種視訊編解碼裝置,該裝置包括一個或多個電子電路或處理器被設置為: 確定多個第一段,其中與一第一訊號域中的多個亮度樣本相對應的一亮度樣本範圍被劃分為該多個第一段,並且每個第一段對應於將該多個亮度樣本從該第一訊號域映射到一第二訊號域的一線段; 確定多個第二段,其中將與該第二訊號域中的該多個亮度樣本相對應的該亮度樣本範圍劃分為多個第二段,並且所有的該多個第二段具有等於一目標間隔值的相同大小; 確定或導出一個或多個第一樞軸點,其中每個第一樞軸點與一第一段相關聯,並且該一個或多個第一樞軸點被確定或導出,使得:如果與該第二訊號域中的一第一樞軸點所對應的一目標映射樞軸點的值為該目標間隔值的一倍數,該目標映射樞軸點和一下一映射樞軸點被允許位於同一第二段中;否則,該目標映射樞軸點和該下一映射的樞軸點不被允許位於該同一第二段中;以及 使用一分段線性映射來執行該多個亮度樣本的視訊編碼或解碼,以將一目標亮度樣本從該第一訊號域映射到該第二訊號域,或者從該第二訊號域映射到該第一訊號域。
  11. 如請求項10所述之視訊編解碼裝置,其中,該分段線性映射與該多個第一段,該多個第二段以及該一個或多個第一樞軸點相關聯。
  12. 如請求項10所述之視訊編解碼裝置,其中,所有的該多個第一段具有相同的一第一間隔值。
  13. 如請求項12所述之視訊編解碼裝置,其中,該第一間隔值對應於2到一第一預定義數的冪,並且該第一預定義數是整數。
  14. 如請求項13所述之視訊編解碼裝置,其中,該第一預定義數等於(bitDepth - 4),並且bitDepth表示該多個亮度樣本的位元深度。
  15. 如請求項10所述之視訊編解碼裝置,其中該目標間隔值對應於2到一第二預定義數的冪,並且該第二預定義數是整數。
  16. 如請求項15所述之視訊編解碼裝置,其中,該第二預定義數等於(bitDepth - 5),並且bitDepth表示該多個亮度樣本的位元深度。
  17. 如請求項10所述之視訊編解碼裝置,其中,每個第二段具有至多兩個映射樞軸點。
  18. 如請求項10所述之視訊編解碼裝置,其中,該亮度樣本範圍等於0到1023(包括0和1023),並且該目標間隔值等於32。
TW109118139A 2019-05-31 2020-05-29 視訊編解碼的方法和裝置 TWI734501B (zh)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201962855007P 2019-05-31 2019-05-31
US62/855,007 2019-05-31
US201962865390P 2019-06-24 2019-06-24
US62/865,390 2019-06-24
US201962876094P 2019-07-19 2019-07-19
US62/876,094 2019-07-19
US201962905581P 2019-09-25 2019-09-25
US62/905,581 2019-09-25
WOPCT/CN2020/093499 2020-05-29
PCT/CN2020/093499 WO2020239110A1 (en) 2019-05-31 2020-05-29 Method and apparatus of latency reduction for chroma residue scaling

Publications (2)

Publication Number Publication Date
TW202046732A TW202046732A (zh) 2020-12-16
TWI734501B true TWI734501B (zh) 2021-07-21

Family

ID=73553518

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109118139A TWI734501B (zh) 2019-05-31 2020-05-29 視訊編解碼的方法和裝置

Country Status (5)

Country Link
US (1) US11425379B2 (zh)
EP (1) EP3977735A4 (zh)
CN (1) CN113853788A (zh)
TW (1) TWI734501B (zh)
WO (1) WO2020239110A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230069089A1 (en) * 2021-08-31 2023-03-02 Mediatek Inc. Video decoder with hardware shared between different processing circuits and associated video decoding method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW501075B (en) * 1999-08-06 2002-09-01 Ctx Opto Electronics Corpor Digital image scaler for automatic image quality adjustment
US20150243200A1 (en) * 2014-02-25 2015-08-27 Apple Inc. Non-linear display brightness adjustment
US20170085879A1 (en) * 2015-09-23 2017-03-23 Arris Enterprises Llc Single layer high dynamic range coding with standard dynamic range backward compatibility
TW201806390A (zh) * 2016-08-09 2018-02-16 高通公司 用於顯示器調適之色彩重映射資訊sei信息發信號
US20180115777A1 (en) * 2016-10-26 2018-04-26 Dolby Laboratories Licensing Corporation Screen-adaptive decoding of high dynamic range video
US9984446B2 (en) * 2015-12-26 2018-05-29 Intel Corporation Video tone mapping for converting high dynamic range (HDR) content to standard dynamic range (SDR) content
US20180182352A1 (en) * 2011-03-15 2018-06-28 Dolby Laboratories Licensing Corporation Method and apparatus for image data transformation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10652588B2 (en) * 2015-09-21 2020-05-12 Vid Scale, Inc. Inverse reshaping for high dynamic range video coding
US20190132600A1 (en) 2016-05-04 2019-05-02 Thomson Licensing Method and apparatus for encoding/decoding a scalar integer into a parameter representative of a pivot points of a piece-wise linear function
US10728559B2 (en) 2017-07-07 2020-07-28 Qualcomm Incorporated Precision of computation and signaling of dynamic range adjustment and color remapping information
US10600163B2 (en) 2017-11-22 2020-03-24 Interdigital Vc Holdings, Inc. Method and device for reconstructing a display adapted HDR image
US11388406B2 (en) * 2019-05-20 2022-07-12 Dolby Laboratories Licensing Corporation Piece-wise-linear mapping for in-loop reshaping in image coding

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW501075B (en) * 1999-08-06 2002-09-01 Ctx Opto Electronics Corpor Digital image scaler for automatic image quality adjustment
US20180182352A1 (en) * 2011-03-15 2018-06-28 Dolby Laboratories Licensing Corporation Method and apparatus for image data transformation
US20150243200A1 (en) * 2014-02-25 2015-08-27 Apple Inc. Non-linear display brightness adjustment
US20170085879A1 (en) * 2015-09-23 2017-03-23 Arris Enterprises Llc Single layer high dynamic range coding with standard dynamic range backward compatibility
US9984446B2 (en) * 2015-12-26 2018-05-29 Intel Corporation Video tone mapping for converting high dynamic range (HDR) content to standard dynamic range (SDR) content
TW201806390A (zh) * 2016-08-09 2018-02-16 高通公司 用於顯示器調適之色彩重映射資訊sei信息發信號
US20180115777A1 (en) * 2016-10-26 2018-04-26 Dolby Laboratories Licensing Corporation Screen-adaptive decoding of high dynamic range video

Also Published As

Publication number Publication date
EP3977735A1 (en) 2022-04-06
US20220150496A1 (en) 2022-05-12
TW202046732A (zh) 2020-12-16
WO2020239110A1 (en) 2020-12-03
US11425379B2 (en) 2022-08-23
EP3977735A4 (en) 2023-04-05
CN113853788A (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
US11277606B2 (en) Method for decoding a bitstream
CA3091190C (en) Image reshaping in video coding using rate distortion optimization
US20240155158A1 (en) Method and system for processing video content
RU2686559C2 (ru) Инициализатор предсказателя палитры при кодировании или декодировании самостоятельных кодируемых структур
CN110024398B (zh) 针对屏幕远程处理场景的局部的基于散列的运动估计
US10148961B2 (en) Arithmetic coder with multiple window sizes
CN113785577B (zh) 用于指示色度量化参数映射函数的方法和装置
US20160277761A1 (en) Encoder-side decisions for block flipping and skip mode in intra block copy prediction
US20160269732A1 (en) Encoder-side decisions for screen content encoding
JP2017523677A (ja) ブロック適応色空間コンバージョンコーディング
JP2017505010A (ja) 画素ブロックの符号化または復号の方法および装置
TWI750624B (zh) 編解碼變換係數的方法及裝置
US20230353745A1 (en) Method and system for processing luma and chroma signals
TW201919398A (zh) 視頻數據解碼方法及裝置
TW202032993A (zh) 用於係數位準之逃逸寫碼
TWI734501B (zh) 視訊編解碼的方法和裝置
TW202042556A (zh) 色度殘差縮放之延遲降低方法和裝置
WO2023272517A1 (zh) 编解码方法、码流、编码器、解码器及计算机存储介质
WO2023272533A1 (zh) 编解码方法、编码器、解码器以及存储介质
CN113632481B (zh) 色度残差缩放的延迟降低方法和装置
WO2022217442A1 (zh) 系数编解码方法、编码器、解码器以及计算机存储介质
RU2772104C2 (ru) Преобразование изображения в кодировании видео с использованием оптимизации зависимости искажения от скорости передачи
WO2022217417A1 (zh) 编解码方法、编码器、解码器以及存储介质
US10805635B1 (en) Apparatus and method for coding tree unit bit size limit management