TW201933872A - 用於視訊編解碼系統的仿射幀間預測的方法和裝置 - Google Patents

用於視訊編解碼系統的仿射幀間預測的方法和裝置 Download PDF

Info

Publication number
TW201933872A
TW201933872A TW108102862A TW108102862A TW201933872A TW 201933872 A TW201933872 A TW 201933872A TW 108102862 A TW108102862 A TW 108102862A TW 108102862 A TW108102862 A TW 108102862A TW 201933872 A TW201933872 A TW 201933872A
Authority
TW
Taiwan
Prior art keywords
affine mvp
affine
block
candidate list
mvp
Prior art date
Application number
TW108102862A
Other languages
English (en)
Other versions
TWI702831B (zh
Inventor
林芷儀
莊子德
陳慶曄
Original Assignee
聯發科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 聯發科技股份有限公司 filed Critical 聯發科技股份有限公司
Publication of TW201933872A publication Critical patent/TW201933872A/zh
Application granted granted Critical
Publication of TWI702831B publication Critical patent/TWI702831B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

公開了包括仿射幀間模式的視訊編解碼的幀間預測的方法和裝置。 在一種方法中,生成仿射MVP候選列表,其中仿射MVP候選列表包括從相鄰塊集合導出的至少一個繼承的仿射MVP。使用從視訊編碼器側的仿射AMVP候選列表中選擇的一個預測值來編碼與仿射運動模型相關聯的當前控制點MV集合的預測差異,或使用從仿射AMVP候選列表中選擇的一個預測值在視訊解碼器側對與仿射運動模型相關聯的當前控制點MV集合的預測差異進行解碼。在另一種方法中,通過考慮所述至少一個相鄰塊的參考圖片列表中的至少一個是否包括與當前塊的當前參考圖片相同的一個參考圖片來導出繼承的仿射MVP。

Description

用於視訊編解碼系統的仿射幀間預測的方法和裝置
本發明涉及使用運動估計和運動補償的視訊編解碼。 特別地,本發明涉及生成包括與使用仿射幀間模式(affine Inter mode)編解碼的一個或多個塊相關聯的一個或多個仿射運動矢量預測值(motion vector predictor,簡寫為MVP)候選的幀間候選列表。
在過去二十年中已經開發了各種視訊編碼標準。 在較新的編解碼標準中,使用更强大的編解碼工具來提高編解碼效率。 高效視訊編解碼(HEVC)是近年來開發的新編解碼標準。 在高效視訊編解碼(HEVC)系统中,H.264 / AVC的固定大小宏塊由稱為編解碼單元(CU)的靈活塊代替。 CU中的像素共享相同的編解碼參數以提高編解碼效率。 CU可以以最大CU(LCU)開始,其在HEVC中也稱為編解碼樹單元(CTU)。 除了編解碼單元的概念之外,還在HEVC中引入了預測單元(PU)的概念。 一旦完成CU分層樹的分割,則根據預測類型和PU分區將每個葉CU進一步分割成一個或多個預測單元(PU)。
在大多數編解碼標準中,基於塊使用自適應幀間/幀內預測。 在幀間預測模式中,為每個塊確定一個或兩個運動矢量以選擇一個參考塊(即,單向預測)或兩個參考塊(即,雙向預測)。 為每個單獨的塊確定和編解碼一個或多個運動矢量。 在HEVC中,以兩種不同的方式支持幀間運動補償:顯式信令(explicit signalling)或隱式信令(implicit signalling)。 在顯式信令中,使用預測編解碼方法信令塊(即,PU)的運動矢量。 運動矢量預測值對應於與當前塊的空間和時間鄰居相關聯的運動矢量。在確定MV預測值之後,對運動矢量差(motion vector difference,簡寫為MVD)進行編解碼和發送。 該模式也稱為AMVP(高级運動矢量預測)模式。 在隱式信令中,選擇來自候選預測值集的一個預測值作為當前塊(即,PU)的運動矢量。 由於編碼器和解碼器都將導出候選集並以相同方式選擇最终運動矢量,因此不需要在隱式模式中信令MV或MVD。 此模式也稱為合併模式。 在合併模式中設置的預測值集合(predictor set)的形成也稱為合併候選列表構造。 信令稱為合併索引(Merge index)的索引,以指示選擇作為當前塊的MV的預測值。
沿着時間軸跨越圖片發生的運動可以由許多不同的模型來描述。 假設A x y 是所考慮的位置 x y 處的原始像素,A' x' y' 是當前像素A x y 在參考圖片中位置 x' y' 處的對應像素,仿射運動模型描述如下。
仿射模型能夠描述二维塊旋轉以及二维變形以將正方形(或矩形)變換為平行四邊形。 該模型可描述如下:
x ’ = a0 + a1 *x + a2 *y , and
y ’ = b0 + b1 *x + b2 *y . (1)
在提交給ITU-VCEG的ITU-T13-SG16-C1016(Lin等人, “Affine transform prediction for next generation video coding”, ITU-U, 研究小組16, 課題 Q6/16, 貢獻C1016, 2015年9月, Geneva, CH)中,公開了一個四參數仿射預測,其中包括仿射合併模式(affine Merge mode)。 當仿射運動塊正在移動時,塊的運動矢量場可以通過兩個控制點運動矢量或四個參數來描述,其中(vx vy )表示運動矢量
(2)
第1A圖中示出了四參数仿射模型的示例。變換後的塊是矩形塊。 該移動塊中每個點的運動矢量场可以用下面的等式描述:
(3)
在上面的等式中,(v0x v0y )是塊的左上角處的控制點運動矢量(即,v0 ),並且(v1x v1y )是塊的右上角處的另一個控制點運動矢量(即,v1 )。 當解碼兩個控制點的MV時,可以根據上面的等式確定塊的每個4×4塊的MV。 換句話說,可以通過兩個控制點處的兩個運動矢量來指定塊的仿射運動模型。 此外,雖然塊的左上角和右上角用作兩個控制點,但是也可以使用其他兩個控制點。如第1B圖所示,根據等式(3),可以基於兩個控制點的MV,針對每個4×4子塊確定當前塊的運動矢量的示例。
在ITU-T13-SG16-C1016中,對於幀間模式編解碼CU,信令仿射標志以指示當CU大小等於或大於16×16时是否應用仿射幀間模式。如果當前塊(例如,當前CU)以仿射幀間模式編解碼,則使用相鄰有效重構塊來構造候選MVP對列表。第2圖示出了用於導出角點導出的仿射候選(corner derived affine candidate)的相鄰塊集合。如第2圖所示,對應於當前塊210的左上角的塊V0的運動矢量,其從相鄰塊a0(稱為左上(above-left)塊)、 a1(稱為内左上(inner above-left)塊)和a2(稱為上左下(lower above-left)方塊)的運動矢量中選擇,而對應於當前塊210的右上角處的塊V1的運動向量,其選自相鄰塊b0(稱為上方塊)和b1(稱為右上(above-right)塊)的運動矢量。為了選擇候選MVP對,根據下式計算“DV”(在本公開中稱為失真值(distortion value )):
deltaHor = MVb – MVa
deltaVer = MVc – MVa
DV = | deltaHor_x * height – deltaVer_y * width| + (4)
| deltaHor_y * height – deltaVer_x * width|
在上面的等式中,MVa是與塊a0、a1或a2相關聯的運動矢量,MVb是從塊b0和b1的運動矢量中選擇的,並且MVc是從塊c0和c1的運動矢量中選擇的。 選擇具有最小DV的MVa和MVb以形成MVP對。 因此,雖然僅針對最小DV搜索兩個MV集合(set)(即,MVa和MVb),但是第三DV集合(即,MVc)也參與選擇過程。 第三DV集合對應於當前塊210的左下角處的塊的運動矢量,其從相鄰塊c0(稱為左塊)和c1(稱為左下塊運動矢量)中選擇。 在第2圖的示例中,用於構造仿射運動模型的控制點MV的相鄰塊(a0、a1、a2、b0、b1、b2、c0和c1)在本公開中被稱為相鄰塊集合(neighbouring block set )。
在ITU-T13-SG16-C1016中,還提出了仿射合併模式(affine Merge mode)。如果當前塊是合併編解碼的PU,則檢查相鄰的五個塊(第3圖中的A0、A1、B0、B1和B2塊)以確定它們中的任何一個是否以仿射幀間模式或仿射合併模式編解碼。如果是,則信令affine_flag以指示當前PU是否是仿射模式。當在仿射合併模式中應用當前PU時,它從有效的相鄰重建塊獲得用仿射模式編解碼的第一塊。候選塊的選擇順序是從左塊(A1)、上方塊(B1)、右上塊(B0)、左下塊(A0)到左上塊(B2)。換句話說,搜索順序是A1àB1àB0àA0àB2,如第3圖所示。仿射編解碼塊的仿射參數用於導出當前PU的v0 v1 。在第3圖的示例中,用於構造(construct)仿射運動模型的控制點MV的相鄰塊(A0、A1、B0、B1和B2)在本公開中被稱為相鄰塊集合。
在JVET-K0337(Han等人, “CE4.1.3: Affine motion compensation prediction”, ITU-T SG 16 WP 3 和ISO/IEC JTC 1/SC 29/WG 11的聯合視訊探索小組(Joint Video Exploration Team,簡寫為JVET),第11次會議:Ljubljana, SI, 2018年7月10-18, 文檔: JVET-K0337)中已公開了六參數仿射模型用於仿射合併模式和仿射幀間模式。 六參數仿射模型使用3個控制點(,),如第4A圖所示,其中塊410對應於當前PU。 六參數仿射運動模型能夠將矩形變換爲平行四邊形420,如第4B圖所示。 當仿射運動塊正在移動時,塊的運動矢量場可以通過如下三個控制點運動矢量或四個參數來描述,其中(vx vy )表示運動矢量。
(5)
當解碼三個控制點的MV時,可以根據以下等式導出每個4×4塊的MV:
(6)
中心像素的MV(即,4×4塊的(2,2)處的位置)表示4×4塊的MV。
在支持4-和6-參數仿射模型的系統中,信令一個參數標記以指示4或6參數仿射模型的選擇。 此外,在仿射幀間模式中,
•如果使用4參數仿射模型,則信令1個MVP對和2個MVD,
•如果使用6參數仿射模型,則信令1 MVP三元組(triplet)(具有3個MVP)和3個MVD。
在本發明中,公開了利用運動補償來改善現有編解碼系統的編解碼性能的方法。
為方便起見,術語MVP 集合 用於指代MVP對和MVP三元組。
用於在合併模式編解碼中導出合併候選列表的仿射運動模型已被示出爲用於處理視訊序列內的更複雜運動的有用編解碼工具。 期望開發仿射運動技術以進一步改善系統編解碼性能。 因此,在本發明中已經公開了各種基於仿射的運動矢量預測技術。
揭露了由視訊編碼器或視訊解碼器執行的用於視訊編解碼的幀間預測的方法和裝置,其利用運動向量預測(MVP)來編解碼與用包括仿射幀間模式和仿射合併模式的編解碼模式編解碼的塊相關聯的運動向量(MV)。根據一種方法,接收與視訊編碼器側的當前塊有關的輸入資料或與包括視訊解碼器側的當前塊的壓縮資料相對應的視訊位元流。 然後確定當前塊的相鄰塊集合。 如果使用仿射運動模型對至少一個相鄰塊進行編解碼,則基於所述至少一個相鄰塊的對應控制點MV集合導出至少一個繼承的MVP。生成仿射MVP候選列表,包括仿射AMVP(高級MVP)候選列表或仿射合併MVP列表,其中仿射MVP候選列表包括所述至少一個繼承的仿射MVP。 對於仿射AMVP列表中的候選,使用從視訊編碼器側的仿射AMVP候選列表中選擇的一個預測值來編碼與仿射運動模型相關聯的當前控制點MV集合的預測差異,或使用從仿射AMVP候選列表中選擇的一個預測值在視訊解碼器側對與仿射運動模型相關聯的當前控制點MV集合的預測差異進行解碼。
在一個實施例中,相鄰塊集合包括上方塊(B1)、右上塊(B0)、左上塊(B2)、左塊(A1)和左下塊(A0)。 預定義的順序可以是A1 - > B1 - > B0 - > A0 - > B2。 在另一實施例中,相鄰塊集合被劃分爲第一子集和第二子集,並且其中第一子集包括A0和A1,第二子集包括B0、B1和B2。 對於兩個子集的情況,可以依據A0-> A1的第一順序基於第一子集中的首先可用(firstly available)的第一仿射編解碼塊的第一控制點MV集合導出第一繼承仿射MVP,並且可以根據B0-> B1-> B2的第二順序,基於第二子集中的首先可用的第二仿射編解碼塊的第二控制點MV集合導出第二繼承的仿射MVP。
可以應用仿射MVP列表填充。例如,在將所述至少一個繼承的仿射MVP插入到仿射MVP候選列表中之後,如果仿射MVP候選列表未滿,則將來自正常(normal)MVP列表的正常MVP添加到仿射MVP候選列表。也可以應用仿射MVP列表修剪。例如,如果所述至少一個繼承的仿射MVP與已經在仿射MVP候選列表中的另一個仿射MVP相同,則所述至少一個繼承的仿射MVP被移除或不被插入到仿射MVP候選列表中。在另一示例中,如果所述至少一個繼承的仿射MVP與仿射MVP候選列表中的另一仿射MVP之間的控制點MV的差異小於閾值,則所述至少一個繼承的仿射MVP被移除或不被插入到仿射MVP候選列表中。在又一示例中,如果所述至少一個繼承的仿射MVP的所有控制點MV相同,則移除或不將所述至少一個繼承的仿射MVP插入到仿射MVP候選列表中。
在另一實施例中,如果使用幀間預測模式對所述至少一個相鄰塊或兩個相鄰塊進行編解碼,則基於從不同相鄰塊導出的第二控制點MV集合導出至少一個構造的仿射MVP,其中仿射MVP候選列表包括所述至少一個構造的仿射MVP。 可以在所述至少一個構造的仿射MVP之前將所述至少一個繼承的仿射MVP插入到仿射MVP候選列表中。 在又一個實施例中,如果仿射MVP候選列表小於預定數量,則使用至少一個構造的仿射MVP。 此外,如果所述至少一個繼承的仿射MVP的所有控制點MV都相同,則可以移除所述至少一個構造的仿射MVP或者不將其插入到仿射MVP候選列表中。
根據另一方法,如果使用仿射運動模型對至少一個相鄰塊進行編解碼,並且所述至少一個相鄰塊的參考圖片列表中的至少一個包括與當前塊中的當前參考圖片相同的一個參考圖片,基於所述至少一個相鄰塊的對應控制點MV集合導出至少一個繼承的仿射MVP。通過將所述至少一個繼承的仿射MVP包括到仿射MVP候選列表中來生成仿射MVP候選列表。對於仿射AMVP列表中的候選,使用從視訊編碼器側的仿射AMVP候選列表中選擇的一個預測值編碼與仿射運動模型相關聯的當前控制點MV集合的預測差異,或使用從仿射AMVP候選列表中選擇的一個預測值在視訊解碼器側對與仿射運動模型相關聯的當前控制點MV集合的預測差異進行解碼。
在一個實施例中,所述至少一個相鄰塊的所述至少一個參考圖片列表對應於當前塊的當前參考圖片列表。 在另一實施例中,所述至少一個相鄰塊的所述至少一個參考圖片列表對應於與當前塊的當前參考圖片列表不同的一個參考圖片列表。
在一個實施例中,如果在插入非縮放的繼承的仿射MVP之後仿射MVP列表未滿,則可以導出縮放的繼承的仿射MVP並將其插入到仿射MVP列表中。 在這種情况下,通過縮放仿射編解碼的相鄰塊的對應控制點MV集合來導出縮放的繼承的仿射MVP,但是仿射編解碼的相鄰塊的參考圖片與當前塊的參考圖片不同。 可以首先從當前塊的相同參考圖片列表中選擇仿射編解碼的相鄰塊的參考圖片。 或者,可以首先從與當前塊的參考圖片列表不同的參考圖片列表中選擇仿射編解碼的相鄰塊的參考圖片。
同樣,前面提到的仿射MVP列表填充和修剪也可以應用於第二方法。
以下描述是實現本發明的最佳方案。 進行該描述是爲了說明本發明的一般原理,而不應被視爲具有限制意義。 通過參考所附申請專利範圍最好地確定本發明的範圍。
在本發明中,公開了利用仿射運動估計和視訊壓縮補償的各種方法。 具體地,仿射運動估計或補償用於以合併模式或幀間預測模式對視訊資料進行編解碼。
仿射 AMVP 模式 MVP 推導
在本發明中,仿射運動模型用於導出用於仿射高級MVP(AMVP)編解碼模式和仿射合併模式的仿射MVP候選。 此外,仿射MVP候選列表可以包括多於一個仿射MVP候選。 對於在AMVP模式中編解碼的塊,在位元流中信令所選擇的候選MVP對的索引。 兩個控制點的MV差(MVD)在用於4-參數仿射模型的位元流中編解碼。 三個控制點的MV差(MVD)在用於6參數仿射模型的位元流中被編解碼。 對於以仿射合併模式編解碼的塊,僅在位元流中信令所選擇的候選MVP對的索引。 在下面的討論中,爲方便起見,爲具有兩個控制點運動矢量的4參數仿射模型提供了大多數示例。 然而,應該理解,本發明也適用於具有三個控制點運動矢量的6參數仿射模型的情况。
兩種仿射候選用於仿射AMVP模式和仿射合併模式。 兩種仿射候選對應於繼承的(inherited)仿射候選和角點導出候選(corner derived candidate)。 兩種仿射候選的推導簡要回顧如下。
繼承的仿射候選
通過繼承相鄰塊的仿射模型來導出繼承的仿射候選。 用於導出繼承的仿射候選的相鄰塊在第3圖中示出,其中使用當前塊310的左下角周圍的塊A0和A1以及當前塊310上方的塊B0、B1和B2。 導出兩個候選。 一個候選來自塊A0和A1。 如果使用仿射模式預測塊A0並且參考圖片列表0或列表1中的參考圖片與當前塊的目標參考圖片相同,則A0的控制點MVs被用作一個繼承的仿射候選。否則,檢查塊A1是否使用仿射模式預測以及參考列表0或列表1中的參考圖片是否與當前塊的目標參考圖片相同。 如果是,則A1的控制點MV用作一個仿射MVP候選。 換句話說,搜索順序是(A0-> A1)。 以(B0-> B1-> B2)的順序將相同的過程應用於頂部相鄰塊以導出另一個繼承的仿射候選。 對於繼承的仿射候選,選擇來自相同相鄰塊的控制點MV。 在本發明中,爲方便起見,參考圖片列表也可稱爲參考列表。
角點導出(Corner Derived)的候選(或構造的候選)
對於角點導出的候選,控制點MV是從不同的相鄰塊導出的。 角點導出候選的示例在第5圖中示出。角點導出候選對應於相鄰塊{a0,a1,a2}中的第一可用MV。 角點導出候選對應於相鄰塊{b0,b1}中的第一可用MV,並且角點導出候選對應於相鄰塊{c0,c1}中的第一可用MV。 第一可用MV是列表0(即,L0)或列表1(即,L1)中的MV,其指向與當前參考圖片相同的目標參考圖片。 例如,搜索順序可以是b0-L0、b0-L1、b1-L0和b1-L1。 僅插入一個角點導出的仿射候選。
可以在仿射MVP候選列表中的角點導出候選之前插入繼承的候選。
仿射 AMVP 模式中的仿射 MVP 對導出
在ITU-T13-SG16-C-1016中,相鄰MV用於形成MVP對。 在本發明中,使用由仿射模式編解碼的相鄰塊中的等式(2)中的仿射資訊{a,b,e,f}來生成仿射MVP對。 例如,如果使用仿射模式對相鄰塊C1進行編解碼,則當欲使用仿射模式對當前塊進行編解碼時,相鄰塊C1之仿射資訊將用於導出一個MV對作爲仿射MVP對。 基於等式(3),當前塊的(v0x , v0y ) 和 (v1x , v1y )可以在等式(7)中導出:
, 及(7)
在上面的等式中,{a,b,e,f}是在相鄰塊C1中使用的仿射參數。 該仿射MVP對的優先級可以高於原始方法。 根據本發明的實施例,來自相鄰塊的仿射資訊生成的所有仿射MVP對首先被插入到MVP對列表中。 之後,可以遵循基於原始方法的MVP推導。 在另一個實施例中,該提出的方法在仿射MVP對列表中可以在仿射MVP對的基礎上與原始方法所生成之非仿射MVP對交織放入列表中。
在另一個實施例中,對於4-參數仿射模型,可以根據以下等式導出空間遺傳仿射候選的兩個控制點MVP的MV:
V0x = VB0x + (VB0y - VB1y ) * (posCurCU_Y - posRefCU_Y)/RefCU_width + (VB1x - VB0x ) * (posCurCU_X - posRefCU_X) / RefCU_width
V0y = VB0y + (VB1x - VB0x ) * (posCurCU_Y- posRefCU_Y) / RefCU_width
+ (VB1y - VB0y ) * (posCurCU_X - posRefCU_X) / RefCU_width
V1x = VB0x + (VB0y - VB1y ) * ( posCurCU_Y - posRefCU_Y) / RefCU_width + (VB1x - VB0x ) * (posCurCU_X + CU_width - posRefCU_X) / RefCU_width
V1y = VB0y + (VB1x - VB0x ) * (posCurCU_Y - posRefCU_Y) / RefCU_width + (VB1y - VB0y ) * (posCurCU_X + CU_width - posRefCU_X) / RefCU_width
在上述等式中,VB0 和VB1 可以分別由任何參考/相鄰CU的左上MV和右上MV代替,(posCurCU_X,posCurCU_Y)是相對於圖片的左上樣本的當前CU左上樣本的像素位置,(posRefCU_X,posRefCU_Y)是相對於圖片的左上樣本的參考/相鄰CU的左上樣本像素位置。
對於6參數仿射模型,空間遺傳的仿射候選的兩個控制點MVP的MV可以通過以下等式導出。
V0x = VB0x + (VB2x - VB0x ) * ( posCurCU_Y - posRefCU_Y) / RefCU_height + (VB1x - VB0x ) * (posCurCU_X - posRefCU_X) / RefCU_width
V0y = VB0y + (VB2y - VB0y ) * (posCurCU_Y - posRefCU_Y) / RefCU_height
+ (VB1y - VB0y ) * (posCurCU_X - posRefCU_X) / RefCU_width
V1x = VB0x + (VB2x - VB0x ) * ( posCurCU_Y - posRefCU_Y) / RefCU_height + (VB1x - VB0x ) * (posCurCU_X + CU_width - posRefCU_X) / RefCU_width
V1y = VB0y + (VB2y - VB0y ) * (posCurCU_Y - posRefCU_Y) / RefCU_height + (VB1y - VB0y ) * (posCurCU_X + CU_width - posRefCU_X) / RefCU_width
V2x = VB0x + (VB2x - VB0x ) * ( posCurCU_Y + CU_height - posRefCU_Y) / RefCU_height + (VB1x - VB0x ) * (posCurCU_X - posRefCU_X) / RefCU_width
V2y = VB0y + (VB2y - VB0y ) * (posCurCU_Y + CU_height - posRefCU_Y) / RefCU_height + (VB1y - VB0y ) * (posCurCU_X - posRefCU_X) / RefCU_width
在上述等式中,VB0 、VB1 和VB2 可以分別由任何參考/相鄰CU的左上MV、右上MV和左下MV代替,(posCurCU_X,posCurCU_Y)是當前CU的左上樣本相對於圖片的左上樣本的像素位置,(posRefCU_X,posRefCU_Y)是參考/相鄰CU的左上樣本相對於圖片的左上樣本的像素位置。
繼承的仿射模型控制點MV推導也可以表示如下。 首先,定義了一些變量:
– 亮度位置(xCb,yCb)指定當前亮度編解碼塊相對於當前圖像的左上亮度樣本的左上樣本,
– 兩個變量cbWidth和cbHeight指定當前亮度編解碼塊的寬度和高度,
– 亮度位置(xNb,yNb)指定相鄰亮度編解碼塊相對於當前圖片的左上亮度樣本的樣本,
– 兩個變量nNbW和nNbH指定相鄰亮度編解碼塊的寬度和高度,
– 控制點運動矢量numCpMv的數量。
– cpMvLX [cpIdx]是亮度仿射控制點向量,其中cpIdx = 0,...,numCpMv - 1且X為0或1(列表0為0,列表1為1)。
變量log2NbW和log2NbH如下導出:
log2NbW = Log2( nNbW ),
log2NbH = Log2( nNbH ).
變量mvScaleHor、mvScaleVer、dHorX和dVerX如下導出:
mvScaleHor = MvLX[ xNb ][ yNb ][ 0 ] << 7
mvScaleVer = MvLX[ xNb ][ yNb ][ 1 ] << 7
dHorX = (MvLX[ xNb + nNbW − 1][yNb][ 0 ] − MvLX[xNb][yNb][ 0 ] ) << (7 − log2NbW)
dVerX = (MvLX[ xNb + nNbW − 1][yNb][ 1 ] − MvLX[xNb][yNb][ 1 ] ) << (7 − log2NbW)
在上面的等式中,MvLX [xNb] [yNb]對應於位置(xNb,yNb)中的運動矢量。 變量dHorY和dVerY的推導如下:
– 若 MotionModelIdc[ xNb ][ yNb ]等於2, 以下適用:
dHorY = ( MvLX[xNb][yNb + nNbH − 1][ 0 ] − MvLX[ xNb ][ yNb ][ 0 ] )
<< ( 7 − log2NbH )
dVerY = ( MvLX[xNb] yNb + nNbH − 1][ 1 ] − MvLX[ xNb ][ yNb ][ 1 ] )
<< ( 7 − log2NbH )
– 否則 (MotionModelIdc[ xNb ][ yNb ] 等於1), 以下適用,
dHorY = − dVerX
dVerY = dHorX
具有cpIdx = 0, ..., numCpMv − 1 且X 爲 0 或 1 的亮度仿射控制點運動矢量cpMvLX[ cpIdx ] 的導出如下:
– 前兩個控制點運動矢量cpMvLX[ 0 ] and cpMvLX[ 1 ] 的導出如下:
cpMvLX[ 0 ][ 0 ] = (mvScaleHor + dHorX * (xCb − xNb) + dHorY * (yCb − yNb))
cpMvLX[ 0 ][ 1 ] = (mvScaleVer + dVerX * (xCb − xNb) + dVerY * (yCb − yNb))
cpMvLX[ 1 ][ 0 ] = (mvScaleHor + dHorX * (xCb + cbWidth − xNb) + dHorY * (yCb − yNb))
cpMvLX[ 1 ][ 1 ] = (mvScaleVer + dVerX * (xCb + cbWidth − xNb) + dVerY * (yCb − yNb))
– 若numCpMv等於3, 第三個控制點矢量cpMvLX[ 2 ] 的導出如下:
cpMvLX[ 2 ][ 0 ] = ( mvScaleHor + dHorX * ( xCb − xNb ) + dHorY * ( yCb + cbHeight − yNb ) )
cpMvLX[ 2 ][ 1 ] = ( mvScaleVer + dVerX * ( xCb − xNb ) + dVerY * ( yCb + cbHeight − yNb ) )
預定義插入順序。 例如,可以按照“A1 à B1 à B0 à A0 à B2”的順序插入相鄰的繼承仿射MVP對。 可以根據預定義的順序將相鄰的繼承的仿射MVP對插入到仿射MVP候選列表中。 在一個示例中,如果相鄰塊之一是仿射編解碼塊並且塊的參考列表之一指向當前目標參考圖片,則選擇該仿射MVP對用於導出候選並插入候選列表。可以首先或稍後檢查與當前目標參考列表相同的參考列表。 例如,如果首先檢查與當前目標參考列表相同的參考列表,並且當前目標參考列表是列表1。在位置A1的塊中,首先檢查列表1中的參考圖片; 如果參考圖片不等於當前目標參考圖片,則檢查列表0中的參考圖片。 如果列表0中的參考圖片等於目標參考圖片,則選擇該仿射MVP對用於導出候選並插入到MVP候選列表中。 如果列表0和列表1中的參考圖片都不等於當前目標參考圖片,則不選擇該仿射MVP對來導出候選。
在另一實施例中,遵循預定義順序,將檢查B1、B0、A0和B2中的塊,直到仿射MVP候選列表已滿。 例如,如果相鄰塊之一是仿射編解碼塊並且塊指向與當前目標參考列表相同的參考列表中的當前目標參考圖片,則選擇該仿射MVP對用於導出候選並插入到候選列表。 在又一示例中,如果相鄰塊之一是仿射編解碼塊並且塊指向當前目標參考列表的另一參考列表中的當前目標參考圖片,則選擇該仿射MVP對用於導出候選並插入到候選列表。在上述過程之後,如果候選列表未滿,則可以添加縮放的仿射MVP對。 運動矢量縮放在本領域中是已知的。 當運動矢量指向當前參考圖片之外的參考圖片時,可以根據圖片距離從原始MV導出縮放的MV。 縮放的控制點MV可以用作鄰近的繼承仿射MVP對。 例如,可用控制點MV被縮放到目標參考圖片作爲MVP候選之一。 可以預定義或導出關於應首先縮放哪個參考列表之控制點MV的順序。 例如,可以首先或稍後檢查相同的參考列表。
在一個實施例中,如果仿射編解碼塊已經用於生成仿射MVP對,則可以在仿射MVP對生成過程中跳過它。 例如,如果仿射編解碼塊已經用於生成沒有MV縮放的仿射MVP對,則它將不用於生成具有MV縮放的仿射MVP對。 在另一示例中,在預定義的塊掃描順序下,逐個插入未縮放的仿射MVP對和/或縮放的仿射MVP對。 例如,仿射MVP對可以按以下順序插入:A1的未縮放仿射MVP對、A1的縮放MVP對、B1的未縮放仿射MVP對、B1的縮放仿射MVP對, 等等。 此外,如果已經使用了未縮放的仿射MVP對,則可以跳過縮放的仿射MVP對。
在另一個示例中,插入順序是不同的。 如第6圖所示,它具有用於當前塊710的兩個處理分支。在第一分支中,首先掃描左側塊。 它從左側塊中導出一個仿射MVP候選對(例如,首先是A0,然後是A1,或者首先是A1,然後是A0)。 可以使用上述類似的過程。 例如,如果相鄰塊之一是仿射編解碼塊並且相鄰塊的參考列表(其與當前塊的當前目標參考列表相同)中的參考圖片指向當前目標參考圖片,則選擇仿射MVP對用於導出候選並插入候選列表中。使用第一個可用的MV。 可以首先或稍後檢查與當前目標參考列表相同的相鄰塊的參考列表。 例如,如果首先檢查與當前目標參考列表相同的參考列表並且當前目標參考列表是列表1,則首先檢查列表1中的參考圖片以用於位置A0處的塊。 如果參考圖片不等於當前目標參考圖片,則檢查列表0中的參考圖片。 如果列表0中的參考圖片等於目標參考圖片,則選擇該仿射MVP對用於導出候選並插入候選列表中; 並且不會進一步檢查塊A1。如果列表0和列表1中的塊A0的參考圖片不等於當前目標參考圖片,則不選擇該仿射MVP對用於導出候選; 然後檢查塊A1中的參考圖片。 如果列表1中的參考圖片等於當前目標參考圖片,則選擇該仿射MVP對用於導出候選並插入到仿射MVP列表中。 如果它們都不可用,則可以使用上面提到的縮放的仿射MVP對。 例如,可以將可用控制點MV縮放到目標參考圖片作爲仿射MVP候選之一。
在一個實施例中,如果仿射編解碼塊已經用於生成沒有MV縮放的仿射MVP對,則它將不用於生成具有MV縮放的仿射MVP對。 在第二個分支中,掃描上方塊。 它根據搜索順序(例如,從B0到B2或從B2到B0)從上方塊導出一個仿射MVP候選對。 可以應用第一分支的類似過程。 使用第一個可用的。 可以首先或稍後檢查與當前目標參考列表相同的參考列表。例如,如果當前目標參考列表是列表1,則首先檢查參考列表1。 對於位置B0處的塊,首先檢查列表1中的參考圖片。 如果參考圖片不等於當前目標參考圖片,則檢查列表0中的參考圖片。 如果列表0中的參考圖片等於目標參考圖片,則選擇該仿射MVP對用於導出候選並插入候選列表。 在這種情況下,不會檢查B1和B2。 如果塊B0的列表0和列表1中的塊B0的參考圖片不等於當前目標參考圖片,則不選擇該仿射MVP對用於導出候選,然後將檢查塊B1中的參考圖片。如果列表1中的參考圖片等於當前目標參考圖片,則選擇該仿射MVP對用於導出候選並插入到仿射MVP列表中。 在這種情況下,不會進一步檢查塊B2。 如果塊B1的列表0和列表1中的參考圖片不等於當前目標參考圖片,則將檢查塊B2。 如果塊B2的列表1中的參考圖片等於當前目標參考圖片,則選擇該仿射MVP對用於導出候選並插入到仿射MVP列表中。在另一示例中,根據預定義的塊掃描順序,逐對插入未縮放的仿射MVP對和/或縮放的仿射MVP對。 例如,在第一個分支中按以下順序插入仿射MVP對:A0的未縮放仿射MVP對,A0的縮放仿射MVP對,A1的未縮放仿射MVP對,然後是A1的縮放仿射MVP 對。 此外,如果未縮放的仿射MVP對已經在仿射MVP候選列表中,則可以跳過縮放的仿射MVP對。
注意,可以對待添加的仿射MVP對執行修剪以防止冗餘。 修剪過程可以是a)檢查所有控制點MV是否與MVP對中的一個相同,b)檢查控制點MV與一個或多個已經位於列表中的仿射MVP對的MV差異是否是小於閾值。
此外,如果仿射MVP對中的所有控制點的導出的MV是相同的(即,仿射模型是平移(translational)運動模型),則可以丟弃或不將所導出的仿射MVP對插入候選列表中。 或者,這種仿射MVP對的優先級被移動到低優先級(即,如果沒有其他候選存在或候選列表未滿,則插入到列表中)。
該仿射MVP對的優先級可以高於原始方法。 例如,可以首先將通過使用來自相鄰塊的仿射資訊生成的所有仿射MVP對插入到仿射MVP對列表中。 之後可以遵循原始方法。 由原始方法或常規方法生成的仿射MVP候選是指不使用仿射資訊的方法。 在另一個實施例中,本提出的方法在仿射MVP對列表中可以基於仿射MVP對與原始方法所生成之非仿射MVP交織放入列表中。
如果仿射MVP對的數量小於預定義值(例如,2),則可以使用角點導出的仿射候選。 如第5圖所示的相鄰運動矢量可用於導出仿射MVP對。 對於第一個角點導出的仿射候選,集合A中的第一個可用MV(即,塊a0、a1和a2)和集合B中的第一個可用MV(即,塊b0和b1)用於構造第一MVP對。 對於第二角點導出的仿射候選,集合A中的第一可用MV和集合C中的第一可用MV(即,塊c0和c1)用於計算右上控制點的MV。集合A中的第一個可用MV和計算的右上角控制點MV是第二個仿射MVP對。 此外,如果仿射MVP對中的所有控制點的導出MV是相同的(即,仿射模型是平移運動模型),則可以丟棄或不將所導出的仿射MVP對插入候選列表中。 或者,這種仿射MVP對的優先級被移動到低優先級(例如,如果沒有其他候選存在或候選列表未滿,則插入到列表中)。
如果在添加相鄰繼承仿射和角點仿射MVP之後,仿射MVP的數量仍然小於預定值,則使用正常AMVP MVP。 仿射MVP對的兩個控制點用來自正常AMVP MVP列表中的MVP之一的相同MV填充。
在如上所公開的本發明的實施例中,兩個控制點MVP對用作4-參數仿射運動模型的示例。 然而,本發明不限於4-參數仿射模型。 本發明可以應用於其他仿射模型,例如6參數模型。 對於6參數仿射模型,MVP集合可以是MVP三元組(即,三個MV)或MV集合。
以上實施例還可以應用於仿射AMVP和仿射合併模式候選列表構造。
可以在編碼器和/或解碼器中實現任何前述提出的方法。 例如,任何所提出的方法可以在編碼器側或解碼器側的仿射MV / MVP生成模塊中實現。 或者,任何所提出的方法可以實現爲耦合到編碼器和/或解碼器的仿射MV / MVP生成模塊的電路,以便提供仿射MV / MVP生成模塊所需的資訊。
第7圖示出了具有結合本發明實施例的仿射幀間模式的視訊編解碼系統的示例性流程圖,其中系統使用仿射MVP候選列表來編解碼當前塊的運動資訊。 流程圖中示出的步驟可以實現爲在編碼器側的一個或多個處理器(例如,一個或多個CPU)上可執行的可程式化代碼。 流程圖中示出的步驟還可以基於諸如被佈置為執行流程圖中的步驟的一個或多個電子設備或處理器的硬體來實現。 根據該方法,在步驟810,在視訊編碼器側接收與當前塊相關的輸入資料,或者在視訊解碼器側接收與包括當前塊的壓縮資料相對應的視訊位元流。該方法可以應用於編碼以及解碼。因此,在步驟810中相應地敘述編碼器和解碼器的資料輸入。在步驟820中確定當前塊的相鄰塊集合。在步驟830中,如果使用仿射運動模型對所述至少一個相鄰塊進行編解碼,則基於至少一個相鄰塊的對應控制點MV集合導出至少一個繼承的仿射MVP。在步驟840中,生成仿射MVP候選列表,其中仿射MVP候選列表包括所述至少一個繼承的仿射MVP。在步驟850中,使用從視訊編碼器側的仿射MVP候選列表中選擇的一個預測值對與仿射運動模型相關聯的當前控制點MV集合的預測差異進行編碼,或者,使用從仿射MVP候選列表中選擇的一個預測值來解碼與視訊解碼器側的仿射運動模型相關聯的當前控制點MV集合的預測差異。
第8圖示出了具有結合本發明實施例的仿射幀間模式的視訊編解碼系統的另一示例性流程圖,其中系統使用仿射MVP候選列表來編解碼當前塊的運動資訊。 根據該方法,在步驟910,在視訊編碼器側接收與當前塊相關的輸入資料,或者在視訊解碼器側接收與包括當前塊的壓縮資料相對應的視訊位元流。該方法可以應用於編碼以及解碼。 因此,在步驟910中相應地敘述用於編碼器和解碼器的資料輸入。在步驟920中確定當前塊的相鄰塊集合。在步驟930中,如果使用仿射運動模型對所述至少一個相鄰塊進行編解碼,則基於至少一個相鄰塊的對應控制點MV集合導出至少一個繼承的仿射MVP,該至少一個相鄰塊的參考圖片列表中的至少一個包括與當前塊的當前參考圖片相同的一個參考圖片。在步驟940中,生成仿射MVP候選列表,其中仿射MVP候選列表包括所述至少一個繼承的仿射MVP。 在步驟950中,使用從視訊編碼器側的仿射MVP候選列表中選擇的一個預測值對與仿射運動模型相關聯的當前控制點MV集合的預測差異進行編碼,或者,使用從仿射MVP候選列表中選擇的一個預測值來解碼與視訊解碼器側的仿射運動模型相關聯的當前控制點MV集合的預測差異。
所示的流程圖旨在示出根據本發明的視訊的示例。 在不脫離本發明的精神的情況下,本領域具有通常知識者可以修改每個步驟、重新安排步驟、分割步驟,或組合步驟以實施本發明。 在本公開中,已經使用特定語法和語義來說明實現本發明實施例的示例。 本領域具有通常知識者可以通過用等同的語法和語義替換語法和語義來實踐本發明而不脫離本發明的精神。
呈現以上描述是爲了使得本領域具有通常知識者能夠實踐在特定應用及其要求的上下文中提供的本發明。 對所描述的實施例的各種修改對於本領域具有通常知識者來說是顯而易見的,並且這裡定義的一般原理可以應用於其他實施例。 因此,本發明不限於所示出和描述的特定實施例,而是與符合本文所公開的原理和新穎特徵的最寬範圍相一致。 在以上詳細描述中,示出了各種具體細節以便提供對本發明的透徹理解。 然而,本領域具有通常知識者將理解,可以實施本發明。
如上所述的本發明的實施例可以以各種硬體、軟體代碼或兩者的組合來實現。例如,本發明的實施例可以是集成到視訊壓縮晶片中的電路或集成到視訊壓縮軟體中的可程式化代碼,以執行這裏描述的處理。本發明的實施例還可以是要在數位信號處理器(DSP)上執行的可程式化代碼,以執行這裡描述的處理。本發明還可以涉及由計算機處理器、數位信號處理器、微處理器或現場可程式化門陣列(FPGA)執行的許多功能。這些處理器可以被配置爲通過執行定義本發明所體現的特定方法的機器可讀軟體代碼或韌體代碼來執行根據本發明的特定任務。軟體代碼或韌體代碼可以用不同的程式語言和不同的格式或樣式開發。還可以針對不同的目標平臺編譯軟體代碼。然而,軟體代碼的不同代碼格式、樣式和語言以及配置代碼以執行根據本發明的任務的其他裝置將不脫離本發明的精神和範圍。
在不脫離本發明的精神或基本特徵的情況下,本發明可以以其他特定形式實施。 所描述的示例在所有方面都應被視爲僅是說明性的而非限制性的。 因此,本發明的範圍由所附申請專利範圍而不是前面的描述表示。 在申請專利範圍的含義和等同範圍內的所有變化都包含在其範圍內。
110、120、210、310、410、710‧‧‧塊
420‧‧‧平行四邊形
810~850、910~950‧‧‧步驟
第1A圖示出了四參數仿射模型的示例,其中變換塊仍然是矩形塊。
第1B圖示出了基於兩個控制點的MV為每個4×4子塊確定的當前塊的運動矢量的示例。
第2圖示出了用於導出角點導出的仿射候選的相鄰塊集合。
第3圖示出了用於導出繼承的仿射候選的相鄰塊集合。
第4A圖示出了六參數仿射模型的3個控制點(,)的示例。
第4B圖示出了能夠將矩形變換爲平行四邊形的六參數仿射運動模型的示例。
第5圖示出了角點導出候選的示例,其中三個控制點運動向量中的每一個是從一組相鄰塊導出的。
第6圖示出了使用雙分支過程的繼承候選的示例,其中一個繼承候選從塊A0和A1導出,而另一個繼承候選從塊B0、B1和B2導出。
第7圖示出了具有結合本發明實施例的仿射幀間模式的視訊編解碼系統的示例性流程圖,其中系統使用仿射MVP候選列表來編解碼當前塊的運動資訊。
第8圖示出了具有結合本發明實施例的仿射幀間模式的視訊編解碼系統的另一示例性流程圖,其中系統使用仿射MVP候選列表來編解碼當前塊的運動資訊。

Claims (31)

  1. 一種幀間預測方法,用於由視訊編碼器或視訊解碼器執行的視訊編解碼,其利用運動矢量預測(MVP)來編解碼與塊相關聯的運動矢量(MV),其中該塊利用包括仿射運動模式的編解碼模式編解碼, 該幀間預測方法包括: 接收與視訊編碼器側的當前塊相關的輸入資料或與視訊解碼器側的包括該當前塊的壓縮資料相對應的視訊位元流; 確定該當前塊的相鄰塊集合; 如果使用仿射運動模型對至少一個相鄰塊進行編解碼,則基於該至少一個相鄰塊的對應控制點MV集合導出至少一個繼承的仿射MVP; 生成仿射MVP候選列表,其中該仿射MVP候選列表包括該至少一個繼承的仿射MVP; 以及 使用從該視訊編碼器側的該仿射MVP候選列表中選擇的一個預測值來編解碼與該仿射運動模型相關聯的當前控制點MV集合的預測差異,或者使用從該仿射MVP候選列表中選擇的一個預測值解碼在該視頻解碼器側與該仿射運動模型相關聯的該當前控制點MV集合的該預測差異。
  2. 如申請專利範圍第1項所述之幀間預測方法,其中,該相鄰塊集合包括上方塊(B1)、右上塊(B0)、左上塊(B2)、左塊(A1)和左下塊(A0)。
  3. 如申請專利範圍第2項所述之幀間預測方法,其中根據對應於A1-> B1-> B0-> A0-> B2的預定義順序檢查是否使用該仿射運動模型對任何相鄰塊進行編解碼。
  4. 如申請專利範圍第2項所述之幀間預測方法,其中,該相鄰塊集合被劃分為第一子集和第二子集,並且其中,該第一子集包括A0和A1,並且該第二子集包括B0、B1和B2。
  5. 如申請專利範圍第4項所述之幀間預測方法,其中,根據A0-> A1的第一順序,基於該第一子集中的首先可用的第一仿射編解碼塊的第一控制點MV集合導出第一繼承的仿射MVP,根據B0-> B1-> B2的第二順序,基於該第二子集中的首先可用的第二仿射編解碼塊的第二控制點MV集合導出繼承的仿射MVP。
  6. 如申請專利範圍第1項所述之幀間預測方法,其中在將該至少一個繼承的仿射MVP插入該仿射MVP候選列表之後,如果該仿射MVP候選列表未滿,則將來自正常MVP列表的正常MVP添加到該仿射MVP候選列表。
  7. 如申請專利範圍第1項所述之幀間預測方法,其中如果該至少一個繼承的仿射MVP與已經在該仿射MVP候選列表中的另一仿射MVP相同,則移除該至少一個繼承的仿射MVP或者不將其插入到該仿射MVP候選列表中。
  8. 如申請專利範圍第1項所述之幀間預測方法,其中如果該至少一個繼承的仿射MVP與該仿射MVP候選列表中的另一個仿射MVP之間的控制點MV的差異小於閾值,該至少一個繼承的仿射MVP被移除或者不將該至少一個繼承的仿射MVP插入到該仿射MVP候選列表中。
  9. 如申請專利範圍第1項所述之幀間預測方法,其中如果該至少一個繼承的仿射MVP的所有控制點MV都相同,則移除該至少一個繼承的仿射MVP或不將其插入到該仿射MVP候選列表中。
  10. 如申請專利範圍第1項所述之幀間預測方法,還包括:如果使用幀間預測模式對該至少一個相鄰塊或兩個相鄰塊進行編解碼,則基於從不同相鄰塊導出的第二控制點MV集合導出至少一個構造的仿射MVP,其中,該仿射MVP候選列表包括該至少一個構造的仿射MVP。
  11. 如申請專利範圍第10項所述之幀間預測方法,其中將該至少一個繼承的仿射MVP插入到該仿射MVP候選列表中該至少一個構造的仿射MVP之前。
  12. 如申請專利範圍第1項所述之幀間預測方法,當該仿射MVP候選列表中的仿射MVP候選的數量小於預定義數量時,如果使用幀間預測模式對該至少一個相鄰塊或兩個相鄰塊進行編解碼,基於從不同相鄰塊導出的第二控制點MV集合導出至少一個構造的仿射MVP,其中該仿射MVP候選列表包括該至少一個構造的仿射MVP。
  13. 如申請專利範圍第12項所述之幀間預測方法,其中如果該至少一個繼承的仿射MVP的所有控制點MV都相同,則移除該至少一個構造的仿射MVP或不將其插入該仿射MVP候選列表中。
  14. 一種幀間預測裝置,用於由視訊編碼器或視訊解碼器執行的視訊編解碼,其利用運動矢量預測(MVP)來編解碼與塊相關聯的運動矢量(MV),其中該塊利用包括仿射運動模式的編解碼模式編解碼, 該幀間預測裝置包括一個或多個電子電路或處理器,用於: 接收與視訊編碼器側的當前塊相關的輸入資料或與視訊解碼器側的包括該當前塊的壓縮資料相對應的視訊位元流; 確定該當前塊的相鄰塊集合; 如果使用仿射運動模型對至少一個相鄰塊進行編解碼,則基於該至少一個相鄰塊的對應控制點MV集合導出至少一個繼承的仿射MVP; 生成仿射MVP候選列表,其中該仿射MVP候選列表包括該至少一個繼承的仿射MVP; 以及 使用從該視訊編碼器側的該仿射MVP候選列表中選擇的一個預測值來編解碼與該仿射運動模型相關聯的當前控制點MV集合的預測差異,或者使用從該仿射MVP候選列表中選擇的一個預測值解碼在該視頻解碼器側與該仿射運動模型相關聯的該當前控制點MV集合的該預測差異。
  15. 一種幀間預測方法,用於由視訊編碼器或視訊解碼器執行的視訊編解碼,其利用運動矢量預測(MVP)來編解碼與塊相關聯的運動矢量(MV),其中該塊利用包括仿射運動模式的編解碼模式編解碼, 該幀間預測方法包括: 接收與視訊編碼器側的當前塊相關的輸入資料或與視訊解碼器側的包括該當前塊的壓縮資料相對應的視訊位元流; 確定該當前塊的相鄰塊集合; 如果使用仿射運動模型對該至少一個相鄰塊進行編解碼,並且至少一個相鄰塊的至少一個參考圖片列表包括與該當前塊的當前參考圖片相同的一個參考圖片,則基於該至少一個相鄰塊的對應控制點MV集合導出至少一個繼承的仿射MVP ; 生成仿射MVP候選列表,其中該仿射MVP候選列表包括該至少一個繼承的仿射MVP; 以及 使用從該視訊編碼器側的該仿射MVP候選列表中選擇的一個預測值來編碼與該仿射運動模型相關聯的當前控制點MV集合的預測差異,或者使用從該仿射MVP候選列表中選擇的一個預測值解碼在該視頻解碼器側與該仿射運動模型相關聯的該當前控制點MV集合的該預測差異。
  16. 如申請專利範圍第15項所述之幀間預測方法,其中該至少一個相鄰塊的該至少一個參考圖片列表對應於該當前塊的當前參考圖片列表。
  17. 如申請專利範圍第15項所述之幀間預測方法,其中該至少一個相鄰塊的該至少一個參考圖片列表對應於與該當前塊的當前參考圖片列表不同的一個參考圖片列表。
  18. 如申請專利範圍第15項所述之幀間預測方法,其中當在該至少一個繼承的仿射MVP被插入到該仿射MVP候選列表中之後,如果該仿射MVP候選列表未滿: 如果在該仿射運動模型中對所選擇的相鄰塊進行編解碼,並且該所選擇的相鄰塊的目標參考圖片與該當前塊的該當前參考圖片不同: 通過將目標相鄰塊的對應控制點MV集合從該目標參考圖片縮放到該當前參考圖片來導出縮放的繼承的仿射MVP;以及 將該縮放的繼承的仿射MVP插入到該仿射MVP候選列表中。
  19. 如申請專利範圍第18項所述之幀間預測方法,其中,檢查位於來自該當前塊的當前參考圖片列表不同的參考圖片列表中的該目標參考圖片之前,檢查位於該當前塊的該當前參考圖片列表的相同參考圖片列表中的該目標參考圖片。
  20. 如申請專利範圍第18項所述之幀間預測方法,其中,檢查位於來自該當前塊的當前參考圖片列表不同的參考圖片列表中的該目標參考圖片之後,檢查位於該當前塊的該當前參考圖片列表的相同參考圖片列表中的該目標參考圖片。
  21. 如申請專利範圍第18項所述之幀間預測方法,其中,如果從該所選擇的相鄰塊導出的一個繼承的仿射MVP已經被插入到該仿射MVP候選列表中,則將該縮放的繼承的仿射MVP包括到該仿射MVP候選列表中的操作被跳過。
  22. 如申請專利範圍第18項所述之幀間預測方法,其中,從該所選擇的相鄰塊導出的該縮放的繼承的仿射MVP被插入到該仿射MVP候選列表中的位於從該所選擇的相鄰塊導出的相應的繼承的仿射MVP之後的位置中。
  23. 如申請專利範圍第15項所述之幀間預測方法,其中在將該至少一個繼承的仿射MVP插入到該仿射MVP候選列表中之後,如果該仿射MVP候選列表未滿,則將來自正常MVP列表的正常MVP添加到該仿射MVP候選列表。
  24. 如申請專利範圍第15項所述之幀間預測方法,其中如果該至少一個繼承的仿射MVP與已經在該仿射MVP候選列表中的另一仿射MVP相同,則移除該至少一個繼承的仿射MVP或者不將其插入到該仿射MVP候選列表中。
  25. 如申請專利範圍第15項所述之幀間預測方法,其中如果該至少一個繼承的仿射MVP與該仿射MVP候選列表中的另一個仿射MVP之間的控制點MV的差異小於閾值,該至少一個繼承的仿射MVP被移除或者不將該至少一個繼承的仿射MVP插入到該仿射MVP候選列表中。
  26. 如申請專利範圍第15項所述之幀間預測方法,其中如果該至少一個繼承的仿射MVP的所有控制點MV都相同,則移除該至少一個繼承的仿射MVP或不將其插入到該仿射MVP候選列表中。
  27. 如申請專利範圍第15項所述之幀間預測方法,還包括:如果使用幀間預測模式對該至少一個相鄰塊或兩個相鄰塊進行編解碼,則基於從不同相鄰塊導出的第二控制點MV集合導出至少一個構造的仿射MVP,其中,該仿射MVP候選列表包括該至少一個構造的仿射MVP。
  28. 如申請專利範圍第27項所述之幀間預測方法,其中將該至少一個繼承的仿射MVP插入到該仿射MVP候選列表中該至少一個構造的仿射MVP之前。
  29. 如申請專利範圍第15項所述之幀間預測方法,當該仿射MVP候選列表中的仿射MVP候選的數量小於預定義數量時,如果使用幀間預測模式對該至少一個相鄰塊或兩個相鄰塊進行編解碼,基於從不同相鄰塊導出的第二控制點MV集合導出至少一個構造的仿射MVP,其中該仿射MVP候選列表包括該至少一個構造的仿射MVP。
  30. 如申請專利範圍第29項所述之幀間預測方法,其中如果該至少一個繼承的仿射MVP的所有控制點MV都相同,則移除該至少一個構造的仿射MVP或不將其插入該仿射MVP候選列表中。
  31. 一種幀間預測裝置,用於由視訊編碼器或視訊解碼器執行的視訊編解碼,其利用運動矢量預測(MVP)來編解碼與塊相關聯的運動矢量(MV),其中該塊利用包括仿射運動模式的編解碼模式編解碼, 該幀間預測裝置包括一個或多個電子電路或處理器,用於: 接收與視訊編碼器側的當前塊相關的輸入資料或與視訊解碼器側的包括該當前塊的壓縮資料相對應的視訊位元流; 確定該當前塊的相鄰塊集合; 如果使用仿射運動模型對該至少一個相鄰塊進行編解碼,並且至少一個相鄰塊的至少一個參考圖片列表包括與該當前塊的當前參考圖片相同的一個參考圖片,則基於該至少一個相鄰塊的對應控制點MV集合導出至少一個繼承的仿射MVP ; 生成仿射MVP候選列表,其中該仿射MVP候選列表包括該至少一個繼承的仿射MVP; 以及 使用從該視訊編碼器側的該仿射MVP候選列表中選擇的一個預測值來編碼與該仿射運動模型相關聯的當前控制點MV集合的預測差異,或者使用從該仿射MVP候選列表中選擇的一個預測值解碼在該視頻解碼器側與該仿射運動模型相關聯的該當前控制點MV集合的該預測差異。
TW108102862A 2018-01-26 2019-01-25 用於視訊編解碼系統的仿射幀間預測的方法和裝置 TWI702831B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862622227P 2018-01-26 2018-01-26
US62/622,227 2018-01-26
US201862665585P 2018-05-02 2018-05-02
US62/665,585 2018-05-02
WOPCT/CN2019/072980 2019-01-24
PCT/CN2019/072980 WO2019144908A1 (en) 2018-01-26 2019-01-24 Method and apparatus of affine inter prediction for video coding system
??PCT/CN2019/072980 2019-01-24

Publications (2)

Publication Number Publication Date
TW201933872A true TW201933872A (zh) 2019-08-16
TWI702831B TWI702831B (zh) 2020-08-21

Family

ID=67394507

Family Applications (1)

Application Number Title Priority Date Filing Date
TW108102862A TWI702831B (zh) 2018-01-26 2019-01-25 用於視訊編解碼系統的仿射幀間預測的方法和裝置

Country Status (6)

Country Link
US (1) US11356657B2 (zh)
EP (1) EP3744094A4 (zh)
KR (1) KR102463478B1 (zh)
CN (1) CN111466116B (zh)
TW (1) TWI702831B (zh)
WO (1) WO2019144908A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7198949B2 (ja) * 2019-06-13 2023-01-04 ベイジン、ターチア、インターネット、インフォメーション、テクノロジー、カンパニー、リミテッド ビデオ符号化のための動きベクトル予測
CN117941344A (zh) * 2021-09-15 2024-04-26 抖音视界有限公司 用于视频处理的方法、装置和介质

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1193620C (zh) 2000-01-21 2005-03-16 诺基亚有限公司 视频编码器的运动估计方法及系统
EP2966868B1 (en) 2012-10-09 2018-07-18 HFI Innovation Inc. Method for motion information prediction and inheritance in video coding
CN108141582B (zh) 2015-08-07 2022-06-03 Lg 电子株式会社 视频编译系统中的帧间预测方法和装置
WO2017118411A1 (en) 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine inter prediction for video coding system
WO2017147765A1 (en) * 2016-03-01 2017-09-08 Mediatek Inc. Methods for affine motion compensation
US10638152B2 (en) * 2016-03-15 2020-04-28 Mediatek Inc. Method and apparatus of video coding with affine motion compensation
US10560712B2 (en) 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US11451816B2 (en) * 2018-04-24 2022-09-20 Mediatek Inc. Storage of motion vectors for affine prediction
CN116708819A (zh) * 2018-04-24 2023-09-05 Lg电子株式会社 解码装置、编码装置和数据发送装置
WO2019235822A1 (ko) * 2018-06-04 2019-12-12 엘지전자 주식회사 어파인 움직임 예측을 이용하여 비디오 신호를 처리하는 방법 및 장치
CN116708815A (zh) * 2018-08-09 2023-09-05 Lg电子株式会社 编码设备、解码设备和数据发送设备
US11140398B2 (en) * 2018-08-20 2021-10-05 Mediatek Inc. Methods and apparatus for generating affine candidates
US10944984B2 (en) * 2018-08-28 2021-03-09 Qualcomm Incorporated Affine motion prediction
WO2020050281A1 (ja) * 2018-09-06 2020-03-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
CN116647696A (zh) * 2018-09-06 2023-08-25 Lg电子株式会社 图像解码方法、图像编码方法、存储介质和发送方法
CN111448800B (zh) * 2018-09-10 2023-03-17 Lg电子株式会社 在图像编码系统中使用仿射mvp候选列表的基于仿射运动预测的图像解码方法及设备
US11057636B2 (en) * 2018-09-17 2021-07-06 Qualcomm Incorporated Affine motion prediction
US11546605B2 (en) * 2018-09-20 2023-01-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bitstream
US11418793B2 (en) * 2018-10-04 2022-08-16 Qualcomm Incorporated Adaptive affine motion vector coding
US20200120335A1 (en) * 2018-10-12 2020-04-16 Qualcomm Incorporated Affine candidate derivation for video coding
CN111357294B (zh) * 2018-10-23 2022-12-30 北京字节跳动网络技术有限公司 基于子块的运动信息列表的简化熵编解码
EP3788779A4 (en) * 2018-10-23 2022-03-02 Tencent America LLC VIDEO CODING METHOD AND APPARATUS
CN111436230A (zh) * 2018-11-12 2020-07-21 北京字节跳动网络技术有限公司 仿射预测的带宽控制方法
EP3881533A4 (en) * 2018-11-14 2022-09-07 Tencent America LLC VIDEO CODING METHOD AND APPARATUS
CN111630858B (zh) * 2018-11-16 2024-03-29 北京字节跳动网络技术有限公司 组合帧间帧内预测模式中的权重
EP4236320A3 (en) * 2018-12-06 2023-10-11 LG Electronics Inc. Method and device for processing video signal on basis of inter prediction
BR112021010706A2 (pt) * 2018-12-07 2021-11-30 Samsung Electronics Co Ltd Método de decodificação de vídeo, método de codificação de vídeo, e dispositivo de decodificação de vídeo
US11394989B2 (en) * 2018-12-10 2022-07-19 Tencent America LLC Method and apparatus for video coding
JP7073501B2 (ja) * 2018-12-12 2022-05-23 エルジー エレクトロニクス インコーポレイティド 履歴ベース動きベクトル予測に基づいてビデオ信号を処理するための方法及び装置
JP7222086B2 (ja) * 2018-12-13 2023-02-14 テンセント・アメリカ・エルエルシー スキップ及びマージモードのためのマルチ仮説のシグナリング及び動きベクトル差分によるマージの距離オフセットテーブルのシグナリングのための方法及び装置
JP7247345B2 (ja) * 2018-12-13 2023-03-28 ベイジン、ターチア、インターネット、インフォメーション、テクノロジー、カンパニー、リミテッド ビデオ復号化方法、ビデオ復号化装置、及びプログラム
WO2020131583A1 (en) * 2018-12-21 2020-06-25 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatus of video coding for deriving affine motion vectors for chroma components
US11102476B2 (en) * 2018-12-28 2021-08-24 Qualcomm Incorporated Subblock based affine motion model
KR102443965B1 (ko) * 2019-01-01 2022-09-19 엘지전자 주식회사 히스토리 기반 모션 벡터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
US11234007B2 (en) * 2019-01-05 2022-01-25 Tencent America LLC Method and apparatus for video coding
US11153590B2 (en) * 2019-01-11 2021-10-19 Tencent America LLC Method and apparatus for video coding
US11025951B2 (en) * 2019-01-13 2021-06-01 Tencent America LLC Method and apparatus for video coding
US11032560B2 (en) * 2019-01-17 2021-06-08 Tencent America LLC Method and apparatus for video coding without updating the HMVP table
US10904553B2 (en) * 2019-01-22 2021-01-26 Tencent America LLC Method and apparatus for video coding
US11025936B2 (en) * 2019-01-25 2021-06-01 Tencent America LLC Method and apparatus for video coding
US11202089B2 (en) * 2019-01-28 2021-12-14 Tencent America LLC Method and apparatus for determining an inherited affine parameter from an affine model
US11089325B2 (en) * 2019-02-08 2021-08-10 Qualcomm Incorporated Constrained affine motion inheritance for video coding
US10869050B2 (en) * 2019-02-09 2020-12-15 Tencent America LLC Method and apparatus for video coding
US11140406B2 (en) * 2019-02-20 2021-10-05 Qualcomm Incorporated Signalling for merge mode with motion vector differences in video coding
US11134262B2 (en) * 2019-02-28 2021-09-28 Tencent America LLC Method and apparatus for video coding
US20200288175A1 (en) * 2019-03-06 2020-09-10 Qualcomm Incorporated Signaling of triangle merge mode indexes in video coding
US11166015B2 (en) * 2019-03-06 2021-11-02 Tencent America LLC Method and apparatus for video coding
US11323731B2 (en) * 2019-03-08 2022-05-03 Tencent America LLC Method and apparatus for video coding
WO2020185429A1 (en) * 2019-03-11 2020-09-17 Alibaba Group Holding Limited Method, device, and system for determining prediction weight for merge mode
EP3777143A4 (en) * 2019-03-11 2022-02-16 Alibaba Group Holding Limited INTERCODING FOR ADAPTIVE RESOLUTION VIDEO CODING
JP7244646B2 (ja) * 2019-03-12 2023-03-22 テンセント・アメリカ・エルエルシー ビデオ符号化又は復号の方法及び装置並びにコンピュータプログラム
US11394993B2 (en) * 2019-03-13 2022-07-19 Tencent America LLC Method and apparatus for affine inter prediction with small subblocks
US10979716B2 (en) * 2019-03-15 2021-04-13 Tencent America LLC Methods of accessing affine history-based motion vector predictor buffer
US20200304828A1 (en) * 2019-03-18 2020-09-24 Qualcomm Incorporated Affine motion inheritance with virtual pipeline data unit (vpdu) constraint in video coding
US11350108B2 (en) * 2019-03-18 2022-05-31 Tencent America LLC Affine inter prediction refinement with optical flow
US11343525B2 (en) * 2019-03-19 2022-05-24 Tencent America LLC Method and apparatus for video coding by constraining sub-block motion vectors and determining adjustment values based on constrained sub-block motion vectors
US11350083B2 (en) * 2019-04-19 2022-05-31 Qualcomm Incorporated Intra block copy merging data syntax for video coding
EP3939287A4 (en) * 2019-04-25 2022-05-11 Beijing Bytedance Network Technology Co., Ltd. RESTRICTIONS ON DIFFERENCE BETWEEN MOVEMENT VECTORS
US11523109B2 (en) * 2019-05-02 2022-12-06 Tencent America LLC Method and apparatus for improvements of affine prof
US11146813B2 (en) * 2019-05-23 2021-10-12 Tencent America LLC Method and apparatus for video coding
US11611759B2 (en) * 2019-05-24 2023-03-21 Qualcomm Incorporated Merge mode coding for video coding
US11153598B2 (en) * 2019-06-04 2021-10-19 Tencent America LLC Method and apparatus for video coding using a subblock-based affine motion model
US11006121B2 (en) * 2019-06-20 2021-05-11 Tencent America LLC LIC signaling methods
US11272200B2 (en) * 2019-06-24 2022-03-08 Tencent America LLC Method and apparatus for video coding
US11330287B2 (en) * 2019-06-28 2022-05-10 Tencent America LLC Method and apparatus for video coding
US11190789B2 (en) * 2019-06-30 2021-11-30 Tencent America LLC Method and apparatus for video coding using inter-prediction mode signaling to dertermine motion vectors
US11272203B2 (en) * 2019-07-23 2022-03-08 Tencent America LLC Method and apparatus for video coding
US11425414B2 (en) * 2019-08-05 2022-08-23 Tencent America LLC Method and apparatus for video coding
US11375222B2 (en) * 2019-09-22 2022-06-28 Tencent America LLC Method and device for video encoding and decoding with interpolation filter flag being consistent with MMVD distances
US20210092434A1 (en) * 2019-09-23 2021-03-25 Qualcomm Incorporated Adaptive motion vector resolution for affine motion model in video coding
US11582475B2 (en) * 2019-09-24 2023-02-14 Qualcomm Incorporated History-based motion vector prediction
US11317111B2 (en) * 2019-09-29 2022-04-26 Qualcomm Incorporated Affine coding with vector clipping
US11240524B2 (en) * 2019-11-27 2022-02-01 Mediatek Inc. Selective switch for parallel processing
US11212523B2 (en) * 2020-01-12 2021-12-28 Mediatek Inc. Video processing methods and apparatuses of merge number signaling in video coding systems
US11595689B2 (en) * 2020-03-20 2023-02-28 Tencent America LLC Local weighted prediction
US11575926B2 (en) * 2020-03-29 2023-02-07 Alibaba Group Holding Limited Enhanced decoder side motion vector refinement
US11405628B2 (en) * 2020-04-06 2022-08-02 Tencent America LLC Method and apparatus for video coding

Also Published As

Publication number Publication date
TWI702831B (zh) 2020-08-21
US11356657B2 (en) 2022-06-07
EP3744094A1 (en) 2020-12-02
CN111466116A (zh) 2020-07-28
CN111466116B (zh) 2023-04-14
WO2019144908A1 (en) 2019-08-01
US20210067771A1 (en) 2021-03-04
KR102463478B1 (ko) 2022-11-04
KR20200109364A (ko) 2020-09-22
EP3744094A4 (en) 2021-11-03

Similar Documents

Publication Publication Date Title
TWI670966B (zh) 用於視訊編解碼的適應性雙預測的方法及裝置
TWI720492B (zh) 使用雙向cu加權的視訊編解碼的方法和裝置
TWI670970B (zh) 在視訊編解碼中預測子細化的候選跳過的方法和裝置
WO2017118411A1 (en) Method and apparatus for affine inter prediction for video coding system
US20210120262A1 (en) Candidate Reorganizing with Advanced Control in Video Coding
TW202002652A (zh) 用信號通知的運動向量精度
JP7425808B2 (ja) 動き候補リスト構築プロセスの条件付き実行
CN113302918A (zh) 视频编解码中的加权预测
TWI720753B (zh) 簡化的三角形合併模式候選列表導出的方法以及裝置
TWI702826B (zh) 由視訊編碼器和視訊解碼器執行的視訊編解碼方法及裝置
JP2022533056A (ja) アフィンモードのための適応動きベクトル差分分解
US11539977B2 (en) Method and apparatus of merge with motion vector difference for video coding
TWI729483B (zh) 視訊編解碼系統的運動向量湊整統一的方法以及裝置
CN114175636A (zh) 自适应参数集中的自适应环路滤波的指示
TW202044841A (zh) 在視頻編解碼中約束合併標誌信令的方法和裝置
TWI702831B (zh) 用於視訊編解碼系統的仿射幀間預測的方法和裝置
KR20210024565A (ko) 비디오 코딩 시스템을 위한 모션 벡터 버퍼 관리 방법 및 장치
CN113826394A (zh) 帧内块复制模式下自适应运动矢量差分辨率的改进
TWI768475B (zh) 視訊資料預測方法和裝置
TW202337214A (zh) 用於視頻編解碼的仿射編碼塊導出合併候選的方法和裝置
TW202341741A (zh) 視訊編解碼方法及相關裝置
TW202349958A (zh) 視頻編解碼的方法和裝置
TW202402059A (zh) 視訊編解碼方法和裝置