TWI538479B - 交叉頻道殘差預測之技術 - Google Patents

交叉頻道殘差預測之技術 Download PDF

Info

Publication number
TWI538479B
TWI538479B TW101141124A TW101141124A TWI538479B TW I538479 B TWI538479 B TW I538479B TW 101141124 A TW101141124 A TW 101141124A TW 101141124 A TW101141124 A TW 101141124A TW I538479 B TWI538479 B TW I538479B
Authority
TW
Taiwan
Prior art keywords
channel
prediction
residual
relationship model
prediction residual
Prior art date
Application number
TW101141124A
Other languages
English (en)
Other versions
TW201325256A (zh
Inventor
徐立東
邱易仁
韓宇
張文浩
Original Assignee
英特爾公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 英特爾公司 filed Critical 英特爾公司
Publication of TW201325256A publication Critical patent/TW201325256A/zh
Application granted granted Critical
Publication of TWI538479B publication Critical patent/TWI538479B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

交叉頻道殘差預測之技術
本發明係有關於交叉頻道殘差預測之技術。
發明背景
高效視訊編碼(HEVC)乃由ISO/IEC動畫專家群(MPEG)與ITU-T視訊編碼專家群(VCEG)所組成的視訊編碼的聯合協作小組(JCT-VC)目前正在開發的視訊壓縮標準。於本HEVC規格中,圖像係以最大編碼單元(LCU)編碼。一LCU可為一128x128區塊、一64x64區塊、一32x32區塊或一16x16區塊。一LCU可直接編碼或可劃分成四個編碼單元(CU)用於下一層級編碼。一CU可直接編碼或可進一步劃分成次一層級用以編碼。最小編碼單元為一8x8區塊。
一般而言,於各個層級,大小2Nx2N的一編碼單元可劃分成預測單元(PU)用於預測目的。用於內編碼,一2Nx2N的編碼單元可以一個2Nx2N的預測單元編碼或可編碼成四個NxN的預測單元。用於間編碼,一2Nx2N的編碼單元可以一個2Nx2N的預測單元(PU)、兩個2NxN PU、兩個Nx2N PU、一個0.5Nx2N PU加一個1.5Nx2N PU、一個1.5Nx2N PU加一個0.5Nx2N PU、一個2Nx0.5N PU加一個2Nx1.5N PU、一個2Nx1.5N PU加一個2Nx0.5N PU、或四個 NxN PU編碼。於彩色視訊中圖像資料可分布於三個頻道,包括一個亮度(luma)頻道Y及兩個彩度(chroma)頻道U及V,一個PU可包括一個亮度區塊Y及兩個彩度區塊U及V。
於一HEVC編碼器中,於執行內預測(框內預測模組)或間預測(運動估計與運動補償模組)後,一輸入預測單元與該已預測的預測單元間之差相對應的該預測殘差係經變換與量化用於熵編碼。當一預測單元係以內編碼模式編碼時,可施用不同的內編碼模式,包括DC預測、平面預測、水平預測、垂直預測等。
依據本發明之一實施例,係特地提出一種電腦實現之方法包含於一視訊編碼器決定針對視訊資料之一第一頻道的一第一預測殘差;及使用該第一預測殘差,決定針對該視訊資料之一第二頻道的一第二預測殘差。
100‧‧‧視訊編碼器系統
102‧‧‧內部位元深度增加模組
104‧‧‧最大編碼單元(LCU)分裂模組
106、504‧‧‧殘差預測模組
108‧‧‧變換與量化模組
109‧‧‧熵編碼模組
110‧‧‧解量化與反變換模組
112、506‧‧‧殘差重建模組
114‧‧‧解塊濾波器
116‧‧‧樣本適應性偏移濾波器
118‧‧‧適應性迴路濾波器
120‧‧‧緩衝器、參考緩衝器
122‧‧‧運動估計模組
124‧‧‧運動補償模組
126‧‧‧框內預測模組
200、300、400‧‧‧交叉頻道殘差預測方案
202-212、302-314、402-416、602-610、702-710‧‧‧方塊
500‧‧‧視訊解碼器系統
502‧‧‧解碼器模組
600、700‧‧‧方法
800‧‧‧系統
802‧‧‧平台
805‧‧‧晶片組
810‧‧‧處理器
812‧‧‧記憶體
814‧‧‧儲存裝置
815‧‧‧圖形次系統
816‧‧‧軟體應用程式
818‧‧‧無線電
820‧‧‧顯示器
822、904‧‧‧使用者介面
830‧‧‧內容服務裝置
840‧‧‧內容遞送裝置
850‧‧‧導航控制器
860‧‧‧網路
900‧‧‧小型形狀因數裝置
902‧‧‧殼體
906‧‧‧輸入/輸出(I/O)裝置
908‧‧‧天線
910‧‧‧顯示單元
912‧‧‧導航結構
於此處描述之內容係在附圖中藉範例的方式而非藉限制的方式來說明。為求例示說明之簡單明瞭,圖式中例示說明的元件並非必要照比例繪製。舉例言之,有些元件的尺寸相對於其它元件的尺寸可誇大以求清晰。又,若屬適宜,元件符號在多幅圖間重複以指示相對應的或類似的元件。附圖中:圖1為視訊編碼器系統之一實例之例示說明圖;圖2例示說明交叉頻道殘差預測方案之一實例;圖3例示說明交叉頻道殘差預測方案之另一實例; 圖4例示說明交叉頻道殘差預測方案之另一實例;圖5為視訊解碼器系統之一實例之例示說明圖;圖6為交叉頻道殘差預測方法之一流程圖;圖7為交叉頻道殘差預測方法之一流程圖;圖8為系統之一實例之例示說明圖;及圖9為系統之一實例之例示說明圖,全部圖式皆係依據本文揭示之至少若干實現配置。
較佳實施例之詳細說明
現在將參考所包含的圖式描述一或多個實施例或實現例。雖然討論特定組態及配置,但須瞭解此乃僅供例示說明之目的。但熟諳相關技藝人士將不悖離詳細說明部分的精髓及範圍而認知可採用的其它組態及配置。熟諳相關技藝人士顯然易知此處所述技術及/或配置也可採用於此處描述者以外的多個其它系統及應用。
雖然後文詳細說明部分陳述可在諸如單晶片系統(SoC)架構等架構中顯現的各項實現,但此處描述的技術及/或配置之實現並不限於特定架構及/或電腦系統,而可由任何架構及/或電腦系統實現於相類似的用途。舉例言之,採用例如多個積體電路(IC)晶片及/或封裝體、及/或各個運算裝置及/或消費性電子(CE)裝置諸如機上盒、智慧型電話等的架構可實現此處描述的技術及/或配置。進一步,雖然後文詳細說明部分可陳述無數特定細節,諸如邏輯實現、系統組件的型別及交互關係、邏輯區劃/整合選擇等,但可 無此等特定細節而實施本案所請的本發明主旨。於其它情況下,有些內容諸如控制結構與完整軟體指令序列可能不顯示細節以免遮掩此處之揭示內容。
此處描述的內容可於硬體、韌體、軟體或其任何組合實現。此處描述的內容也可實現為儲存在機器可讀取媒體上的指令,可由一或多個處理器讀取與執行。機器可讀取媒體可為用以可由機器(例如電腦裝置)讀取形式儲存或發送資訊的任何媒體及/或機構。舉例言之,機器可讀取媒體可包括唯讀記憶體(ROM);隨機存取記憶體(RAM);磁碟儲存媒體;光學儲存媒體;快閃記憶體裝置;傳播信號(例如載波、紅外線信號、數位信號等)之電氣、光學、聲學或其它形式及其它。
說明書中述及「一個實現」、「一實現」、「一具體實現」等,指示所述實現可含括特定特徵、結構、或特性,但並非必要每個實現皆含括該特定特徵、結構、或特性。此外,此等術語並非必要係指同一個實現。進一步,當一個特定特徵、結構、或特性係連結一個實現描述時,係假設連結其它實現執行此種特徵、結構、或特性係落入於熟諳技藝人士的技巧範圍內,無論是否明確地描述皆係如此。
圖1例示說明依據本文揭示之視訊編碼器系統100之實例。於各個實現中,系統100可經組配來依據一或多個進階視訊編解碼器標準,諸如H.264標準(ISO/IEC JTC1及ITU-T,「H.264/AVC-用於一般影音服務之進階視訊編 碼」,ITU-T建議H.264及ISO/IEC 14496-10(MPEG-4部分10),版本3,2005年)及其延伸而進行視訊編碼及/或實現視訊編解碼器。進一步,視訊編碼器系統100可經組配來依據由ISO/IEC動畫專家群(MPEG)與ITU-T視訊編碼專家群(VCEG)所組成的視訊編碼的聯合協作小組(JCT-VC)目前正在開發的高效視訊編碼(HEVC)H.265視訊壓縮標準而進行視訊編碼及/或實現視訊編解碼器。進一步,於各個實施例中,視訊編碼器系統100可實現為影像處理器、視訊處理器及/或媒體處理器的一部分,且可進行間預測、內預測、預測編碼、及/或殘差預測包括依據本文揭示之交叉頻道殘差預測。
於系統100中,目前視訊資訊可以一框視訊資料形式提供給一內部位元深度增加模組102。目前視訊框可於模組104分裂成最大編碼單元(LCU)及然後發送至一殘差預測模組106。殘差預測模組106的輸出可藉一變換與量化模組108接受已知之視訊變換與量化處理。變換與量化模組108的輸出可提供給一熵編碼模組109及一解量化與反變換模組110。解量化與反變換模組110可實現由殘差預測模組106所執行的操作之反向操作而提供殘差預測模組106的輸出給一殘差重建模組112。熟諳技藝人士可瞭解如此處所述之變換與量化模組及解量化與反變換模組可採用定標技術。
殘差重建模組112的輸出可回授給殘差預測模組106,且也可提供給一迴路,包括一解塊濾波器114、一樣 本適應性偏移濾波器116、一適應性迴路濾波器118、一緩衝器120、一運動估計模組122、一運動補償模組124、及一框內預測模組126。如圖1所示,運動補償模組124或框內預測模組126的輸出皆係組合殘差預測模組106的輸出作為解塊濾波器114的輸入,且係與LCU分裂模組104的輸出區別用作為殘差預測模組106的輸入。
容後詳述,殘差預測模組106可結合殘差重建模組112動作以提供依據本文揭示之交叉頻道殘差預測。於多個實現中,殘差預測模組106可用以針對一個頻道產生視訊資料的預測殘差,殘差重建模組112可重建該頻道的預測殘差以供由殘差預測模組106運用在產生針對另一個頻道產生視訊資料的預測殘差。舉例言之,殘差預測模組106可用以針對一預測單元(PU)之一亮度(luma)頻道產生預測殘差,殘差重建模組112可重建該亮度頻道的預測殘差以供由殘差預測模組106運用在產生針對該預測單元的一彩度(chroma)頻道的預測殘差。一般,若三個頻道中之任二者相同預測型別及/或相同預測模式,結果導致該等二頻道的預測殘差間的可能相關,則採用如此處所述之交叉頻道殘差預測技術能夠協助移除冗餘資訊及許可更高的視訊編碼效率。
於各個實現中,可對預測殘差進行殘差預測,該等初預測殘差與所預測的殘差間之結果所得第二階預測殘差可經變換與量化。於依據本文揭示之如此處所述之交叉頻道殘差預測技術中,若第一頻道(A)的殘差係欲從第二頻 道(B)的殘差預測,則如由殘差預測模組106所產生的頻道B之殘差可藉變換與量化模組108編碼(例如變換與量化),及然後首先藉解量化與反變換模組110及殘差重建模組112重建,及然後,頻道B之已重建殘差可由殘差預測模組106用以於隨後預測的頻道A之殘差。
圖2例示說明依據本文揭示之交叉頻道殘差預測方案200之一實例。於多個實現中,圖1之系統100可實現方案200。於方案200中,第一頻道(B)的已重建的預測殘差可用以預測的頻道A之殘差,及然後,頻道B的編碼殘差及頻道A的結果所得之交叉頻道預測殘差(在已編碼之後)連同第三頻道(C)之編碼殘差接受熵編碼。於多個實現中,頻道A、B或C可為亮度頻道(Y)或彩度頻道(U及V)中之任一者,且頻道A、B或C各自可為分立(亦即與其它頻道不同)。於多個實現中,頻道A可為亮度頻道,及頻道B及C可為彩度頻道。於其它實現中,頻道A可為彩度頻道,及頻道B及C中之一者可為亮度頻道,而頻道B及C中之另一者可為彩度頻道。
如方案200闡釋,於方塊202,頻道B之預測殘差可經變換與量化,及然後在提供給交叉頻道預測方塊206作為頻道B之已重建殘差之前,於方塊204解量化與反變換。於方塊206,頻道B之已重建殘差可用以預測頻道A之殘差。然後,頻道A之預測殘差可於方塊208經變換與量化,隨後才於方塊210連同得自方塊202的已變換與量化的頻道B殘差、及頻道C之已變換與量化(方塊212)之預測殘差一起熵 編碼。
依據本文揭示,依據本文揭示之如此處所述之交叉頻道殘差預測(如於方塊206進行)可採用線性模型或非線性模型且可利用固定的或適應性決定的模型參數。舉例言之,針對一像素位置k,頻道A殘差值A(k)可從位置k之已重建的頻道B殘差值B’(k)運用如下表示式預測:A p (k)=f(B'(k)) (1)式中Ap(k)為預測殘差值,及f(˙)為線性或非線性函數或變換。於多個實現中,f(˙)之參數可具有預先界定的固定值或可利用至少某些鄰近像素位置的已產生的或已重建的殘差值適應性決定。舉例言之,於多個實現中,鄰近像素位置的殘差值可用以針對f(˙)建立線性或非線性方程組。於此等實現中,f(˙)之參數可運用眾所周知之技術得自鄰近像素位置的殘差值,諸如線性最小平方、非線性最小平方、加權最小平方或其它眾所周知之最佳化方法。
一般而言,使用f(˙)的線性形式之依據本文揭示之線性殘差預測可對殘差值A(k)提供如下表示式:A p (k)=a B'(k)+b (2)式中a及b為模型參數。於多個實現中,模型參數a及b可具固定值,可由解碼器決定,或可由編碼器決定用以傳輸給解碼器。
一般而言,使用f(˙)的非線性形式之依據本文揭示之非線性殘差預測可對殘差值A(k)提供如下表示式:A p (k)=a(k) B'(k)+b(k) (3) 式中a(k)及b(k)為非線性方程式參數。於多個實現中,反應於B'(k)值,參數可適應性地決定。舉例言之,B'(k)的可能值之範圍可劃分成M個較小的殘差值子集S(k)。然後各個子集S(k)可針對用在方程式(3)的a(k)及b(k)而指定不同值,使得當一特定殘差位置的B'(k)值落入於一給定子集S(k)以內時,a(k)及b(k)的相對應值可應用以預測該位置的殘差值Ap(k)。
一般而言,於多個實現中,基於在一目前圖像中已解碼像素及/或在先前已解碼圖像,藉由一視訊編碼器及/或解碼器,而可適應性地產生線性或非線性模型參數。進一步,於多個實現中,基於在一目前圖像之輸入像素及/或在該目前圖像中之已解碼像素及/或在先前編碼圖像,可藉適應性地產生線性或非線性模型參數。一視訊編碼器可決定模型參數,然後編碼及發送所產生的模型參數給一解碼器用於進行依據本文揭示之交叉頻道殘差預測方案。
於多個實現中,一編碼單元(CU)或預測單元(PU)可依據各個編碼模式及/或預測模式處理。舉例言之,編碼單元可以內模式或間模式編碼,及用於內模式,預測單元可使用各個預測模式處理,諸如DC預測、平面預測、垂直預測、水平預測及其它方向預測。依據本文揭示,取決於所使用的編碼模式及/或預測模式,可施用不同的交叉頻道殘差預測方案。舉例言之,於多個實現中,線性交叉頻道殘差預測可應用於內模式編碼,而交叉頻道殘差預測可不應用於間模式編碼。進一步,於多個實現中,固定參數線 性交叉頻道殘差預測可應用於內垂直與水平預測模式,而適應性線性交叉頻道殘差預測可應用於DC、平面及其它方向預測模式。
於多個實現中,不同模型參數產生方案可施用於不同編碼模式。舉例言之,不同的模型參數產生方案可應用於內編碼模式而非應用於間編碼模式。此外,不同的模型參數產生方案可應用於不同區塊大小。進一步,不同的內預測模式可使用不同的模型參數產生方案。
於多個實現中,一旗標、指示器或信號可指示是否施用適應性殘差預測用於特定編碼模式或預測模式。舉例言之,編碼器(例如系統100)可使用一或多個旗標以指示(例如以每編碼單元或每預測單元為基礎)是否施用殘差預測用於特定編碼模式或預測模式。於多個實現中,此種旗標值(例如是或否)可基於速率失真成本決定。又,於多個實現中,強制施用殘差預測用於特定編碼模式或預測模式。
熟諳技藝人士將瞭解當輸入視訊資料係在YUV420或YUV422格式時,U及V頻道的殘差區塊大小係小於Y頻道的殘差區塊大小。若Y頻道殘差區塊將用以預測U及/或V頻道殘差區塊,則下取樣可施用至Y頻道殘差區塊,或若U及/或V頻道殘差區塊將用以預測Y道殘差區塊,則上取樣可施用至U及/或V頻道殘差區塊。進一步,雖然各個實現於此處係就YUV色彩空間作描述,但本文揭示並不限於特定視訊資料格式或色彩空間。
圖3例示說明依據本文揭示交叉頻道殘差預測方 案300之另一個實例。於多個實現中,圖1之系統100可實現方案300。於方案300中,二頻道(B及C)的已重建預測殘差用以預測第三頻道(A)之殘差,及然後頻道B及C的編碼殘差及頻道A的交叉頻道預測殘差(在已編碼後)接受熵編碼。於多個實現中,頻道A、B或C可為亮度頻道(Y)或彩度頻道(U及V)中之任一者,及頻道A、B或C各自可為分立(亦即與其它頻道不同)。於多個實現中,頻道A可為亮度頻道,及頻道B及C可為彩度頻道。於其它實現中,頻道A可為彩度頻道,及頻道B及C中之一者可為亮度頻道,而頻道B及C中之另一頻道可為另一彩度頻道。
如方案300闡釋,於方塊302,頻道B之預測殘差可經變換與量化,及然後在提供給交叉頻道預測方塊306作為已重建殘差之前,於方塊304解量化與反變換。同理,於方塊308頻道C之預測殘差可經變換與量化及然後,於方塊310經解量化與反變換,隨後也提供給交叉頻道預測方塊306作為已重建殘差。於方塊306,頻道B及C二者之重建殘差可用以預測如此處所述之頻道A的殘差。然後,頻道A之結果所得之預測殘差可於方塊312變換與量化,隨後才於方塊314連同頻道B及C的編碼殘差一起熵編碼。
圖4例示說明依據本文揭示交叉頻道殘差預測方案400之另一個實例。於多個實現中,圖1之系統100可實現方案400。於方案400中,第一頻道(C)之已重建預測殘差用以預測第二頻道(B)之殘差,及然後,頻道B之已重建交叉頻道預測殘差用以預測第三頻道(A)之殘差。然後,全部三 個頻道A、B及C的編碼殘差接受熵編碼。於多個實現中,頻道A、B或C可為亮度頻道(Y)或彩度頻道(U及V)中之任一者,及頻道A、B或C各自可為分立(亦即與其它頻道不同)。於多個實現中,頻道A可為亮度頻道,及頻道B及C可為彩度頻道。於其它實現中,頻道A可為彩度頻道,及頻道B及C中之一者可為亮度頻道,而頻道B及C中之另一頻道可為另一彩度頻道。
如方案400闡釋,於方塊402,頻道C之預測殘差可經變換與量化,及然後在提供給第一交叉頻道預測方塊406作為已重建殘差之前,於方塊404解量化與反變換。於方塊406,頻道C之已重建殘差用以預測頻道B之殘差。然後,於方塊408頻道B之交叉頻道預測殘差可經變換與量化及然後,於方塊410經解量化與反變換,隨後也提供給交叉頻道預測方塊412作為已重建殘差。於方塊412,頻道B之已重建殘差用以預測頻道A的殘差。頻道A之結果所得之交叉頻道預測殘差可於方塊414變換與量化,隨後才於方塊416進行全部三個頻道的編碼殘差的熵編碼。
圖5例示說明依據本文揭示視訊解碼器系統500之一實例。於多個實現中,系統500可經組配來依據一或多個進階視訊編解碼器標準諸如H.264標準及其延伸而進行視訊解碼及/或實現視訊編解碼器。進一步,視訊解碼器系統500可經組配來依據HEVC H.265視訊壓縮標準以進行視訊編碼及/或實現視訊編解碼器。進一步,於多個實現中,視訊解碼器系統500可實現作為影像處理器、視訊處理器、 及/或媒體處理器的一部分,且可進行間預測、內預測、預測編碼及/或殘差預測包括依據本文揭示之交叉頻道殘差預測。
於系統500中,一編碼位元流可提供給一解碼器模組502,其包括一殘差預測模組504及一殘差重建模組506,其可實現依據本文揭示之交叉頻道殘差預測。於多個實現中,殘差預測模組504及殘差重建模組506分別地可類似系統100的殘差預測模組106及殘差重建模組112,且可提供相似功能。如熟諳技藝人士將瞭解,系統500之解碼器502可包括各個額外項目(為求清晰未顯示於圖5)諸如,一解量化與反變換模組、一熵解碼模組、一運動補償模組等。
於多個實現中,依據本文揭示之一編碼器(例如系統100)可提供編碼位元流給解碼器502。如此,編碼器可包括該位元流中的資訊,諸如一或多個模式旗標,其可指示解碼器502是否須針對一給定預測單元進行如此處所述之交叉頻道殘差預測。舉例言之,由解碼器502所接收的位元流可包括資訊,諸如標頭資訊,指示解碼器502是否應對一特定編碼模式或預測模式施用適應性交叉頻道殘差預測。例如,一編碼器(例如系統100)可使用一或多個旗標指示(例如以每一編碼單元及/或每一預測單元為基礎)解碼器502是否將針對一特定編碼模式或預測模式施用交叉頻道殘差預測。
圖6例示說明依據本文揭示之各個實現一種用於視訊編碼方法600之實例之流程圖。方法600可包括一或多 個操作、功能或動作,如藉圖6之方塊602、604、606、608及610中之一或多者之例示說明。藉由非限制性實例,方法600將如此處所述參考圖1之視訊編碼器系統100實例及圖2至圖4之方案實例作說明。
方法600可始於方塊602,決定針對視訊資料的第一頻道之第一預測殘差。例如,殘差預測模組106可針對視訊資料之一頻道(亮度或彩度)執行方塊602。於方塊604,利用於方塊602所產生的第一預測殘差,可決定針對視訊資料的第二頻道之第二預測殘差。例如,殘差預測模組106可使用如殘差重建模組112所提供的第一預測殘差,針對視訊資料之一不同頻道執行方塊604。於多個實現中,若針對亮度頻道執行方塊602,則方塊604可針對彩度頻道執行。相反地,若針對彩度頻道執行方塊602,則方塊604可針對彩度頻道或亮度頻道執行。於多個實現中,方塊602及604可相對應於圖2之方案200的方塊202-206之實現。
方法600可於方塊606繼續,利用第二預測殘差決定針對視訊資料的第三頻道之第三預測殘差。例如,殘差預測模組106可使用如殘差重建模組112於方塊604所提供的第二預測殘差,針對視訊資料之一第三頻道執行方塊606。於多個實現中,若針對亮度頻道執行方塊602,則方塊604可針對彩度頻道執行及方塊606可針對另一彩度頻道執行。若針對彩度頻道執行方塊602及針對另一彩度頻道執行方塊604,則方塊606可針對亮度頻道執行。於多個實現中,方塊602、604及606可相對應於圖3之方案300的方塊 302-306及308-310之實現。
方法600也可包括方塊608,可針對視訊資料之一第三頻道決定一第三預測殘差。舉例言之,殘差預測模組106可針對視訊資料之一第三頻道進行方塊608。於方塊610,使用得自方塊602的第一預測殘差及得自方塊608的第三預測殘差,可決定視訊資料之一第二頻道的一第二預測殘差。舉例言之,殘差預測模組106可使用分別地於方塊602及608由殘差重建模組112所提供的第一預測殘差及第三預測殘差二者而針對視訊資料之第二頻道進行方塊610。於多個實現中,若針對亮度頻道進行方塊602,則方塊608可針對彩度頻道進行而方塊610可針對另一彩度頻道進行。若方塊602係針對彩度頻道進行而方塊606係針對另一彩度頻道進行,則方塊610可針對亮度頻道進行。於多個實現中,方塊602、604及606可相對應於圖4之方案400的方塊402-412之實現。
圖7例示說明依據本文揭示之各個實現一種用於視訊解碼方法700之實例之流程圖。方法700可包括一或多個操作、功能或動作,如藉圖7之方塊702、704、706、708及710中之一或多者之例示說明。藉由非限制性實例,方法700將如此處所述參考圖5之視訊解碼器系統500實例作說明。
方法700可始於方塊702,於該處可接收針對視訊資料之第一頻道之第一預測殘差。舉例言之,方塊702涉及解碼器502解碼所接收之一位元流,且使用殘差重建模組 506以提供針對視訊資料的一個頻道提供已重建預測殘差。於方塊704,使用於方塊702所接收的第一預測殘差,可決定針對視訊資料之第二頻道之第二預測殘差。舉例言之,解碼器502之殘差預測模組504可使用如由殘差重建模組112所提供的第一預測殘差而針對該視訊資料的一不同頻道進行方塊704。於多個實現中,若方塊702涉及接收一亮度頻道的預測殘差,則方塊704可針對彩度頻道進行。相反地,若方塊702涉及接收一彩度頻道的預測殘差,則方塊704可針對彩度頻道或亮度頻道進行。
方法700可於方塊706繼續,於該處使用第二預測殘差,可決定針對視訊資料之第三頻道之第三預測殘差。舉例言之,殘差預測模組504使用於方塊704如由殘差重建模組506所提供的第二預測殘差,可針對視訊資料之第三頻道進行方塊706。於多個實現中,若方塊702涉及接收一亮度頻道的預測殘差,則方塊704可針對彩度頻道進行及方塊706可針對另一彩度頻道進行。若方塊702涉及接收一彩度頻道的預測殘差及方塊704針對另一彩度頻道進行,則方塊706可針對亮度頻道進行。
方法700也可包括方塊708,可接收第三預測殘差,第三預測殘差係相對應於視訊資料之第三頻道。舉例言之,方塊708可涉及解碼器502解碼所接收之一位元流,及使用殘差重建模組506以提供視訊資料之第三頻道的已重建預測殘差。於方塊710,使用於方塊702接收的第一預測殘差及於方塊708接收的第三預測殘差,可決定針對該視訊資料 之一第二頻道之一第二預測殘差。舉例言之,殘差預測模組504可使用分別地於方塊702及708,由殘差重建模組506所提供的第一預測殘差及第三預測殘差二者而針對該視訊資料之一第二頻道進行方塊710。
如圖6及7之例示說明,雖然方法600及700之實例之實現可包括以所述的例示說明順序顯示的全部方塊,但本文揭示並非限於此一面向,及於各個實例中,方法600及700之實現可包括只以所顯示之方塊之一子集進行及/或以所例示說明的順序之不同順序進行。
此外,反應於由一或多個電腦程式產品所提供的指令,可進行圖6及圖7之方塊中之任一者或多者。此等程式產品可包括提供指令的信號承載媒體,該等指令當由例如處理器執行時可提供此處描述的功能。電腦程式產品可以任一種電腦可讀取媒體之形式提供。如此,舉例言之,含括一或多個處理器核心的處理器反應於由一電腦可讀取媒體傳遞給該處理器的指令,可進行圖6及圖7之方塊中之一或多者。
如於此處描述的任一項實現中使用,「模組」一詞係指組配以提供此處描述的功能之軟體、韌體及/或硬體的任一種組合。軟體可具體實施為套裝軟體、代碼及/或指令集或指令,而如於此處描述的任一項實現中使用,「硬體」可包括例如單一地或呈任一項組合,硬體電路、可規劃電路、狀態機電路、及/或儲存藉可規劃電路所執行的指令之韌體。模組可集合地或個別地具體實施為形成更大型 系統例如積體電路(IC)、單晶片系統(SoC)等的一部分的電路。
圖8例示說明依據本文揭示之系統800之實例。於多個實現中,系統800可為媒體系統,但系統800並非囿限於此一脈絡。舉例言之,系統800可結合入個人電腦(PC)、膝上型電腦、超膝上型電腦、平板、觸控板、可攜式電腦、手持式電腦、掌上型電腦、個人數位助理器(PDA)、行動電話、行動電話/PDA的組合、電視、智慧型裝置(例如智慧型電話、智慧型平板或智慧型電視)、行動網際網路裝置(MID)、傳訊裝置、資料通訊裝置等。
於多個實現中,系統800包括耦接至一顯示器820之一平台802。平台802可從一內容裝置,諸如內容服務裝置830或內容遞送裝置840或其它類似的內容來源接收內容。含括一或多個導航結構的導航控制器850可用以與例如平台802及/或顯示器820互動。此等組件容後詳述。
於多個實現中,平台802可包括晶片組805、處理器810、記憶體812、儲存裝置814、圖形次系統815、應用程式816及/或無線電818之任一項組合。晶片組805可提供處理器810、記憶體812、儲存裝置814、圖形次系統815、應用程式816及/或無線電818間的交互通訊。例如,晶片組805可含括能夠提供與儲存裝置814交互通訊的一儲存裝置配接器(圖中未顯示)。
處理器810可實現為複雜指令集電腦(CISC)或精簡指令集電腦(RISC)處理器、x86指令集相容性處理器、多 核心、或任何其它微處理器或中央處理單元(CPU)。於多個實現中,處理器810可為雙核心處理器、雙核心行動處理器等。
記憶體812可實現為依電性記憶體裝置,諸如但非僅限於隨機存取記憶體(RAM)、動態隨機存取記憶體(DRAM)、或靜態RAM(SRAM)。
儲存裝置814可實現為非依電性記憶體裝置,諸如但非僅限於磁碟機、光碟機、磁帶機、內部儲存裝置、外接式儲存裝置、快閃記憶體、電池後備SDRAM(同步DRAM)及/或網路可存取儲存裝置。於多個實現中,例如當含括多個硬碟機時,儲存裝置814可包括提高儲存裝置對高價數位媒體效能提升之保護技術。
圖形次系統815可對為顯示之諸如靜態或視訊影像執行處理。例如圖形次系統815可為圖形處理單元(GPU)或視訊處理單元(VPU)。可使用類比或數位介面以通訊式耦接圖形次系統815及顯示器820。舉例言之,介面可為高傳真多媒體介面、顯示埠、無線HDMI及/或無線HD順應技術中之任一者。圖形次系統815可整合入處理器810或晶片組805。於若干實現中,圖形次系統815可為通訊式耦接晶片組805的孤立卡。
此處描述的圖形及/或視訊處理技術可於各個硬體架構實現。舉例言之,圖形及/或視訊功能可整合入晶片組。另外,可使用分立的圖形及/或視訊處理器。至於又另一個實現,圖形及/或視訊功能可由通用處理器包括多核心 處理器提供。於又一實施例中,該等功能可於消費性電子裝置實現。
無線電818可包括能夠使用各種適當無線通訊技術來發射與接收信號的一或多個無線電。此等技術可涉及橫跨一或多個無線網路的通訊。無線網路之實例包括(但非僅限於)無線區域網路(WLAN)、無線個人區域網路(WPAN)、無線都會區域網路(WMAN)、胞狀網路、及衛星網路。於橫跨此等網路通訊中,無線電818可依據一或多個適用標準以任何版本操作。
於多個實現中,顯示器820可包括任何電視型監視器或顯示器。顯示器820可包括例如電腦顯示器螢幕、觸控螢幕顯示器、視訊監視器、電視般的裝置及/或電視機。顯示器820可為數位式及/或類比式。於多個實現中,顯示器820可為全像顯示器。又,顯示器820可為能夠接收視覺投影的透明表面。此等投影可傳遞各型資訊、影像、及/或物品。舉例言之,此等投影可為用於行動增強實境(MAR)應用的視覺覆蓋。於一或多個軟體應用程式816之控制之下,平台802可於顯示器820上顯示使用者介面822。
於多個實現中,內容服務裝置830可由任何國家、國際及/或獨立服務託管,如此平台802可透過例如網際網路存取。內容服務裝置830可耦接至平台802及/或顯示器820。平台802及/或內容服務裝置830可耦接至網路860以通訊(例如發送及/或接收)媒體資訊至及自網路860。內容遞送裝置840也可耦接至平台802及/或顯示器820。
於多個實現中,內容服務裝置830可包括有線電視機、個人電腦、網路、電話、能夠遞送數位資訊及/或內容的網際網路致能裝置或電器、及能夠透過網路860或直接地在內容提供者與平台802及/或顯示器820間單向或雙向通訊內容的任何其它類似裝置。須瞭解該內容可透過網路860單向地/或雙向地傳輸來去於系統800的該等組件中之任一者及內容提供者。內容之實例可包括任何媒體資訊例如包括視訊、音樂、醫藥資訊及遊戲資訊等。
內容服務裝置830可接收內容,諸如有線電視節目包括媒體資訊、數位資訊及/或其它內容。內容提供者之實例可包括任何有線或衛星電視或無線電或網際網路內容提供者。但所提供之實例絕非表示限制依據本文揭示之實現。
於多個實現中,平台802可從具有一或多個導航結構的導航控制器850接收控制信號。控制器850的導航結構例如可用以與使用者介面822互動。於實施例中,導航控制器850可以是指標裝置,其可為許可使用者將空間(例如連續且多維)資料輸入電腦的電腦硬體組件。許多系統諸如圖形使用者介面(GUI)及電視機及監視器許可使用者利用身體姿勢來控制且提供資料給電腦或電視。
控制器850之導航結構的移動可藉指標器、游標、焦點環、或顯示在顯示器上的其它視覺指示器而在顯示器(例如顯示器820)上再現。舉例言之,於軟體應用程式816的控制下,位在導航控制器850上的導航結構可對映至顯示 在使用者介面822上的視覺導航結構。於實施例中,控制器850可非為分開組件,反而可整合入平台802及/或顯示器820。但本文揭示並非囿限於此處所示或所述的元件或內文。
於多個實現中,驅動器(圖中未顯示)可包括下述技術使得當平台802例如電視機當初始啟動後,在作用狀態時,使用者藉由觸控一按鈕即可即刻開關平台802。程式邏輯許可平台802將內容串流化給媒體配接器或其它內容服務裝置830或內容遞送裝置840,即便當平台被「關閉」時亦復如此。此外,晶片組805可包括例如支援5.1環繞音效或高傳真7.1環繞音效的硬體及/或軟體。驅動器可包括用於整合圖形平台的圖形驅動器。於實施例中,圖形驅動器可包含一周邊組件互連體(PCI)快速繪圖卡。
於多個實現中,可整合系統800所示組件中之任一者或多者。舉例言之,可整合平台802與內容服務裝置830,或可整合平台802與內容遞送裝置840,或可整合平台802、內容服務裝置830與內容遞送裝置840。於多個實施例中,平台802與顯示器820可為一個整合單元。例如顯示器820與內容服務裝置830可整合,或顯示器820與內容遞送裝置840可整合。此等實例並非限制本文揭示內容。
於各個實施例中,系統800可實現為無線系統、有線系統、或二者的組合。當實現為無線系統時,系統800可包括適用以透過無線分享媒體而通訊的組件及介面,諸如一或多個天線、發射器、接收器、收發器、放大器、濾 波器、控制邏輯等。無線分享媒體之實例可包括無線頻譜的一部分,諸如RF頻譜等。當實現為有線系統時,系統800可包括適用以透過有線通訊媒體而通訊的組件及介面,諸如輸入/輸出(I/O)配接器、實體連接器以連結I/O配接器與相對應的有線通訊媒體、網路介面卡(NIC)、碟片控制器、視訊控制器、音訊控制器等。有線通訊媒體之實例可包括導線、纜線、金屬引線、印刷電路板(PCB)、背板、開關組織結構、半導體材料、雙絞線、同軸纜線、光纖等。
平台802可建立一或多個邏輯通道或實體通道以通訊資訊。資訊可包括媒體資訊及控制資訊。媒體資訊可指稱表示對使用者有意義的內容之任何資料。內容之實例可包括例如得自語音對話的資料、視訊會議、串流化視訊、電子郵件(email)訊息、語音信箱訊息、文數符碼、圖形、影像、視訊、文字等。得自語音對話的資料可為例如言詞資訊、靜默週期、背景噪音、舒適噪音、音調等。控制資訊可指稱表示對自動化系統有意義的指令、指示或控制字元的任何資料。舉例言之,控制資訊可用以對通過系統的媒體資訊作路徑安排,或以預定方式指示一節點處理該媒體資訊。但實施例並非囿限於圖8所示或所述的元件或內文。
如前文描述,系統800可以各種實體樣式或形狀因數實施。圖9例示說明小型形狀因數裝置900之實現,其中可實現系統800。舉例言之,於實施例中,裝置900可實現為具有無線能力的行動運算裝置。行動運算裝置可指稱 具有處理系統及行動電源或電源供應器諸如一或多顆電池的任一種裝置。
如前文描述,行動運算裝置之實例可包括個人電腦(PC)、膝上型電腦、超膝上型電腦、平板、觸控板、可攜式電腦、手持式電腦、掌上型電腦、個人數位助理器(PDA)、行動電話、行動電話/PDA的組合、電視、智慧型裝置(例如智慧型電話、智慧型平板或智慧型電視)、行動網際網路裝置(MID)、傳訊裝置、資料通訊裝置等。
行動運算裝置之實例也可包括適合由人類佩戴的電腦,諸如手腕電腦、手指電腦、戒指電腦、眼鏡電腦、皮帶夾電腦、臂帶電腦、鞋電腦、衣服電腦、及其它可佩戴式電腦。於多個實現中,舉例言之,行動運算裝置可實現為能夠執行電腦應用程式以及語音通訊及/或資料通訊的智慧型電話。雖然若干實施例已經以例如實現為智慧型電話的行動運算裝置描述,但須瞭解也可使用其它無線行動運算裝置實現。實施例並不限於本脈絡。
如圖9所示,裝置900可包括一殼體902、一顯示器904、一輸入/輸出(I/O)裝置906、及一天線908。裝置900也可包括導航結構912。顯示器904可包括用以顯示適合行動運算裝置的資訊之任何合宜顯示單元。I/O裝置906可包括用以將資訊載入適合行動運算裝置之任何合宜I/O裝置。I/O裝置906之實例可包括文數鍵盤、數字小鍵盤、觸控板、輸入按鍵、按鈕、開關、搖桿開關、麥克風、揚聲器、語音辨識裝置及軟體等。資訊也可藉麥克風(圖中未顯示)載入 裝置900。此等資訊可藉語音辨識裝置(圖中未顯示)數位化。實施例並不限於此一脈絡。
各個實施例可使用硬體元件、軟體元件、或二者的組合實現。硬體元件之實例可包括處理器、微處理器、電路、電路元件(例如電晶體、電阻器、電容器、電感器等)、積體電路、特定應用積體電路(ASIC)、可程式規劃邏輯裝置(PLD)、數位信號處理器(DSP)、可現場程式規劃閘陣列(FPGA)、邏輯閘、暫存器、半導體裝置、晶片、微晶片、晶片組等。軟體之實例可包括軟體組件、程式、應用軟體、電腦程式、應用程式、系統程式、機器程式、作業系統軟體、中介軟體、韌體、軟體模組、常式、次常式、函式、方法、程序、軟體介面、應用程式規劃介面(API)、指令集、運算碼、電腦碼、碼節段、電腦碼節段、字元、數值、符碼或其任一項組合。決定使用硬體元件及/或軟體元件實現一實施例與否的決定可依據下列多項因素中之任一者而改變,諸如期望的運算速率、功率位準、熱容差、處理週期預算、輸入資料率、輸出資料率、記憶體資源、資料匯流排速度及其它設計或效能限制。
至少一個實施例的一或多個面向可藉儲存於一機器可讀取媒體上的代表性指令實現,該等指令表示處理器內部的各個邏輯,當由一機器讀取時使得該機器製造邏輯以進行此處描述的技術。此種表示型態稱作為「IP核心」可儲存在一具體有形的機器可讀取媒體上而供給各個客戶或製造廠,載入製造機器內實際上製造該邏輯或處理器。
雖然已經參照各個實現描述此處陳述之各項特徵,但本詳細說明部分並非意圖為限制性地詮釋。因此熟諳技藝人士顯見的本文揭示有關的如此處描述之實現的各項修改以及其它實現皆係視為落入於本文揭示之精髓及範圍。
200‧‧‧方案
202-212‧‧‧方塊

Claims (21)

  1. 一種電腦實現之方法,其係包含:於一視訊編碼器:決定針對視訊資料之一第一頻道的一第一預測殘差;決定針對視訊資料之一第二頻道的一第二預測殘差;及使用該等第一與第二預測殘差,決定針對該視訊資料之一第三頻道的一第三預測殘差。
  2. 如申請專利範圍第1項之方法,其中該第一頻道係包含一亮度頻道,該第二頻道係包含一彩度頻道,及該第三頻道係包含另一彩度頻道。
  3. 如申請專利範圍第1項之方法,其中決定該第三預測殘差係包含施用一線性關係模型或一非線性關係模型中之一者。
  4. 如申請專利範圍第3項之方法,其中施用該線性關係模型或該非線性關係模型中之一者係包含反應於一編碼模式而施用該線性關係模型或該非線性關係模型中之一者。
  5. 如申請專利範圍第3項之方法,其中當該編碼模式係包含內模式編碼時施用該線性關係模型,及其中當該編碼模式係包含間模式編碼時不施用該線性關係模型或該非線性關係模型中之任一者。
  6. 如申請專利範圍第3項之方法,其中決定該第三預測殘差係包含施用一或多個固定關係模型參數。
  7. 如申請專利範圍第6項之方法,其中當一預測模式包含一垂直預測模式或一水平預測模式中之至少一者時係施用該等一或多個固定關係模型參數。
  8. 如申請專利範圍第3項之方法,其中決定該第三預測殘差係包含適應性地決定一或多個關係模型參數。
  9. 如申請專利範圍第8項之方法,其中適應性地決定該等一或多個關係模型參數係包含反應於一編碼模式而適應性地決定該等一或多個關係模型參數。
  10. 如申請專利範圍第9項之方法,其中當該編碼模式係包含一DC預測模式或一平面預測模式中之至少一者時係適應性地決定該等一或多個關係模型參數。
  11. 如申請專利範圍第8項之方法,其中適應性地決定該等一或多個關係模型參數係包含反應於一目前圖像之編碼像素或一或多個先前已編碼圖像之編碼像素中之至少一者而適應性地產生該等一或多個關係模型參數。
  12. 一種電腦實現之方法,其係包含:於一視訊解碼器:接收針對視訊資料之一第一頻道的一第一預測殘差;接收針對視訊資料之一第二頻道的一第二預測殘差;及 使用該等第一與第二預測殘差,決定針對該視訊資料之一第三頻道的一第三預測殘差。
  13. 如申請專利範圍第12項之方法,其中該第一頻道係包含一亮度頻道,該第二頻道係包含一彩度頻道,及該第三頻道係包含另一彩度頻道。
  14. 如申請專利範圍第12項之方法,其中決定該第三預測殘差係包含施用一線性關係模型或一非線性關係模型中之一者。
  15. 如申請專利範圍第12項之方法,其中決定該第三預測殘差係包含反應於一旗標信號而決定該第三預測殘差。
  16. 一種用於殘差預測之設備,其係包含:一處理器係經組配來:決定針對視訊資料之一第一頻道的一第一預測殘差;決定針對視訊資料之一第二頻道的一第二預測殘差;及使用該等第一與第二預測殘差,決定針對該視訊資料之一第三頻道的一第三預測殘差。
  17. 如申請專利範圍第16項之設備,其中為了決定該第三預測殘差,該處理器係經組配來施用一線性關係模型或一非線性關係模型中之一者。
  18. 如申請專利範圍第17項之設備,其中為了決定該第三預測殘差,該處理器係經組配來施用該等一或多個預定的關係模型參數或施用該等一或多個適應性地決定的關 係模型參數。
  19. 一種用於殘差預測之系統,其係包含:一天線,接收視訊資料之一編碼位元流;及一視訊解碼器,其中該視訊解碼器係通訊式地耦接至該天線,及其中該視訊解碼器至少部分地係藉使用得自該編碼位元流之該視訊資料之一第一頻道之一第一預測殘差與該視訊資料之一第二頻道之一第二預測殘差而決定該視訊資料之一第三頻道之一第三預測殘差以解碼該編碼位元流。
  20. 如申請專利範圍第19項之系統,其中為了決定該第三預測殘差,該視訊解碼器係施用一線性關係模型或一非線性關係模型中之一者。
  21. 如申請專利範圍第19項之系統,其中該視訊解碼器係反應於一旗標信號而決定該第三預測殘差。
TW101141124A 2011-11-07 2012-11-06 交叉頻道殘差預測之技術 TWI538479B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/081862 WO2013067667A1 (en) 2011-11-07 2011-11-07 Cross-channel residual prediction

Publications (2)

Publication Number Publication Date
TW201325256A TW201325256A (zh) 2013-06-16
TWI538479B true TWI538479B (zh) 2016-06-11

Family

ID=48288431

Family Applications (2)

Application Number Title Priority Date Filing Date
TW101141124A TWI538479B (zh) 2011-11-07 2012-11-06 交叉頻道殘差預測之技術
TW103124782A TWI571109B (zh) 2011-11-07 2012-11-06 交叉頻道殘差預測之技術(二)

Family Applications After (1)

Application Number Title Priority Date Filing Date
TW103124782A TWI571109B (zh) 2011-11-07 2012-11-06 交叉頻道殘差預測之技術(二)

Country Status (6)

Country Link
US (4) US10015485B2 (zh)
EP (1) EP2777250B1 (zh)
JP (1) JP2014534746A (zh)
CN (1) CN103918265B (zh)
TW (2) TWI538479B (zh)
WO (1) WO2013067667A1 (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067667A1 (en) 2011-11-07 2013-05-16 Intel Corporation Cross-channel residual prediction
US9438904B2 (en) * 2012-01-19 2016-09-06 Futurewei Technologies, Inc. Reduced look-up table for LM mode calculation
EP2868078A4 (en) * 2012-06-27 2016-07-27 Intel Corp PREDICTION OF RESIDUES BETWEEN LAYERS AND BETWEEN CHANNELS
US9501864B2 (en) * 2013-12-27 2016-11-22 Intel Corporation Adaptive depth offset compression
WO2015131330A1 (en) 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Encoding strategies for adaptive switching of color spaces, color sampling rates and/or bit depths
BR122022001646B1 (pt) 2014-03-04 2023-03-07 Microsoft Technology Licensing, Llc Dispositivo de memória ou armazenamento legível por computador, método e sistema de computador
CN105432077B (zh) 2014-03-27 2017-12-29 微软技术许可有限责任公司 在切换色彩空间时调整量化/缩放和逆量化/缩放
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
US9998742B2 (en) * 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
CN109121465B (zh) * 2016-05-06 2023-06-06 交互数字麦迪逊专利控股公司 用于运动补偿残差预测的系统和方法
JP6669617B2 (ja) * 2016-09-12 2020-03-18 ルネサスエレクトロニクス株式会社 動画像処理システム
RU2020109859A (ru) 2017-09-15 2021-09-07 Сони Корпорейшн Устройство и способ обработки изображения
EP3471418A1 (en) 2017-10-12 2019-04-17 Thomson Licensing Method and apparatus for adaptive transform in video encoding and decoding
AU2018436324B2 (en) 2018-08-09 2022-12-15 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Video image component prediction method and apparatus, and computer storage medium
JP7345475B2 (ja) * 2018-08-15 2023-09-15 日本放送協会 イントラ予測装置、画像符号化装置、画像復号装置、及びプログラム
PH12019000380A1 (en) * 2018-12-17 2020-09-28 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
EP3700205A1 (en) 2019-02-19 2020-08-26 Nokia Technologies Oy Quantization parameter derivation for cross-channel residual encoding and decoding
US20220366538A1 (en) * 2019-07-03 2022-11-17 Korea Advanced Institute Of Science And Technology Video processing method and apparatus
US11232599B2 (en) * 2019-07-11 2022-01-25 Tencent America LLC Method and apparatus for inter-channel prediction and transform for point cloud attribute coding
US11463688B2 (en) 2019-12-09 2022-10-04 Qualcomm Incorporated Joint chroma residual video coding
US11523138B2 (en) 2020-03-26 2022-12-06 Alibaba Group Holding Limited Method and apparatus for cross component filtering
US11816868B2 (en) 2020-08-14 2023-11-14 Tencent America LLC Coding of multiple-component attributes for point cloud coding
WO2023013966A1 (ko) * 2021-08-06 2023-02-09 삼성전자 주식회사 Ai 기반의 영상의 부호화 및 복호화 장치, 및 이에 의한 방법

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285710B1 (en) 1993-10-13 2001-09-04 Thomson Licensing S.A. Noise estimation and reduction apparatus for video signal processing
IL129203A (en) * 1999-03-28 2002-07-25 Univ Ramot System and method for compressing figures
US7469069B2 (en) * 2003-05-16 2008-12-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding image using image residue prediction
EP1509045A3 (en) 2003-07-16 2006-08-09 Samsung Electronics Co., Ltd. Lossless image encoding/decoding method and apparatus using intercolor plane prediction
CN1777283A (zh) 2004-12-31 2006-05-24 上海广电(集团)有限公司 一种基于微块的视频信号编/解码方法
US9055298B2 (en) 2005-07-15 2015-06-09 Qualcomm Incorporated Video encoding method enabling highly efficient partial decoding of H.264 and other transform coded information
US8239766B2 (en) 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
KR101256548B1 (ko) * 2005-12-30 2013-04-19 삼성전자주식회사 영상 부호화 및 복호화 장치 및 그 방법
WO2013067667A1 (en) 2011-11-07 2013-05-16 Intel Corporation Cross-channel residual prediction
KR101261526B1 (ko) * 2006-07-04 2013-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
KR101266168B1 (ko) 2006-08-16 2013-05-21 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
TWI332799B (en) 2006-09-13 2010-11-01 Realtek Semiconductor Corp A video data source system and an analog back end device
US20080089411A1 (en) 2006-10-16 2008-04-17 Nokia Corporation Multiple-hypothesis cross-layer prediction
TWI330341B (en) 2007-03-05 2010-09-11 Univ Nat Chiao Tung Video surveillance system hiding and video encoding method based on data
TW200845758A (en) 2007-05-03 2008-11-16 Nat Univ Chung Cheng Fast intra coding algorithms for dynamic definition adjustment
TW200845723A (en) 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
JP2009005652A (ja) 2007-06-29 2009-01-15 Yaizu Suisankagaku Industry Co Ltd ペットフードの製造方法
JP2009111691A (ja) 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
JP2009200552A (ja) 2008-02-19 2009-09-03 Olympus Imaging Corp 撮像装置および撮像装置の表示方法
KR20090097688A (ko) 2008-03-12 2009-09-16 삼성전자주식회사 영상의 인트라 예측 부호화/복호화 방법 및 장치
WO2010035505A1 (ja) 2008-09-29 2010-04-01 パナソニック株式会社 動画像符号化方法および動画像符号化装置
US8665964B2 (en) 2009-06-30 2014-03-04 Qualcomm Incorporated Video coding based on first order prediction and pre-defined second order prediction mode
EP2529553B1 (en) * 2010-01-25 2021-08-11 InterDigital Madison Patent Holdings Video encoder, video decoder, method for video encoding and method for video decoding, separately for each colour plane
CN105472387B (zh) 2010-04-09 2018-11-02 Lg电子株式会社 处理视频数据的方法和装置
US10021384B2 (en) 2010-12-23 2018-07-10 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
EP3703368B1 (en) * 2011-03-06 2022-11-02 LG Electronics Inc. Intra prediction method for chrominance blocks
US9693070B2 (en) 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
US9948938B2 (en) 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
US20130058404A1 (en) 2011-09-01 2013-03-07 Jiun-In Guo Method of motion prediction of multimedia video coding
US9307237B2 (en) 2012-01-19 2016-04-05 Futurewei Technologies, Inc. Reference pixel reduction for intra LM prediction
US20130251028A1 (en) 2012-03-22 2013-09-26 The Hong Kong University Of Science And Technology Video encoding and decoding with channel prediction and error correction capability
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs

Also Published As

Publication number Publication date
WO2013067667A1 (en) 2013-05-16
US20140023139A1 (en) 2014-01-23
EP2777250B1 (en) 2017-05-31
EP2777250A4 (en) 2015-09-23
US20140219347A1 (en) 2014-08-07
EP2777250A1 (en) 2014-09-17
CN103918265A (zh) 2014-07-09
US10075709B2 (en) 2018-09-11
US10659777B2 (en) 2020-05-19
US20140211846A1 (en) 2014-07-31
CN103918265B (zh) 2018-09-18
TW201442491A (zh) 2014-11-01
TW201325256A (zh) 2013-06-16
TWI571109B (zh) 2017-02-11
US20190098294A1 (en) 2019-03-28
US10015485B2 (en) 2018-07-03
JP2014534746A (ja) 2014-12-18

Similar Documents

Publication Publication Date Title
TWI538479B (zh) 交叉頻道殘差預測之技術
JP2018137817A (ja) 3dビデオコーディングのための予測パラメータ継承
KR101653511B1 (ko) 인터-레이어 잔차 예측
JP2015530805A (ja) レイヤ間画素サンプル予測
JP2015528252A (ja) サイズに基づく変換ユニットコンテクスト導出
JP6060394B2 (ja) クロスレイヤー・クロスチャネル残差予測
WO2014093175A2 (en) Video coding including shared motion estimation between multiple independent coding streams
JP2016506165A (ja) インターレイヤの動きデータ継承
US9860533B2 (en) Cross-layer cross-channel sample prediction
KR20140098107A (ko) 잔류 예측을 위한 움직임 추정 방법
JP2014209757A (ja) クロスチャネル残差予測
JP6177966B2 (ja) クロスチャネル残差予測
JP6227698B2 (ja) クロスチャネル残差予測
CN104023238A (zh) 跨通道残余预测
JP2015146599A (ja) レイヤ間画素サンプル予測
EP2885914A1 (en) Size based transform unit context derivation