TWI619382B - 對影像解碼之裝置 - Google Patents

對影像解碼之裝置 Download PDF

Info

Publication number
TWI619382B
TWI619382B TW106136849A TW106136849A TWI619382B TW I619382 B TWI619382 B TW I619382B TW 106136849 A TW106136849 A TW 106136849A TW 106136849 A TW106136849 A TW 106136849A TW I619382 B TWI619382 B TW I619382B
Authority
TW
Taiwan
Prior art keywords
intra
mode
pixel
block
current block
Prior art date
Application number
TW106136849A
Other languages
English (en)
Other versions
TW201803356A (zh
Inventor
閔正惠
李善一
韓宇鎭
Original Assignee
三星電子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三星電子股份有限公司 filed Critical 三星電子股份有限公司
Publication of TW201803356A publication Critical patent/TW201803356A/zh
Application granted granted Critical
Publication of TWI619382B publication Critical patent/TWI619382B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

影像解碼之裝置,包含:熵解碼器,自位元串流提取當前區塊的畫面內預測模式,所述畫面內預測模式指示在多個方向中的一特定方向,其中所述特定方向是使用在水平方向的dx 數目以及在垂直方向的固定數目被標示,或是使用在垂直方向的dy 數目以及在水平方向的固定數目被標示,其中dx與dx是整數; 以及畫面內預測執行器,決定位在所述當前區塊的左邊或是所述當前區塊的上邊的多個鄰近像素; 根據當前畫素(j, i)的位置以及指示所述特定方向的所述dx 數目與所述dy數目的其中一者,使用移位運算以決定位在所述當前區塊的左邊或是所述當前區塊的上邊的所述多個鄰近像素中的至少一個像素的位置,其中j與i是整數;以及使用所述多個鄰近像素以及所述至少一個像素的所述位置以執行在所述當前區塊的面內預測。

Description

對影像解碼之裝置
本發明之例示性實施例是關於影像之編碼及解碼,且更特定言之,是關於一種用於經由畫面內預測(intra prediction)來編碼及解碼影像之方法及裝置,所述方法及裝置可藉由使用具有各種方向性之畫面內預測模式來改良影像壓縮效率。 [相關申請案]
本申請案主張於2010年7月16日在美國專利及商標局申請之美國臨時專利申請案第61/364,986號之權益,及於2010年10月6日在韓國智慧財產局申請之韓國專利申請案第10-2010-0097424號之優先權,其全部揭露內容以引用的方式併入本文中。
根據諸如動畫專家群(MPEG)-1、MPEG-2、MPEG-4或H.264/MPEG-4進階視訊編碼(AVC)之影像壓縮標準,將圖像分割成巨集區塊(macroblocks)來編碼影像。在用畫面間預測(inter prediction)及畫面內預測編碼模式中之任一者來編碼巨集區塊中之每一者之後,根據編碼巨集區塊所需之位元率及原始巨集區塊與重建構之巨集區塊之間的容許失真來選擇適當的編碼模式,且接著用所選擇的編碼模式來編碼巨集區塊。
由於正在開發用於重現(reproducing)及儲存高解析度或高品質影像內容之硬體,因此,對有效地編碼或解碼高解析度或高品質視訊內容之視訊編解碼器(video codec)的需要正在增加。在習知的視訊編解碼器中,基於具有預定尺寸的巨集區塊以有限的編碼模式來編碼視訊。
例示性實施例提供一種用於藉由使用具有各種方向性之畫面內預測模式以經由畫面內預測來編碼及解碼影像之方法及裝置。
根據例示性實施例之態樣,提供一種對影像解碼之裝置,包含:熵解碼器,自位元串流提取當前區塊的畫面內預測模式,所述畫面內預測模式指示在多個方向中的一特定方向,其中所述特定方向是使用在水平方向的dx 數目以及在垂直方向的固定數目被標示,或是使用在垂直方向的dy 數目以及在水平方向的固定數目被標示,其中dx與dx是整數; 以及畫面內預測執行器,決定位在所述當前區塊的左邊或是所述當前區塊的上邊的多個鄰近像素; 根據當前畫素(j, i)的位置以及指示所述特定方向的所述dx數目與所述dy數目的其中一者,使用移位運算以決定位在所述當前區塊的左邊或是所述當前區塊的上邊的所述多個鄰近像素中的至少一個像素的位置,其中j與i是整數;以及使用所述多個鄰近像素以及所述至少一個像素的所述位置以執行在所述當前區塊的面內預測。其中,在所述當前區塊的所述上邊的所述至少一個像素的所述位置是根據i•dx >>m所決定,其中參數i是所述當前像素在所述垂直方向的位置,參數dx是在所述水平方向的所述dx 數目,參數m 是相關於所述垂直方向上的所述固定數目,符號>>是所述移位運算。在所述當前區塊的所述左邊的所述至少一個像素的所述位置是根據j•dy >>n所決定,其中參數j是所述當前像素在所述水平方向的位置,參數dy是在所述垂直方向的所述dy 數目,參數n 是相關於所述水平方向上的所述固定數目。
藉由參看隨附圖式來詳細描述以上及其他態樣之例示性實施例,以上及其他態樣將變得更加顯而易見。
現將參考展示例示性實施例之隨附圖式來更全面描述例示性實施例。
圖1為說明根據例示性實施例之用於編碼影像之裝置100的方塊圖。
參看圖1,裝置100包括畫面內預測單元110、運動估計單元120、運動補償單元125、頻率變換單元130、量化單元140、熵編碼器150、反量化單元160、頻率反變換單元170、解區塊單元180及迴路(loop)濾波單元190。
運動估計單元120及運動補償單元125執行畫面間預測,畫面間預測將當前圖像之當前圖框105劃分成各自具有預定尺寸之區塊,且在參考圖像中搜尋所述區塊中之每一者的預測值。
畫面內預測單元110執行畫面內預測,畫面內預測藉由使用當前圖像的鄰近區塊之像素來搜尋當前區塊之預測值。特定言之,除習知的畫面內預測模式以外,畫面內預測單元110亦藉由使用(dx, dy)參數來額外地執行具有各種方向性之畫面內預測模式。隨後將解釋根據本例示性實施例之所添加的畫面內預測模式。
當前區塊之殘餘值是基於自畫面內預測單元110及運動補償單元125輸出之預測值而產生,且經由頻率變換單元130及量化單元140而輸出為經量化之變換係數。
經由反量化單元160及頻率反變換單元170而將經量化之變換係數恢復為殘餘值,且經由解區塊單元180及迴路濾波單元190來後(post)處理所恢復之殘留值且將其輸出至參考圖框195。可經由熵編碼器150來將經量化之變換係數輸出為位元串流155。
將詳細解釋藉由圖1之畫面內預測單元110執行之畫面內預測。將藉由採取可藉由使用尺寸大於或小於16×16之區塊作為編碼單元來執行壓縮編碼之編解碼器,而非基於具有16×16尺寸之巨集區塊來執行編碼的諸如H.264之習知編碼解碼器,來解釋用於改良影像壓縮效率之畫面內預測方法。
圖2為說明根據例示性實施例之根據當前區塊之尺寸的畫面內預測模式之數目的圖式。
將應用於區塊之畫面內預測模式的數目可根據區塊尺寸而變化。舉例而言,參看圖2,在待經畫面內預測之區塊的尺寸為N×N時,可將對具有2×2、4×4、8×8、16×16、32×32、64×64及128×128之各別尺寸的區塊中之每一者實際上執行之畫面內預測模式的數目設定為5、9、9、17、33、5及5(在實例2之狀況中)。因而,實際上執行之畫面內預測模式的數目根據區塊之尺寸而變化,此是因為用於對預測模式資訊進行編碼之額外負擔(overhead)是根據區塊的尺寸而變化。換言之,在具有小尺寸的區塊之狀況中,儘管區塊佔用整個影像中之小部分,但用於傳輸額外資訊(諸如,具有小尺寸之區塊的預測模式)之額外負擔可能較高。因此,若藉由使用過多預測模式來編碼具有小尺寸之區塊,則可增加位元率,藉此降低壓縮效率。且,因為經常選擇具有大尺寸(例如,大於64×64的尺寸)之區塊作為影像之平坦區域的區塊,所以在藉由使用過多預測模式來編碼具有大尺寸之區塊時,亦可能會降低壓縮效率。
因此,在圖2中,若粗略地將區塊之尺寸分成至少三類尺寸,N1×N1(2≤N1≤8,N1為整數)、N2×N2(16≤N2≤32,N2為整數),及N3×N3(64≤N3,N3為整數),則將對具有N1×N1尺寸之區塊執行的畫面內預測模式的數目為A1(A1為正整數),將對具有N2×N2尺寸之區塊執行的畫面內預測模式的數目為A2(A2為正整數),且將對具有N3×N3尺寸之區塊執行的畫面內預測模式的數目為A3(A3為正整數),較佳地根據每一區塊之尺寸來將待執行之畫面內預測模式的數目設定為滿足關係A3≤A1≤A2。亦即,在將當前圖像粗略地劃分成具有小尺寸之區塊、具有中等尺寸之區塊及具有大尺寸之區塊時,較佳為將具有中等尺寸之區塊設定為具有最大數目個預測模式,且將具有小尺寸之區塊及具有大尺寸之區塊設定為具有相對較小數目個預測模式。然而,本例示性實施例不限於此,且可將具有小尺寸之區塊及具有大尺寸之區塊設定為具有大數目個預測模式。根據圖2中所說明的每一區塊之尺寸變化之預測模式之數目為實例,且可加以改變。
圖3為用於解釋根據例示性實施例之應用於具有預定尺寸的區塊之畫面內預測模式之圖式。
參看圖2及圖3,當對具有4×4尺寸之區塊執行畫面內預測時,具有4×4尺寸之區塊可具有垂直模式(模式0)、水平模式(模式1)、直流(DC)模式(模式2)、對角線向左下模式(模式3)、對角線向右下模式(模式4)、垂直偏右模式(模式5)、水平偏下模式(模式6)、垂直偏左模式(模式7),及垂直偏上模式(模式8)。
圖4為說明根據例示性實施例之圖3的畫面內預測模式之方向的圖式。在圖4中,在箭頭末端所展示之數字表示當在由箭頭所標記之方向上執行預測時之對應模式值。此處,模式2為不具有方向性之DC預測模式,因而圖中未示。
圖5為用於解釋根據例示性實施例之對圖3中所說明之區塊執行的畫面內預測方法之圖式。
參看圖5,藉由使用當前區塊之鄰近像素A-M以由區塊尺寸所確定之可用畫面內預測模式來產生預測區塊。舉例而言,將解釋按圖3中之模式0(亦即,垂直模式)來預測編碼具有4×4尺寸之當前區塊的操作。首先,將鄰近於具有4×4尺寸之當前區塊上方之像素A至D之像素值預測為具有4×4尺寸之當前區塊的像素值。亦即,將像素A之像素值預測為在具有4×4尺寸的當前區塊之第一行中所包括之四個像素的像素值,將像素B之像素值預測為在具有4×4尺寸的當前區塊之第二行中所包括之四個像素的像素值,將像素C之像素值預測為在具有4×4尺寸的當前區塊之第三行中所包括之四個像素的像素值,且將像素D之像素值預測為在具有4×4尺寸的當前區塊之第四行中所包括之四個像素的像素值。接下來,獲取並編碼在原始4×4當前區塊中所包括的像素之實際像素值與藉由使用像素A至像素D所預測之4×4當前區塊中所包括的像素的像素值之間的殘餘。
圖6為用於解釋根據另一例示性實施例之應用於具有預定尺寸之區塊的畫面內預測模式之圖式。
參看圖2及圖6,在對具有2×2或128×128尺寸的區塊執行畫面內預測時,具有2×2或128×128尺寸的區塊可具有下列5種模式:垂直模式、水平模式、DC模式、平面模式及對角線向右下模式。
同時,若具有32×32尺寸的區塊包括例如在圖2中所展示之33種畫面內預測模式,則有必要設定33種畫面內預測模式之方向。為設定除在圖4及圖6中所說明之畫面內預測模式以外的具有各個方向的畫面內預測模式,藉由使用(dx, dy)參數來設定用於在區塊中之像素周圍選擇鄰近像素來用作參考像素的預測方向。舉例而言,在將33種預測模式中之每一種表示為模式N時(N為自0至32之整數),可將模式0設定為垂直模式,可將模式1設定為水平模式,可將模式2設定為DC模式,可將模式3設定為平面模式,且可將模式4至模式32中之每一者設定為具有tan -1(dy/dx)之方向性的預測模式,所述方向性表示為表達為以下各者中之一者的(dx, dy)之一:(1, -1)、(1, 1)、(1, 2)、(2, 1)、(1, -2)、(2, 1)、(1, -2)、(2, -1)、(2, -11)、(5, -7)、(10, -7)、(11, 3)、(4, 3)、(1, 11)、(1, -1)、(12, -3)、(1, -11)、(1, -7)、(3, -10)、(5, -6)、(7, -6)、(7, -4)、(11, 1)、(6, 1)、(8, 3)、(5, 3)、(5, 7)、(2, 7)、(5, -7)及(4, -3),如表1中所展示。
表1 <TABLE border="1" borderColor="#000000" width="85%"><TBODY><tr><td> 模式編號 </td><td> dx </td><td> dy </td><td> 模式編號 </td><td> dx </td><td> dy </td></tr><tr><td> 模式4 </td><td> 1 </td><td> -1 </td><td> 模式18 </td><td> 1 </td><td> -11 </td></tr><tr><td> 模式5 </td><td> 1 </td><td> 1 </td><td> 模式19 </td><td> 1 </td><td> -7 </td></tr><tr><td> 模式6 </td><td> 1 </td><td> 2 </td><td> 模式20 </td><td> 3 </td><td> -10 </td></tr><tr><td> 模式7 </td><td> 2 </td><td> 1 </td><td> 模式21 </td><td> 5 </td><td> -6 </td></tr><tr><td> 模式8 </td><td> 1 </td><td> -2 </td><td> 模式22 </td><td> 7 </td><td> -6 </td></tr><tr><td> 模式9 </td><td> 2 </td><td> -1 </td><td> 模式23 </td><td> 7 </td><td> -4 </td></tr><tr><td> 模式10 </td><td> 2 </td><td> -11 </td><td> 模式24 </td><td> 11 </td><td> 1 </td></tr><tr><td> 模式11 </td><td> 5 </td><td> -7 </td><td> 模式25 </td><td> 6 </td><td> 1 </td></tr><tr><td> 模式12 </td><td> 10 </td><td> -7 </td><td> 模式26 </td><td> 8 </td><td> 3 </td></tr><tr><td> 模式13 </td><td> 11 </td><td> 3 </td><td> 模式27 </td><td> 5 </td><td> 3 </td></tr><tr><td> 模式14 </td><td> 4 </td><td> 3 </td><td> 模式28 </td><td> 5 </td><td> 7 </td></tr><tr><td> 模式15 </td><td> 1 </td><td> 11 </td><td> 模式29 </td><td> 2 </td><td> 7 </td></tr><tr><td> 模式16 </td><td> 1 </td><td> -1 </td><td> 模式30 </td><td> 5 </td><td> -7 </td></tr><tr><td> 模式17 </td><td> 12 </td><td> -3 </td><td> 模式31 </td><td> 4 </td><td> -3 </td></tr><tr><td> 模式0為垂直模式,模式1為水平模式,模式2為DC模式,模式3為平面模式,且模式32為雙線性模式。 </td></tr></TBODY></TABLE>
可使用雙線性內插法來將最後一種模式32設定為雙線性模式,如隨後參考圖10所描述。
圖7為用於解釋根據例示性實施例之具有各種方向性的畫面內預測模式之參考圖。
如參考表1所描述,藉由使用多個(dx, dy)參數,畫面內預測模式可具有tan -1(dy/dx)之各種方向性。
參看圖7,可使用位於延伸線700上之鄰近像素A及B來作為當前像素P之預測量(predictor),延伸線700在當前區塊中將加以預測之當前像素P周圍具有根據在表1中所展示之每一模式的(dx, dy)而得以確定的梯度tan -1(dy/dx)。在此狀況中,較佳地,被用作預測量之鄰近像素A及B為鄰近區塊的在當前區塊之上、左、右上及左下側處的先前經編碼及恢復之像素。且,若延伸線700經過(未穿過)整數位置的鄰近像素之間,則可使用來自接近於延伸線700之鄰近像素中的較接近於當前像素P之鄰近像素來作為預測量,或可藉由使用接近於延伸線700之鄰近像素來執行預測。舉例而言,可使用接近於延伸線700的鄰近像素之間的平均值,或在延伸線700之交點與接近於延伸線700之鄰近像素之間的距離被考慮到時之加權平均值來作為當前像素P之預測量。且,如圖7中所展示,可以區塊單元來表示來自根據預測方向為可用的在X軸上的鄰近像素及在Y軸上的鄰近像素中的哪些鄰近像素(例如,鄰近像素A及B)將要被用作當前像素P之預測量。
圖8為用於解釋根據例示性實施例之當具有預定梯度之延伸線800經過(未穿過)整數位置的鄰近像素之間時產生預測量之過程的參考圖。
參看圖8,若具有根據每一模式之(dx, dy)而得以確定的tan -1(dy/dx)之角度的延伸線800經過整數位置的鄰近像素A 810與鄰近像素B 820之間,則如上文所描述,可使用在延伸線800之交點與接近於延伸線800之鄰近像素A 810及B 810之間的距離被考慮到時之加權平均值來作為當前像素P之預測量。舉例而言,當在具有tan -1(dy/dx)之角度的延伸線800之交點與鄰近像素A 810之間的距離為f且在延伸線800之交點與鄰近像素B 820之間的距離為g時,則可將當前像素P之預測量獲取為(A*g+B*f)/(f+g)。此處,較佳地,f及g可各自為使用整數來正規化之距離。若使用軟體或硬體,則可藉由如(g*A+f*B+2)>>2之移位運算來獲取當前像素P之預測量。如圖8中所展示,若延伸線800穿過來自藉由將在整數位置之鄰近像素A 810與鄰近像素B 820之間的距離四等分而獲取的四個部分中接近於鄰近像素A 810的第一四分之一距離處,則可將當前像素P之預測量獲取為(3*A+B)/4。可藉由考慮到捨入成最接近之整數之移位運算(類似(3*A+B+2)>>2)來執行此類運算。
圖9為用於解釋根據另一例示性實施例之當具有預定梯度之延伸線經過整數位置之鄰近像素之間時產生預測量之過程的參考圖。
參看圖9,若具有根據每一模式之(dx, dy)而確定的tan -1(dy/dx)之角度的延伸線經過整數位置的鄰近像素A 910與鄰近像素B 920之間,則可將鄰近像素A 910與鄰近像素B 920之間的區段劃分成預定數目個區域,且可使用在每一所劃分區域中的交點與鄰近像素A 910及鄰近像素B 920之間的距離被考慮到時之加權平均值來作為預測值。舉例而言,可將鄰近像素A 910與鄰近像素B 920之間的區段劃分成如在圖9中所展示之五個區段P1至P5,可確定考慮到在每一區段中的交點與鄰近像素A 151及鄰近像素B 152之間的距離時之表示性加權平均值,且可使用表示性加權平均值來作為當前像素P之預測量。詳言之,若延伸線穿過區段P1,則可將鄰近像素A 910之值確定為當前像素P之預測量。若延伸線穿過區段P2,則可將考慮到在鄰近像素A 910及鄰近像素920與區段P2的中點之間的距離時之加權平均值(3*A+1*B+2)>>2確定為當前像素P之預測量。若延伸線穿過區段P3,則可將考慮到在鄰近像素A 910及鄰近像素B 920與區段P3的中點之間的距離時之加權平均值(2*A+2*B+2)>>2確定為當前像素P之預測量。若延伸線穿過區段P4,則可將考慮到在鄰近像素A 910及鄰近像素B 920與區段P4的中點之間的距離時之加權平均值(1*A+3*B+2)>>2確定為當前像素P之預測量。若延伸線穿過區段P5,則可將鄰近像素B 920之值確定為當前像素P之預測量。
又,若兩個鄰近像素(亦即,在上側之鄰近像素A及在左側之鄰近像素B)如圖7中展示而與延伸線700相交,則可使用鄰近像素A與鄰近像素B之平均值來作為當前像素P之預測量。或者,若(dx*dy)為正值,則可使用在上側之鄰近像素A,而若(dx*dy)為負值,則可使用在左側之鄰近像素B。
較佳地,先前在編碼端及解碼端設定如表1中所展示之具有各種方向性的畫面內預測模式,且僅傳輸針對每一區塊所設定之畫面內預測模式之對應索引(index)。
圖10為用於解釋根據例示性實施例之雙線性模式的參考圖。
參看圖10,在雙線性模式中,計算出考慮到距當前像素P之上、下、左及右邊界的距離及距在當前區塊中之待預測之當前像素P周圍的位於上、下、左及右邊界處的像素之距離時的幾何平均值,且使用計算結果來作為當前像素P之預測量。亦即,在雙線性模式中,可使用距當前像素P之上、下、左及右邊界的距離及距位於當前像素P之上、下、左及右邊界處之像素A 1061、像素B 1002、像素D 1006及像素E 1007之距離的幾何平均值來作為當前像素P 1060之預測量。在此狀況中,因為雙線性模式為畫面內預測模式之一,所以亦應使用先前經編碼且接著恢復之在上側及左側的鄰近像素來在預測期間作為參考像素。因此,未使用在當前區塊中的對應像素值來作為像素A 1061及像素B 1002,而使用藉由使用在上部及左側部之鄰近像素所產生的虛擬(virtual)像素值。
詳言之,如方程式1中所展示,藉由使用鄰近於當前區塊的在右上側處之鄰近像素右上像素(RightUpPixel)1004及在左下側處之鄰近像素左下像素(LeftDownPixel)1005之平均值來計算在當前區塊之右下側處的虛擬像素C 1003。
[方程式1]
方程式1可藉由如C=0.5(LeftDownPixel+RightUpPixel+1)>>1之移位運算來計算。
當藉由考慮距當前像素P 1060之左邊界的距離W1及距右邊界的距離W2而使得當前像素P 1060向下延伸時,可藉由使用在左下側處的鄰近像素左下像素1005與像素C 1003之平均值來設定位於下邊界處之虛擬像素A 1061之值。舉例而言,可藉由使用在方程式2中所展示之一方程式來計算像素A 1061之值。
[方程式2]
在方程式2中,當W1+W2之值為2的冪(power)(類似於2^n)時,可無需除法而藉由如A=(C*W1+LeftDownPixel*W2+2^(n-1))>>n之移位運算來計算A=(C*W1+LeftDownPixel*W2+((W1+W2)/2))/(W1+W2)。
同樣,當藉由考慮距當前像素P 1060之上邊界(upper border)的距離h1及距當前像素P 1060之下邊界的距離h2而使得當前像素P 1060向右延伸時,可藉由考慮距離h1及h2而使用在右上側上的鄰近像素右上像素1004與像素C 1003之平均值來設定位於右邊界上之虛擬像素B 1002的值。舉例而言,可藉由使用在方程式3中所展示之一方程式來計算像素B 1002之值。
[方程式3]
在方程式3中,當h1+h2之值為2的冪(類似2^m)時,可無需除法而藉由如B=(C*h1+RightUpPixel*h2+2^(m-1))>>m之移位運算來計算B=(C*h1+RightUpPixel*h2+((h1+h2)/2))/(h1+h2)。
一旦藉由使用方程式1至方程式3來確定在當前像素P 1060之下邊界上之虛擬像素A 1061的值及在當前像素P 1060之右邊界上之虛擬像素B 1002的值,則可藉由使用A+B+D+E之平均值來確定當前像素P 1060之預測量。詳言之,可使用考慮到當前像素P 1060與虛擬像素A 1061、虛擬像素B 1002、像素D 1006及像素E 1007之間的距離時之加權平均值或A+B+D+E之平均值來作為當前像素P 1060之預測量。舉例而言,若圖10之區塊尺寸為16×16且使用加權平均值,則可將當前像素P 1060之預測量獲取為(h1*A+h2*D+ W1*B+W2*E+16)>>5。因而,將此類雙線性預測應用於當前區塊中的所有像素,且產生按雙線性預測模式的當前區塊之預測區塊。
因為根據隨區塊尺寸變化的畫面內預測模式來執行預測編碼,所以可根據影像之特性而達成更高效之壓縮。
同時,因為根據本例示性實施例所使用的畫面內預測模式較在習知的編解碼器中所使用的畫面內預測模式之數目更多,所以與習知的編解碼器的相容性(compatibility)可能成為問題。因此,可能有必要將具有各個方向的可用畫面內預測模式映射至較小數目個畫面內預測模式中之一者。亦即,在當前區塊的可用畫面內預測模式之數目為N1時(N1為整數)時,為使得當前區塊之可用畫面內預測模式與具有N2個(N2為不同於N1之整數)畫面內預測模式之區塊相容,可將當前區塊之畫面內預測模式映射至來自所述N2個畫面內預測模式中的具有最相似方向的畫面內預測模式。舉例而言,假定如表1中所展示在當前區塊中總共有33個畫面內預測模式可用且最終應用於當前區塊的畫面內預測模式為模式14,亦即,(dx, dy)=(4, 3),其具有tan -1(3/4)≒36.87(度)之方向性。在此狀況中,為將應用於當前區塊的畫面內預測模式與在圖4中所展示的9個畫面內預測模式中之一者匹配,可選擇具有與36.87(度)之方向性最相似之方向性的模式4(右下)。亦即,可將表1中之模式14映射至圖4中所說明之模式4。同樣,若將應用於當前區塊的畫面內預測模式選擇為來自於表1中的33個可用畫面內預測模式中的模式15,亦即,(dx, dy)=(1, 11),則因為應用於當前區塊的畫面內預測模式之方向性為tan -1(11)≒84.80(度),則可將圖4中具有與84.80(度)之方向性最相似之方向性的模式0(垂直)映射至模式15。
同時,為解碼經由畫面內預測編碼之區塊,需要關於當前區塊是經由哪種畫面內預測模式來編碼之預測模式資訊。因此,當編碼影像時,將關於當前區塊的畫面內預測模式之資訊添加至位元串流,且在此時,若將關於畫面內預測模式之資訊原樣地添加至用於每一區塊之位元串流,則增加額外負擔,藉此降低壓縮效率。因此,可能不會依原樣傳輸關於當前區塊之畫面內預測模式(其由於當前區塊之編碼而確定)的資訊,而是可能僅傳輸在實際畫面內預測模式之值與自鄰近區塊預測的畫面內預測模式之預測值之間的差值。
若根據本例示性實施例來使用具有各個方向的畫面內預測模式,則可用的畫面內預測模式之數目可根據區塊尺寸而變化。因此,為預測當前區塊的畫面內預測模式,有必要將鄰近區塊的畫面內預測模式映射至表示性的畫面內預測模式。此處,較佳地,表示性的畫面內預測模式可為來自可用的鄰近區塊的畫面內預測模式中的較小數目個畫面內預測模式,或如在圖14中所展示之9個畫面內預測模式。
圖11為用於解釋根據例示性實施例之產生當前區塊的畫面內預測模式之預測值的過程之圖式。
參看圖11,在當前區塊為A 110時,可由自鄰近區塊確定的畫面內預測模式來預測當前區塊A 110之畫面內預測模式。舉例而言,若自當前區塊A 110之左區塊B 111確定的經確定的畫面內預測模式為模式3且自上區塊C 112確定之畫面內預測模式為模式4,則可將當前區塊A 110之畫面內預測模式預測為來自上區塊C 112及左區塊B 111之預測模式中的具有較小值之模式3。若由於對當前區塊A 110執行之實際畫面內預測編碼而確定的畫面內預測模式為模式4,則僅將來自模式3之差1(其為自鄰近區塊B 111及C 112預測之畫面內預測模式的值)作為畫面內預測模式資訊來傳輸。以相同方式,當解碼影像時,產生當前區塊的畫面內預測模式之預測值,將經由位元串流傳輸之模式差值添加至畫面內預測模式之預測值,及獲取實際應用於當前區塊之畫面內預測模式資訊。儘管僅使用位於當前區塊的上側及左側上之鄰近區塊,但可藉由使用其他鄰近區塊來預測當前區塊A 110之畫面內預測模式,如圖11E及圖11D中所展示。
同時,因為實際執行之畫面內預測模式根據區塊尺寸而變化,所以自鄰近區塊預測之畫面內預測模式可能不與當前區塊的畫面內預測模式匹配。因此,為自具有不同尺寸的鄰近區塊來預測當前區塊之畫面內預測模式,需要將具有不同畫面內預測模式的區塊之畫面內預測模式予以統一之映射過程。
圖12及圖13為用於解釋根據例示性實施例之用於將具有不同尺寸的區塊之畫面內預測模式予以統一之映射過程之參考圖。
參看圖12,假定當前區塊A 120具有16×16尺寸,左區塊B 121具有8×8尺寸,且上區塊C 122具有4×4尺寸。且,如在圖2之實例1中所展示,假定具有4×4、8×8,及16×16尺寸的區塊之可用畫面內預測模式之數目為9、9及33。在此狀況中,因為左區塊B 121及上區塊C 122的可用畫面內預測模式之數目不同於當前區塊A 120的可用畫面內預測模式之數目,所以自左區塊B 121及上區塊C 122預測之畫面內預測模式不適合用作當前區塊A 120的畫面內預測模式之預測值。因此,在圖12中,分別將鄰近區塊B 121及鄰近區塊C 122之畫面內預測模式改變為來自在圖14中所展示的預定數目個表示性的畫面內預測模式中的具有最相似方向之第一及第二表示性的畫面內預測模式,且自第一及第二表示性的畫面內預測模式選擇具有較小模式值之模式來作為最終表示性的畫面內預測模式。將選自根據當前區塊A 120之尺寸可用之畫面內預測模式中的具有與最終表示性的畫面內預測模式最相似的方向之畫面內預測模式預測為當前區塊A 120之畫面內預測模式。
或者,參看圖13,假定當前區塊A 130具有16×16尺寸,左區塊B 133具有32×32尺寸,且上區塊C 132具有8×8尺寸。且,如在圖2之實例1中所展示,假定具有8×8、16×16及32×32尺寸之區塊的可用的畫面內預測模式之數目為9、9及32。且,假定左區塊B 133的畫面內預測模式為模式4,且上區塊C 132的畫面內預測模式為模式31。在此狀況中,因為左區塊B 133及上區塊C 132的畫面內預測模式彼此不兼容,所以將左區塊B 133及上區塊C 132的畫面內預測模式中之每一者映射至表示性的畫面內預測模式中之一者,如圖14中所展示。因為作為左區塊B 133的畫面內預測模式之模式31具有如在表1中所展示的(dx, dy)=(4, -3)之方向性,所以將模式31映射至來自圖14之表示性的畫面內預測模式中的具有與tan -1(-3/4)最相似之方向性的模式5,且因為模式4具有與來自圖14之表示性的畫面內預測模式中的模式4的方向性相同之方向性,所以將作為上區塊C 132的畫面內預測模式之模式4映射至所述模式4。
接下來,可將來自為左區塊B 133之所映射的畫面內預測模式的模式5及為上區塊C 132之所映射的畫面內預測模式的模式4中的具有較小模式值之模式4確定為當前區塊A 130的畫面內預測模式之預測值,且可僅將在當前區塊A 130的實際畫面內預測模式與所預測的畫面內預測模式之間的模式差值編碼為當前區塊A 130之預測模式資訊。
圖14為用於解釋根據例示性實施例之將鄰近區塊之畫面內預測模式映射至表示性的畫面內預測模式中之一者的過程之參考圖。在圖14中,將垂直模式0、水平模式1、DC模式(未圖示)、對角線向左下模式3、對角線向右下模式4、垂直偏右模式5、水平偏下模式6、垂直偏左模式7及水平偏上模式8設定為表示性的畫面內預測模式。然而,表示性的畫面內預測模式不限於此且可將其設定成具有多種數目的方向性。
參看圖14,先前設定了預定數目個表示性的畫面內預測模式,且將鄰近區塊之畫面內預測模式映射至具有最相似方向的表示性的畫面內預測模式。舉例而言,若鄰近區塊之經確定畫面內預測模式為具有方向性之畫面內預測模式MODE_A 140,則將鄰近區塊之畫面內預測模式MODE_A 140映射至來自9個預設之表示性的畫面內預測模式1至9中的具有最相似方向之模式1。若鄰近區塊之經確定的畫面內預測模式為具有方向性之畫面內預測模式MODE_B 141,則將鄰近區塊之畫面內預測模式MODE_B 141映射至來自9個預設之表示性的畫面內預測模式1至9中的具有最相似方向之模式5。
因而,若鄰近區塊之可用的畫面內預測模式不相同,則將鄰近區塊之畫面內預測模式映射至表示性的畫面內預測模式,且自鄰近區塊之所映射的畫面內預測模式中選擇具有最小模式值之畫面內預測模式來作為鄰近區塊之最終表示性的畫面內預測模式。因而,選擇具有較小模式值的表示性的畫面內預測模式之原因為較小模式值被設定成較經常產生的畫面內預測模式。亦即,若自鄰近區塊預測不同畫面內預測模式,則因為具有較小模式值的畫面內預測模式具有較高之出現可能性,所以在存在不同預測模式時較佳選擇具有較小模式值之預測模式來作為當前區塊的預測模式之預測量。
有時,儘管自鄰近區塊選擇表示性的畫面內預測模式,但表示性的畫面內預測模式可能不用作為當前區塊之畫面內預測模式的預測量。舉例而言,若如參考圖12所描述,當前區塊A 120具有33個畫面內預測模式且表示性的畫面內預測模式僅具有9個表示性的畫面內預測模式,則對應於表示性的畫面內預測模式的當前區塊A 120之畫面內預測模式不存在。在此狀況中,以與如上文描述之用以將鄰近區塊的畫面內預測模式映射至表示性的畫面內預測模式相似之方式,可選擇選自根據當前區塊尺寸而為可用之畫面內預測模式的具有與表示性的畫面內預測模式最相似之方向的畫面內預測模式來作為當前區塊的畫面內預測模式之最終預測量。舉例而言,若在圖14中最終選自鄰近區塊的表示性的畫面內預測模式為模式6,則可最終選擇來自根據當前區塊尺寸而為可用之畫面內預測模式中的具有與模式6之方向性最相似之方向性的畫面內預測模式來作為當前區塊的畫面內預測模式之預測量。
同時,如上文參看圖7所描述,若藉由使用在延伸線700上或接近於延伸線700之鄰近像素來產生當前像素P之預測量,則延伸線700實際上具有tan -1(dy/dx)之方向性。因為需要除法(dy/dx)來計算方向性,所以在使用硬體或軟體時,將計算下調至小數位,藉此增加了計算量。因此,較佳地,在以與參考表1所描述的方式相似之方式藉由使用(dx, dy)參數來設定用於在區塊中之像素周圍選擇將用作參考像素之鄰近像素的預測方向時,設定dx及dy以減小計算量。
圖15為用於解釋根據例示性實施例之當前像素與位於具有方向性(dx, dy)之延伸線上的鄰近像素之間的關係之圖式。
參看圖15,假定基於當前區塊之上邊界而位於第i位點上(i為整數)且基於當前區塊之左邊界而位於第j位點上(j為整數)的當前像素P 1510之位置為P(j, i),且位於穿過當前像素P 1510且具有方向性(亦即,tan -1(dy/dx)梯度)的延伸線上的上鄰近像素及左鄰近像素分別為A 1520及B 1530。且,在假定上鄰近像素的位置對應於座標平面上之X軸且左鄰近像素的位置對應於座標平面上之Y軸時,藉由使用三角比(trigonometric ratio)來發現與延伸線相交之上鄰近像素A 1520位於(j+i*dx/dy, 0)上,而與延伸線相交之左鄰近像素B 1530位於(0, i+j*dy/dx)上。因此,為確定用於預測當前像素P 1510之上鄰近像素A 1520及左鄰近像素B 1530中之任一者,需要諸如dx/dy或dy/dx之除法。因為如上文描述,除法十分複雜,所以軟體或硬體之計算速度可能減小。
因此,可將表示用於確定用於畫面內預測之鄰近像素的預測模式的方向性之dx及dy中之至少一者的值確定為2的冪。亦即,在n及m為整數時,dx及dy可分別為2^n及2^m。
參看圖15,若左鄰近像素B 1530用作當前像素P 1510之預測量且dx具有2^n之值,則確定(0, i+j*dy/dx)(其為左鄰近像素B 1530之位置)所需之j*dy/dx變為(i*dy)/(2^n),且藉由如(i*dy)>>n之移位運算容易地獲取使用此2的冪之除法,藉此減小計算量。
同樣,若上鄰近像素A 1520用作當前像素P 1510之預測量且dy具有2^m之值,則確定(j+i*dx/dy, 0)(其為上鄰近像素A 1520之位置)所需之i*dx/dy變為(i*dx)/(2^m),且藉由如(i*dx)>>m之移位運算來容易地獲取使用此2的冪之除法。
圖16為用於解釋根據例示性實施例之位於具有方向性(dx, dy)之延伸線上的鄰近像素根據當前像素的位置所作之改變之圖式。
根據當前像素的位置及延伸線之梯度來選擇位於穿過當前像素的延伸線上之上鄰近像素及左鄰近像素中之一者來作為預測時所需之鄰近像素。
參看圖16,在當前像素1610為P(j, i)且藉由使用位於具有梯度的延伸線上之鄰近像素來加以預測時,使用上像素A來預測當前像素P 1610。在當前像素1620為Q(b, a)時,使用左像素B來預測當前像素Q 1620。
若僅Y軸方向的dy分量(其來自表示預測方向的(dx, dy)中)具有類似2^m的2之冪,則可無需除法而藉由如(j+(i*dx)>>m, 0)之移位運算或其類似者來確定圖16中之上像素A,但左像素B需要如在(0, a+b*2^m/dx)中所展示之除法。因此,為在針對當前區塊的所有像素而產生預測量時將除法排除,所有的dx及dy應具有2之冪的類型。
圖17及圖18為用於解釋根據例示性實施例之確定畫面內預測模式方向的方法之圖式。
總體上,存在影像或視訊信號中所展示的線性圖案為垂直或水平之許多狀況。因此,當藉由使用(dx, dy)參數來定義具有各種方向性之畫面內預測模式時,可藉由定義dx及dy之值來改良影像編碼效率。舉例而言,設定dx及dy之絕對值,以使得在接近於水平方向或垂直方向的預測方向之間的距離為窄而在接近於對角線方向的預測模式之間的距離為寬。
詳言之,參看圖17,若dy具有2^n之固定值,則可設定dx之絕對值以使得在接近於垂直方向的預測方向之間的距離為窄而在較接近於水平方向的預測模式之間的距離較寬。換言之,可設定dx之絕對值以使得在接近於垂直方向的預測方向之間的距離為窄而在較接近於對角線(+45或-45度)方向的預測模式之間的距離較寬。亦即,若dy具有2之冪的固定值,則可設定距離以使其隨著dx的絕對值較接近於0而減小,從而使得距離隨著延伸線的方向較接近於垂直方向而減小,且可設定距離以使其隨著dx的絕對值較遠離0而增加,從而使得距離隨著延伸線的方向較接近於水平方向而增加。舉例而言,如圖17中所展示,若dy具有2^4之值(亦即,16),則可將dx的值設定為1、2、3、4、6、9、12、16、0、-1、-2、-3、-4、-6、-9、-12及-16,從而使得在接近於垂直方向的延伸線之間的距離可為窄而在接近於水平方向的延伸線之間的距離可為寬。
同樣,在dx具有2^n之固定值時,可設定dy之絕對值以使得在接近於水平方向的預測方向之間的距離為窄而在較接近於垂直方向的預測模式之間的距離較寬。換言之,可設定dy之絕對值以使得在接近於水平方向的預測方向之間的距離為窄而在較接近於對角線(+45或-45度)方向的預測模式之間的距離較寬。亦即,當dx具有2之冪的固定值時,可設定距離以使其隨著dy的絕對值較接近於0而減小,從而使得距離隨著延伸線的方向較接近於水平方向而減小,且可設定距離以使其隨著dy的絕對值較遠離0而增加,從而使得距離隨著延伸線的方向較接近於水平方向而增加。舉例而言,如圖18中所展示,在dx具有2^4之值(亦即,16)時,可將dy的值設定為1、2、3、4、6、9、12、16、0、-1、-2、-3、-4、-6、-9、-12及-16,從而使得在接近於水平方向的延伸線之間的距離可為窄而在接近於垂直方向的延伸線之間的距離可為寬。
又,當dx及dy中之任一者的值為固定時,則可根據預測模式來將剩餘者的值設定為增加。詳言之,當dy為固定時,可將在dx之間的距離設定為增加了一預定值。舉例而言,若將dy之值固定為16,則可設定dx以使得在不同dx之間的絕對值差增加1(類似0、1、3、6及8)。且,可以預定單元來劃分在水平方向與垂直方向之間的角度,且可以所劃分的角度中之每一者來設定此增加之量。舉例而言,若dy為固定的,則可設定dx之值以使其具有處於小於15度之區段中的增加量「a」、處於在15度與30度之間的區段中的增加量「b」,及處於大於30度之區段中的增加量「c」。在此狀況中,為具有如圖17中所展示之此類形狀,可設定dx之值以滿足關係a<b<c。
可藉由使用如在表2至表4中所展示之(dx, dy)來將參考圖15至圖18所描述之預測模式定義為具有tan -1(dy/dx)之方向性的預測模式。
[表2] <TABLE border="1" borderColor="#000000" width="85%"><TBODY><tr><td> dx </td><td> dy </td><td> dx </td><td> dy </td><td> dx </td><td> dy </td></tr><tr><td> -32 </td><td> 32 </td><td> 21 </td><td> 32 </td><td> 32 </td><td> 13 </td></tr><tr><td> -26 </td><td> 32 </td><td> 26 </td><td> 32 </td><td> 32 </td><td> 17 </td></tr><tr><td> -21 </td><td> 32 </td><td> 32 </td><td> 32 </td><td> 32 </td><td> 21 </td></tr><tr><td> -17 </td><td> 32 </td><td> 32 </td><td> -26 </td><td> 32 </td><td> 26 </td></tr><tr><td> -13 </td><td> 32 </td><td> 32 </td><td> -21 </td><td> 32 </td><td> 32 </td></tr><tr><td> -9 </td><td> 32 </td><td> 32 </td><td> -17 </td><td> </td><td> </td></tr><tr><td> -5 </td><td> 32 </td><td> 32 </td><td> -13 </td><td> </td><td> </td></tr><tr><td> -2 </td><td> 32 </td><td> 32 </td><td> -9 </td><td> </td><td> </td></tr><tr><td> 0 </td><td> 32 </td><td> 32 </td><td> -5 </td><td> </td><td> </td></tr><tr><td> 2 </td><td> 32 </td><td> 32 </td><td> -2 </td><td> </td><td> </td></tr><tr><td> 5 </td><td> 32 </td><td> 32 </td><td> 0 </td><td> </td><td> </td></tr><tr><td> 9 </td><td> 32 </td><td> 32 </td><td> 2 </td><td> </td><td> </td></tr><tr><td> 13 </td><td> 32 </td><td> 32 </td><td> 5 </td><td> </td><td> </td></tr><tr><td> 17 </td><td> 32 </td><td> 32 </td><td> 9 </td><td> </td><td> </td></tr></TBODY></TABLE>
[表3] <TABLE border="1" borderColor="#000000" width="85%"><TBODY><tr><td> dx </td><td> dy </td><td> dx </td><td> dy </td><td> dx </td><td> dy </td></tr><tr><td> -32 </td><td> 32 </td><td> 19 </td><td> 32 </td><td> 32 </td><td> 10 </td></tr><tr><td> -25 </td><td> 32 </td><td> 25 </td><td> 32 </td><td> 32 </td><td> 14 </td></tr><tr><td> - 19 </td><td> 32 </td><td> 32 </td><td> 32 </td><td> 32 </td><td> 19 </td></tr><tr><td> -14 </td><td> 32 </td><td> 32 </td><td> -25 </td><td> 32 </td><td> 25 </td></tr><tr><td> -10 </td><td> 32 </td><td> 32 </td><td> -19 </td><td> 32 </td><td> 32 </td></tr><tr><td> -6 </td><td> 32 </td><td> 32 </td><td> -14 </td><td> </td><td> </td></tr><tr><td> -3 </td><td> 32 </td><td> 32 </td><td> -10 </td><td> </td><td> </td></tr><tr><td> -1 </td><td> 32 </td><td> 32 </td><td> -6 </td><td> </td><td> </td></tr><tr><td> 0 </td><td> 32 </td><td> 32 </td><td> -3 </td><td> </td><td> </td></tr><tr><td> 1 </td><td> 32 </td><td> 32 </td><td> -1 </td><td> </td><td> </td></tr><tr><td> 3 </td><td> 32 </td><td> 32 </td><td> 0 </td><td> </td><td> </td></tr><tr><td> 6 </td><td> 32 </td><td> 32 </td><td> 1 </td><td> </td><td> </td></tr><tr><td> 10 </td><td> 32 </td><td> 32 </td><td> 3 </td><td> </td><td> </td></tr><tr><td> 14 </td><td> 32 </td><td> 32 </td><td> 6 </td><td> </td><td> </td></tr></TBODY></TABLE>
[表4] <TABLE border="1" borderColor="#000000" width="85%"><TBODY><tr><td> dx </td><td> dy </td><td> dx </td><td> dy </td><td> dx </td><td> dy </td></tr><tr><td> -32 </td><td> 32 </td><td> 23 </td><td> 32 </td><td> 32 </td><td> 15 </td></tr><tr><td> -27 </td><td> 32 </td><td> 27 </td><td> 32 </td><td> 32 </td><td> 19 </td></tr><tr><td> -23 </td><td> 32 </td><td> 32 </td><td> 32 </td><td> 32 </td><td> 23 </td></tr><tr><td> -19 </td><td> 32 </td><td> 32 </td><td> -27 </td><td> 32 </td><td> 27 </td></tr><tr><td> -15 </td><td> 32 </td><td> 32 </td><td> -23 </td><td> 32 </td><td> 32 </td></tr><tr><td> -11 </td><td> 32 </td><td> 32 </td><td> -19 </td><td> </td><td> </td></tr><tr><td> -7 </td><td> 32 </td><td> 32 </td><td> -15 </td><td> </td><td> </td></tr><tr><td> -3 </td><td> 32 </td><td> 32 </td><td> -11 </td><td> </td><td> </td></tr><tr><td> 0 </td><td> 32 </td><td> 32 </td><td> -7 </td><td> </td><td> </td></tr><tr><td> 3 </td><td> 32 </td><td> 32 </td><td> -3 </td><td> </td><td> </td></tr><tr><td> 7 </td><td> 32 </td><td> 32 </td><td> 0 </td><td> </td><td> </td></tr><tr><td> 11 </td><td> 32 </td><td> 32 </td><td> 3 </td><td> </td><td> </td></tr><tr><td> 15 </td><td> 32 </td><td> 32 </td><td> 7 </td><td> </td><td> </td></tr><tr><td> 19 </td><td> 32 </td><td> 32 </td><td> 11 </td><td> </td><td> </td></tr></TBODY></TABLE>
如上文參看圖15所描述,基於當前區塊之上邊界而位於第i位點上且基於當前區塊之左邊界而位於第j位點上的當前像素P的位置為P(j, i),且位於穿過當前像素P且具有tan -1(dy/dx)之梯度的延伸線上之上鄰近像素A及左鄰近像素B分別位於(j+i*dx/dy, 0)及(0, i+j*dy/dx)上。因此,在藉由使用軟體或硬體來執行畫面內預測時,需要類似i*dx/dy或j*dy/dx之計算。
當需要類似i*dx/dy之計算時,可將dx/dy或藉由乘以預定常數C獲取的C*dx/dy之可用值儲存於表格中,且在實際畫面內預測期間可藉由使用儲存於表格中的先前準備好之值來確定用於以畫面內預測當前像素的鄰近像素之位置。亦即,如表1中所展示的根據預測模式所確定之各種(dx, dy)值及根據區塊尺寸所確定的考慮到「I」值之可用的i*dx/dy值可先前儲存於表格中且可在畫面內預測期間加以使用。詳言之,若C*dx/dy具有N個不同數目之值,則可將C*dx/dy之N個不同數目之值儲存為dyval_table[n](n=0...整數...至N-1)。
同樣,當需要類似j*dy/dx之計算時,事先可將dy/dx或藉由乘以預定常數C獲取的C*dy/dx之可用值儲存於表格中,且在實際的畫面內預測期間可藉由使用儲存於表格中的先前準備好之值來確定用於以畫面內預測當前像素的鄰近像素之位置。亦即,如表1中所展示的根據預測模式所確定之各種(dx, dy)值及根據區塊尺寸所確定的考慮到「j」值之可用的j*dy/dx值可先前儲存於表格中且可用於畫面內預測。詳言之,當C*dy/dx具有N個不同數目之值時,可將C*dy/dx之N個不同數目之值儲存為dxval_table[n](n=0...整數...至N-1)。
因而,一旦先前將C*dx/dy或C*dy/dx之值儲存於表格中,則可藉由使用儲存於表格中的對應於i*dx/dy及j*dy/dx之值而無需額外計算來確定將用以預測當前像素的鄰近區塊之像素的位置。
舉例而言,假定為以與圖17中所展示的形狀相似之形狀來形成預測模式,dy為32,dx為{0、2、5、9、13、17、21、26及32}中之一者,且常數C為32。在此狀況中,由於C*dy/dx為32*32/dx且根據dx之值而使C*dy/dx具有來自值{0、512、205、114、79、60、49、39及32}中的一值,值{0、512、205、114、79、60、49、39及32}可儲存於表格中且可用於畫面內預測。
圖19為說明根據例示性實施例之經由畫面內預測來編碼影像之方法的流程圖。
參看圖19,在操作1910中,將當前圖像劃分成具有預定尺寸之至少一區塊。如上文描述,當前圖像不限於具有16×16尺寸之巨集區塊,且可劃分成具有2×2、4×4、8×8、16×16、32×32、64×64、128×128尺寸或更大尺寸的區塊。
在操作1920中,藉由使用具有預定梯度的延伸線自先前重建構的鄰近區塊之像素中來確定將用以預測在當前區塊內部的像素中之每一者的鄰近區塊之像素。如上文描述,基於當前區塊之上邊界而位於第i位點上且基於當前區塊之左邊界而位於第j位點上的當前像素P的位置為P(j, i),且位於穿過當前像素P且具有tan -1(dy/dx)之梯度的延伸線上之上鄰近像素及左鄰近像素分別位於(j+i*dx/dy, 0)及(0, i+j*dy/dx)上。為減少確定鄰近像素之位置所需的dx/dy及dy/dx之計算量,較佳地,dx及dy中之至少一者的值為2的冪。且,若先前將dx/dy及dy/dx之可用值或藉由將dx/dy及dy/dx的值乘以預定常數所獲取的值儲存於表格中,則可藉由在表格中搜尋對應值而無需額外計算來確定鄰近區塊之像素。
在操作1930中,藉由使用鄰近區塊之經確定的像素來預測在當前區塊內部的像素中之每一者。亦即,將鄰近區塊之像素值預測為當前區塊之像素值,且藉由對在當前區塊內部的像素中之每一者重複地執行以上操作來產生當前區塊之預測區塊。
圖20為說明根據例示性實施例之用於解碼影像之裝置2000的方塊圖。
參看圖20,裝置2000包括剖析(parsing)單元2010、熵解碼器單元2020、反量化單元2030、頻率反變換單元2040、畫面內預測單元2050、運動補償單元2060、解區塊單元2070,及迴路濾波單元2080。此處,畫面內預測單元2050對應於用於經由畫面內預測解碼影像之裝置。
位元串流2005通過剖析單元2010,且提取解碼所需之編碼資訊及待解碼之當前區塊的影像資料。經由熵解碼單元2020及反量化單元2030而將經編碼之影像資料輸出為經反量化之資料,且經由頻率反變換單元2040來將其恢復成殘餘值。
運動補償單元2060及畫面內預測單元2050藉由使用當前區塊的經剖析之編碼資訊來產生當前區塊之預測區塊。特定言之,畫面內預測單元2050藉由使用具有預定梯度(其是根據位元串流中所包括的畫面內預測模式而確定)之延伸線自先前重建構的鄰近區塊之像素中確定將用以預測在當前區塊內的像素中之每一者的鄰近區塊之像素。如上文描述,為減少確定鄰近像素的位置所需之dx/dy及dy/dx的計算量,較佳地,dx及dy中之至少一者的值為2的冪。且,畫面內預測單元2050事先可將dx/dy及dy/dx之可用值或藉由將dx/dy及dy/dx的值乘以預定常數所獲取的值儲存於表格中,藉由在表格中搜尋對應值來確定鄰近區塊之像素,及藉由使用鄰近區塊之經確定的像素來執行畫面內預測。
將在運動補償單元2060或畫面內預測單元2050中產生之預測區塊添加至殘餘值以恢復當前圖框2095。可經由解區塊單元2070及迴路濾波單元2080而將所恢復之當前圖框用作下一區塊之參考圖框2085。
圖21為說明根據例示性實施例之經由畫面內預測來解碼影像之方法的流程圖。
參看圖21,在操作2110中,將當前圖像劃分成具有預定尺寸之至少一區塊。
在操作2120中,自位元串流提取應用於待解碼的當前區塊之畫面內預測模式資訊。畫面內預測模式資訊可為在實際的畫面內預測模式與自當前區塊的鄰近區塊預測之所預測的畫面內預測模式之間的模式差值或如上文所描述具有藉由使用(dx, dy)參數所定義的各種方向性之畫面內預測模式的模式值。若將模式差值作為預測模式資訊來傳輸,則畫面內預測單元2050可自先前解碼之鄰近區塊的畫面內預測模式來預測並確定當前區塊之所預測的畫面內預測模式,及藉由將自位元串流提取之模式差值添加至所預測的畫面內預測模式之模式值來確定當前區塊的畫面內預測模式。
在操作2130中,畫面內預測單元2050藉由使用具有根據所提取之預測模式的預定梯度之延伸線自先前重建構的鄰近區塊之像素中確定將用以預測在當前區塊內的像素中之每一者的鄰近區塊之像素。如上文所描述,基於當前區塊之上邊界而位於第i位點上且基於當前區塊之左邊界而位於第j位點上的當前像素P的位置為P(j, i),且位於穿過當前像素P且具有tan -1(dy/dx)之梯度的延伸線上之上鄰近像素及左鄰近像素分別位於(j+i*dx/dy, 0)及(0, i+j*dy/dx)上。為減少確定鄰近像素的位置所需之dx/dy及dy/dx的計算量,較佳地,dx及dy中之至少一者的值為2的冪。且,事先可將dx/dy及dy/dx之可用值或藉由將dx/dy及dy/dx的值乘以預定常數所獲取的值儲存於表格中,且可藉由在表格中搜尋對應值來確定鄰近區塊之像素。畫面內預測單元2050將所確定的鄰近區塊之像素值預測為當前區塊之像素值,且藉由對在當前區塊內部的像素中之每一者重複地執行以上操作來產生當前區塊之預測區塊。
可將例示性實施例撰寫為電腦程式且可以使用電腦可讀記錄媒體來執行程式之通用數位電腦來實施。電腦可讀記錄媒體之實例包括磁性儲存媒體(例如,ROM、軟碟、硬碟,等)及光學記錄媒體(例如,CD-ROM或DVD)。
例示性實施例之裝置、編碼器及解碼器可包括:匯流排,其耦接至裝置中的每個單元;至少一處理器(例如,中央處理單元、微處理器等),其連接至匯流排以用於控制裝置的操作以實施上文描述的功能及執行命令;及記憶體,其連接至匯流排以儲存命令、所接收到之訊息及所產生之訊息。
儘管已參考本發明之較佳實施例特定地展示且描述了本發明,但是一般熟習此項技術者將瞭解,在不偏離由所附申請專利範圍所界定之本發明之精神及範疇的情況下,可對其作出形式及細節上的各種改變。應僅將較佳實施例視為描述性意義而非出於限制之目的。因此,並非由本發明之詳細描述而是由所附申請專利範圍來界定本發明之範疇,且在範疇內之所有不同點將被理解為包括於本發明中
100:用於編碼影像之裝置 105:當前圖框 110:畫面內預測單元/當前區塊 111:左區塊 112:上區塊 120:運動估計單元/當前區塊 121:左區塊 122:上區塊 125:運動補償單元 130:頻率變換單元/當前區塊 132:上區塊 133:左區塊 140:量化單元/畫面內預測模式 141:畫面內預測模式 150:熵編碼器 155:位元串流 160:反量化單元 170:頻率反變換單元 180:解區塊單元 190:迴路濾波單元 195:參考圖框 700:延伸線 800:延伸線 810:鄰近像素 820:鄰近像素 910:鄰近像素 920:鄰近像素 1002:虛擬像素 1003:虛擬像素 1004:右上像素 1005:左下像素 1006:像素 1007:像素 1060:當前像素 1061:虛擬像素 1510:當前像素 1520:上鄰近像素 1530:左鄰近像素 1610:像素 1620:像素 2000:用於解碼影像之裝置 2005:位元串流 2010:剖析單元 2020:熵解碼器單元 2030:反量化單元 2040:頻率反變換單元 2050:畫面內預測單元 2060:運動補償單元 2070:解區塊單元 2080:迴路濾波單元 2085:參考圖框 2095:所恢復之當前圖框 P1-P5:區段
圖1為說明根據例示性實施例之用於編碼影像之裝置的方塊圖。 圖2為說明根據例示性實施例之根據當前區塊之尺寸的畫面內預測模式之數目的圖式。 圖3為用於解釋根據例示性實施例之應用於具有預定尺寸之區塊的畫面內預測模式之圖式。 圖4為說明根據例示性實施例之圖3的畫面內預測模式之方向的圖式。 圖5為用於解釋根據例示性實施例之對圖3中所說明之區塊執行的畫面內預測方法之圖式。 圖6為用於解釋根據另一例示性實施例之應用於具有預定尺寸之區塊的畫面內預測模式之圖式。 圖7為用於解釋根據例示性實施例之具有各種方向性的畫面內預測模式之參考圖。 圖8為用於解釋根據例示性實施例之當具有預定梯度之延伸線經過(未穿過)整數位置之鄰近像素之間時產生預測量之過程的參考圖。 圖9為用於解釋根據另一例示性實施例之當具有預定梯度之延伸線經過整數位置之鄰近像素之間時產生預測量之過程的參考圖。 圖10為用於解釋根據例示性實施例之雙線性模式的參考圖。 圖11為用於解釋根據例示性實施例之產生當前區塊的畫面內預測模式之預測值的過程之圖式。 圖12及圖13為用於解釋根據例示性實施例之用於將具有不同尺寸的區塊之畫面內預測模式予以統一之映射過程的參考圖。 圖14為用於解釋根據例示性實施例之將鄰近區塊之畫面內預測模式映射至代表性的畫面內預測模式中之一者的過程之參考圖。 圖15為用於解釋根據例示性實施例之當前像素與位於具有方向性(dx, dy)之延伸線上的鄰近像素之間的關係之圖式。 圖16為用於解釋根據例示性實施例之位於具有方向性(dx, dy)之延伸線上的鄰近像素根據當前像素之位置所作之改變的圖式。 圖17及圖18為用於解釋根據例示性實施例之確定畫面內預測模式方向之方法的圖式。 圖19為說明根據例示性實施例之經由畫面內預測來編碼影像之方法的流程圖。 圖20為說明根據例示性實施例之用於解碼影像之裝置的方塊圖。 圖21為說明根據例示性實施例之經由畫面內預測來解碼影像之方法的流程圖。
100:用於編碼影像之裝置 105:當前圖框 110:畫面內預測單元/當前區塊 120:運動估計單元/當前區塊 125:運動補償單元 130:頻率變換單元/當前區塊 140:量化單元/畫面內預測模式 150:熵編碼器 155:位元串流 160:反量化單元 170:頻率反變換單元 180:解區塊單元 190:迴路濾波單元 195:參考圖框

Claims (1)

  1. 一種對影像解碼之裝置,包含: 熵解碼器,自位元串流提取當前區塊的畫面內預測模式,所述畫面內預測模式指示在多個方向中的一特定方向,其中所述特定方向是使用在水平方向的dx 數目以及在垂直方向的固定數目被標示,或是使用在垂直方向的dy 數目以及在水平方向的固定數目被標示,其中dx與dx是整數; 以及 畫面內預測執行器,決定位在所述當前區塊的左邊或是所述當前區塊的上邊的多個鄰近像素; 根據當前畫素(j, i)的位置以及指示所述特定方向的所述dx 數目與所述dy數目的其中一者,使用移位運算以決定位在所述當前區塊的左邊或是所述當前區塊的上邊的所述多個鄰近像素中的至少一個像素的位置,其中j與i是整數;以及使用所述多個鄰近像素以及所述至少一個像素的所述位置以執行在所述當前區塊的面內預測, 其中, 在所述當前區塊的所述上邊的所述至少一個像素的所述位置是根據i•dx >>m所決定,其中參數i是所述當前像素在所述垂直方向的位置,參數dx是在所述水平方向的所述dx 數目,參數m 是相關於所述垂直方向上的所述固定數目,符號>>是所述移位運算; 以及 在所述當前區塊的所述左邊的所述至少一個像素的所述位置是根據j•dy >>n所決定,其中參數j是所述當前像素在所述水平方向的位置,參數dy是在所述垂直方向的所述dy 數目,參數n 是相關於所述水平方向上的所述固定數目。
TW106136849A 2010-07-16 2011-07-15 對影像解碼之裝置 TWI619382B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US36498610P 2010-07-16 2010-07-16
US61/364,986 2010-07-16
KR1020100097424A KR101530284B1 (ko) 2010-07-16 2010-10-06 영상의 인트라 예측 부호화, 복호화 방법 및 장치
??10-2010-0097424 2010-10-06

Publications (2)

Publication Number Publication Date
TW201803356A TW201803356A (zh) 2018-01-16
TWI619382B true TWI619382B (zh) 2018-03-21

Family

ID=45613437

Family Applications (4)

Application Number Title Priority Date Filing Date
TW100125148A TWI540885B (zh) 2010-07-16 2011-07-15 經由畫面內預測進行影像之編碼與解碼的方法及其裝置
TW107103164A TWI664856B (zh) 2010-07-16 2011-07-15 對影像解碼之方法
TW106136849A TWI619382B (zh) 2010-07-16 2011-07-15 對影像解碼之裝置
TW105115637A TWI607651B (zh) 2010-07-16 2011-07-15 對影像解碼之方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
TW100125148A TWI540885B (zh) 2010-07-16 2011-07-15 經由畫面內預測進行影像之編碼與解碼的方法及其裝置
TW107103164A TWI664856B (zh) 2010-07-16 2011-07-15 對影像解碼之方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
TW105115637A TWI607651B (zh) 2010-07-16 2011-07-15 對影像解碼之方法

Country Status (30)

Country Link
US (6) US9083987B2 (zh)
EP (4) EP3462737B1 (zh)
JP (5) JP6067556B2 (zh)
KR (7) KR101530284B1 (zh)
CN (8) CN104967852B (zh)
AU (3) AU2011277214B2 (zh)
BR (5) BR112013001093B1 (zh)
CA (6) CA3001241C (zh)
CY (3) CY1119640T1 (zh)
DK (4) DK3282705T3 (zh)
ES (4) ES2646173T3 (zh)
HR (3) HRP20171673T1 (zh)
HU (4) HUE043675T2 (zh)
IL (5) IL224195A (zh)
LT (3) LT3282705T (zh)
MX (1) MX2013000653A (zh)
MY (5) MY178314A (zh)
NO (1) NO2594075T3 (zh)
NZ (5) NZ705192A (zh)
PH (4) PH12015500305B1 (zh)
PL (4) PL3280145T3 (zh)
PT (3) PT3282705T (zh)
RS (3) RS58200B1 (zh)
RU (5) RU2597484C2 (zh)
SG (5) SG10201804324YA (zh)
SI (3) SI3282705T1 (zh)
TR (2) TR201900362T4 (zh)
TW (4) TWI540885B (zh)
WO (1) WO2012008790A2 (zh)
ZA (1) ZA201300581B (zh)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8867854B2 (en) * 2008-10-01 2014-10-21 Electronics And Telecommunications Research Institute Image encoder and decoder using undirectional prediction
KR101452860B1 (ko) 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
ES2682102T3 (es) 2010-12-21 2018-09-18 Ntt Docomo, Inc. Codificación y descodificación de intra-predicción en un modo plano
KR20120103517A (ko) * 2011-03-10 2012-09-19 한국전자통신연구원 인트라 예측 방법 및 그 장치
CN103220506B (zh) 2012-01-19 2015-11-25 华为技术有限公司 一种编解码方法和设备
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US9185429B1 (en) 2012-04-30 2015-11-10 Google Inc. Video encoding and decoding using un-equal error protection
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9826229B2 (en) 2012-09-29 2017-11-21 Google Technology Holdings LLC Scan pattern determination from base layer pixel information for scalable extension
US9681128B1 (en) 2013-01-31 2017-06-13 Google Inc. Adaptive pre-transform scanning patterns for video and image compression
US9247251B1 (en) * 2013-07-26 2016-01-26 Google Inc. Right-edge extension for quad-tree intra-prediction
JP6614472B2 (ja) 2013-09-30 2019-12-04 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
US10057587B2 (en) * 2015-01-31 2018-08-21 Qualcomm Incorporated Coding escape pixels for palette mode coding
CN109196593B (zh) * 2016-01-22 2021-10-19 欧特雷瑟斯有限公司 用于改善疾病诊断的系统和方法
WO2017142327A1 (ko) * 2016-02-16 2017-08-24 삼성전자 주식회사 인트라 예측오차의 감소를 위한 인트라 예측 방법 및 그 장치
CN109155851A (zh) 2016-05-02 2019-01-04 汉阳大学校产学协力团 利用画面内预测的影像编码、解码方法及装置
GB2550579A (en) * 2016-05-23 2017-11-29 Sony Corp Image data encoding and decoding
US10405054B2 (en) * 2016-08-17 2019-09-03 Nuovo Solutions Llc System and method of remotely determining QoE
CN107786874A (zh) * 2016-08-24 2018-03-09 浙江大学 双向的帧内方向性预测方法和装置
WO2018066863A1 (ko) * 2016-10-04 2018-04-12 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
EP3528497A4 (en) * 2016-10-14 2020-07-22 Industry-Academia Cooperation Foundation of Sejong University IMAGE CODING AND DECODING PROCESS AND DEVICE
WO2019009749A1 (en) * 2017-07-05 2019-01-10 Huawei Technologies Co., Ltd APPARATUS AND METHOD FOR INTRA DIRECTIONAL PREDICTION USING AN ADJUSTMENT PLAN AND A PLURALITY OF PRIMARY REFERENCE SAMPLES AND A PLURALITY OF SECONDARY REFERENCE SAMPLES
CN118413666A (zh) * 2017-11-28 2024-07-30 Lx 半导体科技有限公司 图像编码/解码方法、图像数据的传输方法和存储介质
CN107995494B (zh) * 2017-12-12 2019-11-22 珠海全志科技股份有限公司 视频图像数据的压缩方法与解压方法、计算机装置、计算机可读存储介质
CN109922329B (zh) * 2017-12-13 2021-02-26 北京传送科技有限公司 虚拟现实影像数据的压缩方法、解压缩方法及装置
GB2577056B (en) * 2018-09-11 2022-12-14 British Broadcasting Corp Bitstream decoder
CN110072112B (zh) * 2019-03-12 2023-05-12 浙江大华技术股份有限公司 帧内预测方法、编码器及存储装置
WO2021168817A1 (zh) * 2020-02-28 2021-09-02 深圳市大疆创新科技有限公司 视频处理的方法及装置
KR102297479B1 (ko) 2020-04-10 2021-09-03 삼성전자주식회사 움직임 벡터의 부호화 장치 및 방법, 및 움직임 벡터의 복호화 장치 및 방법
CN112087634B (zh) * 2020-08-11 2022-03-08 北京博雅慧视智能技术研究院有限公司 一种最佳角度判定方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070133891A1 (en) * 2005-12-12 2007-06-14 Samsung Electronics Co., Ltd. Method and device for intra prediction coding and decoding of image
CN101222644A (zh) * 2007-01-12 2008-07-16 三菱电机株式会社 运动图像编码、解码装置以及运动图像编码、解码方法
US20090110069A1 (en) * 2007-10-29 2009-04-30 Samsung Electronics Co., Ltd. Method and apparatus encoding and/or decoding image by using diffusion properties of the image
US20090310677A1 (en) * 2006-07-28 2009-12-17 Kabushiki Kaisha Toshiba Image encoding and decoding method and apparatus
US20100054331A1 (en) * 2006-10-31 2010-03-04 Thomson Licensing Video encoding with intra encoding selection
US20100128995A1 (en) * 2008-01-18 2010-05-27 Virginie Drugeon Image coding method and image decoding method

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101448162B (zh) 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
RU2314656C2 (ru) * 2002-06-11 2008-01-10 Нокиа Корпорейшн Внутреннее кодирование, основанное на пространственном прогнозировании
KR100886191B1 (ko) * 2004-12-06 2009-02-27 엘지전자 주식회사 영상 블록을 디코딩 하는 방법
WO2006070614A1 (ja) 2004-12-28 2006-07-06 Nec Corporation 画像符号化装置、画像符号化方法及びそのプログラム
JP2006246431A (ja) 2005-02-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像符号化方法
US8948246B2 (en) * 2005-04-11 2015-02-03 Broadcom Corporation Method and system for spatial prediction in a video encoder
JP2007116351A (ja) * 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
JP4114885B2 (ja) 2005-10-31 2008-07-09 松下電器産業株式会社 画像符号化装置、方法、及びプログラム
KR101246294B1 (ko) 2006-03-03 2013-03-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
KR100745765B1 (ko) * 2006-04-13 2007-08-02 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
CN100413344C (zh) * 2006-10-20 2008-08-20 清华大学 高并行度的帧内预测器的实现方法
EP2090112A4 (en) * 2006-11-07 2014-04-23 Samsung Electronics Co Ltd METHOD AND DEVICE FOR ENCODING AND DECODING BASED ON INTRA PREDICTION
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
KR101370286B1 (ko) 2007-04-06 2014-03-06 삼성전자주식회사 레지듀얼 블록의 변형을 이용한 영상 부호화, 복호화 방법및 장치
KR101362757B1 (ko) 2007-06-11 2014-02-14 삼성전자주식회사 인터 컬러 보상을 이용한 영상의 부호화 방법 및 장치,복호화 방법 및 장치
KR101378338B1 (ko) * 2007-06-14 2014-03-28 삼성전자주식회사 영상 복구를 이용한 인트라 예측 부호화, 복호화 방법 및장치
RU2479940C2 (ru) 2007-10-15 2013-04-20 Ниппон Телеграф Энд Телефон Корпорейшн Устройство кодирования и декодирования изображения, способы кодирования и декодирования изображения, их программы и носитель записи, записанный программами
CN101163249B (zh) * 2007-11-20 2010-07-21 北京工业大学 直流模式预测方法
TWI375472B (en) * 2008-02-04 2012-10-21 Ind Tech Res Inst Intra prediction method for luma block of video
EP2101504B1 (en) * 2008-03-09 2012-07-25 LG Electronics Inc. Video coding using template matching
JP2009284275A (ja) * 2008-05-23 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラムおよびそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101559763B1 (ko) * 2008-07-02 2015-10-13 삼성전자주식회사 비트 위치에 기초한 영상 분리를 이용한 영상 부호화, 복호화 방법 및 장치
TWI359617B (en) 2008-07-03 2012-03-01 Univ Nat Taiwan Low-complexity and high-quality error concealment
US8311112B2 (en) * 2008-12-31 2012-11-13 Entropic Communications, Inc. System and method for video compression using predictive coding
CN101600116A (zh) * 2009-03-11 2009-12-09 北京中星微电子有限公司 一种帧内预测方法及装置
KR101452860B1 (ko) 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101510108B1 (ko) 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
CN104811717B (zh) * 2009-12-01 2018-09-14 数码士有限公司 用于编码/解码高分辨率图像的方法和设备
JP5222878B2 (ja) * 2010-03-24 2013-06-26 日本放送協会 イントラ予測装置、符号化器、復号器及びプログラム
KR101503269B1 (ko) * 2010-04-05 2015-03-17 삼성전자주식회사 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치
US8644375B2 (en) * 2010-04-09 2014-02-04 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
PL3232666T3 (pl) * 2010-07-14 2019-08-30 Ntt Docomo, Inc. Predykcja wewnątrzramkowa o niskiej złożoności dla kodowania wideo

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070133891A1 (en) * 2005-12-12 2007-06-14 Samsung Electronics Co., Ltd. Method and device for intra prediction coding and decoding of image
US20090310677A1 (en) * 2006-07-28 2009-12-17 Kabushiki Kaisha Toshiba Image encoding and decoding method and apparatus
US20100054331A1 (en) * 2006-10-31 2010-03-04 Thomson Licensing Video encoding with intra encoding selection
CN101222644A (zh) * 2007-01-12 2008-07-16 三菱电机株式会社 运动图像编码、解码装置以及运动图像编码、解码方法
US20090110069A1 (en) * 2007-10-29 2009-04-30 Samsung Electronics Co., Ltd. Method and apparatus encoding and/or decoding image by using diffusion properties of the image
US20100128995A1 (en) * 2008-01-18 2010-05-27 Virginie Drugeon Image coding method and image decoding method

Also Published As

Publication number Publication date
RS56474B1 (sr) 2018-01-31
CA2891843C (en) 2017-08-29
CY1121263T1 (el) 2020-05-29
KR101712106B1 (ko) 2017-03-03
BR122021006833B1 (pt) 2022-12-13
CN105049857A (zh) 2015-11-11
IL244569B (en) 2019-08-29
SG10201800097YA (en) 2018-02-27
SI3280145T1 (sl) 2019-03-29
US9654797B2 (en) 2017-05-16
US9083987B2 (en) 2015-07-14
KR20170096616A (ko) 2017-08-24
HRP20171673T1 (hr) 2017-12-15
KR101712104B1 (ko) 2017-03-03
PL3282705T3 (pl) 2019-03-29
KR20150091456A (ko) 2015-08-11
KR20120008423A (ko) 2012-01-30
PH12015500304B1 (en) 2015-09-02
AU2015202669A1 (en) 2015-06-11
KR101874102B1 (ko) 2018-07-03
CN109309832A (zh) 2019-02-05
AU2011277214B2 (en) 2015-02-26
JP6134761B2 (ja) 2017-05-24
PT3282705T (pt) 2019-02-11
PL3462737T3 (pl) 2020-07-13
TW201631977A (zh) 2016-09-01
CA2891777C (en) 2017-08-15
KR20150091284A (ko) 2015-08-10
PL3280145T3 (pl) 2019-04-30
ES2646173T3 (es) 2017-12-12
DK3282705T3 (en) 2019-01-28
CN104980748A (zh) 2015-10-14
CA3001241A1 (en) 2012-01-19
SG10201804324YA (en) 2018-07-30
HUE043982T2 (hu) 2019-09-30
BR112013001093B1 (pt) 2022-04-05
TWI607651B (zh) 2017-12-01
EP3462737B1 (en) 2020-03-18
MY177339A (en) 2020-09-12
NZ705185A (en) 2016-07-29
RU2015120335A (ru) 2015-09-20
MY178168A (en) 2020-10-06
IL244568B (en) 2019-08-29
DK3462737T3 (da) 2020-03-30
HRP20190022T1 (hr) 2019-02-22
RU2621008C2 (ru) 2017-05-30
CN109309832B (zh) 2024-09-24
ES2781786T3 (es) 2020-09-07
LT3282705T (lt) 2019-01-25
IL244567A (en) 2017-12-31
PH12015500303A1 (en) 2015-09-02
US20150163507A1 (en) 2015-06-11
CA2805230A1 (en) 2012-01-19
CN107959856A (zh) 2018-04-24
EP2594075B1 (en) 2017-11-01
ZA201300581B (en) 2015-11-25
NZ705190A (en) 2016-07-29
JP2013534375A (ja) 2013-09-02
SG10201705244PA (en) 2017-07-28
EP3462737A1 (en) 2019-04-03
LT2594075T (lt) 2017-11-27
JP6076436B2 (ja) 2017-02-08
PT3280145T (pt) 2019-02-11
BR122021006834B1 (pt) 2022-09-20
AU2015202671B2 (en) 2016-01-07
WO2012008790A2 (en) 2012-01-19
RU2555236C2 (ru) 2015-07-10
BR122020013770B1 (pt) 2022-12-20
CY1121256T1 (el) 2020-05-29
RU2597484C2 (ru) 2016-09-10
PH12015500304A1 (en) 2015-09-02
CN104967852A (zh) 2015-10-07
CN103119945B (zh) 2018-12-14
MY177337A (en) 2020-09-12
EP3282705A1 (en) 2018-02-14
CA2892121A1 (en) 2012-01-19
PL2594075T3 (pl) 2018-02-28
LT3280145T (lt) 2019-01-25
CN105049857B (zh) 2018-10-19
JP2016040923A (ja) 2016-03-24
US20120014444A1 (en) 2012-01-19
KR20140138563A (ko) 2014-12-04
CN104980748B (zh) 2018-05-11
CY1119640T1 (el) 2018-04-04
CN104994386A (zh) 2015-10-21
PH12015500303B1 (en) 2015-09-02
SG195596A1 (en) 2013-12-30
AU2011277214A1 (en) 2013-02-07
KR20150090011A (ko) 2015-08-05
TW201817241A (zh) 2018-05-01
EP2594075A4 (en) 2015-08-26
CA2891774C (en) 2018-05-29
EP2594075A2 (en) 2013-05-22
TWI540885B (zh) 2016-07-01
KR101530284B1 (ko) 2015-06-19
NZ705192A (en) 2016-07-29
JP2016029826A (ja) 2016-03-03
BR112013001093A2 (pt) 2016-05-24
JP2016007080A (ja) 2016-01-14
PH12015500305A1 (en) 2015-09-02
MY178314A (en) 2020-10-07
AU2015202669B2 (en) 2015-12-10
RU2015120337A (ru) 2015-09-20
US20150172711A1 (en) 2015-06-18
EP3282705B1 (en) 2019-01-02
US10212452B2 (en) 2019-02-19
PH12015500302B1 (en) 2015-09-02
CN104994386B (zh) 2019-02-15
CA2892121C (en) 2016-10-18
TR201900358T4 (tr) 2019-02-21
BR122020013768B1 (pt) 2022-09-20
CA2805230C (en) 2016-05-10
KR20150091455A (ko) 2015-08-11
TR201900362T4 (tr) 2019-02-21
AU2015202671A1 (en) 2015-06-11
RU2015120322A (ru) 2015-11-20
HRP20190021T1 (hr) 2019-02-22
IL244570B (en) 2018-08-30
RS58200B1 (sr) 2019-03-29
CN103119945A (zh) 2013-05-22
ES2708833T3 (es) 2019-04-11
JP2016029827A (ja) 2016-03-03
HUE051090T2 (hu) 2021-03-01
RU2579989C2 (ru) 2016-04-10
US9661344B2 (en) 2017-05-23
NZ606080A (en) 2015-05-29
JP6076435B2 (ja) 2017-02-08
CN107959856B (zh) 2021-10-26
CN105049858A (zh) 2015-11-11
HUE043675T2 (hu) 2019-09-30
SI3282705T1 (sl) 2019-03-29
IL244570A0 (en) 2016-04-21
IL244569A0 (en) 2016-04-21
DK2594075T3 (da) 2017-11-20
IL224195A (en) 2016-08-31
NO2594075T3 (zh) 2018-03-31
RU2607233C2 (ru) 2017-01-10
US9654796B2 (en) 2017-05-16
TW201803356A (zh) 2018-01-16
TWI664856B (zh) 2019-07-01
CA2891774A1 (en) 2012-01-19
KR101712107B1 (ko) 2017-03-03
US20150172712A1 (en) 2015-06-18
PT2594075T (pt) 2017-12-15
JP6076437B2 (ja) 2017-02-08
JP6067556B2 (ja) 2017-01-25
MY160172A (en) 2017-02-28
WO2012008790A3 (en) 2012-04-26
KR101712105B1 (ko) 2017-03-03
US20150156500A1 (en) 2015-06-04
CA2891777A1 (en) 2012-01-19
EP3280145A1 (en) 2018-02-07
RU2015120341A (ru) 2015-11-10
CA3001241C (en) 2020-07-07
PH12015500302A1 (en) 2015-09-02
US9654795B2 (en) 2017-05-16
CA2891843A1 (en) 2012-01-19
ES2708834T3 (es) 2019-04-11
HUE037744T2 (hu) 2018-09-28
RU2013106810A (ru) 2014-10-20
TW201208387A (en) 2012-02-16
CN104967852B (zh) 2019-01-18
NZ705187A (en) 2016-07-29
IL244568A0 (en) 2016-04-21
IL244567A0 (en) 2016-04-21
SG187055A1 (en) 2013-02-28
RS58199B1 (sr) 2019-03-29
SI2594075T1 (sl) 2017-12-29
DK3280145T3 (en) 2019-01-28
EP3280145B1 (en) 2019-01-02
MX2013000653A (es) 2013-04-03
US20170238012A1 (en) 2017-08-17
KR101769428B1 (ko) 2017-08-18
PH12015500305B1 (en) 2015-09-02
CN105049858B (zh) 2019-02-22

Similar Documents

Publication Publication Date Title
TWI619382B (zh) 對影像解碼之裝置