TW201536032A - 多層視訊編碼組合可調能力處理方法 - Google Patents

多層視訊編碼組合可調能力處理方法 Download PDF

Info

Publication number
TW201536032A
TW201536032A TW103134905A TW103134905A TW201536032A TW 201536032 A TW201536032 A TW 201536032A TW 103134905 A TW103134905 A TW 103134905A TW 103134905 A TW103134905 A TW 103134905A TW 201536032 A TW201536032 A TW 201536032A
Authority
TW
Taiwan
Prior art keywords
bit depth
layer
component
video
color
Prior art date
Application number
TW103134905A
Other languages
English (en)
Other versions
TWI652937B (zh
Inventor
Yan Ye
Jie Dong
yu-wen He
Ralph Neff
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Publication of TW201536032A publication Critical patent/TW201536032A/zh
Application granted granted Critical
Publication of TWI652937B publication Critical patent/TWI652937B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

一種視訊編碼系統可以通過在視訊訊號的基礎層上同時執行反向色調映射和色域轉換可調能力過程來執行層間處理。然後該視訊編碼系統可以在基礎層執行上採樣。處理後的基礎層可以被用來對增強層進行編碼。位元深度可以被考慮用於色域轉換模組。色度和/或亮度位元深度可以與色度和/或亮度的各自較大或較小位元深度值對齊。

Description

多層視訊編碼組合可調能力處理方法
本申請要求2013年10月7日提交的美國臨時專利申請No.61/887,782,以及2014年9月3日提交的美國臨時專利申請No.62/045,495的權益,該申請的內容以整體引用的方式結合於此。
隨著數位顯示技術的演進,顯示解析度持續提高。例如,近來體現可用的最佳商業顯示解析度的高畫質(HD)數位視訊流即將被超高畫質(UHD)顯示(例如4K顯示、8K顯示等等)所超越。
視訊編碼系常被用於壓縮數位視訊信號,例如以降低消耗的儲存空間和/或降低與該類信號相關聯的傳輸頻寬消耗。業已表明,可調視訊編碼(SVC)能改善在異構網路上在具有不同能力的裝置上運行的視訊應用的體驗品質。可調視訊編碼相比於非可調視訊編碼技術可消耗更少的資源(例如通信網路頻寬、儲存等)。
已知的SVC視訊編碼實現(例如利用空間可調能力)已經被證明對於HD視訊訊號的編碼是有效的,但是在處理擴展超過HD解析度的數位視訊信號(例如UHD視訊訊號)時存在缺陷。
一種視訊編碼系統可以執行層間處理。該視訊編碼系統可以在視訊訊號的視訊訊號層同時執行反向(inverse)色調映射和色域轉換可調能力過程。視訊編碼系統可以在視訊訊號的視訊訊號層執行上採樣。例如上採樣過程可以在組合的反向色調映射和色域轉換可調能力過程之後執行。此處使用的編碼包括編碼和/或解碼。
例如,組合處理模組可以被用於在諸如基礎層的較低層同時執行反向色調映射和色域轉換可調能力過程。組合處理模組可以採用輸入亮度組件的採樣位元深度和輸入色度組件的採樣位元深度作為輸入,並且可以基於該輸入計算輸出亮度組件的採樣位元深度和輸出色度組件的採樣位元深度。組合處理模組的輸出和/或輸出的指示可以被發送到上採樣處理模組用以上採樣。處理後的基礎層可以被用於對增強層進行編碼。處理後的基礎層可以被用以預測增強層。
視訊編碼系統可以執行從第一色彩空間到第二色彩空間的色彩轉換。例如,可以取得(retrieve)針對像素的諸如亮度組件和/或色度組件的色彩組件值。色彩組件值可以用不同位元深度來表示。位元深度可以被對齊(align),並且可使用交叉色彩(cross-color)組件模型將色彩組件值從第一色彩空間轉換到第二色彩空間。該對齊可以基於輸入色度位元深度、輸入亮度位元深度、最小輸入位元深度和/或最大輸入位元深度。位元深度可以與位元深度中的較大值對齊,和/或可以與位元深度中的較小值對齊。
100‧‧‧通信系統
102、102a、102b、102c、102d‧‧‧WTRU(無線發射/接收單元)
104、104a、104b、104c‧‧‧無線電存取網路(RAN)
106、106a、106b、106c‧‧‧核心網路
108‧‧‧公共交換電話網路(PSTN)
110‧‧‧網際網路
112‧‧‧其他網路
114a、114b、180a、180b、180c‧‧‧基地台
116‧‧‧空中介面
118‧‧‧處理器
120‧‧‧收發器
122‧‧‧發射/接收元件
124‧‧‧揚聲器/麥克風
126‧‧‧數字鍵盤
128‧‧‧顯示器/觸控板
130‧‧‧不可移除記憶體
132‧‧‧可移除記憶體
134‧‧‧電源
136‧‧‧全球定位系統(GPS)晶片組
138‧‧‧其他週邊設備
140a、140b、140c‧‧‧節點B
142a、142b‧‧‧無線電網路控制器(RNC)
144‧‧‧媒體閘道(MGW)
146‧‧‧移動交換中心(MSC)
148‧‧‧服務GPRS支援節點(SGSN)
150‧‧‧閘道GPRS支持節點(GGSN)
170a、170b、170c‧‧‧e節點B
172‧‧‧移動性管理閘道(MME)
174‧‧‧服務閘道
176‧‧‧封包資料網路(PDN)閘道
182‧‧‧存取服務網路(ASN)閘道
184‧‧‧移動IP本地代理(MIP-HA)
186‧‧‧認證、授權、計費(AAA)伺服器
188‧‧‧閘道
802‧‧‧EL視訊輸入
806、908‧‧‧EL DPB
808、904‧‧‧EL位元串流
812、902‧‧‧可調位元串流
814‧‧‧增強視訊資訊
816‧‧‧基礎層資訊
818‧‧‧BL編碼器
820、922‧‧‧BL DPB
822‧‧‧層間處理(ILP)單元
824、914‧‧‧ILP資訊
828‧‧‧色調映射參數
830‧‧‧BL視訊輸入
832、918‧‧‧BL位元串流
906‧‧‧EL解碼器
910‧‧‧UHD視訊訊號
912‧‧‧解多工模組
916‧‧‧ILP單元
920‧‧‧BL解碼器
924‧‧‧HD視訊訊號
1010、1030、1050、1070、1310、1330、1350、1410、1430、1450‧‧‧視訊
1020‧‧‧反向色調映射模組
1040、1320‧‧‧色域轉換模組
1060‧‧‧上採樣模組
1340‧‧‧反向色調映射和上採樣模組
1420‧‧‧反向色調映射和色域轉換模組
1440‧‧‧上採樣處理模組
BL‧‧‧基礎層
DPB‧‧‧解碼圖像緩存
EL‧‧‧增強層
HD‧‧‧高畫質
HDTV‧‧‧高畫質電視
HEVC、SHVC‧‧‧高效視訊編碼
IP‧‧‧網際網路協定
Iub、IuCS、IuPS、iur、S1、X2‧‧‧介面
R1、R3、R6、R8‧‧‧參考點
UHD‧‧‧超高畫質
UHDTV‧‧‧超畫質電視
第1圖描述了示例多層可調視訊編碼系統。
第2圖描述了用於立體視訊編碼的時間和層間預測的示例。
第3圖是可在視訊編碼中執行的示例可調能力類型的表。
第4圖是超高畫質電視(UHDTV)和高畫質電視(HDTV)技術規範的表。
第5圖描述了對超高畫質電視(UHDTV)和高畫質電視(HDTV)的色彩空間的比較。
第6圖是用於描述位元串流層的示例的表,其可支援HD到UHD的可調能力。
第7圖是用於描述位元串流層的另一示例的表,其可支援HD到UHD的可調能力。
第8圖是描述可被配置成執行HD到UHD的可調能力的示例兩層可調視訊轉碼器的簡化框圖。
第9圖是描述可被配置成執行HD到UHD的可調能力的示例兩層可調視訊解碼器的簡化框圖。
第10圖描述了使用多個處理模組的層間處理的示例。
第11圖為描述了用信號展示層間過程和/或層間處理模組的選擇和處理過程的示例的語法表。
第12圖描述了可與第11圖中的示例語法表一起使用的示例值的表。
第13圖描述了使用組合的反向色調映射和上採樣處理模組的層間處理的示例。
第14圖描述了使用組合的反向色調映射和色域轉換處理模組的層間處理的示例。
第15圖為描述組合的色域轉換和反向色調映射處理的語法表。
第16圖為可與第11圖中的示例語法表一起使用的示例值的表。
第17A圖描述了可以在其中實現一個或多個所揭露的實施方式的示例通信系統的系統圖。
第17B圖描述了示例無線發射/接收單元(WTRU)的系統圖,其中該WTRU可以在如第17A圖所示的通信系統中使用。
第17C圖描述了可以在如第17A圖所示的通信系統中使用的示例無線電存取網路和示例核心網路的系統圖。
第17D圖描述了可以在如第17A圖所示的通信系統中使用的示例無線電存取網路和示例核心網路的系統圖。
第17E圖描述了可以在如第17A圖所示的通信系統中使用的示例無線電存取網路和示例核心網路的系統圖。
第1圖為描述示例的基於塊的混合可調視訊編碼(SVC)系統的簡化框圖。由層1(基礎層)表示的空間和/或時間信號解析度可以通過對輸入視訊訊號下採樣來生成。在後續編碼階段,諸如Q1的量化器的設置會導致基本資訊的品質等級。一個或多個後續較高層可以使用基礎層重構Y1被編碼和/或解碼,其可表示對較高層解析度等級的近似。上採樣單元可以執行基礎層重構信號到層2解析度的上採樣。下採樣和/或上採樣可以貫穿多個層(例如針對N層、層1、2……N)執行。下採樣和/或上取樣速率可根據例如兩層之間的可調能力的維度而不同。
在第1圖的示例可調視訊編碼系統中,對於給定較高層n(例如,N為總層數),可以通過從當前層n信號中減去經上採樣的較低層信號(例如層n-1信號)來生成差分信號。該差分信號可以被編碼。如果由兩個層n1和n2表示的各個視訊訊號具有相同的空間解析度,相應的下採樣和/或上採樣操作被旁路。給定層n(例如)或者多個層可以在不使用來自較高層的解碼資訊的情況下被解碼。
依賴於例如使用第1圖的示例SVC系統對除了基礎層之外的層的殘差(residual)信號(例如兩個層之間的差分信號)進行編碼可能引起視覺偽像(artifact)。這種視覺偽像可能歸因於例如為限制殘差信號的動態範圍對其進行的量化和/或歸一化和/或在對殘差進行編碼期間執行的量化。一個或多個較高層編碼器可以採用運動估計和/或運動補償預測作為各自的編碼模式。殘差信號中的補償和/或運動估計可能與常規運動估計不同,並且容易產生視覺偽像。為了減少(例如最小化)視覺偽像的出現,更加複雜的殘差量化可以和例如聯合量化過程一起被實施,聯合量化過程可包括為限制殘差信號的動態範圍對其進行的量化和/或規一化以及在對殘差編碼期間執行的量化。該量化過程可能增加SVC系統的複雜度。
可調視訊編碼可以使能對部分位元串流的傳輸和解碼。這使得SVC能夠在保持相對高的重構品質(例如給定的部分位元串流各自的速率)的同時提供具有較低時間和/或空間解析度或降低的保真度的視訊服務。SVC可以與單環路解碼一起實施,由此SVC解碼器可以在被解碼的層建立一個運動補償環路,並且可以不在一個或多個其它較低層建立運動補償迴圈。例如,位元串流可包括兩個層,包括可以為基礎層的第一層(層1)和可以為增強層的第二層(層2)。當這種SVC解碼器重構層2視訊時,建立解碼圖像緩衝和運動補償預測可以被限制在層2。在SVC的這種實現中,來自較低層的各個參考圖像可以不被完全重構,這降低了解碼器處的計算複雜度和/或記憶體消耗。
可以通過受約束的層間紋理預測來獲得單環路解碼,其中如果相應較低層的塊以內模式被編碼,則對於給定層中的當前塊,來自較低層的空間紋理預測可被允許。這被稱為限制的層內預測。當較低層塊以內模式被編碼時,其可以在沒有運動補償操作和/或解碼圖像緩存的情況下被重構。
SVC可以實施一種或多種附加層間預測技術,諸如根據一個或多個較低層的運動向量預測、殘差預測、模式預測等。這可以改善增強層的速率失真率。利用單環路解碼的SVC實現可在解碼器處展現出降低的計算複雜度和/或降低的記憶體消耗,並且歸因於例如依賴塊級層間預測而展現出增加的實施複雜度。為了補償由施加單環路解碼限制引發的性能損失,編碼器的設計和計算複雜度可以被增加以獲得期望的性能。對交錯(interlaced)內容的編碼可能不被SVC所支持。
多視圖視訊編碼(MVC)可以提供視圖可調能力。在視圖可調能力的示例中,基礎層位元串流可以被解碼以重構常規的兩維(2D)視訊,並且一個或多個附加增強層可以被解碼以重構相同視訊訊號的其它視圖表示。當這種視圖被組合到一起並且由三維(3D)顯示器顯示時,可產生具有合適的深度感知的3D視訊。
第2圖描述了用於使用MVC對具有左視圖(層1)和右視圖(層2)的立體視訊進行編碼的示例預測結構。左視圖視訊可以以I-B-B-P預測結構編碼,右視圖視訊可以以P-B-B-B 預測結構編碼。如第2圖所示,在右視圖中,與左視圖中的第一I圖像並置的第一圖像被編碼為P圖像,在右視圖中的後續圖像被編碼為B圖像,B圖像具有來自右視圖中的時間參考的第一預測和來自左視圖中的層間參考的第二預測。MVC可能不支援單環路解碼特徵。例如,如第2圖所示,對右視圖(層2)視訊進行解碼可以以左視圖(層1)中的全部圖像可用為條件,每個層(視圖)具有各自的補償迴圈。MVC的實施可以包括高等級語法改變,並且可不包括塊級改變。這使得MVC的實施變得容易。例如,可以通過在切片(slice)和/或圖像級配置參考圖像來實現MVC。MVC可通過例如擴展第2圖中的示例來支持對多於兩個視圖進行編碼,以執行多個視圖間的層間預測。
MPEG 訊框相容(MFC)視訊編碼可以提供對3D視訊編碼的可調擴展。例如MFC可以給訊框相容基礎層視訊(例如被打包到同一訊框中的兩個視圖)提供可調擴展,並且可以提供一個或多個增強層以恢復完全解析度視圖。立體3D視訊可以具有兩個視圖,包括左和右視圖。可以通過將兩個視圖打包和/或多工到一個訊框中以及通過壓縮和傳送打包後的視訊來遞送立體3D內容。在接收機側,在解碼之後,訊框被拆包並且顯示為兩個視圖。對視圖的這種多工可以在時域或空間域中執行。當在空間域中執行時,為了保持相同的圖像大小,兩個視圖可在空間上被下採樣(例如以因數2)並且按照一種或多種佈置(arrangement)來打包。例如,並排佈置可以將下採樣後的左視圖放在圖像的左半部,並且將下採樣後的右視圖放在圖像的右半部。其它佈置可以包括上和下、逐行、棋盤等。例如,用於實現訊框相容3D視訊的佈置可以通過一個或多個訊框打包佈置SEI訊息來傳遞。儘管這種佈置可以以最小的頻寬消耗增加實現了3D傳遞,但是空間下採樣可能引發視圖中的混擾和/或降低3D視訊的視覺品質和使用者體驗。
第3圖是可在視訊編碼中執行的示例可調能力類型的表。示例可調能力類型中的一種或多種可以被實施為層間預測處理模式。這改善了視訊編碼系統(例如根據高效視訊編碼(SHVC)的可調擴展的視訊編碼系統)的壓縮效率。位元深度可調能力、色域可調能力和/或亮度格式可調能力可以與基礎層(BL)和增強層(EL)視訊格式相關聯。對於位元深度可調能力,例如,BL視訊可按照8位元,而EL視訊可高於8位元。對於色域可調能力,例如,BL視訊可以按照BT.709色域進行色彩分級,而EL視訊可以按照BT.2020色域進行色彩分級。對於亮度格式可調能力,例如,BL視訊可以為YUV4:2:0格式,而EL視訊可以為YUV4:2:2或YUV4:4:4格式。
第4圖是示例超高畫質電視(UHDTV)和高畫質電視(HDTV)技術規範表。如第4圖所示,相比於HDTV視訊格式(例如在ITU-R BT.709中定義的),UHDTV視訊格式(例如在ITU-R BT.2020中定義的)可以支援更高空間解析度(例如4Kx2K(3840x2160)和8Kx4K(7680x4320)解析度)、更高畫面播放速率(例如120Hz)、更高採樣位元深度(例如10位元或12位元)以及更寬色域。
第5圖描述了按照CIE色彩定義各個HDTV色域和UHDTV色域的比較。如所示,由UHDTV色域覆蓋的色彩量比由HDTV色域覆蓋的色彩量寬得多。
視訊編碼系統(例如根據高效視訊編碼(SHVC)的可調擴展的視訊編碼系統)可以包括被配置成執行視訊編碼的一個或多個裝置。被配置成執行視訊編碼(例如以對視訊訊號進行編碼和/或解碼)的裝置可以被稱作視訊編碼裝置。這種視訊編碼裝置可以包括具有視訊能力的裝置(例如電視)、數位媒體播放機、DVD播放機、Blu-ray™播放機、網路化的媒體播放裝置、桌上型式電腦、可攜式個人電腦、平板裝置、行動電話、視訊會議系統、基於硬體和/或軟體的視訊編碼系統等等。這種視訊編碼裝置可以包括無線通訊網路元件,諸如無線發射/接收單元(WTRU)、基地台、閘道或其它網路元件。
視訊編碼系統可以被配置成支援UHDTV顯示格式和HDTV顯示格式。例如,一個或多個視訊位元串流可以按照例如使用兩個層(具有表示由HDTV顯示器使用的HDTV視訊訊號的基礎層以及表示由UHDTV顯示器使用的UHDTV視訊訊號的增強層)的分層的方式來編碼。如第4圖所示,HDTV格式和UHDTV格式的技術規範之間的差別可以擴展到空間和時間解析度差別之外,例如包括採樣位元深度和色域差別。被配置成支援UHDTV的視訊編碼系統可以包括對空間可調能力、時間可調能力、位元深度可調能力(BDS)和色域可調能力(CGS)的支持。視訊編碼系統可以被配置成同時支援多種可調能力(例如空間、時間、位元深度和色域可調能力)。
視訊編碼系統可以被配置成使用例如包括多於兩個層的可調位元串流來支持多種可調能力類型。可以配置這種視訊編碼,如此使得成每個增強層增強一個視訊參數。例如,第6圖描述了可用於將HD視訊訊號升級到UHD視訊訊號的示例位元串流層配置。如所示,示例位元串流可具有四個層,包括基礎層(層0)和三個增強層(分別為層1、層2和層3)。基礎層(層0)可以包括例如1080p60 HD視訊訊號。在第一增強層(例如層1)中,空間解析度可以被升級到例如4kx2k (3840x1960)。在第二增強層(例如層2),採樣位元深度可以被升級,例如從8位元到10位元。在第三增強層(例如層3)中,色域可以被升級,例如從BT.709到BT.2020。應當理解的是第6圖中描述的位元串流層的處理順序是示例處理順序,其它位元串流層處理順序可以被實施。所描述的示例位元串流層配置不包括提高視訊訊號的畫面播放速率。然而時間可調能力可以被實施,例如以在一個或多個層中將畫面播放速率升級到例如120fps。增強層可以增強多於一個視訊參數。
視訊編碼系統可以被配置成執行多環路解碼。在多環路解碼中,為了解碼當前增強層,當前增強層的一個或多個依賴層(例如所有依賴層)可被完全解碼(例如可能需要完全解碼)。可以在一個或多個依賴層(例如依賴層中的每一者)中創建解碼圖像緩存(DPB)。隨著層數的增加,解碼複雜度(例如計算複雜度和/或記憶體消耗)可能增加。用於支援期望的視訊格式的層數可能根據增加的解碼複雜度被限制。例如,對於HD到UHD的可調能力,具有兩個層的可調視訊位元串流可被實施(例如第7圖中描述的示例位元留層配置)。
第8圖是描述示例編碼器(例如SHVC編碼器)的簡化框圖。所描述的示例編碼器可以被用於生成兩層HD到UHD可調位元串流(例如第7圖中所描述的)。如第8圖所示,基礎層(BL)視訊輸入830可以為HD視訊訊號,增強層(EL)視訊輸入802可以為UHD視訊訊號。HD視訊訊號830和UHD視訊訊號802可以依據例如以下中的一者或多者彼此對應:一個或多個下採樣參數(例如空間可調能力);一個或多個色彩分級參數(例如色域可調能力)或一個或多個色調映射參數(例如位元深度可調能力)828。
BL編碼器818可以包括例如高效視訊編碼(HEVC)視訊轉碼器或H.264/AVC 視訊轉碼器。BL編碼器818可以被配置成使用用於預測的一個或多個BL重構圖像(例如在BL DPB 820中儲存的)來生成BL位元串流832。EL編碼器804可以包括例如HEVC編碼器。EL編碼器804可以包括一個或多個高級語法修改,例如以通過增加層間參考圖像到EL DPB來支援層間預測。EL編碼器804可以被配置成使用用於預測的一個或個EL重構圖像(例如在EL DPB 806中儲存的)來生成EL位元串流808。
在層間處理(ILP)單元822處,可以使用一個或多個圖像級層間處理技術(包括上採樣(例如針對空間可調能力)、色域轉換(例如針對色域可調能力)或者反向色調映射(例如針對位元深度可調能力)中的一種或多種)處理BL DPB 820中的一個或多個重構BL圖像。一個或多個處理後的重構BL圖像可以被用作針對EL編碼的參考圖像。可以基於從EL編碼器804接收到的增強視訊資訊814和/或從BL編碼器818接收到的基礎層資訊816來執行層間處理。這可以改善EL編碼效率。
在826處,EL位元串流808、BL位元串流832和在層間處理中使用的參數(諸如ILP資訊824)可以被一起多工到可調位元串流812中。例如,可調位元串流812可以包括SHVC位元串流。
第9圖是描述對應於第8圖中描述的示例編碼器的示例解碼器(例如SHVC解碼器)的簡化框圖。例如,所描述的示例解碼器可以被用於解碼兩層HD到UHD位元串流(例如第7圖中描述的)。
如第9圖所示,解多工模組912可以接收可調位元串流902並且可以解多工可調位元串流902以生成ILP資訊914、EL位元串流904和BL位元串流918。可調位元串流902可包括SHVC位元串流。EL位元串流904可以由EL解碼器906解碼。例如,EL解碼器906可包括HEVC視訊解碼器。EL解碼器906可以被配置成使用用於預測的一個或多個EL重構圖像(例如儲存在EL DPB 908中的)來生成UHD視訊訊號910。BL位元串流918可以由BL解碼器920解碼。BL解碼器920可以包括例如HEVC視訊解碼器或H.264/AVC 視訊。BL解碼器920可以被配置成使用用於預測的一個或多個BL重構圖像(例如儲存在BL DPB 922中的)來生成HD視訊訊號924。諸如UHD視訊訊號910和HD視訊訊號924的重構視訊訊號可以用於驅動顯示裝置。
在ILP單元916處,可以使用一種或多種圖像級層間處理技術處理BL DPB 922中的一個或多個重構BL圖像。該圖像級層間處理技術可包括下列的一者或多者:上採樣(例如針對空間可調能力)、色域轉換(例如針對色域可調能力)或反向色調映射(例如針對位元深度可調能力)。一個或多個處理後的重構BL圖像可以被用作針對EL解碼的參考圖像。可以基於在層間處理中使用的參數(諸如ILP資訊914)來執行層間處理。預測資訊可以包括預測塊大小、一個或多個運動向量(例如其可指示運動方向和運動量)和/或一個或多個參考索引(例如其可指示預測信號從哪個參考圖圖像中獲得)。這可以改善EL解碼效率。
視訊編碼系統可以執行組合層間可調能力處理。視訊編碼系統可以在執行層間預測時使用多個層間處理模組。一個或多個層間處理模組可以被組合。視訊編碼系統可以根據層間處理模組的級聯配置來執行層間處理。可以用信號來發送組合層間可調能力處理和/或對應的模組參數。
示例視訊編碼過程包括對視訊訊號的基礎層執行層間處理。可以使用同時執行第一和第二可調能力過程的組合處理模組來執行層間處理的第一部分。示例視訊編碼過程可以包括將處理後的基礎層應用到視訊訊號的增強層。第一可調能力過程可以包括反向色調映射處理和色域轉換處理。可以使用上採樣處理模組執行層間處理的第二部分。
視訊編碼系統可以被配置成通過使層間處理模組中的一者或多者按照以特定循序執行從而以特定順序來執行層間處理步驟。每個層間處理模組可負責執行特定的層間過程。一個或多個層間過程可以被組合到一個或多個對應的層間處理模組中,由此層間處理模組可以執行多於一個層間過程。這些模組配置可以與各自的實現複雜度、計算複雜度和/或可調編碼性能的測量相關聯。層間處理模組可以負責執行多個層間過程。
視訊編碼系統可以被配置成根據組合可調能力執行層間處理。例如,組合可調能力可以在視訊編碼器的ILP單元(例如在第8圖中描述的ILP單元822)和/或視訊解碼器的ILP單元(例如在第9圖中描述的ILP單元916)中實現。多個處理模組可以被用於實現組合可調能力。
在用於組合可調能力處理的示例配置中,每個處理模組可被配置成執行與單個可調能力類型相關聯的處理。第10圖描述了使用被配置成以級聯方式執行視訊編碼的多個處理模組的示例層間視訊編碼過程。如所示,每個處理模組被配置成執行特定可調能力類型的處理。可以使用示例層間視訊編碼過程,例如以執行HD到UHD的可調編碼。處理模組可以被配置成執行多個可調能力類型的處理。
如第10圖所示,反向色調映射模組1020可以將8位元視訊1010轉換為10位元視訊1030。色域轉換模組1040可以將BT.709視訊1030轉換為BT.2020視訊1050。上採樣模組1060可以被用於將1920x1080空間解析度的視訊1050轉換成3840x2160空間解析度的視訊1070。在組合中,這些處理模組可以實現第8圖和第9圖中描述的ILP單元的處理。應當理解的是第10圖中描述的處理順序(例如處理模組的順序)(反向色調映射,之後跟著色域轉換,之後跟著上採樣)是示例的處理順序,且其它處理順序可以被實施。例如,ILP單元中處理模組的順序可以互換。
一個或多個層間處理模組(例如每個層間處理模組)可以被配置用於每個採樣(per-sample)操作。例如,反向色調映射模組1020可以被應用到視訊圖像中的每個採樣以將8位元視訊轉換成10位元視訊。每個採樣操作可以由色域轉換模組1040執行。在應用上採樣模組1060之後,視訊圖像中採樣的數目可增加(例如顯著地)(例如在2倍空間速率的情況下,在上採樣之後採樣的數目變為四倍)。
在組合可調能力處理的示例實現中,ILP單元可以被配置使得通過上採樣模組1060的處理可以在層間處理結束處執行(例如如第10圖所示)。例如由於其它處理模組被應用於較小數量的圖像採樣,所以這一實現可以減少計算複雜度。
可調視訊編碼系統可以使用多個層(例如多個等級)實現。對於一個或多個層(例如對於每個層),級聯的層間處理流的各個過程的可用性、選擇和/或應用可以不同。例如,對於一個或多個層,處理可以被限制成色域轉換過程和上採樣過程。例如,反向色調映射過程可以被省略。對於每個層,可以按照處理順序用信號發送(例如根據第11圖中描述的採樣語法表)各自的可調能力轉換過程的選擇和/或處理順序(例如第10圖中所描述)。例如,這一資訊可以被封裝在層的視訊參數集(VPS)和/或序列參數集(SPS)中。通過解碼器的一個或多個過程的應用可以通過關於每一個單獨的過程是否可用和/或是否被選擇用於處理的指示被限制。這可以例如通過過程可用性和/或過程選擇資訊被指示。可以用信號發送(例如,在位元串流中)層間處理中的過程順序。在實施方式中,如果處理順序未預定義,則在層間處理中的過程順序可以在位元串流中用信號發送。
可以指定對應於一個或多個可應用過程的過程索引。過程索引可以對應於一個過程或者過程的組合,並且可以指示各個過程。例如,第12圖描述了定義可用於第11圖中描述的process_index(過程索引)欄位的索引的示例語法表。編碼器可以發送一個或多個索引以根據例如如第10圖中描述的級聯處理用信號發送處理模組的選擇和/或順序。該選擇可以是任意選擇。解碼器可以接收和解碼這一信令,並且回應於該信令,在執行層間處理(例如使用ILP單元)時按照規定的順序應用所選擇的過程。
一個或多個附加參數可以被包括在信令和/或位元串流中,以指定各個模組定義。例如,用信號發送如何應用處理模組中的每一者。一個或多個附加參數可以規定個別的和/或組合的模組定義。例如,這種參數可以作為ILP資訊的一部分被用信號發送。
在示例上採樣過程中,信令可以定義例如由上採樣模組應用的上採樣濾波器的形式、形狀(shape)、大小或係數。例如,該信令可以規定可分離的(separable)2D濾波器或不可分離的2D濾波器。該信令可規定多個濾波器。例如,這種濾波器可以針對上採樣亮度圖像組件和/或色度圖像組件被定義。濾波器可以被分開定義或者一起定義。當與反向色調映射過程組合時,該信令可以反映各個輸入和/或輸出位元深度之間的差別。
在示例色域轉換過程中,例如,信令可以定義下面的一者或多者:色彩轉換裝置(例如3D查閱資料表(3D-LUT))、分段線性模型、交叉(cross)組件線性模型、線性增益和/或偏移模型等等。對於選中的模型,格式、大小、係數或其它定義參數中的一個或多個可以被用信號發送。當與反向色調映射過程組合時,該信令可以反映各個輸入和/或輸出位元深度之間的差別。
在示例反向色調映射過程中,信令可以定義例如輸入位元深度和/或輸出位元深度。多個輸入和/或輸出位元深度可以被用信號發送。例如,針對亮度圖像組件和針對一個或多個色度圖像組件的輸入和輸出位元深度的各個定義可以被用信號發送。該信令可以規定和/或定義用於反向色調映射裝置的參數(諸如分段線性模型、多項式模型等等)。
第12圖的示例語法表提供由編碼器(例如第8圖的可調視訊編碼器)用信號發送的可用層間處理模組的調色板(palette)的示例。一個或多個過程索引值可以被用信號發送。過程索引值可以與一個或多個層間處理模組(例如針對其它模式的可調能力)對應。解碼器(例如第9圖的可調視訊解碼器)可以經由來自編碼器的信令接收一個或多個過程索引,並且可以應用對應於接收到的過程索引的一個或多個層間處理模組。
例如,空間重採樣過程可以支援縱橫比可調能力。對應於空間重採樣過程的索引可以被添加到第12圖的表中。在示例中,色度重採樣過程可以支援色度格式可調能力。對應於色度重採樣過程的索引可以被添加到第12圖的表中。由第11圖和第12圖中的表所定義的語法可以支援任何數目的層間處理模組。
在組合可調能力處理的示例實現中,針對多個層間處理模組的應用的順序可以被預先確定(例如編碼器和解碼器之間約定並且固定的)。第11圖的表的信令未定義處理順序,且解碼器可以將固定的順序應用到一個或多個選擇的和/或用信號通知的過程。
在組合可調能力處理的示例實現中,針對多個層間處理模組的應用的選擇和/或順序可以改變(例如隨著時間)。在這種實現中,用於規定下面中的一者或多者的信令可以被傳送和/或更新(例如在圖像級)一個或多個可調層:層間處理模組的選擇、層間處理模組的應用的順序或各個模組定義(例如定義模組中的每一者的參數)。可以使用例如第11圖和第12圖的表中所定義的信令將層間處理從一個圖像改變到下一個。例如,與色域轉換模組相關聯的3D-LUT的定義可以隨著時間改變(例如以反映內容提供方所應用的色彩調控中的差別)。
在根據第10圖的組合可調能力處理的示例實現中,層間處理功能可以被分開實現並且可以被級聯到一起。例如,層間處理功能可以以任意順序級聯。例如,基於實施(例如流水線和並行設計),重複存取採樣值(例如每個採樣值)可能引發高資源消耗(例如在記憶體存取方面)。視訊編碼和/或處理可以使用定點操作。這例如降低了硬體設計成本和/或避免了與浮點操作相關的漂移。分開應用一個或多個處理模組可能導致中間精度損耗。例如,三維查閱資料表(3D LUT)過程可以用於色域轉換。雖然3D LUT 過程可在計算期間使用內置精度,但3D LUT的輸出可以被剪切回(be clipped back to)每個採樣具有與輸入相同的位元數。頻率剪切(clipping)(例如在每個單獨的處理模組之後)可引起精度損失。
處理模組可以被合併到單個處理模組,由此可調處理被一次完成。在組合可調能力處理的示例實現中,第10圖中描述的處理模組可以被組合到單個處理模組中。這種全包(all-in-one)的實現在計算複雜度方面是高效的,因為輸入中的每個像素被存取和處理一次(或者在執行分離的上採樣的情況下兩次)以生成輸出中的一個或多個對應像素。
線性處理對於一些處理模組是足夠的,然而對其它處理模組非線性處理可能更加有效(例如在改善EL編碼性能方法)。例如,使用線性濾波器的上採樣是有效的,然而對於色域轉換,非線性模型(例如3D LUT)比線性模型更加有效。反向色調映射模組可以為線性或非線性的,這依賴於在生成視訊內容時使用的色調映射類型。組合的非線性處理和線性處理並非無關緊要,並且組合後的模組本質上是非線性的。
一些處理模組比其它模組使用的更寬泛。例如,空間可調能力可以被用於諸如視訊會議的應用,其中輸入視訊的採樣位元深度和色域可以保持相同(例如每個採樣和BT.709色域8位元)。對於限於空間可調能力的應用,層間處理可以包括上採樣處理模組。在這種應用中,保持上採樣處理模組與ILP單元中的一個或多個其它處理模組件離是有益的。當可由上採樣處理模組單獨執行處理時,一個或多個其它處理模組(例如反向色調映射處理模組和/或色域轉換處理模組)可被旁路。
層間處理單元中的一個或多個功能可以與視訊轉碼器的一個或多個其他部分對齊(align)。例如,根據SHVC的實現,用於½-和¼-像素位置的上採樣濾波器可以與用於HEVC中的運動補償預測的對應相位處的插值濾波器保持相同。
第13圖描述了組合可調能力處理的示例實現。一個或多個處理模組可被組合。如所示,上採樣處理模組可以與反向色調映射處理模組組合,並且色域轉換處理模組可以保持分離(例如排序在組合的上採樣和反向色調映射處理模組之前)。
如第13圖所示,色域轉換模組1320可以將BT.709視訊1310轉換為BT.2020視訊1330。組合的反向色調映射和上採樣模組1340可以將8位元的空間解析度為1920x1080的BT.2020視訊1330轉換為10位元的空間解析度為3840x2160的視訊1350。
一個或多個上採樣濾波器可以減小濾波之後的右移位元(shift)的數目。為了在SHVC的示例實現中描述,以下等式可以表示上採樣(例如垂直濾波)中的步驟。 intLumaSample = ( fL [ yPhase, 0 ] * tempArray [ 0 ] +
fL [ yPhase, 1 ] * tempArray [ 1 ] +
fL [ yPhase, 2 ] * tempArray [ 2 ] +
fL [ yPhase, 3 ] * tempArray [ 3 ] +
fL [ yPhase, 4 ] * tempArray [ 4 ] +
fL [ yPhase, 5 ] * tempArray [ 5 ] +
fL [ yPhase, 6 ] * tempArray [ 6 ] +
fL [ yPhase, 7 ] * tempArray [ 7 ] + (1<<11)>>(12)
濾波步驟可以取決於例如delta_bit_depth的值來減小右移位元的數目,delta_bit_depth可表示BL和EL之間的採樣位元深度的差異。
intLumaSample = ( fL [ yPhase, 0 ] * tempArray [ 0 ] +
fL [ yPhase, 1 ] * tempArray [ 1 ] +
fL [ yPhase, 2 ] * tempArray [ 2 ] +
fL [ yPhase, 3 ] * tempArray [ 3 ] +
fL [ yPhase, 4 ] * tempArray [ 4 ] +
fL [ yPhase, 5 ] * tempArray [ 5 ] +
fL [ yPhase, 6 ] * tempArray [ 6 ] +
fL [ yPhase, 7 ] * tempArray [ 7 ] + (1<<(11 – delta_bit_depth))>>(12 – delta_bit_depth)
在實施方式中,可以使用非線性色調映射來生成BL和EL視訊內容。可以使用非線性模型(諸如多項式模型、分段線性模型等)來實現組合的上採樣和反向色調映射過程。這能夠提高編碼效率。 視訊編碼裝置,諸如第1圖中描述的視訊編碼系統,第8圖中描述的視訊轉碼器和/或第9圖中描述的視訊解碼器,可以對視訊訊號進行編碼。視訊編碼裝置可以使用同時執行反向色調映射和色域轉換可調能力過程的組合處理模組來在視訊訊號的較低層執行第一層間處理。視訊編碼裝置可以使用上採樣處理模組在視訊訊號層上執行第二層間處理。
第14圖描述了具有至少一個組合處理模組的組合可調能力處理的示例實現。如所示,反向色調映射處理模組可以與色域轉換處理模組組合,並且上採樣處理模組可以保持分離。組合的反向色調映射和色域轉換處理可以在上採樣處理之前應用。
如第14圖所示,組合的反向色調映射和色域轉換模組1420可以將8位元BT.709視訊1410轉換為10位元BT.2020視訊1430。視訊的空間解析度可以保持相同(諸如空間解析度為1920x1080)。組合的反向色調映射和色域轉換模組1420可以基於輸入亮度組件的採樣位元深度和輸入色度組件的採樣位元深度計算輸出亮度組件的採樣位元深度和輸出色度組件的採樣位元深度。組合的反向色調映射和色域轉換模組1420可以發送結果到上採樣處理模組1440。例如,輸出亮度組件的採樣位元深度的指示和輸出色度組件的採樣位元深度的指示可發送到上採樣處理模組1440。上採樣處理模組1440可以接收和轉換10位元空間解析度為1920x1080的BT.2020視訊1430為10位元空間解析度為3840x2160的BT.2020視訊1450。可以基於從組合的反向色調映射和色域轉換模組1420接收的輸出亮度組件的採樣位元深度和輸出色度組件的採樣位元深度來執行上採樣過程。
反向色調映射和色域轉換使用非線性模型更有效。例如,3D LUT可以被用於色域轉換。例如在第14圖描述的示例實現的組合的反向色調映射和色域轉換模組中使用修改後的3D LUT(例如具有8位元輸入和10位元輸出)可以和在各個分離的處理模組中使用分離的非線性模型(例如根據第10圖中描述的示例實現)一樣有效。
使用第13圖和第14圖中描述的組合可調能力處理的示例實現可執行測試序列。對於根據第13圖的示例實現,具有8位元輸入和8位元輸出的3D LUT技術被用在色域轉換處理模組中,並且一種技術被用在組合的反向色調映射和上採樣處理模組中。對於根據第14圖的示例實現,具有8位元輸入和10位元輸出的增強型3D LUT技術被用在組合的色域轉換處理和反向色調映射處理模組中,並且上採樣處理模組是根據SHVC的實現。
對於組合可調能力處理的兩種示例實現的測試序列,使用最小平方(LS)技術並且將BL和EL(如果解析度不同則下採樣)視訊作為訓練序列來估計3D LUT中的模型參數。模擬結果示出兩種示例實現都增強了可調編碼效率,其中第14圖的示例實現略優於第13圖的示例實現。更高的編碼效率可能歸因於增強型3D LUT可以採納反向色調映射過程的內在非線性。例如,對用於可用在組合處理模組(例如第14圖中描述的示例實現的組合的反向色調映射處理和色域轉換處理模組)中的增強型3D LUT的一個或多個模型參數的估計和/或訓練可以基於訓練內容,該訓練內容可反映由組合處理模組執行的反向色調映射過程的輸入位元深度和/或輸出位元深度。
可以使用除3D LUT外的不同模型(諸如具有不同順序的多項式、組件獨立線性、交叉組件線性和分段線性)來組合反向色調映射處理和色域轉換處理。例如,編碼器可以基於一個層的源內容和另一層的目標內容利用最小二乘訓練技術推導模型參數,以達到減小的(例如最小的)匹配誤差。
組合層間可調能力處理和/或對應模型參數可以被用信號發送。例如,可以在位元串流中用信號發送組合可調能力處理過程,其中語法元素可以被用於指示哪個組合可調能力處理過程(例如第13圖中描述的或第14圖中描述的)將被使用。可以在序列級用信號發送這一語法元素,例如作為視訊參數集(VPS)的一部分和/或作為序列參數集(SPS)的一部分。可以在圖像級(例如在切片分段標頭中)用信號發送語法元素,作為圖像參數集(PPS)的一部分或作為自我調整參數集(APS)的一部分。編碼器可基於例如視訊輸入來選擇組合可調能力處理過程。編碼器可以向解碼器指示該組合可調能力處理過程。
在組合層間可調能力處理的示例實現中,組合可調能力處理過程可以在可調視訊編碼系統中預定義。例如,第14圖中描述的組合可調能力處理過程可以被選擇。編碼器和解碼器可以重複使用特定的組合可調能力處理過程,而無需附加信令。
可在組合層間可調能力處理中使用的色域轉換技術可以包括下面的一個或多個:增益和偏移、交叉組件線性、分段線性或3D LUT。第15圖中描述的示例語法表描述了用信號發送組合可調能力處理過程和用於組合的色域轉換處理和反向色調映射處理的參數的示例。第15圖中描述的示例語法可以用在根據第14圖中描述的示例實現的示例中。
如第15圖所示,輸入和輸出位元深度值可以被包括為色彩映射過程的參數。色彩映射過程可以使得處理以用於指示色彩映射過程的輸入亮度組件的採樣位元深度的參數為基礎。例如輸入亮度組件的採樣位元深度可以按照超過8的變化(delta)被用信號發送。如第15圖所示,例如用於指示輸入亮度組件的採樣位元深度的參數可以被稱作bit_depth_input_luma_minus8(位元-深度-輸入-亮度-最小8)。可以使用其它參數名稱。
色彩映射過程可以使得處理以用於指示色彩映射過程的輸入色度組件的採樣位元深度的參數為基礎。例如輸入色度組件的採樣位元深度可以按照超過8的變化(delta)被用信號發送。例如輸入色度位元深度可以按照超過輸入亮度位元深度的變化(delta)被用信號發送。如第15圖所示,例如用於指示輸入色度組件的採樣位元深度的參數可以被稱作bit_depth_input_chroma_delta(位元-深度-輸入-色度-變化)。可以使用其它參數名稱。這可通過減小將被編碼的語法元素的值(例如小變化值)來降低信令消耗。可以使用其它位元深度信令技術。
色彩映射過程可以輸出用於指示色彩映射過程的輸出亮度組件的採樣位元深度的參數。例如,輸出亮度組件的採樣位元深度可以按照超過8的變化(delta)被用信號發送。例如輸出亮度組件的採樣位元深度可以按照超過輸入亮度位元深度的變化(delta)被用信號發送。如第15圖所示,這一輸出參數可以被稱作bit_depth_output_luma_delta(位元-深度-輸出-亮度-變化)。可以使用其它參數名稱。
色彩映射過程可以輸出用於指示色彩映射過程的輸出色度組件的採樣位元深度的參數。例如,輸出色度組件的採樣位元深度可以按照超過8的變化(delta)被用信號發送。例如輸出色度組件的採樣位元深度可以按照超過輸入色度位元深度的變化(delta)被用信號發送。如第15圖所示,這一輸出參數可以被稱作bit_depth_output_chroma_delta(位元-深度-輸出-色度-變化)。可以使用其它參數名稱。
語法元素CGS_method(CGS_方法)可被包括在第15圖的示例語法表中,以指示所使用的CGS技術。CGS_method的示例包括增益和/或偏移、交叉組件線性、分段線性、3D LUT、定制的CGS方法等等。在CGS_method 被發送之後,一個或多個對應模型參數可以被用信號發送(例如根據各個CGS技術)。第15圖中描述的示例語法表可以包括在序列級信令中(諸如在VPS、SPS和PPS中的一者或多者中)。第15圖中描述的示例語法表可以包括在圖像級信令中(諸如切片標頭和APS中的一者或多者)。
亮度和/或色度位元深度可以從VPS或SPS中的語法元素中導出。例如在第8圖和第9圖的示例兩層可調視訊轉碼器和解碼器中,分別地,BL位元深度(例如等價於組合處理模組的輸入位元深度)和EL位元深度(例如等價於組合處理模組的輸出位元深度)可以例如從諸如SPS中的bit_depth_luma/chroma_minus8(bit_深度_亮度/色度_減8)之類的語法元素中獲取。色域轉換參數可以在PPS中發送。參數集(例如VPS、SPS和PPS)可以被獨立解析和解碼。使用第15圖中描述的示例語法表用信號發送位元深度值可以簡化對用於組合的色域轉換和反向色調映射過程的模型參數的解析和解碼。
第15圖中描述的示例信令可以作為針對第一組合層間處理模組的程序定義,例如,該第一組合層間處理模組對應於在第14圖中的示例實現中所描述的組合的反向色調映射處理和色域轉換處理模組。第一組合層間處理模組可以以第14圖中描述的示例實現的形式的用在固定配置中。第一組合層間處理模組可以包括可用在級聯處理配置(例如第10圖中所描述的)中的一個層間處理模組。第一組合層間處理模組的選擇和應用可以例如使用第11圖和第12圖的示例語法表被用信號發送。合適的process_index(過程_索引)可以被添加到第12圖的示例語法表中,以指示第一組合層間處理模組的應用。
組合層間處理模組(例如在第13圖的示例實現中描述的組合的反向色調映射處理和上採樣處理模組)可以被定義。針對該組合層間處理模組的合適的程序定義可以被定義。例如,該程序定義可以定義用於空間可調能力上採樣的上採樣濾波器的形式、大小、形狀或係數中的一者或多者,並且可以進一步定義一個或多個輸入位元深度和/或一個或多個輸出位元深度。合適的process_index可以被添加到第12圖的示例語法表中以指示第二組合層間處理模組的應用。第二組合層間處理模組可以是可用在級聯處理配置(例如第10圖中描述)中的另一層間處理模組。
可以例如使用第11圖和第12圖中的示例語法表中定義的信令框架來定義任意數量的組合層間處理模組和/或將其合併到第10圖描述的級聯框架中。
第16圖描述了示例語法表,該示例語法表說明了對過程索引的定義。如圖所示,過程索引可對應於組合的反向色調映射和色域轉換。例如,process_index=3對應於第一組合層間處理模組。如圖所示,過程索引可以對應於組合的反向色調映射和上採樣。例如,process_index=4可以對應於第二組合層間處理模組。
位元深度可以被考慮用於色域轉換模組。色域轉換過程可以將來自一個色彩空間的信號轉換到另一色彩空間。交叉色彩組件關係可以被應用於色域轉換功能。例如,在基於3D LUT的色域轉換中,諸如在HEVC的可調擴展的最終版本中採用的色域轉換過程,3D色彩空間可以被劃分成多個八分圓(octants)。在一個或多個八分圓中,交叉色彩組件線性模型可按照諸如以下方法被應用:
outputSampleX = ((LutX[yIdx][uIdx][vIdx][0] * inputSampleY + LutX[yIdx][uIdx][vIdx][1] * inputSampleU + LutX[yIdx][uIdx][vIdx][2] * inputSampleV + nMappingOffset) >> nMappingShift) + LutX[yIdx][uIdx][vIdx][3]  (1)。
參數outputSampleX可指示在色域轉換之後色彩組件X(例如X可以是Y、U或V)的輸出採樣值。參數LutX[yIdx][uIdx][vIdx ][i]可指示針對由色域組件X的(yIdx、uIdx、vIdx)規定的八分圓的第i個LUT參數,其中0 <=i<= 3。參數nMappingShift和nMappingOffset可以在色域轉換期間控制定點操作的精度,以及參數inputSampleY, inputSampleU和inputSampleV可以包括在色域轉換之前色彩組件Y、U和V各自的輸入值。
在實施方式中,亮度和色度採樣各自的位元深度值可以是不同的。這些位元深度值可以例如通過第15圖中的bit_depth_input_luma_minus8和bit_depth_input_chroma_delta來規定。可以例如通過諸如視訊參數集、序列參數集和/或圖像參數集之類的參數集來規定位元深度值。輸入亮度位元深度可以被表示為InputLumaBitDepth ,輸入色度位元深度可以被表示為InputChromaBitDepth。可以導出輸入亮度位元深度和輸入色度位元深度。例如,可以基於第15圖描述的信令得到輸入亮度位元深度和輸入色度位元深度。輸入亮度位元深度和輸入色度位元深度可以根據下式導出:
InputLumaBitDepth = bit_depth_input_luma_minus8+8 (1a)
InputChromaBitDepth = InputLumaBitDepth + bit_depth_input_chroma_delta  (1b)
諸如H.264/AVC和HEVC的視訊標準允許亮度和色度組件各自的位元深度不同。當交叉色彩組件模型被使用時,在應用交叉色彩組件線性模型時各個色彩組件的位元被對齊(align)。例如,各個色彩組件的位元深度可以在應用等式(1)時被對齊。根據示例色域轉換過程,在應用交叉色彩組件模型(諸如等式(1))之前,亮度和/或色度採樣位元深度可以與亮度和/或色度各自的較大位元深度值對齊,表示為MaxBitDepth = max(InputLumaBitDepth, InputChromaBitDepth)。例如,DeltaMaxLumaBitDepth 和 DeltaMaxChromaBitDepth可以按下式被定義:
DeltaMaxLumaBitDepth = MaxBitDepth-InputLumaBitDepth
DeltaMaxChromaBitDepth = MaxBitDepth-InputChromaBitDepth。
交叉色彩組件線性模型可以按下式被應用:
outputSampleX = ((LutX[yIdx][uIdx][vIdx][0] * (inputSampleY<<DeltaMaxLumaBitDepth)                     + LutX[yIdx][uIdx][vIdx][1] * (inputSampleU<<DeltaMaxChromaBitDepth) + LutX[yIdx][uIdx][vIdx][2] * (inputSampleV<<DeltaMaxChromaBitDepth) + nMappingOffset) >> nMappingShift) + LutX[yIdx][uIdx][vIdx][3]  (2)。
在色域轉換過程期間,亮度和/或色度位元深度可以與亮度和/或色度的各自的較小位元深度對齊(align),表示為MinBitDepth = min(InputLumaBitDepth, InputChromaBitDepth)。例如,DeltaMinLumaBitDepth和DeltaMinChromaBitDepth可以按以下被定義:
DeltaMinLumaBitDepth = InputLumaBitDepth -MinBitDepth
DeltaMinChromaBitDepth = InputChromaBitDepth –MinBitDepth。
交叉色彩組件線性模型可以按下式被應用:
outputSampleX = ((LutX[yIdx][uIdx][vIdx][0] * (inputSampleY>>DeltaMinLumaBitDepth) + LutX[yIdx][uIdx][vIdx][1] * (inputSampleU>>DeltaMinChromaBitDepth) + LutX[yIdx][uIdx][vIdx][2] * (inputSampleV>>DeltaMinChromaBitDepth) + nMappingOffset) >> nMappingShift) + LutX[yIdx][uIdx][vIdx][3] (3)。
交叉色彩組件線性模型可以被應用,由此色彩映射中的一個或多個乘法操作的複雜度可以被降低。等式(3)中的第二項乘法操作的位元深度可以更小。這減小了使用例如ASIC設計的實現的複雜度。
應當理解的是,以上描述的考慮亮度和色度位元深度之間的可能差別的示例過程不限於在基於3D LUT色域轉換功能中實施,且以上描述的示例過程可以在使用交叉色彩組件模型的任何色域轉換和/或色調映射功能中實施。
nMappingShift和/或nMappingOffset的各個值可以在色域轉換期間控制定點操作的精度。例如nMappingShift和nMappingOffset的值可以按下式計算:
nMappingShift = 10 + InputBitDepthX-OutputBitDepthX (4)
nMappingOffset = 1 << (nMappingShift-1) (5)
其中InputBitDepthX和OutputBitDepthX可分別包括色彩轉換過程的色彩組件X(例如X可以是Y、U或V)的輸入和輸出位元深度。
可以例如使用等式(1a)和(1b)導出針對亮度和色度的InputBitDepthX的各個值。可以例如使用以下等式導出針對亮度和色度的OutputBitDepthX的各個值:
OutputLumaBitDepth = bit_depth_output_luma_minus8+8 (6)
OutputChromaBitDepth = OutputLumaBitDepth + bit_depth_input_chroma_delta (7)                
在一種實施方式中,色彩轉換過程中色彩組件的輸出位元深度大於或等於該色彩組件的輸入位元深度。可以執行從BL中的較低品質到EL中的較高品質的色彩轉換過程,由此值(InputBitDepthX – OutputBitDepthX)可以為負。隨著輸入和輸出位元深度間的差增大,值nMappingShift可變小。這可相應地降低定點計算的精度。
當針對亮度組件的輸入和輸出之間的位元深度變化值(InputBitDepthY – OutputBitDepthY)不同於針對色度組件的輸入和輸出之間的位元深度變化值(InputBitDepthC – OutputBitDepthC)時,技術可以被用於計算針對亮度和/或色度的nMappingShift和/或 nMappingOffset。例如,nMappingShift可以使用(InputBitDepthY – OutputBitDepthY)來計算,並且可以被應用到亮度和色度中的一者或兩者。或者nMappingShift可以使用(InputBitDepthC – OutputBitDepthC)來計算,並且可以應用到亮度和色度中的一者或兩者。在另一示例中,nMappingShift和/或nMappingOffset可以使用下式來計算:
nMappingShift = 10 + min(InputBitDepthY – OutputBitDepthY, InputBitDepthC – OutputBitDepthC) (8)
nMappingOffset = 1 << (nMappingShift-1) (9)
這些值可以被應用到色彩轉換過程中的亮度和色度組件中的一者或兩者。例如,這些值可以用於等式(2)和/或等式(3)中的nMappingShift和nMappingOffset(諸如針對{Y,U,V}中的每個色彩組件X)。
以上描述的過程可以保留較高精度量。例如,這可以使得色域轉換過程具有高(例如,最大)定點精度。
可以根據無線通訊系統(諸如第17A圖至第17E圖中描述的示例無線通訊系統100及其元件)中的視訊傳輸來實現此處描述的視訊編碼技術(諸如利用組合可調能力處理)。
第17A圖為可以在其中實施一個或者多個所揭露實施方式的示例通信系統100的圖例。通信系統100可以是將諸如語音、資料、視訊、訊息、廣播等之類的內容提供給多個無線使用者的多重存取系統。通信系統100可以通過系統資源(包括無線頻寬)的共用使得多個無線使用者能夠存取這些內容。例如,通信系統100可以使用一個或多個通道存取方法,例如分碼多重存取(CDMA)、分時多重存取(TDMA)、分頻多重存取(FDMA)、正交FDMA(OFDMA)、單載波FDMA(SC-FDMA)等等。
如第17A圖所示,通信系統100可以包括至少一個無線發射/接收單元(WTRU)(諸如多個WTRU,例如WTRU 102a、102b、102c和102d)、無線電存取網路(RAN)104、核心網路106、公共交換電話網路(PSTN)108、網際網路110和其他網路112,但可以理解的是所揭露的實施方式涵蓋任意數量的WTRU、基地台、網路和/或網路元件。WTRU 102a、102b、102c、102d中的每一個可以是被配置成在無線通訊中操作和/或通信的任何類型的裝置。作為示例,WTRU 102a、102b、102c、102d可以被配置成發送和/或接收無線信號,並且可以包括使用者設備(UE)、移動站、固定或移動使用者單元、傳呼機、行動電話、個人數位助理(PDA)、智慧型電話、可攜式電腦、上網本、個人電腦、無線感測器、消費電子產品等等。
通信系統100還可以包括基地台114a和基地台114b。基地台114a、114b中的每一個可以是被配置成與WTRU 102a、102b、102c、102d中的至少一者有無線介面,以便於存取一個或多個通信網路(例如核心網路106、網際網路110和/或網路112)的任何類型的裝置。例如,基地台114a、114b可以是基地台收發站(BTS)、節點B、e節點B、家用節點B、家用e節點B、網站控制器、存取點(AP)、無線路由器以及類似裝置。儘管基地台114a、114b每個均被描述為單個元件,但是可以理解的是基地台114a,114b可以包括任何數量的互聯基地台和/或網路元件。
基地台114a可以是RAN 104的一部分,該RAN 104還可以包括諸如網站控制器(BSC)、無線電網路控制器(RNC)、中繼節點之類的其他基地台和/或網路元件(未示出)。基地台114a和/或基地台114b可以被配置成發送和/或接收特定地理區域內的無線信號,該特定地理區域可以被稱作胞元(未示出)。胞元還可以被劃分成胞元扇區。例如與基地台114a相關聯的胞元可以被劃分成三個扇區。因此,在一種實施方式中,基地台114a可以包括三個收發器,即針對該胞元的每個扇區都有一個收發器。在另一實施方式中,基地台114a可以使用多輸入多輸出(MIMO)技術,並且由此可以使用針對胞元的每個扇區的多個收發器。
基地台114a、114b可以通過空中介面116與WTRU 102a、102b、102c、102d中的一者或多者通信,該空中介面116可以是任何合適的無線通訊鏈路(例如射頻(RF)、微波、紅外(IR)、紫外(UV)、可見光等)。可以使用任何合適的無線電存取技術(RAT)來建立空中介面116。
更為具體地,如前所述,通信系統100可以是多重存取系統,並且可以使用一個或多個通道存取方案(諸如CDMA、TDMA、FDMA、OFDMA、SC-FDMA以及類似的方案)。例如,在RAN 104中的基地台114a和WTRU 102a、102b、102c可以實施諸如通用移動電信系統(UMTS)陸地無線電存取(UTRA)之類的無線電技術,其可以使用寬頻CDMA(WCDMA)來建立空中介面116。WCDMA可以包括諸如高速封包存取(HSPA)和/或演進型HSPA(HSPA+)。HSPA可以包括高速下行鏈路封包存取(HSDPA)和/或高速上行鏈路封包存取(HSUPA)。
在另一實施方式中,基地台114a和WTRU 102a、102b、102c可以實施諸如演進型UMTS陸地無線電存取(E-UTRA)之類的無線電技術,其可以使用長期演進(LTE)和/或高級LTE(LTE-A)來建立空中介面116。
在其它實施方式中,基地台114a和WTRU 102a、102b、102c可以實施諸如IEEE 802.16(即全球互通微波存取(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV-DO、臨時標準2000(IS-2000)、臨時標準95(IS-95)、臨時標準856(IS-856)、全球移動通信系統(GSM)、增強型資料速率GSM演進(EDGE)、GSM EDGE(GERAN)之類的無線電技術。
舉例來講,第17A圖中的基地台114b可以是無線路由器、家用節點B、家用e節點B或者存取點,並且可以使用任何合適的RAT,以用於促進在諸如公司、家庭、車輛、校園之類的局部區域的無線連接。在一種實施方式中,基地台114b和WTRU 102c、102d可以實施諸如IEEE 802.11之類的無線電技術以建立無線區域網路(WLAN)。在另一實施方式中,基地台114b和WTRU 102c、102d可以實施諸如IEEE 802.15之類的無線電技術以建立無線個人區域網路(WPAN)。在又一種實施方式中,基地台114b和WTRU 102c、102d可以使用基於蜂巢的RAT(例如WCDMA、CDMA2000、GSM、LTE、LTE-A等)以建立超微型(picocell)胞元或毫微微胞元(femtocell)。如第17A圖所示,基地台114b可以具有至網際網路110的直接連接。因此,基地台114b不必經由核心網路106來存取網際網路110。
RAN 104可以與核心網路106通信,該核心網路可以是被配置成將語音、資料、應用程式和/或網際網路協定語音(VoIP)服務提供到WTRU 102a、102b、102c、102d中的一者或多者的任何類型的網路。例如,核心網路106可以提供呼叫控制、帳單服務、基於移動位置的服務、預付費呼叫、網際網路互聯、視訊分配等,和/或執行諸如用戶驗證的高級安全性功能。儘管第17A圖中未示出,應該理解的是RAN 104和/或核心網路106可以直接或間接地與其他RAN進行通信,這些其他RAT可以使用與RAN 104相同的RAT或者不同的RAT。例如,除了連接到可以採用E-UTRA無線電技術的RAN 104,核心網路106也可以與使用GSM無線電技術的另一RAN(未顯示)通信。
核心網路106也可以用作WTRU 102a、102b、102c、102d存取PSTN 108、網際網路110和/或其他網路112的閘道。PSTN 108可以包括提供普通老式電話服務(POTS)的電路交換電話網路。網際網路110可以包括互聯電腦網路的全球系統以及使用公共通信協定的裝置,該公共通信協定例如傳輸控制協定(TCP)/網際網路協定(IP)網際網路協定套件的中的TCP、使用者資料包通訊協定(UDP)和IP。網路112可以包括由其他服務提供方擁有和/或操作的無線或有線通信網路。例如,網路112可以包括連接到一個或多個RAN的另一核心網路,這些RAN可以使用與RAN 104相同的RAT或者不同的RAT。
通信系統100中的WTRU 102a、102b、102c、102d中的一些或者全部可以包括多模式能力,即WTRU 102a、102b、102c、102d可以包括用於通過多個通信鏈路與不同的無線網路進行通信的多個收發器。例如,第17A圖中顯示的WTRU 102c可以被配置成與使用基於蜂巢的無線電技術的基地台114a進行通信,並且與使用IEEE 802無線電技術的基地台114b進行通信。
第17B圖為示例WTRU 102的系統框圖。如第17B圖所示,WTRU 102可以包括處理器118、收發器120、發射/接收元件122、揚聲器/麥克風124、數字鍵盤126、顯示器/觸控板128、不可移除記憶體130、可移除記憶體132、電源134、全球定位系統晶片組136和其他週邊設備138。應該理解的是,在保持與實施方式一致的同時,WTRU 102可以包括上述元件的任何子集。
處理器118可以是通用目的處理器、專用目的處理器、常規處理器、數位訊號處理器(DSP)、多個微處理器、與DSP核心相關聯的一個或多個微處理器、控制器、微控制器、專用積體電路(ASIC)、現場可程式設計閘陣列(FPGA)電路、其他任何類型的積體電路(IC)、狀態機等。處理器118可以執行信號編碼、資料處理、功率控制、輸入/輸出處理和/或使得WTRU 102能夠操作在無線環境中的其他任何功能。處理器118可以耦合到收發器120,該收發器120可以耦合到發射/接收元件122。儘管第17B圖中將處理器118和收發器120描述為獨立的組件,應該理解的是處理器118和收發器120可以被一起集成到電子封裝或者晶片中。
發射/接收元件122可以被配置成通過空中介面116將信號發送到基地台(例如基地台114a),或者從基地台(例如基地台114a)接收信號。例如,在一種實施方式中,發射/接收元件122可以是被配置成發送和/或接收RF信號的天線。在另一實施方式中,發射/接收元件122可以是被配置成發送和/或接收例如IR、UV或者可見光信號的發射器/檢測器。在又一實施方式中,發射/接收元件122可以被配置成發送和接收RF信號和光信號兩者。應該理解的是發射/接收元件122可以被配置成發送和/或接收無線信號的任意組合。
此外,儘管發射/接收元件122在第17B圖中被描述為單個元件,但是WTRU 102可以包括任何數量的發射/接收元件122。更特別地,WTRU 102可以使用MIMO技術。因此,在一種實施方式中,WTRU 102可以包括兩個或更多個發射/接收元件122(例如多個天線)以用於通過空中介面116發射和接收無線信號。
收發器120可以被配置成對將由發射/接收元件122傳送的信號進行調變,並且被配置成對由發射/接收元件122接收的信號進行解調。如以上所述,WTRU 102可以具有多模式能力。因此,收發器120可以包括多個收發器以用於使得WTRU 102能夠經由多個RAT進行通信(諸如UTRA和IEEE 802.11)。
WTRU 102的處理器118可以被耦合到揚聲器/麥克風124、數字鍵盤126和/或顯示器/觸控板128(例如,液晶顯示(LCD)單元或者有機發光二極體(OLED)顯示單元),並且可以從上述裝置接收使用者輸入資料。處理器118還可以向揚聲器/麥克風124、數字鍵盤126和/或顯示器/觸控板128輸出資料。此外,處理器118可以存取來自任何類型的合適的記憶體中的資訊,以及向任何類型的合適的記憶體中儲存資料,該記憶體例如可以是不可移除記憶體130和/或可移除記憶體132。不可移除記憶體130可以包括隨機存取記憶體(RAM)、可讀記憶體(ROM)、硬碟或者任何其他類型的記憶體儲存裝置。可移除記憶體132可以包括使用者身份模組(SIM)卡、記憶棒、安全數位(SD)記憶卡等類似裝置。在其它實施方式中,處理器118可以存取來自實體上未位於WTRU 102上而位於諸如伺服器或者家用電腦(未示出)上的記憶體的資料,以及向上述記憶體中儲存資料。
處理器118可以從電源134接收電力,並且可以被配置成將功率分配給WTRU 102中的其他組件和/或對至WTRU 102中的其他元件的電力進行控制。電源134可以是任何適用於給WTRU 102供電的裝置。例如,電源134可以包括一個或多個乾電池(鎳鎘(NiCd)、鎳鋅(NiZn)、鎳氫(NiMH)、鋰離子(Li-ion)等)、太陽能電池、燃料電池等。
處理器118還可以耦合到GPS晶片組136,該GPS晶片組136可以被配置成提供關於WTRU 102的當前位置的位置資訊(例如經度和緯度)。WTRU 102可以通過空中介面116從基地台(例如基地台114a、114b)接收加上或取代GPS晶片組136資訊之位置資訊,和/或基於從兩個或更多個相鄰基地台接收到的信號的定時來確定其位置。應該理解的是,在保持與實施方式一致的同時,WTRU 102可以通過任何合適的位置確定方法來獲取位置資訊。
處理器118還可以耦合到其他週邊設備138,該週邊設備138可以包括提供附加特徵、功能和/或無線或有線連接的一個或多個軟體和/或硬體模組。例如,週邊設備138可以包括加速器、電子指南針(e-compass)、衛星收發器、數位相機(用於照片或者視訊)、通用序列匯流排(USB)埠、震動裝置、電視收發器、免持耳機、藍芽模組、調頻(FM)無線電單元、數位音樂播放機、媒體播放機、視訊遊戲播放機模組、網際網路瀏覽器等等。
第17C圖為包括RAN 104a和核心網路106a的通信系統100的實施方式的系統圖,RAN 104a和核心網路106a分別包括RAN 104和核心網路106的示例實施方式。如以上所述,RAN 104(例如RAN104a)可以利用UTRA無線電技術通過空中介面116與WTRU 102a、102b、102c通信。RAN 104a還可以與核心網路106a通信。如第17C圖所示,RAN 104a可以包含節點B 140a、140b、140c,其中節點B 140a、140b、140c每個可以包含一個或多個收發器,該收發器通過空中介面116來與WTRU 102a、102b、102c通信。節點B 140a、140b、140c中的每個可以與RAN 104a範圍內的特定胞元(未示出)相關聯。RAN 104a還可以包括RNC 142a、142b。應該理解的是RAN 104a可以包含任意數量的節點B和RNC,同時仍然與實施方式保持一致。
如第17C圖所示,節點B 140a、140b可以與RNC 142a進行通信。此外,節點B 140c可以與RNC 142b進行通信。節點B 140a、140b、140c可以通過Iub介面與對應的RNC 142a、142b進行通信。RNC 142a、142b可以通過Iur介面相互進行通信。RNC 142a、142b中的每一者可以被配置成控制與其連接的對應的節點B 140a、140b、140c。此外,RNC 142a、142b中的每一者可以分別被配置成實施或者支援其它功能(諸如外環功率控制、負載控制、准許控制、封包排程、切換控制、巨集分集、安全性功能、資料加密等等)。
第17C圖中所示的核心網路106a可以包括媒體閘道(MGW)144、移動交換中心(MSC)146、服務GPRS支援節點(SGSN)148,和/或閘道GPRS支持節點(GGSN)150。儘管上述元素中的每個被描述為核心網路106a的一部分,但是應該理解的是這些元素中的任何一個可以被除了核心網路營運商以外的實體擁有和/或營運。
RAN 104a中的RNC 142a可以通過IuCS介面被連接至核心網路106a中的MSC 146。MSC 146可以被連接至MGW 144。MSC 146和MGW 144可以向WTRU 102a、102b、102c提供至電路切換式網路(例如PSTN 108)的存取,從而便於WTRU 102a、102b、102c與傳統陸線通信裝置之間的通信。
RAN 104a中的RNC 142a還可以通過IuPS介面被連接至核心網路106a中的SGSN 148。SGSN 148可以被連接至GGSN 150中。SGSN 148和GGSN 150 可以向WTRU 102a、102b、102c提供至封包交換網路(例如網際網路110)的存取,從而便於WTRU 102a、102b、102c與IP賦能裝置之間的通信。
如以上所述,核心網路106a還可以連接至其它網路112,其中該其它網路112可以包含被其他服務提供者擁有和/或營運的其他有線或無線網路。
第17D圖為包括RAN 104b和核心網路106b的通信系統100的實施方式的系統圖,RAN 104b和核心網路106b分別包括RAN 104和核心網路106的示例實施方式。如上所述,RAN 104(諸如RAN 104b)可以使用E-UTRA無線電技術通過空中介面116與WTRU 102a、102b和102c進行通信。RAN 104b還可以與核心網路106b進行通信。
RAN 104b可以包括e節點B 170a、170b、170c、應該理解的是RAN 104b可以包含任意數量的e節點B同時仍然與實施方式保持一致。e節點B 170a、170b、170c每個可以包含一個或多個收發器,該收發器通過空中介面116來與WTRU 102a、102b、102c通信。在一種實施方式中,e節點B 170a、170b、170c可以使用MIMO技術。由此,例如e節點B 170a可以使用多個天線來傳送無線信號至WTRU 102a並且從WTRU 102a中接收無線資訊。
e節點B 170a、170b、170c中的每個可以與特定胞元(未示出)相關聯並且可以被配置成處理在上行鏈路和/或下行鏈路中的用戶排程、無線電資源管理決策、切換決策等。如第17D圖中所示,e節點B 170a、170b、170c可以通過X2介面彼此進行通信。
第17D圖中所示的核心網路106b可以包括移動性管理閘道(MME)172、服務閘道174和封包資料網路(PDN)閘道176。儘管上述元素中的每個被描述為核心網路106b的一部分,但是應該理解的是這些元素中的任何一個可以被除了核心網路營運商以外的實體擁有和/或營運。
MME 172可以通過S1介面連接到RAN 104b中的e節點B 170a、170b、170c中的每個並且可以作為控制節點。例如,MME 172可以負責認證WTRU 102a、102b、102c的用戶、承載者啟動/去啟動、在WTRU 102a、102b、102c的初始附著期間選擇特定服務閘道等等。MME 172也可以為RAN 104b與使用其他無線電技術(例如GSM或WCDMA)的RAN(未示出)之間的切換提供控制平面功能。
服務閘道174可以通過S1介面被連接到RAN 104b中的e節點B 170a、170b、170c的每個。服務閘道174通常可以路由和轉發使用者資料封包至WTRU 102a、102b、102c,或者路由和轉發來自WTRU 102a、102b、102c的使用者資料封包。服務閘道174也可以執行其他功能,例如在e節點B間切換期間錨定用戶平面、當下行鏈路資料可用於WTRU 102a、102b、102c時觸發傳呼、管理和儲存WTRU 102a、102b、102c的上下文等等。
服務閘道174也可以被連接到PDN閘道176,該閘道176可以向WTRU 102a、102b、102c提供至封包交換網路(例如網際網路110)的存取,從而便於WTRU 102a、102b、102c與IP賦能裝置之間的通信。
核心網路106b可以促進與其他網路之間的通信。例如,核心網路106b可以向WTRU 102a、102b、102c提供至電路切換式網路(例如PSTN 108)的存取,從而促進WTRU 102a、102b、102c與傳統陸線通信裝置之間的通信。例如,核心網路106b可以包括,或可以與下者通信:作為核心網路106b和PSTN 108之間介面的IP閘道(例如,IP多媒體子系統(IMS)伺服器)。另外,核心網路106b可以向提供WTRU 102a、102b、102c至網路112的存取,該網路112可以包含由其他服務提供者擁有和/或營運的其他有線或無線網路。
第17E圖為包括RAN 104c和核心網路106c的通信系統100的實施方式的系統圖,RAN 104c和核心網路106c分別包括RAN 104和核心網路106的示例實施方式。RAN 104(例如RAN 104c)可以為使用IEEE 802.16無線電技術通過空中介面116與WTRU 102a、102b、102c進行通信的存取服務網路(ASN)。如此處所描述,WTRU 102a、102b、102c、RAN 104c和核心網路106c中的不同功能實體之間的通信鏈路可以被定義為參考點。
如第17E圖所示,RAN 104c可以包括基地台180a、180b、180c和ASN 閘道182,應該理解的是RAN 104c可以包含任意數量的基地台和ASN閘道同時仍然與實施方式保持一致。基地台 180a、180b、180c中的每一者可分別與RAN 104c中的特定胞元(未示出)相關聯,並且可以分別包括一個或多個收發器,該收發器通過空中介面116來與WTRU 102a、102b、102c通信。在一種實施方式中,基地台180a、180b、180c可以使用MIMO技術。由此,例如基地台180a可以使用多個天線來傳送無線信號至WTRU 102a並且從WTRU 102a中接收無線資訊。基地台180a、180b、180c還可以提供移動性管理功能(諸如切換觸發、隧道建立、無線電資源管理、訊務分類、服務品質(QoS)策略執行等等)。ASN閘道182可以作為訊務彙聚點且可以負責傳呼、訂戶設定檔的快取以及到核心網路106c的路由,等等。
WTRU 102a、102b、102c與RAN 104c之間的空中介面116可以被定義為執行IEEE 802.16規範的R1參考點。另外,WTRU 102a、102b、102c中的每個可以建立與核心網路106c的邏輯介面(未示出)。WTRU 102a、102b、102c與核心網路106c間的邏輯介面可以被定義為R2參考點,可以被用來認證、授權、IP主機配置管理和/或移動性管理。
基地台180a、180b、180c中的每個之間的通信鏈路可以被定義為R8參考點,R8參考點包括用於促進WTRU在基地台之間的資料傳輸和交遞的協定。基地台180a、180b、180c和ASN閘道182之間的通信鏈路可以被定義為R6參考點。R6參考點可以包括用於促進基於與每個WTRU 102a、102b、102c相關聯的移動性事件的移動管理的協定。
如第17E圖所示,RAN 104c可以被連接到核心網路106c。RAN 104c和核心網路106c之間的通信鏈路可以被定義為R3參考點,R3參考點包括用於促進資料傳輸和移動性管理能力的協定。核心網路106c可以包括移動IP本地代理(MIP-HA)184、認證、授權、計費(AAA)伺服器186和閘道188。儘管每個上述元素被描述為核心網路106c的一部分,但是應該理解的是這些元素中的任意一個可以被除了核心網路營運商以外的實體擁有和/或營運。
MIP-HA 184可以負責IP位址管理,且可以使得WTRU 102a、102b、102c在不同的ASN和/或不同的核心網路之間漫遊。MIP-HA 184可以向WTRU 102a、102b、102c提供至封包交換網路(例如網際網路110)的存取,從而促進WTRU 102a、102b、102c和IP賦能裝置之間的通信。AAA伺服器186可以負責使用者認證和支援使用者服務。閘道188可以促進與其他網路之間的交互工作。例如,閘道188可以向WTRU 102a、102b、102c提供至電路切換式網路(例如PSTN 108)的存取,從而促進WTRU 102a、102b、102c與傳統陸線通信裝置之間的通信。另外,閘道188可以向WTRU 102a、102b、102c提供至網路112的存取,該網路112可以包含被其他服務提供者擁有和/或營運的其他有線或無線網路。
雖然在第17E圖中未示出,但應該理解的是RAN 104c可以被連接到其他ASN且核心網路106c可以被連接到其他核心網路。RAN 104c和其他ASN之間的通信鏈路可以被定義為R4參考點,該R4參考點可以包括用於協調RAN 104c和其他ASN之間的WTRU 102a、102b、102c的移動性的協定。核心網路106c和其他核心網路之間的通信鏈路可以被定義為R5參考點,該R5參考點可以包括用於促進本地核心網路和受訪核心網路之間的交互工作的協定。
雖然本發明的特徵和元素以特定的結合在以上進行了描述,但本領域普通技術人員可以理解的是,每個特徵或元素可以單獨使用,或在與任何其它特徵和元素結合使用。此外,以上描述的方法可以在由電腦或處理器執行的電腦程式、軟體和/或韌體中實施,其中該電腦程式、軟體或/或韌體被包含在由電腦或處理器執行的電腦可讀儲存媒體中。電腦可讀儲存媒體的實例包括但不限於電子信號(通過有線和/或無線連接而傳送)和電腦可讀儲存媒體。關於電腦可讀儲存媒體的實例包括但不侷限於唯讀記憶體(ROM)、隨機存取記憶體(RAM)、暫存器、快取記憶體、半導體記憶裝置、磁媒體(例如內部硬碟或抽取式磁碟)、磁光媒體和諸如CD-ROM碟片和數位多功能碟片(DVD)之類的光媒體。與軟體有關的處理器可以被用於實施在WTRU、終端、基地台、RNC或任何主機電腦中使用的無線電頻率收發器。本文描述的根據一個或多個示例實施方式的特徵和/或元素可以結合本文描述的根據一個或多個其它示例實施方式的特徵和/或元素一起使用。
 
1410、1430、1450‧‧‧視訊
1420‧‧‧反向色調映射和色域轉換模組
1440‧‧‧上採樣處理模組

Claims (1)

  1. 1、一種對視訊訊號進行編碼的方法,該方法包括:
    使用同時執行反向色調映射和色域轉換可調能力過程的一組合處理模組在該視訊訊號的一視訊訊號層執行一第一層間處理;以及
    使用一上採樣處理模組在該視訊訊號層執行一第二層間處理。
    2、如申請專利範圍第1項所述的方法,其中使用該組合處理模組執行該第一層間處理還包括:
    基於一輸入亮度組件的一採樣位元深度和輸入色度組件的一採樣位元深度計算一輸出亮度組件的一採樣位元深度和輸出色度組件的一採樣位元深度;以及
    將該輸出亮度組件的該採樣位元深度的一指示和該輸出色度組件的該採樣位元深度的一指示發送到該上採樣處理模組。
    3、如申請專利範圍第2項所述的方法,其中基於該輸出亮度組件的該採樣位元深度和該輸出色度組件的該採樣位元深度執行該第二層間處理。
    4、如申請專利範圍第1項所述的方法,其中該視訊訊號層包括一基礎層,以及該方法還包括:
    基於該處理後的基礎層對該視訊訊號的一增強層進行編碼。
    5、如申請專利範圍第1項所述的方法,其中該視訊訊號層包括一基礎層,以及該方法還包括:
    基於該處理後的基礎層預測該視訊訊號的一增強層。
    6、如申請專利範圍第1項所述的方法,該方法還包括:
    對齊該視訊訊號的一亮度組件的一第一位元深度;
    對齊該視訊訊號的一色度組件的第二位元深度;以及
    將交叉色彩組件模型應用到該對齊後的亮度組件和色度組件。
    7、如申請專利範圍第6項所述的方法,其中該第一位元深度基於一輸入亮度位元深度被對齊,且該第二位元深度基於一輸入色度位元深度被對齊。
    8、如申請專利範圍第6項所述的方法,其中該第一位元深度和該第二位元深度與該第一位元深度和該第二位元深度的一較大值對齊。
    9、如申請專利範圍第6項所述的方法,其中該第一位元深度和該第二位元深度與該第一位元深度和該第二位元深度的一較小值對齊。
    10、一種視訊編碼裝置,包括:
    一處理器,被配置成:
    使用同時執行反向色調映射和色域轉換可調能力過程的一組合處理模組在一視訊訊號的一視訊訊號層執行一第一層間處理;以及
    使用一上採樣處理模組在該視訊訊號層執行一第二層間處理。
    11、如申請專利範圍第10項所述的視訊編碼裝置,其中該處理器被配置成通過以下方法使用該組合處理模組執行該第一層間處理:
    基於一輸入亮度組件的一採樣位元深度和輸入色度組件的一採樣位元深度計算一輸出亮度組件的一採樣位元深度和輸出色度組件的一採樣位元深度;以及
    將該輸出亮度組件的該採樣位元深度的一指示和該述輸出色度組件的該採樣位元深度的一指示發送到該上採樣處理模組。
    12、如申請專利範圍第11項所述的視訊編碼裝置,其中基於該輸出亮度組件的該採樣位元深度和該輸出色度組件的該採樣位元深度執行該第二層間處理。
    13、如申請專利範圍第10項所述的視訊編碼裝置,其中該視訊訊號層包括一基礎層,以及處理器還被配置成:
    基於該處理後的基礎層對該視訊訊號的一增強層進行編碼。
    14、如申請專利範圍第10項所述的視訊編碼裝置,其中該視訊訊號層包括一基礎層,以及處理器還被配置成:
    基於該處理後的基礎層預測該視訊訊號的一增強層。
    15、如申請專利範圍第10項所述的視訊編碼裝置,其中處理器還被配置成:
    對齊該視訊訊號的一亮度組件的一第一位元深度;
    對齊該視訊訊號的一色度組件的一第二位元深度;以及
    將一交叉色彩組件模型應用到該對齊後的亮度組件和色度組件。
    16、如申請專利範圍第15項所述的視訊編碼裝置,其中該第一位元深度基於一輸入亮度位元深度被對齊,以及該第二位元深度基於一輸入色度位元深度被對齊。
    17、如申請專利範圍第15項所述的視訊編碼裝置,其中該第一位元深度和該第二位元深度與該第一位元深度和該第二位元深度的一較大值對齊。
    18、如申請專利範圍第15項所述的視訊編碼裝置,其中該第一位元深度和該第二位元深度與該第一位元深度和該第二位元深度的一較小值對齊。
    19、一種執行從一第一色彩空間到一第二色彩空間的色彩轉換的方法,該方法包括:
    獲取一像素的第一色彩組件值和一第二色彩組件值,其中該第一色彩組件值和該第二色彩組件值屬於該第一色彩空間,並且其中該第一色彩組件值以一第一位元深度表示,且該第二色彩組件值以一第二位元深度表示,該第二位元深度不同於該第一位元深度;
    將該第一色彩組件值的該第一位元深度對齊到該第二色彩組件值的該第二位元深度;以及
    將一交叉色彩組件模型應用到至少該第一色彩組件和該第二色彩組件,以將該第一色彩組件和該第二色彩組件從該第一色彩空間轉換到該第二色彩空間。
    20、如申請專利範圍第19項所述的方法,其中該第一色彩組件值是一亮度組件,並且該第二色彩組件值是一色度組件。
    21、如申請專利範圍第19項所述的方法,其中該第一色彩組件值是一色度組件,並且該第二色彩組件值是一亮度組件。
    22、如申請專利範圍第19項所述的方法,其中對齊該第一色彩組件值的該第一位元深度將一左移位應用於該第一色彩組件值。
    23、如申請專利範圍第19項所述的方法,其中對齊該第一色彩組件值的該第一位元深度將一右移位應用於該第一色彩組件值。
TW103134905A 2013-10-07 2014-10-07 多層視訊編碼組合可調能力處理方法 TWI652937B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361887782P 2013-10-07 2013-10-07
US61/887,782 2013-10-07
US201462045495P 2014-09-03 2014-09-03
US62/045,495 2014-09-03

Publications (2)

Publication Number Publication Date
TW201536032A true TW201536032A (zh) 2015-09-16
TWI652937B TWI652937B (zh) 2019-03-01

Family

ID=51794970

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103134905A TWI652937B (zh) 2013-10-07 2014-10-07 多層視訊編碼組合可調能力處理方法

Country Status (9)

Country Link
US (2) US10063886B2 (zh)
EP (2) EP3055997B1 (zh)
JP (5) JP2017501599A (zh)
KR (2) KR102127603B1 (zh)
CN (2) CN105874793B (zh)
HK (1) HK1222965A1 (zh)
RU (1) RU2658812C2 (zh)
TW (1) TWI652937B (zh)
WO (1) WO2015054307A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI690197B (zh) * 2016-02-17 2020-04-01 美商高通公司 在分層高效視訊寫碼檔案格式中之位元串流網路抽象層之結束的處理及對高效視訊寫碼及分層高效視訊寫碼頻塊軌跡之改良

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015054307A2 (en) * 2013-10-07 2015-04-16 Vid Scale, Inc. Combined scalability processing for multi-layer video coding
US9948916B2 (en) 2013-10-14 2018-04-17 Qualcomm Incorporated Three-dimensional lookup table based color gamut scalability in multi-layer video coding
US10531105B2 (en) 2013-12-17 2020-01-07 Qualcomm Incorporated Signaling partition information for 3D lookup table for color gamut scalability in multi-layer video coding
US9756337B2 (en) 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
US10368097B2 (en) * 2014-01-07 2019-07-30 Nokia Technologies Oy Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures
MX2016012130A (es) * 2014-03-19 2017-04-27 Arris Entpr Inc Codificacion escalable de secuencias de video utilizando mapeo de tonos y diferentes gamas de colores.
US10104385B2 (en) * 2014-04-17 2018-10-16 Qualcomm Incorporated Signaling reference layers for 3D color prediction for color gamut scalability
EP3544298A1 (en) * 2014-09-12 2019-09-25 Vid Scale, Inc. Inter-component de-correlation for video coding
US10135577B2 (en) * 2015-03-02 2018-11-20 Lg Electronics Inc. Scalable service in a wireless communication system
JP6565330B2 (ja) * 2015-05-26 2019-08-28 日本電気株式会社 映像処理装置、映像処理方法及び映像処理プログラム
EP3107300A1 (en) * 2015-06-15 2016-12-21 Thomson Licensing Method and device for encoding both a high-dynamic range frame and an imposed low-dynamic range frame
WO2017011636A1 (en) 2015-07-16 2017-01-19 Dolby Laboratories Licensing Corporation Signal reshaping and coding for hdr and wide color gamut signals
US10440401B2 (en) 2016-04-07 2019-10-08 Dolby Laboratories Licensing Corporation Backward-compatible HDR codecs with temporal scalability
US11102495B2 (en) * 2016-05-17 2021-08-24 Qualcomm Incorporated Methods and systems for generating and processing content color volume messages for video
GB2553556B (en) * 2016-09-08 2022-06-29 V Nova Int Ltd Data processing apparatuses, methods, computer programs and computer-readable media
JP6915483B2 (ja) * 2017-09-27 2021-08-04 富士フイルムビジネスイノベーション株式会社 画像処理装置、画像処理システムおよびプログラム
US11265579B2 (en) * 2018-08-01 2022-03-01 Comcast Cable Communications, Llc Systems, methods, and apparatuses for video processing
TWI814890B (zh) * 2018-08-17 2023-09-11 大陸商北京字節跳動網絡技術有限公司 簡化的跨分量預測
CN110896478B (zh) 2018-09-12 2023-02-17 北京字节跳动网络技术有限公司 交叉分量线性建模中的下采样
CN112997492B (zh) * 2018-11-06 2024-02-20 北京字节跳动网络技术有限公司 帧内预测的简化参数推导
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
BR112021010428A2 (pt) 2018-12-07 2021-08-24 Beijing Bytedance Network Technology Co., Ltd. Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador
CN111491168A (zh) * 2019-01-29 2020-08-04 华为软件技术有限公司 视频编解码方法、解码器、编码器和相关设备
CN113475079A (zh) 2019-02-01 2021-10-01 北京字节跳动网络技术有限公司 环路整形和帧内块复制之间的相互作用
KR20210118400A (ko) 2019-02-01 2021-09-30 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 코딩을 위한 루마 종속적 크로마 잔차 스케일링의 구성
WO2020169101A1 (en) * 2019-02-22 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Neighbouring sample selection for intra prediction
CN113491121B (zh) 2019-02-24 2022-12-06 北京字节跳动网络技术有限公司 对视频数据进行编解码的方法、设备及计算机可读介质
WO2020175893A1 (ko) * 2019-02-28 2020-09-03 엘지전자 주식회사 Aps 시그널링 기반 비디오 또는 영상 코딩
CN113475072B (zh) 2019-03-04 2023-12-15 北京字节跳动网络技术有限公司 视频处理中滤波信息的信令
EP3939317A1 (en) 2019-03-11 2022-01-19 Dolby Laboratories Licensing Corporation Video coding using reference picture resampling supporting region of interest
KR20230016712A (ko) * 2019-03-11 2023-02-02 엘지전자 주식회사 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩
ES2952678T3 (es) 2019-03-11 2023-11-03 Dolby Laboratories Licensing Corp Señalización de información relacionada con ángulo de obturador
CN113574889B (zh) 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
CN113632469B (zh) 2019-03-23 2022-12-13 北京字节跳动网络技术有限公司 默认的环内整形参数
WO2020192642A1 (en) 2019-03-24 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Conditions in parameter derivation for intra prediction
CN113840144B (zh) * 2019-03-25 2023-06-02 Oppo广东移动通信有限公司 图像分量的预测方法、编码器、解码器及计算机存储介质
US20200322656A1 (en) * 2019-04-02 2020-10-08 Nbcuniversal Media, Llc Systems and methods for fast channel changing
EP3989549A4 (en) 2019-06-25 2022-08-31 SZ DJI Technology Co., Ltd. VIDEO IMAGE PROCESSING METHOD AND DEVICE AND STORAGE MEDIA
US11877000B2 (en) 2019-08-06 2024-01-16 Dolby Laboratories Licensing Corporation Canvas size scalable video coding
US11272187B2 (en) * 2019-08-13 2022-03-08 Tencent America LLC Method and apparatus for video coding
EP4000269A4 (en) 2019-08-15 2022-09-07 ByteDance Inc. PALLET MODE WITH DIFFERENT DIVISION STRUCTURES
CN117395420A (zh) 2019-08-15 2024-01-12 字节跳动有限公司 用于调色板逸出符号的熵编解码
US11172237B2 (en) * 2019-09-11 2021-11-09 Dolby Laboratories Licensing Corporation Inter-layer dynamic range scalability for HDR video
EP4032275A4 (en) * 2019-09-19 2022-11-30 ByteDance Inc. DERIVING QUANTIZE PARAMETERS FOR PALETTE MODE
EP3972271A1 (en) 2020-09-17 2022-03-23 Lemon Inc. Video operating points record syntax and semantics
US20220279185A1 (en) * 2021-02-26 2022-09-01 Lemon Inc. Methods of coding images/videos with alpha channels
US20230047271A1 (en) * 2021-08-02 2023-02-16 Mediatek Singapore Pte. Ltd. Color Component Processing In Down-Sample Video Coding
WO2023128070A1 (en) 2022-01-03 2023-07-06 Lg Electronics Inc. Display device

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7035460B2 (en) * 2002-05-31 2006-04-25 Eastman Kodak Company Method for constructing an extended color gamut digital image from a limited color gamut digital image
JP2004064629A (ja) * 2002-07-31 2004-02-26 Canon Inc 画像処理装置およびその方法
US20050259729A1 (en) * 2004-05-21 2005-11-24 Shijun Sun Video coding with quality scalability
EP1820090A2 (en) * 2004-10-21 2007-08-22 Sony Electronics, Inc. Supporting fidelity range extensions in advanced video codec file format
WO2008049445A1 (en) * 2006-10-25 2008-05-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Quality scalable coding
EP2084913B1 (en) * 2006-10-25 2019-02-20 GE Video Compression, LLC Quality scalable coding
CN101888559B (zh) 2006-11-09 2013-02-13 Lg电子株式会社 用于解码/编码视频信号的方法及装置
US8737474B2 (en) * 2007-06-27 2014-05-27 Thomson Licensing Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
DE602007009730D1 (de) * 2007-06-29 2010-11-18 Fraunhofer Ges Forschung Skalierbare videocodierung, die pixelwert-verfeinerungsskalierbarkeit unterstützt
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
KR20150126728A (ko) * 2007-10-19 2015-11-12 톰슨 라이센싱 조합된 공간 및 비트 심도 확장성
US8953673B2 (en) * 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
ES2527932T3 (es) * 2008-04-16 2015-02-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Escalabilidad de profundidad de bits
US9338475B2 (en) * 2008-04-16 2016-05-10 Intel Corporation Tone mapping for bit-depth scalable video codec
US9538176B2 (en) * 2008-08-08 2017-01-03 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
US9571856B2 (en) * 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
CN102388612B (zh) * 2009-03-13 2014-10-08 杜比实验室特许公司 高动态范围、可视动态范围和宽色域视频的分层压缩
KR20130105870A (ko) * 2010-10-27 2013-09-26 브이아이디 스케일, 인크. 적응적 비디오 코딩을 위한 시스템 및 방법
KR101756442B1 (ko) * 2010-11-29 2017-07-11 에스케이텔레콤 주식회사 인트라예측모드의 중복성을 최소화하기 위한 영상 부호화/복호화 방법 및 장치
BR112013003102B1 (pt) * 2011-02-22 2022-04-19 Sun Patent Trust Método de codificação de imagem, método de decodificação de imagem, aparelho de codificação de imagem, e aparelho de decodificação de imagem
UA109312C2 (uk) * 2011-03-04 2015-08-10 Імпульсно-кодова модуляція з квантуванням при кодуванні відеоінформації
US20130321675A1 (en) * 2012-05-31 2013-12-05 Apple Inc. Raw scaler with chromatic aberration correction
AU2013352851B2 (en) * 2012-11-27 2016-11-17 Lg Electronics Inc. Signal transceiving apparatus and signal transceiving method
US9800884B2 (en) * 2013-03-15 2017-10-24 Qualcomm Incorporated Device and method for scalable coding of video information
US10230950B2 (en) * 2013-05-30 2019-03-12 Intel Corporation Bit-rate control for video coding using object-of-interest data
US10075735B2 (en) * 2013-07-14 2018-09-11 Sharp Kabushiki Kaisha Video parameter set signaling
WO2015054307A2 (en) 2013-10-07 2015-04-16 Vid Scale, Inc. Combined scalability processing for multi-layer video coding
MX2016012130A (es) * 2014-03-19 2017-04-27 Arris Entpr Inc Codificacion escalable de secuencias de video utilizando mapeo de tonos y diferentes gamas de colores.
EP3544298A1 (en) * 2014-09-12 2019-09-25 Vid Scale, Inc. Inter-component de-correlation for video coding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI690197B (zh) * 2016-02-17 2020-04-01 美商高通公司 在分層高效視訊寫碼檔案格式中之位元串流網路抽象層之結束的處理及對高效視訊寫碼及分層高效視訊寫碼頻塊軌跡之改良

Also Published As

Publication number Publication date
EP3055997A2 (en) 2016-08-17
JP7448572B2 (ja) 2024-03-12
HK1222965A1 (zh) 2017-07-14
KR102127603B1 (ko) 2020-06-26
RU2016117907A (ru) 2017-11-13
US20190014348A1 (en) 2019-01-10
US10986370B2 (en) 2021-04-20
JP2020010341A (ja) 2020-01-16
JP2018129814A (ja) 2018-08-16
EP3055997B1 (en) 2019-12-04
CN105874793A (zh) 2016-08-17
JP2022064913A (ja) 2022-04-26
JP6564086B2 (ja) 2019-08-21
US20150098510A1 (en) 2015-04-09
JP2024020538A (ja) 2024-02-14
CN105874793B (zh) 2019-10-11
JP7012048B2 (ja) 2022-01-27
CN110572662A (zh) 2019-12-13
CN110572662B (zh) 2024-03-08
KR20160064204A (ko) 2016-06-07
KR20190110644A (ko) 2019-09-30
JP2017501599A (ja) 2017-01-12
WO2015054307A2 (en) 2015-04-16
RU2658812C2 (ru) 2018-06-22
KR102027027B1 (ko) 2019-09-30
WO2015054307A3 (en) 2015-08-20
US10063886B2 (en) 2018-08-28
TWI652937B (zh) 2019-03-01
EP3629582A1 (en) 2020-04-01

Similar Documents

Publication Publication Date Title
JP7448572B2 (ja) マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
US10841615B2 (en) Systems and methods for model parameter optimization in three dimensional based color mapping
US10390029B2 (en) Systems and methods for providing 3D look-up table coding for color gamut scalability
US10440340B2 (en) Providing 3D look-up table (LUT) estimation for color gamut scalability
US10462439B2 (en) Color correction with a lookup table