TW201620304A - 在3維基礎彩色映射中模型參數最佳化系統及方法 - Google Patents

在3維基礎彩色映射中模型參數最佳化系統及方法 Download PDF

Info

Publication number
TW201620304A
TW201620304A TW104119533A TW104119533A TW201620304A TW 201620304 A TW201620304 A TW 201620304A TW 104119533 A TW104119533 A TW 104119533A TW 104119533 A TW104119533 A TW 104119533A TW 201620304 A TW201620304 A TW 201620304A
Authority
TW
Taiwan
Prior art keywords
value
bit
predicted residual
incremental
residual value
Prior art date
Application number
TW104119533A
Other languages
English (en)
Other versions
TWI689196B (zh
Inventor
何玉文
葉言
Original Assignee
Vid衡器股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid衡器股份有限公司 filed Critical Vid衡器股份有限公司
Publication of TW201620304A publication Critical patent/TW201620304A/zh
Application granted granted Critical
Publication of TWI689196B publication Critical patent/TWI689196B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

揭露了用於執行適應性色彩空間轉換和LUT參數的適應性熵編碼的系統、方法和裝置。視訊位元流可以被接收且可以基於該視訊位元流確定第一標誌。回應於該第一標誌可以將殘差從第一色彩空間轉換到第二色彩空間。該殘差可以按兩個部分被編碼,該兩個部分被該殘差的最高有效位和最低有效位分開。該殘差還可以進一步基於其絕對值被編碼

Description

在3維基礎彩色映射中模型參數最佳化系統及方法
相關申請的交叉引用
本申請要求2014年6月19日申請的美國臨時專利申請序號No. 62/014,610、2014年6月26日申請的美國臨時專利申請序號No. 62/017,743的優先權,其每一個申請的名稱為“SYSTEMS AND METHODS FOR MODEL PARAMETER OPTIMIZATION IN THREE DIMENSIONAL BASED COLOR MAPPING”,且每一個的全部內容以引用的方式結合於此。
近些年,無線技術要求更高的資料吞吐率和更低的延遲。推動這種要求的一種常見應用是在移動裝置(也稱為“使用者設備”或簡單的“UE”)上的視訊呈現(render)。載波聚合和多RAT(無線電存取技術)能力已經被引入以幫助解決這些應用和使用大資料量的其他服務要求的對更高資料率的需求。載波聚合可以允許營運商將它們資料訊務量的一些卸載到輔助胞元(例如,在輔助分量載波上傳送)。對RAT技術例如RAT聚合的使用可以在多個RAT上例如同時允許接收和/或傳輸。可以一起使用的這些RAT可以包括與寬頻分碼多重存取(WCDMA)使用的長期演進(LTE),與WiFi使用的LTE等。在這樣的聚合方式中,演進型節點B(eNB)和UE可以在多個並行路徑上通信。
各種數位視訊壓縮技術已經被開發以協助有效數位視訊通信、分發以及使用。廣泛部署的標準包括國際電信聯盟(ITU)編碼標準,例如H.261、H.263、和H.264,以及其他標準,例如MPEG-1、 MPEG-2、MPEG-4部分2以及MPEG-4部分10高級視訊編碼(AVC)。另一視訊編碼標準,高效視訊編碼(HEVC)已經由IUT-T視訊編碼專家組(VCEG)和國際標準組織/國際電子電機委員會(ISO/IEC)運動圖像專家組(MPEG)開發。HEVC標準與可能使用H.264和MPEG-4部分10 AVC相比可以實現兩倍的壓縮效率。因此,在頻寬利用方面,HEVC需要H.264或MPEG-4部分10 AVC的位元速率的一半,而提供相同或相似的視訊品質。
隨著例如智慧型電話、平板電腦等的移動裝置的使用增加,相應的對通過無線網路的視訊內容和服務的需求增加。因此,期望移動裝置在計算能力、記憶體、儲存大小、顯示解析度、顯示訊框率、顯示色域等方面的廣泛變化能力來提供視訊消費以成功滿足當今的移動裝置市場。同樣,與這些裝置通信的無線網路也被期望提供視訊服務和其他頻寬密集服務和應用。
揭露了在視訊解碼中使用的用於解碼3維查閱資料表(3-dimensional look-up table)參數的系統、方法和裝置。在一種實施方式中,通過接收增量(delta)值、預測殘差值的最高有效位、以及預測殘差值的最低有效位元來實施在視訊解碼中使用的方法、系統和裝置以用於解碼3維查閱資料表參數。預測殘差值可以通過以下來生成:基於增量值來確定表示固定長度編碼的最低有效位元的量的第一值,基於該述第一值確定預測殘差值的最低有效位,以及使用預測殘差值的最高有效位和預測殘差值的最低有效位元來組合(assemble)預測殘差值。預測殘差值可以與Y色彩分量、U色彩分量、或V色彩分量中的一者相關聯。預測殘差值的符號(sign)可以被接收並用於組合預測殘差值。組合預測殘差值可以包括將預測殘差值的最高有效位左位元移位該述第一值,將預測殘差值的最低有效位加到預測殘差值,和/或將預測殘差值的符號應用到預測殘差值。預測殘差值可以與色彩分量、3維查閱資料表參數、和3維查閱資料表八分體(octant)中的至少一者相關聯。
還揭露了在視訊編碼中使用的用於編碼3維查閱資料表參數的系統、方法和裝置。在一種實施方式中,可以通過確定預測殘差值、基於預測殘差值的最小有效位的量來確定增量值、以及編碼該增量值來實施在視訊編碼中使用的方法、系統和裝置以用於編碼3維查閱資料表參數。可以基於增量值編碼該預測殘差值的最高有效位和/或最低有效位。確定增量值可以包括確定3維查閱資料表資料和/或基於3維查閱資料表資料來確定增量值。確定增量值還可以包括基於第一增量值確定編碼3維查閱資料表資料所需的第一位元量,基於第二增量值來確定編碼3維查閱資料表資料所需的第二位元量,以及基於第一位元量和第二位元量來選擇第一增量值和第二增量值中的一者作為該述增量值。選擇第一增量值和第二增量值中的一者可以基於第一位元量是小於第二位元量還是第二位元量小於第一位元量。基於增量值確定編碼3維查閱資料表資料所需的位元量可以包括對編碼用於3維查閱資料表資料的一個八分體的模型參數所需的位元量進行求和。預測殘差值的符號也可以被編碼。揭露的主題的這些和其他方面在下面描述。
現在將參考多個附圖來描述示例性示例的詳細描述。雖然該描述提供了可能實施的詳細示例,但應當注意這些細節旨在僅示例性而絕不限制本申請的範圍。
各種數位視訊壓縮技術可以被用於實現有效數位視訊通信、分發和使用。可以用於實現這些有效數位視訊通信、分發和使用的標準示例可以包括這些由ISO/IEC和/或ITU-T開發的,例如H.261、 MPEG-1、 MPEG-2、H.263、MPEG-4部分2和H.264/MPEG-4部分10 AVC。HEVC是這些標準的另一示例。HEVC的版本已經被ITU-T VCEG和ISO/IEC MPEG聯合進行標準化。如這裡該述,HEVC標準可以實現兩倍於使用H.264/AVC可以實現的壓縮效率的壓縮效率。
可以提供數位視訊服務,通過衛星、電纜和/或陸地廣播通道使用TV服務。由於移動裝置商的網際網路隨著現在解析度、記憶體、儲存和計算能力的能力增長的智慧型電話和平板電腦的增長而變得更普遍,更大數量的視訊應用(例如視訊聊天、移動視訊記錄和共用以及視訊流)可以變得更普遍且可以在異構環境(即可以包括變換能力的裝置的環境)中需要視訊傳送。在這樣情形中的裝置可以稱為3屏或N屏裝置且在計算能力、記憶體/儲存大小、顯示解析度、顯示訊框率、顯示色域等方面可以具有各種類型和能力。這種裝置的示例可以包括PC、智慧型電話、平板電腦、TV等。這樣的裝置可以經由網際網路提供視訊使用以滿足使用者。
可以促進視訊消耗的網路和傳輸通道可以在例如封包丟失率、可用通道頻寬、突發錯誤率等方面具有寬變化特性。由於視訊內容訊務量可以通過有線網路和無線網路的結合來傳送,底層(underlying)傳輸通道特性可能變得複雜。在這樣的情形中,可縮放(scalable)視訊編碼技術可以提供吸引人的解決方案,其可以改善在異構網路上運行在具有不同能力的裝置上的視訊應用的體驗品質。在一些實施方式中依據給定應用和/或給定用戶端裝置請求的特定速率和/或表現,可縮放視訊編碼可以在其最高表現(時間解析度、空間解析度、品質等)對信號編碼一次和/或可以從一個或多個視訊流的子集進行解碼。可縮放視訊編碼與非縮放解決方案相比可以節省頻寬和/或儲存。國際視訊標準MPEG-2視訊、H.263、MPEG4視覺以及H.264的每一個可以具有支援至少一些縮放性模式的工具和/或簡檔(profile)。
第1圖是示出可以代表基於塊的混合可縮放視訊編碼系統的示例性系統1000的框圖。由層1 1071(例如基礎層)表示的空間/時間信號解析度可以首先通過下採樣(down-sample)1031輸入視訊訊號1081並將其提供給層1編碼器1001來生成。量化器(quantizer)設定(setting)Q 1061可以被提供給編碼器1001以配置編碼器1001提供某品質等級的基礎層信號。層1 1071編碼的信號可以被提供給層1解碼器1021,其可以生成重構的視訊訊號1091。層1解碼器1021可以被配置有指定用於解碼編碼的層1信號的品質等級的量化器設定1064。
基礎層重構的視訊訊號1091可以是一些或所有較高層解析度等級的近似。重構的視訊訊號1091可以被用在後續層的編碼和/或解碼中,以例如更有效率地編碼後續較高層。上採樣(upsample)單元1043可以執行將基礎層重構的信號1091上採樣到層2 1072的解析度並提供該上採樣信號用於添加1054到由層2解碼器1022解碼的層2 1072解碼的信號。層2解碼器1022可以被配置有量化器設定1065,指定用於解碼編碼的層2信號的品質等級。使用例如信號添加1055、上採樣1044以及層N 解碼器1023,可以在一些或所有層(例如層1,2,…N )執行類似的上採樣和信號添加,以從層N編碼器1003生成的層N 1073編碼信號生成重構的視訊訊號1093。層N 解碼器1023可以被配置有指定用於解碼層N 1073信號的品質等級的量化器設定Q 1066。注意下取樣速率和上取樣速率可以變化且可以與兩個給定層之間的縮放性的尺寸有關。
在第1圖的系統1000中,對於任意給定較高層n (例如,層2 ≤nN ),通過從當前層n 信號減去上採樣較低層信號(例如,層n -1信號)來生成差分(differential)信號,且可以對該差值(difference)信號進行編碼。如果兩個層例如n 1和n 2表示的視訊訊號具有相同的空間解析度,則可以繞開相應的下採樣和上採樣操作。可以在不使用從較高層解碼的任意信號的情況下對任意給定層n (例如其中1 ≤nN )或多個層進行解碼。例如,層1編碼器1001輸出可以由層1解碼器解碼1011、上採樣1041、並從視訊訊號1081中被減掉1051,該視訊訊號1081在該減掉之前可以被下採樣1032。類似地,層2解碼器1002輸出可以被層2解碼器解碼1012,被加1052到通過上採樣1041生成的該信號,被上採樣1042,以及在層N 編碼器1003處編碼成生成的層N 1073編碼信號之前在較高層N 處從該視訊訊號中被減掉1053。注意編碼器1002和1003可以分別使用量化器設定Q 1062和1063來確定用於編碼信號的品質等級。這裡預期的任意其他編碼器和解碼器也可以使用任意輸入、設定或信號來確定用於編碼和/或解碼信號的品質等級,以及所有這樣的實施方式被預期在本揭露的範圍內。
對所有層除了基礎層,例如如第1圖的系統1000中所示,依據殘差信號編碼(例如,兩個層之間的差值信號)可能由於這種殘差信號的量化和標準化以限制其動態範圍和可以在殘差信號編碼期間執行的額外量化導致的視覺偽影(visual artifact)。較高層編碼器的一個或多個可以採用運動估計和/或運動補償預測作為編碼模式。殘差信號中的運動估計和運動補償可以不同於常規運動估計且可以傾向於視覺偽影。為了最小化這種視覺偽影,更複雜的殘差量化以及量化和標準化殘差信號之間的聯合量化以限制其動態範圍和在殘差編碼期間執行的額外量化可以被使用。
可縮放視訊編碼(SVC)可以被認為是ITU-T標準H.264和ISO/IEC/MPEG 4 部分10A的擴展,其可以實現部分位元流的傳輸和解碼以提供較低時間和/或空間解析度和/或降低保真度的視訊服務同時針對部分位元流的速率保持相對高重構品質。SVC的特徵,稱為單回路解碼,可以涉及SVC解碼器,其可以在被解碼的層設置一個運動補償環,且可以在一個或多個其他較低層不設置一個或多個運動補償環。例如,如果位元流包含兩個層,層1(例如基礎層)和層2(例如增強層),且如果解碼器被配置成重構層2視訊,則可以為層2設置解碼圖片緩衝器和/或運動補償預測,而對層1(例如層2所依據的基礎層)則不這樣。使用單回路解碼,解塊過濾也可以被限制到被解碼的層。因此,SVC可以不需要來自較低層的參考圖片被完全重構,這可以降低解碼器處的計算複雜度和記憶體使用。
單回路解碼可以通過受約束層間結構預測來實現,其中對於給定層中的當前塊,如果相應較低層塊是以訊框內模式編碼的(其也可以稱為受限訊框內預測(intra-prediction)),則從該較低層的空間結構預測可以被允許。在實施方式中,這可以是由於較低層塊是以訊框內模式被編碼,其中這樣的塊可以在不需要運動補償運算和/或解碼圖片緩衝器的情況下被重構。
為了進一步改善增強層的率失真效率(rate-distortion efficiency),SVC可以從較低層使用另外的層間預測技術,例如運動向量預測、殘差預測、運動預測等。雖然SVC的單回路解碼特徵可以降低解碼器的計算複雜度和/或記憶體使用,但是單回路解碼可能因為使用塊級層間預測方法而增加實施複雜度。為了補償由於施加單回路解碼約束可能導致的性能損失,可以增加編碼器設計和計算複雜度,由此可以實現期望的性能等級。
HEVC的可縮放擴展可以稱為SHVC。HEVC的標準縮放性可以涉及可以允許使用早期標準例如H.264/AVC或MPEG2編碼基礎層,而使用更近的標準例如HEVC標準編碼一個或多個增強層的縮放性類型。標準縮放性可以給已使用之前標準編碼的遺留(legacy)內容提供舊版相容性。標準縮放性可以使用一個或多個增強層來增強這種遺留內容的品質,該內容可以使用更多當前標準(像提供更好編碼效率的HEVC)被編碼。
第2圖示出了用於2層可縮放系統的SHVC解碼器的示例框圖200。SHVC可以使用高等級基於語法的可縮放編碼框架,其中從基礎層重構的圖片可以被處理成層間參考(ILR)圖片。這些ILR圖片然後可以被插入到增強層解碼圖片緩衝器(DPB)以用於增強層圖片的預測。SHVC中的該層間處理模組可以包括對空間縮放性和位深縮放性進行上採樣以及對色域縮放性進行色彩映射。
如第2圖中所示,SHVC位元流240可以由解多工器210解多工成增強層(EL)流241和基礎層(BL)流242。BL流242可以由基礎層解碼器231解碼以生成重構的圖片,其可以被提供給基礎層解碼圖片緩衝器(BL DPB)232並可以被提供作為基礎層視訊輸出252。BL DPB可以提供262基礎層重構的圖片給層間處理250,其可以處理這種基礎層重構的圖片以生成ILR圖片,其可以被提供261給增強層解碼圖片緩衝器(EL DPB)222。HEVC解碼器221可以解碼EL流241並將其重構的圖片提供給EL DPB 222,其可以使用該HEVC重構的圖片和從層間處理250接收的ILR圖片來生成增強層視訊輸出251。
在實施方式中,超高清TV(UHDTV)規範可以被用於使用高級顯示技術來呈現圖像和視訊。與高清TV(HDTV)規範相比,UHDTV規範可以支援更大的空間解析度、更高的訊框率、更高的採樣位深、和/或更寬的色域。由於UHDTV可以提供更高的保真度和更高的圖片品質,使用者體驗得之改善。UHDTV可以支持兩個空間解析度,一個是4K(3840x2160),一個是8K(7680x4320),高達120Hz的訊框率,和/或10位元和12位元的兩個圖片採樣位元深。此外,UHDTV的色彩空間可以支援更大容量的視覺色彩資訊的呈現。第3圖示出了示出在國際照明委員會(CIE)色彩定義中HDTV和UHDTV之間的比較的圖300。第4圖示出了終端使用者可以在HDTV色域與UHDTV色域之間感覺的視覺差異的示例。在第4圖中,使用不同色彩空間對相同內容進行色彩分級兩次。第4A圖示出了圖像410,其可以代表可以已經按HDTV進行色彩分級並在HDTV顯示器上呈現/顯示的圖像。第4B圖示出了圖像410,其可以代表可以已經按UHDTV進行色彩分級並在HDTV顯示器上呈現/顯示的圖像。
SHVC可以支援HDTV到UHDTV遷移(migration)。為位深縮放性和/或色域縮放性設計的有效編碼技術可以被包括在SHVC中。下表1列出了根據揭露的實施方式的SHVC可以支援的不同類型的縮放性。這些縮放性類型的一個或多個也可以被之前的SVC標準所支援。 表1.SHVC 縮放性類型
一種縮放性可以稱為色域縮放性。色域可縮放(CGS)編碼可以是多層編碼,其中兩個或更多個層可以具有不同色域。例如,如表1所示,在2層可縮放系統中,基礎層可以是HDTV色域而增強層可以是UHDTV色域。用於CGS編碼的層間處理可以使用色域轉換方法以將基礎層色域轉換成增強層色域。色域轉換(例如色彩映射)生成的層間參考圖片可以用於預測具有改善精度的增強層圖片。使用第4圖示出的圖片作為示例,色域轉換過程可以明顯降低和/或減輕第4A圖和第4B圖中示出的圖像之間可能由於不同色彩分級(grade)導致的色彩差異。通過使用色域轉換方法,HDTV空間中的色彩可以被轉譯(translate)到UHDTV空間並可以用於預測UHDTV空間中的增強層信號。
第5圖示出了可以對應於SHVC解碼器(例如第2圖的示例性SHVC解碼器)的示例性SHVC編碼器的框圖500。增強層(EL)視訊541可以被提供給EL編碼器521,其在實施方式中可以是HEVC編碼器或可以是其元件。基礎層(BL)視訊542可以被提供給BL編碼器531,其在實施方式中可以是HEVC編碼器或其元件。EL視訊541可以經過了預處理510,以進行色彩分級、下採樣、和/或位深轉換的色調映射(tone map)以生成BL視訊542。EL編碼器521可以提供圖片給EL DPB 522以及BL編碼器531可以提供圖片給BL DPB 532。
如圖所示,示例性層間(IL)處理模組520可以執行從基礎層色域到增強層色域的色域轉換,從基礎層空間解析度到增強層空間解析度的上採樣,和/或從BL採樣位深到EL採樣位深的逆色調映射。這種處理可以使用可以分別已由EL編碼器521和BL編碼器531提供的增強層視訊資訊524和/或基礎層視訊資訊534來執行。IL處理模組520可以在其處理中使用來自BL DPB 532的圖片和/或可以提供資料、圖片或其他資訊給EL DPB 522以用於預測EL圖片。IL處理模組520生成的色彩映射資訊553可以被提供給多工器540。
多工器540可以使用EL編碼器521生成的EL位元流551和BL編碼器531生成的BL位元流552來生成SHVC位元流550。在實施方式中,多工器540還可以使用色彩映射資訊553來生成SHVC位元流550。
可以使用各種色域轉換方法,包括但不限於線性、分段線性以及多項式。在電影工業和後期製作過程中,3維查閱資料表(3D LUT)可以用於色彩分級和/或從一個域到另一個的色域轉換。基於3D LUT的色域轉換過程可以在SHVC中用作如這裡該述的用於CGS的層間預測方法。
SHVC色彩映射過程可以基於3D LUT。第6圖示出了示例的基於3D LUT映射600,其可以是從8位元BL視訊到8位元EL視訊的映射,具有範圍(0, 0, 0) 到(255, 255, 255)。使用3D色彩映射表,3D LUT 610可以首先在每個維度(中心立方體)被平均地分割成2x2x2個八分體(620)。SHVC簡檔(例如SHVC可縮放主要部分10簡檔)可以允許在三個色彩維度中最多一個分割。在一些實施方式中,亮度分量也可以被分割成最多四個部分,如630中所示。3D色彩空間可以被分割成多達8x2x2個立方形八分體。在八分體內,交叉色彩分量線性模型可以被應用以執行色彩映射。對於八分體,四個頂點(vertice)可以被傳送以表述該交叉分量線性模型。可以分別針對Y’、Cb、和Cr分量傳送色彩映射表。因此,針對CGS編碼,最多8x2x2x4x3 = 384個表項可以被儲存。
為了執行SHVC中的色彩映射,對於給定BL輸入採樣三元組(triplet)P(y, u, v)(其如圖示出位於第7圖的示例立方體700),其所屬的八分體可以基於色彩分量(y, u, v)的最前的N個最高有效位(MSB)的值來確定,因為色彩維度是二元劃分的。
由於亮度和色度採樣在典型的YCbCr 4:2:0視訊格式中不是相位對準的,因此可以使用4抽頭(4-tap)或2抽頭篩檢程式來過濾輸入P(y, u, v)以對準色度和亮度採樣位置。
該識別的八分體的色彩分量C(C可以是Y、U或V)的線性模型可以被表示為lutC[P0 ]、 lutC[P4 ]、 lutC[P6 ]、 和lutC[P7 ],其可以對應於如第7圖所示的頂點P0 、 P4 、P6 、和P7 。因此,色彩映射過程的色彩分量C的輸出可以使用下面的等式(1)來計算,如第7圖指示,該等式有dy, du, 和dv。如果在BL和EL之間有空間解析度差異,則在色彩映射之後可以應用上採樣。   C輸出 = lutC[P0 ] + dy × (lutC[P7 ]) – lutC[P6 ]) + du × (lutC[P4 ] – lutC[P0 ]) + dv × (lutC[P6 ] – lutC[P4 ])    (1)
編碼器例如可以使用一個色彩空間中的BL信號和另一個色彩空間中的EL信號來估計3D LUT參數。最小平方(LS)估計方法可以用於估計最佳3D LUT參數。這些模型參數可以包括3D LUT大小(例如色度分量的分區數量和亮度分量的分區數量)和/或八分體的頂點P0 、 P4 、 P6 、 和P7 處的線性模型參數。在SHVC中,這些LUT參數可以在圖片參數集(PPS)內以位元流被用信號發送,由此該解碼器可以執行相同的色域轉換過程。PPS可以攜帶相對靜態且在圖片之間不頻繁變化的參數。可以使用圖片級PPS更新,允許3D LUT參數在序列級用信號發送且在圖片級被更新。為了降低3D LUT傳訊開銷,針對例如八分體的頂點P0 、P4 、 P6 、和P7 的模型參數可以從其相鄰的八分體來估計。
用於用信號發送3D LUT的模型參數的位元數可以基於3D LUT的大小而發生很大變化。3D LUT越大(例如,3D LUT分區越多),其消耗的位元越多。較大3D LUT可以提供色彩空間更細的分區,例如在第6圖中630所表示的。較大3D LUT的使用可以降低原始EL信號與色彩映射的BL信號之間的失真和/或可以增加EL的編碼效率。
智慧編碼器可以選擇或確定3D LUT大小,考慮了3D LUT的傳訊開銷與3D LUT的失真降低能力之間的折中。例如,速率失真最佳方法可以用於選擇合適的3D LUT大小。在一種實施方式中,可以考慮(例如僅考慮)相對傳訊開銷使用預選臨界值來選擇3D LUT大小。在一種實施方式中,3D LUT大小可以在3D LUT的傳訊成本超出之前編碼圖片的臨界值(例如3%)時減小且在其傳訊成本低於之前編碼圖片的臨界值(例如0.5%)時增加。
在一種實施方式中,如這裡提到的,基於速率失真成本的改進的3D LUT大小選擇方法可以被使用。通過考慮可以滿足最大大小約束的3D LUT大小的速率失真成本,揭露的實施方式可以確定3D LUT大小(以及在實施方式中其相關聯的頂點參數),其實現期望的開銷與(vs.)失真降低折中。當計算3D LUT表的速率失真成本時可以考慮層級(hierarchical)B預測結構。
與八分體的P0 、P4 、 P6 、和P7 相關聯的模型參數可以使用來自左邊的相鄰八分體的頂點值來預測。對於色彩分量X,X可以是Y、U或V,可以計算兩個預測變數(predictor)predXa和predXb。實際模型參數與相關聯的預測變數之間的差值可以被計算並可以在位元流中用信號發送。
在一些實施方式中,第一預測變數predXa可以被計算為具有合適位元移位(bit shift)的八分體座標。當3D LUT的輸入和輸出具有不同位深時可以使用合適的位元移位。例如,當BL信號是8位元且EL信號是10位元時,可以使用位元移位2。可以針對所有八分體的P0 、 P4 、 P6 、和P7 計算第一預測變數。更具體地,針對X是Y、U或V,預測變數predXa可以使用下面示出的等式(2)、(3)和(4)來計算。   predYa[yIdx][uIdx][vIdx][vertex] = (vertex < 3 ) ? (yIdx << yShift) : ((yIdx + 1) << yShift)    (2)   predUa[yIdx][uIdx][vIdx][vertex] = (vertex = = 0) ? (uIdx << cShift) : ((uIdx + 1) << cShift)  (3)   predVa[yIdx][uIdx][vIdx][vertex] = (vertex < 2) ? (vIdx << cShift) : ((vIdx + 1) << cShift)     (4)   在等式(2)、(3)和(4)中,可以在Y、U和V維度中yIdx, uIdx和vIdx可以是索引,其可以用於標識八分體,且等於0、 1、 2、 3的頂點可以分別指示頂點P0 , P4 , P6 和P7
第二預測變數predXb可以被計算為左邊相鄰八分體的模型參數與左邊相鄰八分體的第一預測變數predA之間的差值。更具體地,對於X是Y、U或V,第二預測變數predXb可以如下所示的示例虛擬碼段得出。 if (yIdx > 0) predXb[yIdx][uIdx][vIdx][vertex] = Clip3(     − (1 << (CMOutputBitdepthY/C − 2)),       (1 << (CMOutputBitdepthY/C – 2)), LutX[yIdx − 1][uIdx][vIdx][vertex] − predXa[yIdx − 1][uIdx][vIdx][vertex]) else predXb[yIdx][uIdx][vIdx][vertex] = 0
第一預測變數predXa和第二預測變數predXb可以用於預測當前八分體的模型參數。可以通過從當前八分體的模型參數中減去predXa和predXb來計算預測誤差。預測誤差可以使用cm_res_quant_bits被量化。在解碼器側,八分體的模型參數(可以被表示為LutX [yIdx][uIdx][vIdx][vertex],X是Y、U或V)可以使用以下等式(5)來得到:   LutX[yIdx][uIdx][vIdx][vertex]=(res_x[yIdx][uIdx][vIdx][vertex]<<cm_res_quant_bits) + predXa[yIdx][uIdx][vIdx][vertex] + predXb[yIdx][uIdx][vIdx][vertex]                                                                               (5) 其中對於x由Y、U或V來替換,res_x可以是可以以位元流用信號發送的量化預測誤差。
由於量化預測誤差,使用模型參數預測方法,得到的模型參數LutX[yIdx][uIdx][vIdx][vertex]在最低有效位(LBS)位置的cm_res_quant_bits中可以具有零位元。這可能影響色彩映射過程的精度。如這裡提出的,用於CGS編碼的頂點預測方法可以允許得到的模型參數LutX[yIdx][uIdx][vIdx][vertex]的LSB位置具有非零值且因此改進色彩映射過程的精度。
在實施方式中,對於給定表大小s,可以使用如下等式(6)來計算相關聯的速率失真成本(cost):(6) 其中D(s )可以是初始EL信號與在使用具有應用的大小s 的3D LUT進行的色彩映射之後的映射的BL信號之間的失真,bits s 可以是用於編碼具有大小s 的3D LUT的位元數,以及λ可以是拉格朗日乘數。可以如下使用等式(7)來選擇最佳表大小。(7)
隨著視訊解析度增加,總失真(其可以被計算為圖片中所有圖元的失真總和)可以更顯著波動且可以壓過等式(6)中第二項λbitss ),除非選擇非常大的λ 。這可能導致更頻繁地選擇比期望表尺寸要大的尺寸。另一種結果可以是在圖片間更頻繁改變所選的3D LUT尺寸,這可能導致更頻繁的PPS更新。如這裡所提出的,揭露的基於ILR使用的加權失真計算可以被使用。
第8圖示出了示例層級B預測結構800,其可以用於串流和廣播視訊應用。從隨機存取點(RAP)開始(第8圖中示出為圖片0),可以使用例如結構800的分層B預測結構對圖片進行序外編碼(例如,按不同於顯示順序的順序)。第8圖中顯示的圖片組(GOP)801和802的每一個是大小為8的GOP,每個8個圖片可以被組在一起且可以不按顯示順序被編碼。例如,編碼順序可以應用到GOP 801,由此GOP 801可以包括圖片0、 1、 2、 3、 4、 5、 6、 7和8,之後是GOP 802,其可以包括圖片9、 10、11、 12、 13、 14、 15和16。在GOP 801內,圖片的編碼順序可以是圖片0、圖片8、圖片4、圖片2、圖片1、圖片3、圖片6、圖片5、和圖片7,而在GOP 802內圖片的編碼順序可以是圖片16、圖片12、圖片10、圖片9、圖片11、圖片14、圖片13和圖片15。
第8圖中的箭頭示出用於預測圖片的時間參考圖片。例如,圖片0可以用於預測圖片1、2、3、4、8和16,而圖片4可以用於預測圖片1、2、3、5、6、7和16等。參考圖片與當前圖片之間的時間距離可以依據當前圖片位於預測層級內的哪個位置而不同。例如,對於在預測層級800底部的圖片8和圖片16,這些圖片與它們各自的參考圖片之間的時間距離可以是大的。例如,圖片8的參考圖片可以是圖片0。對於圖片1、3、5、7等的每一個(其在示例性預測層級800的頂部),這些圖片的每一個與它們各自的參考圖片之間的時間距離可以非常小。例如,圖片3可以包括其參考圖片2和4,它們是時間上鄰近的圖片。參考圖片與可以用該參考圖片預測的當前圖片之間的時間距離可以影響該給定參考圖片的使用。在實施方式中,參考圖片離當前圖片越近,該參考圖片越有可能被用於預測該當前圖片。如第8圖中所示,預測層級可以確定時間參考圖片離當前圖片有多遠,且因此可以確定這些時間參考圖片的使用。
第9圖示出了可以擴展到2層可縮放視訊編碼系統的層級B時間預測結構900。層間參考(ILR)圖片可用於當前圖片的預測,例如,如豎直箭頭所示,其將基礎層912中的圖片連接到增強層911中的圖片。例如,基礎層912中的圖片2 GOP 901可以通過豎直箭頭連接到增強層911中的圖片2 GOP 901,其示出基礎層912中的圖片2 GOP 901可用於預測增強層911中的圖片2 GOP 901。層間參考圖片和時間參考圖片可用於預測當前圖片。層間參考圖片的使用可以直接有關於預測層級。例如,對於增強層911中的低時間級圖片,其可以沒有接近其的時間參考圖片(例如,增強層911中的圖片8,結構900的GOP 901),ILR圖片的使用可以較高。針對增強層911中高時間級圖片(例如可以有時間上接近的參考圖片,例如增強層911中的圖片3,結構900的GOP 901),ILR圖片的使用可以較低。基於ILR圖片使用的權重可以被確定並應用到等式(6)的失真項D(s ),由此選擇不同3D LUT模型參數的影響可以被更精確地估計。也就是說,等式(6)中的速率失真成本可以被修改為如等式(8)所示:(8) 其中w 可以是基於ILR圖片使用的加權因數。在實施方式中,依據被編碼的當前圖片的時間級可以應用不同的權重。其中l 可以是當前圖片的時間級,加權因數可以被表示為wl )。在實施方式中,wl )可以針對整個視訊序列是固定的。可替換地,適應性權重wl )可以被保持並基於針對時間級l 的圖片的實際ILR圖片使用而動態更新。
ILR圖片使用可以依據被編碼的視訊內容。在實施方式中,wl )的動態更新可以允許更好的內容適應性。第10圖示出了基於使用加權失真的速率失真最佳選擇最佳尺寸的示例過程1000。在1101,對於時間級l 的當前圖片,可以使用等式9針對LUT尺寸si 計算成本Jsi ):J (si ) =D (si ) *w (l ) +λ *r (si )                     (9)   其中l 可以表示當前圖片的時間級,加權因數可以被表示為wl ),Dsi )可以是失真,λ可以是拉格朗日乘數,以及rsi )可以是用於LUT尺寸si 的編碼位元數。
在1102,可以確定在1101確定的成本Jsi )是否小於最小成本臨界值Jmin J 最小 )。如果是,在1103,最小成本臨界值Jmin 可以被設定為在1101確定的成本Jsi ),且最佳表尺寸sopt s 最佳 )可以被設定為當前表尺寸si 。如果在1101確定的成本大於或等於最小成本臨界值Jmin ,或如果成本Jsi )小於最小成本臨界值Jmin 而執行1103的功能後,則該方法移到1104,其中可以確定一些或所有LUT尺寸是否已經被測試。如果LUT尺寸還沒有被測試,則過程1000返回到1101以執行進一步測試。
如果LUT尺寸已經被測試,在1105,可以應用色彩映射以使用最近確定或設定的3D LUT尺寸來得出ILR圖片。在1106,可以使用確定的資訊來編碼當前圖片,且在1107可以基於ILR使用來更新wl )。
當確定最佳3D LUT尺寸可以使用另外的考慮以改善性能和/或降低編碼器複雜度。在一種實施方式中,ILR使用wl )也可以針對在時間級的圖片或片段類型而被追蹤。例如,加權因數可以被追蹤為wl, t ),其中l 可以是時間級且t 可以是圖片/片段類型(例如,t可以是I_SLICE(I_片段)、P_SLICE(P_片段)、或B_SLICE(B_片段))。由於編碼的EL圖片還可以用於按編碼順序編碼其他後來的EL圖片,因此基於速率失真的3D LUT參數選擇也可以依據在編碼後來EL圖片時當前圖片的影響。例如,對於EL中的非參考圖片,3D LUT的圖片級更新可能由於非參考EL圖片的增加品質(例如由於更精確的色彩映射)而不可用,可能不能利於任意其他圖片。圖片級3D LUT更新可能針對在高於某臨界值的時間級的圖片而不可用。例如,圖片級3D LUT更新可能針對在兩個最高時間級的圖片而不可用。例如,在第9圖中,圖片級3D LUT更新可以不被應用到任意奇數編號的圖片或圖片2、6、10和14。
在HEVC中,在一或每個清除(clear)隨機存取(CRA)圖片之後,可以有按顯示順序且之後按編碼順序的圖片,且其在之前的隨機存取週期中的圖片被丟棄的情況下可以是不可解碼的。這可以例如發生在使用者切換通道時。這些圖片在HEVC中可以稱為隨機存取跳過前導(RASL)圖片。在一種實施方式中,針對RASL圖片,圖片級3D LUT更新可以不可用。
在一種實施方式中,給定最大3D LUT尺寸,可以不考慮小於該最大尺寸的一些或所有3D LUT尺寸。例如,用於編碼每個圖片(例如針對在每個時間級的每個圖片)的位元數和用於編碼3D LUT(例如,針對小於該最大尺寸的每個3D LUT尺寸)的位元數可以被跟蹤。如果給定的3D LUT尺寸被期望生成大於期望用於編碼當前圖片的位元數的某百分比臨界值(例如25%)的傳訊開銷,則該3D LUT尺寸可以從第10圖中的過程1000的速率失真決定中被排除。
再次參考第7圖,八分體的頂點位置可以從P0 到P7 被標記。相鄰八分體之間可以共用一些頂點。例如,當前八分體的頂點位置P0 可以與左邊相鄰八分體的P1 在相同的位置,當前八分體的頂點位置P4 與左邊相鄰八分體的P5 可以在相同位置,等等。例如如第7圖中所示考慮當前八分體的頂點位置P0 。使用左邊相鄰八分體接收的模型參數,可以得出左邊相鄰八分體的頂點位置P1 的參數值。例如,對於色彩分量X,X是Y、U或V,下面的示例虛擬碼段可以用於得出左邊相鄰八分體的P1 的值。下面該段中示出的(yIdx, uIdx, vIdx)可以是要被編碼的當前八分體的索引。 deltaY = octantLengthY deltaU = 0 deltaV = 0 valueXP1 = LutX[yIdx-1][uIdx][vIdx][0] + ((((deltaY * (LutX[yIdx- 1][uIdx][vIdx][3] – LutX[yIdx - 1][uIdx][vIdx][2])) << cShift2Idx) + ((deltaU * (LutX[yIdx-1][uIdx][vIdx][1] − LutX[yIdx – 1][uIdx][vIdx][0])) << yShift2Idx) + ((deltaV * (LutX[yIdx-1][uIdx][vIdx][2] − LutX[yIdx – 1][uIdx][vIdx][1])) << yShift2Idx) + nMappingOffset) >> nMappingShift)
該得出的值valueXP1可以用作用於當前八分體的頂點P0 的預測變數。可以使用該預測變數valueXP1來計算預測誤差。可以使用因數cm_res_quant_bits來量化該預測誤差。在解碼器處,當前八分體的P0 的模型參數可以通過將valueXP1加到去量化的預測誤差來計算,如下面的等式(10)所示: LutX[yIdx][uIdx][vIdx][0]=(res[yIdx][uIdx][vIdx][vertex] << cm_res_quant_bits) + valueXP1 (10)
雖然量化的預測誤差在cm_res_quant_bits LSB位置可以具有零值,但是預測變數valueXP1可能沒有零值。因此,當前八分體的頂點位置P0 的得出的模型參數LutX[yIdx][uIdx][vIdx][0]可以具有改進的精度。
雖然這裡提出的實施方式通過使用當前八分體的頂點P0 作為示例來論述的,但可以以類似方式得出剩餘頂點P4 和P6 的預測變數。對於頂點位置P7 ,外部插值而不是內部插值可以被使用,因為P7 可以不是與左邊相鄰八分體共用的頂點。但是,外部插值可能不會產生好品質預測,因為3D LUT可以是基於內部插值(例如僅基於內部插值)來訓練的。在一種實施方式中,P7 的模型參數的預測可以從當前八分體的頂點P6 來計算。針對UHDTV色彩空間,Y與U之間的相關性可以弱於Y與V之間的相關性。因此,在其相鄰八分體(具有八分體索引(yIdx, uIdx-1, vIdx))中的P7 與P6 之間的亮度分量差值可以被得出。該得出過程可以如下所示在以下的示例虛擬碼段中被執行。
如果uIdx大於0,則valueXP7可以被計算為: valueYP7 = LutY[yIdx][uIdx][vIdx][2] + (LutY[yIdx][uIdx-1][vIdx][3] – LutY[yIdx][uIdx-1][vIdx][2]) valueUP7 = LutU[yIdx][uIdx][vIdx][2] valueVP7 = LutV[yIdx][uIdx][vIdx][2]。
否則,valueXP7可以被計算為: valueYP7 = LutY[yIdx][uIdx][vIdx][2] + (octantLengthY<< (CMOutputBitdepthC- CMInputBitdepthC)) valueUP7 = LutU[yIdx][uIdx][vIdx][2] valueVP7 = LutV[yIdx][uIdx][vIdx][2] .
在一種實施方式中,不是使用左邊相鄰八分體(例如具有八分體索引(yIdx-1, uIdx, vIdx)的八分體)來預測當前八分體的模型參數,而是可以使用其他相鄰八分體。例如,可以使用具有八分體索引(yIdx, uIdx-1, vIdx)、(yIdx, uIdx, vIdx-1)、(yIdx-1, uIdx-1, vIdx)、(yIdx-1, uIdx, vIdx-1)、(yIdx, uIdx-1, vIdx-1)、和/或(yIdx-1, uIdx-1, vIdx-1)的八分體。也可以通過組合來自這些相鄰八分體的一個或多個預測變數來計算預測變數,以進一步改進精度。
在一種實施方式中,可以如這裡該述實施用於3D LUT參數的熵編碼方法。預測殘差值可以被表示為resCoeff。resCoeff可以通過以下方式被編碼:對resCoeff的絕對值的MSB進行指數哥倫布(Exp-Golomb)編碼,對resCoeff的絕對值的剩餘LSB進行7位元固定長度編碼,以及如果resCoeff的絕對值是非零的則給該符號設定一位元標誌。更具體地,下表2是可以在實施方式中使用的語法表,其之後是語義,其中res_coeff_q可以表示MSB,res_coeff_r可以表示LSB,以及res_coeff_s可以表示符號。 2. 編碼語法表
在表2中,res_coeff_q[ yIdx ][ uIdx ][ vIdx ][ i ][ c ]可以指定具有索引[ yIdx ][ uIdx ][ vIdx ][ i ][ c ]的色彩映射係數的殘差的商。當不存在時,res_coeff_q的值可以推定為等於0。
在表2中,res_coeff_r[ yIdx ][ uIdx ][ vIdx ][ i ][ c ]可以指定具有索引[ yIdx ][ uIdx ][ vIdx ][ i ][ c ]的色彩映射係數的殘差的餘數。當不存在時,res_coeff_q的值可以被推定為等於0。
在表2中,res_coeff_s [ yIdx ][ uIdx ][ vIdx ][ pIdx ][ cIdx ]可以指定具有索引[ yIdx ][ uIdx ][ vIdx ][ i ][ c ]的色彩映射係數的殘差的符號。當不存在時,res_coeff_s的值可以被推定為等於0。
為了重構resCoeff的值,res_coeff_q、res_coeff_r、和res_coeff_s可以以被組合在一起。更具體地,下面的解碼過程可以用於重構色彩分量、參數、和八分體的預測殘差。
變數CMResY[yIdx][ uIdx ][ vIdx ][ i ]、CMResU[ yIdx ][ uIdx ][ vIdx ][ i ]、和CMResV[ yIdx ][ uIdx ][ vIdx ][ i ]可以分別使用等式11、12和13得出,如下: CMResY[yIdx][uIdx][vIdx][i]= (1−2 * res_coeff_s[ yIdx ][ uIdx ][ vIdx ][ i ][ 0 ]) * ( ( res_coeff_q[ yIdx ][ uIdx ][ vIdx ][ i ][ 0 ] << 7 ) + res_coeff_r[ yIdx ][ uIdx ][ vIdx ][ i ][ 0 ])                                                                                                                                                                                          (11) CMResU[yIdx][uIdx][vIdx][i]= (1−2 * res_coeff_s[ yIdx ][ uIdx ][ vIdx ][ i ][ 1 ]) * ( ( res_coeff_q [ yIdx ][ uIdx ][ vIdx ][ i ][ 1 ] << 7 ) + res_coeff_r[ yIdx ][ uIdx ][ vIdx ][ i ][ 1 ])                                                                                                                                                                                               (12) CMResV[yIdx][uIdx][vIdx][i]= (1−2 * res_coeff_s[ yIdx ][ uIdx ][ vIdx ][ i ][ 2 ]) * ( ( res_coeff_q[ yIdx ][ uIdx ][ vIdx ][ i ][ 2 ] << 7 ) + res_coeff_r[ yIdx ][ uIdx ][ vIdx ][ i ][ 2 ])                                                                                                                                                                                           (13)
LSB的數量可以固定為7。可替換地,可以使用LSB的不同數量。例如,當固定值為7以將預測殘差resCoeff的量(例如絕對)值分成兩個部分不是所期望的時,可以使用LSB的不同數量。resCoeff的量可以具有兩個部分,整數部分和小數部分,但是這兩個部分的分割點可以不是固定的且可以取決於CGS系統中兩個因數的一個或兩個,這兩個因數是當前3D LUT的cm_res_quant_bits值和可以取決於輸入位深和輸出位深之間的增量的nMappingShift(n映射移位)值。在實施方式中,nMappingShift可以等於10減去outputDepth(輸出深度)與inputDepth(輸入深度)之差。
在一種實施方式中,用於表示resCoeff的量的總位元數可以被表示為N 。resCoeff量的小數部分可以被表示為(nMappingShift-cm_res_quant_bits)位元數且resCoeff量的整數部分可以被表示為剩餘的(N-nMappingShift+cm_res_quant_bits)位元數。
在一種實施方式中,可以是固定長度編碼的LSB的長度可以被適應性選擇。(nMappingShift-cm_res_quant_bits-cm_delta_flc_bits)的值可以用於確定可以是固定長度編碼的LSB的數量,其中cm_delta_flc_bits可以是相對小的整數值,例如0、1、2或3。cm_delta_flc_bits的值可以由編碼器/解碼器預先選擇或可以是固定的。cm_delta_flc_bits的值可以由編碼器適應性選擇且用信號被發送作為使用下面的語法表表3和語義的3D LUT表的部分。為了確定cm_delta_flc_bits,編碼器可以針對cm_delta_flc_bits的被允許值(例如0到3)計數編碼一些或所有模型參數、一些或所有八分體以及一些或所有色彩分量的一些或所有resCoeff值所需的位元數。該編碼器可以選擇最小化編碼所有resCoeff值的總成本的cm_delta_flc_bits值。這種詳盡搜索的複雜度在僅計數位元數時是非常小的,且可以不執行實際編碼。 3. 語法表
在一種實施方式中,cm_res_quant_bits可以指定將被加到頂點殘差值res_y, res_u和res_v的最低有效位的數量。針對每個色彩分量、每個參數和每個八分體的預測殘差的重構可以如這裡該述被修改。可以如下面等式14、15、16和17所示,得出變數CMResY[yIdx][uIdx][vIdx][i], CMResU[yIdx][uIdx][vIdx][i]、和CMResV[yIdx][uIdx][vIdx][i]: nFLCBits = nMappingShift – res_quant_bits – cm_delta_flc_bits              (14)   CMResY[yIdx][uIdx][vIdx][i]=(1− 2 * res_coeff_s[ yIdx ][ uIdx ][ vIdx ][ i ][ 0 ]) * ( ( res_coeff_q[ yIdx ][ uIdx ][ vIdx ][ i ][ 0 ] << nFLCBits ) + res_coeff_r[ yIdx ][ uIdx ][ vIdx ][ i ][ 0 ])                                                                                                                                                                                                (15)   CMResU[yIdx][uIdx][vIdx][i]= (1−2 * res_coeff_s[ yIdx ][ uIdx ][ vIdx ][ i ][ 1 ]) * ( ( res_coeff_q [ yIdx ][ uIdx ][ vIdx ][ i][ 1 ] << nFLCBits ) + res_coeff_r[ yIdx ][ uIdx ][ vIdx ][ i ][ 1 ])                                                                                                                                                                                                                                                      (16)   CMResV[yIdx][ uIdx][vIdx][i]= (1−2* res_coeff_s[ yIdx ][ uIdx ][ vIdx ][ i ][ 2 ]) * ( ( res_coeff_q[ yIdx ][ uIdx ][ vIdx ][ i ][ 2 ] << nFLCBits ) + res_coeff_r[ yIdx ][ uIdx ][ vIdx ][ i ][ 2 ])                                                                                                                                                                                                 (17)
第11A圖是在其中可以實施一個或更多個實施方式的示例通信系統100的圖示。通信系統100可以是向多個使用者提供內容,例如語音、資料、視訊、消息發送、廣播等的多重存取系統。通信系統100可以使多個無線使用者通過系統資源分享(包括無線頻寬)存取這些內容。例如,通信系統100可以使用一種或多種通道存取方法,例如分碼多重存取(CDMA),分時多重存取(TDMA),分頻多重存取(FDMA),正交FDMA(OFDMA),單載波FMDA(SC-FDMA)等。
如第11A圖所示,通信系統100可以包括無線發射/接收單元(WTRU)102a、102b、102c、和/或102d(其通常或整體上被稱為WTRU 102),無線電存取網路(RAN)103/104/105,核心網路106/107/109,公共交換電話網路(PSTN)108、網際網路110和其他網路112。不過應該理解的是,揭露的實施方式考慮到了任何數量的WTRU、基地台、網路和/或網路元件。WTRU 102a、102b、102c、102d的每一個可以是配置為在無線環境中進行操作和/或通信的任何類型的裝置。作為示例,可以將WTRU 102a、102b、102c、102d可以被配置為傳送和/或接收無線信號,並可以包括使用者設備(UE)、基地台、固定或者移動使用者單元、傳呼器、行動電話、個人數位助理(PDA)、智慧型電話、筆記型電腦、上網本、個人電腦、無線感測器、消費電子產品等等。
通信系統100還可以包括基地台114a和基地台114b。基地台114a、114b的每一個都可以是配置為與WTRU 102a、102b、102c、102d中的至少一個有無線介面以便於存取一個或者更多個通信網路,例如核心網路106/107/109、網際網路110和/或網路112的任何裝置類型。作為示例,基地台114a、114b可以是基地台收發台(BTS)、節點B、e節點B、家庭節點B、家庭eNB、網站控制器、存取點(AP)、無線路由器等等。雖然基地台114a、114b的每一個被描述為單獨的元件,但是應該理解的是,基地台114a、114b可以包括任何數量互連的基地台和/或網路元件。
基地台114a可以是RAN 103/104/105的一部分,RAN 103/104/105還可以包括其他基地台和/或網路元件(未示出),例如基地台控制器(BSC)、無線電網路控制器(RNC)、中繼節點等。可以將基地台114a和/或基地台114b配置為在特定地理區域之內傳送和/或接收無線信號,該區域可以被稱為胞元(未示出)。胞元還可以被劃分為胞元扇區。例如,與基地台114a關聯的胞元可以劃分為三個扇區。因此,在一種實施方式中,基地台114a可以包括三個收發器,即每一個用於胞元的一個扇區。在另一種實施方式中,基地台114a可以使用多輸入多輸出(MIMO)技術,因此可以將多個收發器用於胞元的每一個扇區。
基地台114a、114b可以通過空中介面115/116/117與WTRU 102a、102b、102c、102d中的一個或者更多個通信,該空中介面115/116/117可以是任何合適的無線通訊鏈路(例如,射頻(RF)、微波、紅外(IR)、紫外線(UV)、可見光等)。可以使用任何合適的無線電存取技術(RAT)來建立空中介面115/116/117。
更具體地,如上該述,通信系統100可以是多重存取系統,並可以使用一種或者多種通道存取方案,例如CDMA、TDMA、FDMA、OFDMA、SC-FDMA等等。例如,RAN 103/104/105中的基地台114a和WTRU 102a、102b、102c可以使用例如通用移動電信系統(UMTS)陸地無線電存取(UTRA)的無線電技術,其可以使用寬頻CDMA(WCDMA)來建立空中介面115/116/117。WCDMA可以包括例如高速封包存取(HSPA)和/或演進的HSPA(HSPA+)的通信協定。HSPA可以包括高速下行鏈路封包存取(HSDPA)和/或高速上行鏈路封包存取(HSUPA)。
在另一種實施方式中,基地台114a和WTRU 102a、102b、102c可以使用例如演進的UMTS陸地無線電存取(E-UTRA)的無線電技術,其可以使用長期演進(LTE)和/或高級LTE(LTE-A)來建立空中介面115/116/117。
在其他實施方式中,基地台114a和WTRU 102a、102b、102c可以使用例如IEEE802.16(即,全球互通微波存取(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV-DO、暫行標準 2000(IS-2000)、暫行標準95(IS-95)、暫行標準856(IS-856)、全球移動通信系統(GSM)、GSM演進的增強型資料速率(EDGE)、GSM EDGE(GERAN)等等的無線電技術。
第11A圖中的基地台114b可以是無線路由器、家庭節點B、家庭e節點B或者存取點,例如,並且可以使用任何適當的RAT以方便局部區域中的無線連接,例如商業場所、住宅、車輛、校園等等。在一種實施方式中,基地台114b和WTRU 102c、102d可以實施例如IEEE 802.11的無線電技術來建立無線區域網路(WLAN)。在另一種實施方式中,基地台114b和WTRU 102c、102d可以使用例如IEEE 802.15的無線電技術來建立無線個人區域網路(WPAN)。在另一種實施方式中,基地台114b和WTRU 102c、102d可以使用基於蜂巢的RAT(例如,WCDMA,CDMA2000,GSM,LTE,LTE-A等)來建立微微胞元或毫微微胞元。如第11A圖所示,基地台114b可以具有到網際網路110的直接連接。因此,基地台114b可以不需要經由核心網路106/107/109而存取到網際網路110。
RAN 103/104/105可以與核心網路106/107/109通信,該述核心網路106/107/109可以是被配置為向WTRU 102a、102b、102c、102d中的一個或更多個提供語音、資料、應用和/或網際網路協定語音(VoIP)服務等的任何類型的網路。例如,核心網路106/107/109可以提供呼叫控制、計費服務、基於移動位置的服務、預付費呼叫、網際網路連接、視訊分配等和/或執行高級安全功能,例如用戶認證。雖然第11A圖中未示出,應該理解的是,RAN 103/104/105和/或核心網路106/107/109可以與使用和RAN 103/104/105相同的RAT或不同RAT的其他RAN進行直接或間接的通信。例如,除了連接到正在使用E-UTRA無線電技術的RAN 103/104/105之外,核心網路106/107/109還可以與使用GSM無線電技術的另一個RAN(未示出)通信。
核心網路106/107/109還可以充當WTRU 102a、102b、102c、102d存取到PSTN 108、網際網路110和/或其他網路112的閘道。PSTN 108可以包括提供普通老式電話服務(POTS)的電路交換電話網路。網際網路110可以包括使用公共通信協定的互聯電腦網路和裝置的全球系統,該述協定例如有TCP/IP網際網路協定組中的傳輸控制協定(TCP)、使用者資料包通訊協定(UDP)和網際網路協定(IP)。網路112可以包括被其他服務提供者擁有和/或營運的有線或無線的通信網路。例如,網路112可以包括連接到一個或更多個RAN的另一個核心網路,該RAN可以使用和RAN 103/104/105相同的RAT或不同的RAT。
通信系統100中的WTRU 102a、102b、102c、102d的某些或全部可以包括多模式能力,即WTRU 102a、102b、102c、102d可以包括用於在不同無線鏈路上與不同無線網路進行通信的多個收發器。例如,第11A圖中示出的WTRU 102c可被配置為與基地台114a通信,該述基地台114a可以使用基於蜂巢的無線電技術,以及與基地台114b通信,該述基地台114b可以使用IEEE 802無線電技術。
第11B圖是WTRU 102示例的系統圖。如第11B圖所示,WTRU 102可以包括處理器118、收發器120、發射/接收元件122、揚聲器/麥克風124、數字鍵盤126、顯示器/觸控板128、不可移除記憶體130、可移除記憶體132、電源134、全球定位系統(GPS)晶片組136和其他週邊設備138。應該理解的是,WTRU 102可以在保持與實施方式一致時,包括前述元件的任何子組合。而且,實施方式考慮了基地台114a和114b,和/或基地台114a和114b可以表示的節點(諸如但不侷限於收發台(BTS)、節點B、網站控制器、存取點(AP)、家庭節點B、演進型家庭節點B(e節點B)、家庭演進型節點B(HeNB)、家庭演進型節點B閘道和代理節點等)可以包括第11B圖所描繪和這裡描述的一些或所有元件。
處理器118可以是通用處理器、專用處理器、常規處理器、數位訊號處理器(DSP)、多個微處理器、與DSP核相關聯的一個或更多個微處理器、控制器、微控制器、專用積體電路(ASIC)、場可程式設計閘陣列(FPGA)電路、任何其他類型的積體電路(IC)、狀態機等等。處理器118可執行信號編碼、資料處理、功率控制、輸入/輸出處理,和/或使WTRU 102運行於無線環境中的任何其他功能。處理器118可以耦合到收發器120,該述收發器120可耦合到發射/接收元件122。雖然第11B圖描述了處理器118和收發器120是單獨的部件,但是應該理解的是,處理器118和收發器120可以一起整合在電子封裝或晶片中。
發射/接收元件122可以被配置為通過空中介面115/116/117將信號發送到基地台(例如,基地台114a),或從基地台(例如,基地台114a)接收信號。例如,在一種實施方式中,發射/接收元件122可以是被配置為傳送和/或接收RF信號的天線。在另一種實施方式中,發射/接收元件122可以是被配置為傳送和/或接收例如IR、UV或可見光信號的發射器/檢測器。在另一種實施方式中,發射/接收元件122可以被配置為傳送和接收RF和光信號兩者。應當理解,發射/接收元件122可以被配置為傳送和/或接收無線信號的任何組合。
另外,雖然發射/接收元件122在第11B圖中描述為單獨的元件,但是WTRU 102可以包括任意數量的發射/接收元件122。更具體的,WTRU 102可以使用例如MIMO技術。因此,在一種實施方式中,WTRU 102可以包括用於通過空中介面115/116/117傳送和接收無線信號的兩個或更多個發射/接收元件122(例如,多個天線)。
收發器120可以被配置為調變要由發射/接收元件122傳送的信號和/或解調由發射/接收元件122接收的信號。如上面提到的,WTRU 102可以具有多模式能力。因此,收發器120可以包括使WTRU 102經由多個例如UTRA和IEEE 802.11的RAT通信的多個收發器。
WTRU 102的處理器118可以耦合到下述裝置,並且可以從下述裝置中接收使用者輸入資料:揚聲器/麥克風124、數字鍵盤126和/或顯示器/觸控板128(例如,液晶顯示器(LCD)顯示單元或有機發光二極體(OLED)顯示單元)。處理器118還可以輸出使用者資料到揚聲器/麥克風124、數字鍵盤126和/或顯示器/觸控板128。另外,處理器118可以從任何類型的適當的記憶體存取資訊,並且可以儲存資料到任何類型的適當的記憶體中,例如不可移除記憶體130和/或可移除記憶體132。不可移除記憶體130可以包括隨機存取記憶體(RAM)、唯讀記憶體(ROM)、硬碟或任何其他類型的記憶體裝置。可移除記憶體132可以包括使用者身份模組(SIM)卡、記憶棒、安全數位(SD)記憶卡等等。在其他實施方式中,處理器118可以從在實體上沒有位於WTRU 102上,例如位於伺服器或家用電腦(未示出)上的記憶體存取資訊,並且可以將資料儲存在該記憶體中。
處理器118可以從電源134接收電能,並且可以被配置為分配和/或控制到WTRU 102中的其他部件的電能。電源134可以是給WTRU 102供電的任何適當的裝置。例如,電源134可以包括一個或更多個乾電池(例如,鎳鎘(NiCd)、鎳鋅(NiZn)、鎳氫(NiMH)、鋰離子(Li-ion)等等),太陽能電池,燃料電池等等。
處理器118還可以耦合到GPS晶片組136,該述GPS晶片組136可以被配置為提供關於WTRU 102當前位置的位置資訊(例如,經度和緯度)。WTRU 102可以通過空中介面115/116/17從基地台(例如,基地台114a、114b)接收GPS晶片組136資訊的位置資訊和/或基於從兩個或更多個鄰近基地台接收的信號的定時來確定其位置。應當理解,在保持實施方式的一致性的情況下,WTRU 102可以通過任何適當的位置確定方法獲得位置資訊。
處理器118可以耦合到其他週邊設備138,該述週邊設備138可以包括一個或更多個提供附加特性、功能、和/或有線或無線連接的軟體和/或硬體模組。例如,週邊設備138可以包括加速計、電子羅盤、衛星收發器、數位相機(用於照片或視訊)、通用序列匯流排(USB)埠、振動裝置、電視收發器、免持耳機、藍芽(Bluetooth®)模組、調頻(FM)無線電單元、數位音樂播放機、媒體播放機、視訊遊戲機模組、網際網路瀏覽器等等。
第11C圖是根據實施方式的RAN 103和核心網路106的系統圖。如上面提到的,RAN 103可使用UTRA無線電技術通過空中介面115與WTRU 102a、102b、102c通信。RAN 103還可以與核心網路106通信。如第11C圖所示,RAN 103可以包括節點B 140a、140b、140c,節點B 140a、140b、140c的每一個包括一個或更多個用於通過空中介面115與WTRU 102a、102b、102c通信的收發器。節點B 140a、140b、140c的每一個可以與RAN 103內的特定胞元(未示出)關聯。RAN 103還可以包括RNC 142a、142b。應當理解的是,在保持實施方式的一致性的同時,RAN 103可以包括任意數量的節點B和RNC。
如第11C圖所示,節點B 140a、140b可以與RNC 142a通信。此外,節點B 140c可以與RNC 142b通信。節點B 140a、140b、140c可以通過Iub介面分別與RNC 142a、142b通信。RNC 142a、142b可以通過Iur介面相互通信。RNC 142a、142b的每一個可以被配置以控制其連接的各個節點B 140a、140b、140c。另外,RNC 142a、142b的每一個可以被配置以執行或支援其他功能,例如外環功率控制、負載控制、准入控制、封包排程、切換控制、巨集分集、安全功能、資料加密等等。
第11C圖中所示的核心網路106可以包括媒體閘道(MGW)144、移動交換中心(MSC)146、服務GPRS支援節點(SGSN)148、和/或閘道GPRS支持節點(GGSN)150。儘管前述元件的每一個被描述為核心網路106的部分,應當理解的是,這些元件中的任何一個可以被不是核心網路營運商的實體擁有或營運。
RAN 103中的RNC 142a可以通過IuCS介面連接至核心網路106中的MSC 146。MSC 146可以連接至MGW 144。MSC 146和MGW 144可以向WTRU 102a、102b、102c提供到電路切換式網路(例如PSTN 108)的存取,以便於WTRU 102a、102b、102c和傳統陸地線路通信裝置之間的通信。
RAN 103中RNC 142a還可以通過IuPS介面連接至核心網路106中的SGSN 148。SGSN 148可以連接至GGSN 150。SGSN 148和GGSN 150可以向WTRU 102a、102b、102c提供到封包交換網路(例如網際網路110)的存取,以便於WTRU 102a、102b、102c和IP賦能裝置之間的通信。
如上該述,核心網路106還可以連接至網路112,網路112可以包括由其他服務提供者擁有或營運的其他有線或無線網路。
第11D圖是根據實施方式的RAN 104和核心網路107的系統圖示。如上面提到的,RAN 104可使用E-UTRA無線電技術通過空中介面116與WTRU 102a、102b、102c通信。RAN 104還可以與核心網路107通信。
RAN 104可包括e節點B 160a、160b、160c,但可以理解的是,RAN 104可以包括任意數量的e節點B而保持與各種實施方式的一致性。eNB 160a、160b、160c的每一個可包括一個或更多個用於通過空中介面116與WTRU 102a、102b、102c通信的收發器。在一種實施方式中,e節點B 160a、160b、160c可以使用MIMO技術。因此,e節點B 160a例如可以使用多個天線來向WTRU 102a發送無線信號和/或從其接收無線信號。
e節點B 160a、160b、160c的每一個可以與特定胞元關聯(未示出),並可以被配置為處理無線資源管理決策、切換決策、在上行鏈路和/或下行鏈路中的用戶排程等等。如第11D圖所示,e節點B 160a、160b、160c可以通過X2介面相互通信。 【00100】    第11D圖中所示的核心網路107可以包括移動性管理實體(MME)162、服務閘道164、和/或封包資料網路(PDN)閘道166。雖然前述單元的每一個被描述為核心網路107的一部分,應當理解的是,這些單元中的任意一個可以由除了核心網路營運商之外的實體擁有和/或營運。 【00101】    MME 162可以經由S1介面連接到RAN 104中的e節點B 160a、160b、160c的每一個,並可以作為控制節點。例如,MME 162可以負責WTRU 102a、102b、102c的用戶認證、承載啟動/去啟動、在WTRU 102a、102b、102c的初始附著期間選擇特定服務閘道等等。MME 162還可以提供控制平面功能,用於在RAN 104和使用例如GSM或者WCDMA的其他無線電技術的其他RAN(未示出)之間切換。 【00102】    服務閘道164可以經由S1介面連接到RAN 104中的e節點160a、160b、160c的每一個。服務閘道164通常可以向/從WTRU 102a、102b、102c路由和轉發使用者資料封包。服務閘道164還可以執行其他功能,例如在eNB間切換期間錨定用戶平面、當下行鏈路資料對於WTRU 102a、102b、102c可用時觸發傳呼、管理和儲存WTRU 102a、102b、102c的上下文(context)等等。 【00103】    服務閘道164還可以連接到PDN閘道166,PDN閘道166可以向WTRU 102a、102b、102c提供到封包交換網路(例如網際網路110)的存取,以便於WTRU 102a、102b、102c與IP賦能裝置之間的通信。 【00104】    核心網路107可以促成與其他網路的通信。例如,核心網路107可以向WTRU 102a、102b、102c提供到電路切換式網路(例如PSTN 108)的存取,以便於WTRU 102a、102b、102c與傳統陸地線路通信裝置之間的通信。例如,核心網路107可以包括IP閘道(例如IP多媒體子系統(IMS)伺服器),或者與之通信,該IP閘道作為核心網路107與PSTN 108之間的介面。另外,核心網路107可以向WTRU 102a、102b、102c提供到網路112的存取,該網路112可以包括被其他服務提供者擁有和/或營運的其他有線或無線網路。 【00105】    第11E圖是根據實施方式的RAN 105和核心網路109的系統圖示。RAN 105可以是使用IEEE 802.16無線電技術通過空中介面117與WTRU 102a、102b、102c進行通信的存取服務網路(ASN)。如下面進一步討論的,WTRU 102a、102b、102c,RAN 105和核心網路109的不同功能實體之間的通信鏈路可以被定義為參考點。 【00106】    如第11E圖所示,RAN 105可以包括基地台180a、180b、180c和ASN閘道182,但應當理解的是,RAN 105可以包括任意數量的基地台和ASN閘道而與實施方式保持一致。基地台180a、180b、180c的每一個可以與RAN 105中特定胞元(未示出)關聯並可以包括一個或更多個通過空中介面117與WTRU 102a、102b、102c通信的收發器。在一個實施方式中,基地台180a、180b、180c可以使用MIMO技術。因此,基地台180a例如使用多個天線來向WTRU 102a發送無線信號,或從其接收無線信號。基地台180a、180b、180c可以提供移動性管理功能,例如呼叫交遞(handoff)觸發、隧道建立、無線電資源管理,訊務分類、服務品質(QoS)策略執行等等。ASN閘道182可以充當訊務聚集點,並且負責傳呼、快取用戶簡檔、路由到核心網路109等等。 【00107】    WTRU 102a、102b、102c和RAN 105之間的空中介面117可以被定義為使用IEEE 802.16規範的R1參考點。另外,WTRU 102a、102b、102c的每一個可以與核心網路109建立邏輯介面(未示出)。WTRU 102a、102b、102c和核心網路 109之間的邏輯介面可以定義為R2參考點,其可以用於認證、授權、IP主機(host)配置管理和/或移動性管理。 【00108】    基地台180a、180b、180c的每一個之間的通信鏈路可以定義為包括便於WTRU切換和基地台間轉移資料的協定的R8參考點。基地台180a、180b、180c和ASN閘道182之間的通信鏈路可以定義為R6參考點。R6參考點可以包括用於促進基於與WTRU 102a、102b、102c的每一個關聯的移動性事件的移動性管理的協定。 【00109】    如第11E圖所示,RAN 105可以連接至核心網路109。RAN 105和核心網路109之間的通信鏈路可以定義為包括例如便於資料轉移和移動性管理能力的協定的R3參考點。核心網路109可以包括移動IP本地代理(MIP-HA)184,認證、授權、計費(AAA)伺服器186、和閘道188。儘管前述的每個元件被描述為核心網路109的部分,應當理解的是,這些元件中的任意一個可以由不是核心網路營運商的實體擁有或營運。 【00110】    MIP-HA可以負責IP位址管理,並可以使WTRU 102a、102b、102c在不同ASN和/或不同核心網路之間漫遊。MIP-HA 184可以向WTRU 102a、102b、102c提供封包交換網路(例如網際網路110)的存取,以促進WTRU 102a、102b、102c和IP賦能裝置之間的通信。AAA伺服器186可以負責使用者認證和支援使用者服務。閘道188可促進與其他網路交互工作。例如,閘道188可以向WTRU 102a、102b、102c提供電路切換式網路(例如PSTN 108)的存取,以促進WTRU 102a、102b、102c和傳統陸地線路通信裝置之間的通信。此外,閘道188可以向WTRU 102a、102b、102c提供網路112之存取,其可以包括由其他服務提供者擁有或營運的其他有線或無線網路。 【00111】    儘管未在第11E圖中示出,應當理解的是,RAN 105可以連接至其他ASN,並且核心網路109可以連接至其他核心網路。RAN 105和其他ASN之間的通信鏈路可以定義為R4參考點,其可以包括協調RAN 105和其他ASN之間的WTRU 102a、102b、102c的移動性的協定。核心網路109和其他核心網路之間的通信鏈路可以定義為R5參考點,其可以包括促進本地核心網路和被訪問核心網路之間的互通的協定。 【00112】    雖然上面以特定的組合描述了特徵和元件,但是本領域普通技術人員可以理解,每個特徵或元件可以單獨的使用或與其他的特徵和元件進行組合使用。此外,這裡描述的方法可以用電腦程式、軟體或韌體實現,其可包含到由電腦或處理器執行的電腦可讀媒體中。電腦可讀媒體的示例包括電子信號(通過有線或無線連接傳送)和電腦可讀儲存媒體。電腦可讀儲存媒體的示例包括,但不限制為,唯讀記憶體(ROM)、隨機存取記憶體(RAM)、暫存器、快取記憶體、半導體記憶裝置、磁性媒體(例如內部硬碟和抽取式磁碟)、磁光媒體和光媒體(例如CD-ROM碟片和數位多功能碟片(DVD))。與軟體關聯的處理器可用於實現在WTRU、UE、終端、基地台、RNC或任何主機電腦中使用的射頻收發器。
1001‧‧‧層1編碼器
1002、1003‧‧‧注意編碼器
1021‧‧‧層1解碼器
1022‧‧‧層2解碼器
1023‧‧‧層N解碼器
1031‧‧‧下採樣(down-sample)
1041、1042、1044‧‧‧上採樣
1055‧‧‧信號添加
1064、1065‧‧‧量化器設定
1066‧‧‧量化器設定Q
1071‧‧‧層1
1072‧‧‧層2
1081‧‧‧輸入視訊訊號
1091、1093‧‧‧重構的視訊訊號
210‧‧‧解多工器
221‧‧‧HEVC解碼器
222、522‧‧‧增強層解碼圖片緩衝器(EL DPB)
231‧‧‧基礎層解碼器
232、532‧‧‧基礎層解碼圖片緩衝器(BL DPB)
240、550‧‧‧SHVC位元流
241‧‧‧增強層(EL)流
242‧‧‧基礎層(BL)流
250‧‧‧層間處理
252‧‧‧基礎層視訊輸出
520‧‧‧示例性層間(IL)處理模組
521‧‧‧EL編碼器
531‧‧‧BL編碼器
540‧‧‧多工器
541‧‧‧增強層(EL)視訊
542‧‧‧基礎層(BL)視訊
553‧‧‧色彩映射資訊
600‧‧‧3D LUT映射
610‧‧‧3D LUT
620‧‧‧2x2x2個八分體
700‧‧‧立方體
800、900‧‧‧層級B預測結構
801、802‧‧‧圖片組(GOP)
901‧‧‧圖片2 GOP
911‧‧‧增強層
912‧‧‧基礎層
100‧‧‧通信系統
102、102a、102b、102c、102d‧‧‧無線發射/接收單元(WTRU)
103、104、105‧‧‧無線電存取網路(RAN)
106、107、109‧‧‧核心網路
108‧‧‧公共交換電話網路(PSTN)
110‧‧‧網際網路
112‧‧‧其他網路
114a、114b、180a、180b、180c‧‧‧基地台
110‧‧‧網際網路
115、116、117‧‧‧空中介面
118‧‧‧處理器
120‧‧‧收發器
122‧‧‧發射/接收元件
124‧‧‧揚聲器/麥克風
126‧‧‧數字鍵盤
128‧‧‧顯示器/觸控板
130‧‧‧不可移除記憶體
132‧‧‧可移除記憶體
134‧‧‧電源
136‧‧‧全球定位系統(GPS)晶片組
138‧‧‧其他週邊設備
160a、160b、160c‧‧‧e節點B
162‧‧‧移動性管理實體(MME)
164‧‧‧服務閘道
166‧‧‧封包資料網路(PDN)閘道
182‧‧‧存取服務網路(ASN)閘道
184‧‧‧移動IP本地代理(MIP-HA)
186‧‧‧認證、授權、計費(AAA)伺服器
188‧‧‧閘道
第1圖示出了用於實施揭露的實施方式的示例系統; 第2圖示出了用於實施揭露的實施方式的示例系統; 第3圖示出了在CIE色彩定義中比較HDTV和UHDTV的示例圖; 第4A圖示出了示例圖像; 第4B圖示出了另一示例圖像; 第5圖示出了用於實施揭露的實施方式的示例系統; 第6圖示出了根據實施方式的示例基於3D LUT的映射; 第7圖示出了根據實施方式的示例基於3D LUT的映射; 第8圖示出了根據實施方式的示例預測結構; 第9圖示出了根據實施方式的另一示例預測結構; 第10圖示出了實施揭露的實施方式的示例方法; 第11A圖示出了可以實施揭露的主題的示例通信系統的系統圖; 第11B圖是可以在第11A圖示出的通信系統中使用的示例無線發射/接收單元(WTRU)的系統圖; 第11C圖是可以在第11A圖示出的通信系統中使用的示例無線電存取網路和示例核心網路的系統圖; 第11D圖是可以在第11A圖示出的通信系統中使用的另一示例無線電存取網路和示例核心網路的系統圖; 第11E圖是可以在第11A圖示出的通信系統中使用的另一示例無線電存取網路和示例核心網路的系統圖。
520‧‧‧示例性層間(IL)處理模組
521‧‧‧EL編碼器
522‧‧‧EL DPB
531‧‧‧BL編碼器
532‧‧‧BL DPB
540‧‧‧多工器
541‧‧‧增強層(EL)視訊
542‧‧‧基礎層(BL)視訊
553‧‧‧色彩映射資訊
550‧‧‧SHVC位元流

Claims (22)

  1. 一種在視訊解碼中使用的用於解碼3維查閱資料表參數的方法,該方法包括: 在一視訊解碼器處接收一增量值、一預測殘差值的最高有效位、以及該預測殘差值的最低有效位; 在該述視訊解碼器處通過以下方式生成該預測殘差值: 基於該述增量值確定表示固定長度編碼的最低有效位元的一量的一第一值; 基於該述第一值確定該述預測殘差值的該述最低有效位;以及 使用該述預測殘差值的該述最高有效位和該述預測殘差值的該述最低有效位元來組合該述預測殘差值。
  2. 如申請專利範圍第1項該述的方法,其中該述預測殘差值與一Y色彩分量、一U色彩分量、或一V色彩分量中的一者相關聯。
  3. 如申請專利範圍第1項該述的方法,該方法還包括: 接收該述預測殘差值的一符號;以及 還使用該述預測殘差值的該述符號來組合該述預測殘差值。
  4. 如申請專利範圍第1項該述之方法,其中該再循環氣體流GC 之該壓力P4 為大約100bar(10MPa)至大約500bar(50MPa)。如申請專利範圍第3項該述的方法,其中組合該述預測殘差值還包括: 將該述預測殘差值的該述最高有效位左位元移位該述第一值; 將該述預測殘差值的該述最低有效位加到該述預測殘差值;以及 將該述預測殘差值的該述符號應用到該述預測殘差值。
  5. 如申請專利範圍第1項該述的方法,其中該述預測殘差值與一色彩分量、一3維查閱資料表參數、和一3維查閱資料表八分體中的至少一者相關聯。
  6. 一種無線發射/接收單元(WTRU),該WTRU包括: 一處理器,被配置成: 接收一增量值、一預測殘差值的最高有效位、以及該預測殘差值的最低有效位; 基於該述增量值確定表示固定長度編碼的最低有效位元的一量的一第一值; 基於該第一值確定該述預測殘差值的該述最低有效位;以及 使用該述預測殘差值的該述最高有效位和該述預測殘差值的該述最低有效位元來組合該述預測殘差值。
  7. 如申請專利範圍第6項該述的WTRU,其中該述預測殘差值與一Y色彩分量、一U色彩分量、或一V色彩分量中的一者相關聯。
  8. 如申請專利範圍第6項該述的WTRU,其中該述處理器還被配置成: 接收該述預測殘差值的一符號;以及 還使用該述預測殘差值的該述符號來組合該述預測殘差值。
  9. 如申請專利範圍第8項該述的WTRU,其中該述處理器還被配置成: 將該述預測殘差值的該述最高有效位左位元移位該述第一值; 將該述預測殘差值的該述最低有效位加到該述預測殘差值;以及 將該述預測殘差值的該述符號應用到該述預測殘差值。
  10. 如申請專利範圍第6項該述的WTRU,其中該述預測殘差值與一色彩分量、一3維查閱資料表參數、和一3維查閱資料表八分體中的至少一者相關聯。
  11. 一種在視訊編碼中使用的用於編碼3維查閱資料表參數的方法,該方法包括: 在一視訊轉碼器處確定一預測殘差值; 在該述視訊轉碼器處基於該預測殘差值的最低有效位的一量來確定一增量值; 在該述視訊轉碼器處對該述增量值進行編碼; 在該述視訊轉碼器處基於該述增量值對該述預測殘差值的最高有效位元進行編碼; 在該述視訊轉碼器處基於該述增量值對該述預測殘差值的該述最低有效位元進行編碼。
  12. 如申請專利範圍第11項該述的方法,其中確定該述增量值包括: 確定3維查閱資料表資料;以及 基於該述3維查閱資料表資料確定該述增量值。
  13. 如申請專利範圍第12項該述的方法,其中確定該述增量值還包括: 基於一第一增量值確定編碼該述3維查閱資料表資料所需的一第一位元量; 基於第二增量值確定編碼該述3維查閱資料表資料所需的一第二位元量;以及 基於該述第一位元量和該述第二位元量選擇該述第一增量值和該述第二增量值中的一者作為該述增量值。
  14. 如申請專利範圍第13項該述的方法,其中選擇該述第一增量值和該述第二增量值中的一者作為該述增量值包括: 如果該述第一位元量小於該述第二位元量,則選擇該述第一增量值作為該述增量值;以及 如果該述第二位元量小於該述第一位元量,則選擇該述第二增量值作為該述增量值。
  15. 如申請專利範圍第13項該述的方法,其中確定該述第一位元量和確定該述第二位元量中的至少一者包括對編碼用於3維查閱資料表的一個八分體的模型參數所需的一位元量進行求和。
  16. 如申請專利範圍第11項該述的方法,該方法還包括對該述預測殘差值的一符號進行編碼。
  17. 一種無線發射/接收單元(WTRU),該WTRU包括: 一發射機,被配置成傳送一編碼的預測殘差值;以及 一處理器,被配置成: 確定一預測殘差值; 基於該預測殘差值的最低有效位的一量來確定一增量值; 對該述增量值進行編碼; 基於該述增量值對該述預測殘差值的最高有效位元進行編碼;以及 基於該述增量值對該述預測殘差值的該述最低有效位元進行編碼。
  18. 如申請專利範圍第17項該述的WTRU,其中該述處理器還被配置成: 確定3維查閱資料表資料;以及 基於該述3維查閱資料表資料確定該述增量值。
  19. 如申請專利範圍第18項該述的WTRU,其中該述處理器被配置成確定該述增量值還包括該述處理器還被配置成: 基於一第一增量值確定編碼該述3維查閱資料表資料所需的一第一位元量; 基於一第二增量值確定編碼該述3維查閱資料表資料所需的一第二位元量;以及 基於該述第一位元量和該述第二位元量選擇該述第一增量值和該述第二增量值中的一者作為該述增量值。
  20. 如申請專利範圍第19項該述的WTRU,其中該述處理器被配置成選擇該述第一增量值和該述第二增量值中的一者作為該述增量值包括該述處理器被配置成: 如果該述第一位元量小於該述第二位元量,則選擇該述第一增量值作為該述增量值;以及 如果該述第二位元量小於該述第一位元量,則選擇該述第二增量值作為該述增量值。
  21. 如申請專利範圍第19項該述的WTRU,其中該述處理器被配置成確定該述第一位元量和該述處理器被配置成確定該述第二位元量中的至少一者包括該述處理器被配置成對編碼用於3維查閱資料表的至少一個八分體中的每一個八分體的模型參數所需的一位元量進行求和。
  22. 如申請專利範圍第17項該述的WTRU,其中該述處理器還被配置成對該述預測殘差值的一符號進行編碼。
TW104119533A 2014-06-19 2015-06-17 在3維基礎彩色映射中模型參數最佳化系統及方法 TWI689196B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462014610P 2014-06-19 2014-06-19
US62/014,610 2014-06-19
US201462017743P 2014-06-26 2014-06-26
US62/017,743 2014-06-26

Publications (2)

Publication Number Publication Date
TW201620304A true TW201620304A (zh) 2016-06-01
TWI689196B TWI689196B (zh) 2020-03-21

Family

ID=53496976

Family Applications (1)

Application Number Title Priority Date Filing Date
TW104119533A TWI689196B (zh) 2014-06-19 2015-06-17 在3維基礎彩色映射中模型參數最佳化系統及方法

Country Status (9)

Country Link
US (2) US10154286B2 (zh)
EP (1) EP3158742A1 (zh)
JP (2) JP6401309B2 (zh)
KR (2) KR101884408B1 (zh)
CN (2) CN110913217B (zh)
BR (1) BR112016029843A8 (zh)
RU (1) RU2017101574A (zh)
TW (1) TWI689196B (zh)
WO (1) WO2015195849A1 (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9530226B2 (en) * 2014-02-18 2016-12-27 Par Technology Corporation Systems and methods for optimizing N dimensional volume data for transmission
US9893831B2 (en) * 2015-07-31 2018-02-13 Hughes Network Systems, Llc Congestion control for Scrambled Coded Multiple Access (SCMA)
US10368107B2 (en) * 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
JP6769231B2 (ja) * 2016-10-17 2020-10-14 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
GB2574575A (en) * 2018-04-27 2019-12-18 V Nova Int Ltd Video decoder chipset
KR20240005239A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut와 amvp 사이의 상호작용
JP7460617B2 (ja) 2018-06-29 2024-04-02 北京字節跳動網絡技術有限公司 Lut更新条件
KR102646649B1 (ko) 2018-06-29 2024-03-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
KR20240007299A (ko) 2018-06-29 2024-01-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 룩업 테이블의 업데이트: fifo, 제약된 fifo
JP7137008B2 (ja) 2018-06-29 2022-09-13 北京字節跳動網絡技術有限公司 1つまたは複数のルックアップテーブルを使用して、以前コーディングされた動き情報を順に記憶させてそれらを後続のブロックのコーディングに使用する概念
KR102611261B1 (ko) 2018-06-29 2023-12-08 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 업데이트 대상 lut 또는 비업데이트 lut의 구별
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
WO2020008350A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
EP3861738A4 (en) * 2018-11-06 2022-01-26 Beijing Bytedance Network Technology Co., Ltd. POSITION-BASED INTRA PREDICTION
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
AU2019391197B2 (en) 2018-12-07 2023-05-25 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
KR20210113188A (ko) * 2018-12-21 2021-09-15 브이아이디 스케일, 인크. 템플릿 기반 비디오 코딩을 위한 개선된 선형 모델 추정에 관한 방법들, 아키텍처들, 장치들 및 시스템들
WO2020143741A1 (en) 2019-01-10 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Invoke of lut updating
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
BR112021014853A2 (pt) 2019-02-22 2021-10-05 Beijing Bytedance Network Technology Co., Ltd. Método e aparelho para processar e codificar dados de vídeo, e, mídias de armazenamento e registro legíveis por computador não transitórias
AU2020226566A1 (en) 2019-02-24 2021-08-19 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN117880494A (zh) 2019-03-24 2024-04-12 北京字节跳动网络技术有限公司 用于帧内预测的参数推导的条件
CN113826382B (zh) * 2019-05-16 2023-06-20 北京字节跳动网络技术有限公司 视频编解码中的自适应比特深度转换
WO2020253864A1 (en) 2019-06-21 2020-12-24 Beijing Bytedance Network Technology Co., Ltd. Selective enablement of adaptive in-loop color-space transform in video coding
WO2021088951A1 (en) 2019-11-07 2021-05-14 Beijing Bytedance Network Technology Co., Ltd. Quantization properties of adaptive in-loop color-space transform for video coding
WO2021118556A1 (en) 2019-12-11 2021-06-17 Google Llc Color calibration of display modules using a reduced number of display characteristic measurements
BR112022019770A2 (pt) * 2020-03-30 2022-11-16 Bytedance Inc Método de processamento de vídeo, aparelho para processar dados de vídeo, meios de armazenamento e de gravação não transitórios legíveis por computador
US11726941B2 (en) 2021-08-03 2023-08-15 Vertiv It Systems, Inc. System and method for modular management gateway apparatus
WO2023014390A1 (en) * 2021-08-03 2023-02-09 Vertiv It Systems, Inc. System and method for modular management gateway apparatus
KR102617175B1 (ko) * 2022-08-04 2023-12-27 주식회사 라온텍 화면 왜곡 보정이 가능한 디스플레이 장치 및 그의 화면 왜곡 보정 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69942078D1 (de) * 1998-07-24 2010-04-15 Canon Kk Bildverarbeitungsvorrichtung und -verfahren
EP1331824A3 (en) * 2001-11-27 2005-09-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of coordinate interpolator
JP2004120217A (ja) 2002-08-30 2004-04-15 Canon Inc 画像処理装置、画像処理方法、プログラムおよび記録媒体
KR100970621B1 (ko) 2003-05-26 2010-07-15 엘지전자 주식회사 영상 보정 장치
JP4067532B2 (ja) 2004-05-28 2008-03-26 シャープ株式会社 色変換装置、画像形成装置、色変換方法、コンピュータプログラム及び記録媒体
JP4479683B2 (ja) 2006-03-16 2010-06-09 セイコーエプソン株式会社 色補正回路およびそれを備えた画像表示装置
US20070223823A1 (en) * 2006-03-21 2007-09-27 Nokia Corporation Method, apparatus, system and computer program product for providing compression of image files
TW200845723A (en) * 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
CN101663896A (zh) * 2007-04-23 2010-03-03 汤姆森许可贸易公司 用于对视频数据进行编码的方法和设备、用于对编码的视频数据和编码的视频信号进行解码的方法和设备
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
US8275208B2 (en) 2008-07-02 2012-09-25 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image using image separation based on bit location
KR20120114812A (ko) 2011-04-08 2012-10-17 삼성디스플레이 주식회사 액정 표시 장치, 액정 표시 장치를 위한 영상 신호 보정 장치 및 영상 신호 보정 방법
JP2013009272A (ja) * 2011-06-27 2013-01-10 Toshiba Corp 画像符号化装置、方法及びプログラム、並びに、画像復号化装置、方法及びプログラム
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
TWI575933B (zh) * 2011-11-04 2017-03-21 杜比實驗室特許公司 階層式視覺動態範圍編碼中之層分解技術
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
TWI578758B (zh) 2012-01-31 2017-04-11 Vid衡器股份有限公司 視訊資料解碼的裝置及方法
US20160050426A1 (en) 2013-01-04 2016-02-18 Samsung Electronics Co., Ltd. Lossless-coding-mode video encoding method and device, and decoding method and device
CN105230019B (zh) * 2013-04-08 2019-04-09 杜比国际公司 对lut进行编码的方法和进行解码的方法以及对应的设备
GB2516021A (en) * 2013-07-05 2015-01-14 Canon Kk Method, device, and computer program for pre-encoding and post-decoding high bit-depth content in video encoder and decoder
US9648332B2 (en) * 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction

Also Published As

Publication number Publication date
KR20170021845A (ko) 2017-02-28
US10841615B2 (en) 2020-11-17
US20190052904A1 (en) 2019-02-14
KR101884408B1 (ko) 2018-08-02
CN110913217B (zh) 2022-01-25
BR112016029843A2 (pt) 2017-08-22
KR20180088515A (ko) 2018-08-03
US10154286B2 (en) 2018-12-11
WO2015195849A1 (en) 2015-12-23
JP6401309B2 (ja) 2018-10-10
TWI689196B (zh) 2020-03-21
CN106664410A (zh) 2017-05-10
JP2019013029A (ja) 2019-01-24
EP3158742A1 (en) 2017-04-26
JP6694031B2 (ja) 2020-05-13
BR112016029843A8 (pt) 2021-07-06
US20150373372A1 (en) 2015-12-24
CN106664410B (zh) 2019-12-03
CN110913217A (zh) 2020-03-24
RU2017101574A (ru) 2018-07-19
RU2017101574A3 (zh) 2018-07-19
JP2017527153A (ja) 2017-09-14
KR102284995B1 (ko) 2021-08-04

Similar Documents

Publication Publication Date Title
US10841615B2 (en) Systems and methods for model parameter optimization in three dimensional based color mapping
JP7448572B2 (ja) マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
JP6701310B2 (ja) 3dルックアップテーブル符号化に色域スケーラビリティを提供するシステムおよび方法
CN108141507B (zh) 利用查找表进行颜色校正
TWI616087B (zh) 可縮放高效率視訊編碼(hevc)參考圖集(rps)傳訊
KR102118524B1 (ko) 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화
TW201637448A (zh) 非4:4:4螢幕內容視訊調色盤編碼
TW201637445A (zh) 調色編碼模式逃逸色彩編碼
TW201532031A (zh) 色空間轉換