TWI660621B - 視訊解碼及編碼方法 - Google Patents

視訊解碼及編碼方法 Download PDF

Info

Publication number
TWI660621B
TWI660621B TW103145266A TW103145266A TWI660621B TW I660621 B TWI660621 B TW I660621B TW 103145266 A TW103145266 A TW 103145266A TW 103145266 A TW103145266 A TW 103145266A TW I660621 B TWI660621 B TW I660621B
Authority
TW
Taiwan
Prior art keywords
phase
video
layer
picture
parameter
Prior art date
Application number
TW103145266A
Other languages
English (en)
Other versions
TW201537953A (zh
Inventor
葉言
永 何
何玉文
拉爾夫 内夫
Original Assignee
美商Vid衡器股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 美商Vid衡器股份有限公司 filed Critical 美商Vid衡器股份有限公司
Publication of TW201537953A publication Critical patent/TW201537953A/zh
Application granted granted Critical
Publication of TWI660621B publication Critical patent/TWI660621B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

揭露了用於視訊編碼/解碼的方法、裝置和系統。一種代表性方法包括解碼器接收包括至少基層(BL)、增強層(EL)和相位資訊的視訊內容。該相位資訊包括表明多個相位參數集合中的一個或多個相位參數集合的指示符。該方法更包括基於視訊內容和接收的相位資訊將BL組合成層間參考(ILR)畫面、選擇ILR畫面或EL參考畫面中的一者或兩者、以及使用相位資訊和所選ILR畫面或所選EL參考畫面中的一者或兩者來預測目前EL畫面。

Description

視訊解碼及編碼方法 相關申請案
本申請案要求2014年1月2日申請的美國臨時專利申請案No.61/923,110和2014年2月12日申請的美國臨時專利申請案No.61/939,217的優先權,其內容完全以引用的方式結合於此。
本申請案與視訊編碼有關,尤其與混合的交錯和連續內容的可調視訊編碼的系統、裝置和方法有關。
過去的二十多年,已經發展了各種數位視訊壓縮技術並對其標準化來實現有效的數位視訊通信、分配和使用。大多數商業上廣泛使用的標準由ISO/IEC和IUT-T開發,例如H.261、MPEG-1、MPEG-2、H.263、MPEG-4第2部分以及H.264/MPEG-4第10部分AVC。最近,稱為高效視訊編碼(HEVC)或H.265的視訊編碼標準由ITU-T視訊編碼專家組(VCEG)和ISO/IEC移動圖像專家組(MPEG)共同開發。
第1A圖是可以執行及/或實施一個或多個實施方式的示例視訊編碼和解碼系統100的方塊圖。該系統100可以包括源裝置112,其可以經由通信頻道116傳送被編碼的視訊資訊到目的地裝置114。 源裝置112及/或目的地裝置114可以是任何寬範圍裝置。在一些代表性實施方式中,源裝置112及/或目的地裝置114可以包括無線傳輸及/或接收單元(WTRU),例如無線手持裝置或能夠經由通信頻道116傳遞視訊資訊的任何無線裝置,在該情況中,通信頻道116包括無線鏈路。但是本文揭露的或顯式、隱式及/或內在提供(統稱為“提供”)的方法、裝置和系統不必限於無線應用或設定。例如,這些技術可以應用於空中電視廣播、有線電視傳輸、衛星電視傳輸、網際網路視訊傳輸、編碼到儲存媒體的被編碼數位視訊及/或其他情形。通信頻道116可以包括及/或可以是適用於被編碼視訊資料傳輸的無線或有線媒體的任一組合。 源裝置112可以包括視訊編碼器單元118、傳輸及/或接收(Tx/Rx)單元120及/或Tx/Rx元件122。如圖所示,源裝置112可以包括視訊源124。目的地裝置114可以包括Tx/Rx元件126、Tx/Rx單元128及/或視訊解碼器單元130。如圖所示,目的地裝置114可以包括顯示裝置132。Tx/Rx單元120、128中的每個可以是或可以包括傳輸器、接收器或傳輸器和接收器的組合(例如,收發器或傳輸器-接收器)。Tx/Rx元件122、126的每個可以例如是天線。根據本揭露內容,源裝置112的視訊編碼器單元118及/或目的地裝置114的視訊解碼器單元130可以被配置為及/或適用於(統稱為“適用於”)應用這裡提供的編碼技術。 源裝置112和目的地裝置114可以包括其他元件/組件或配置。例如,源裝置112可以適用於從外部視訊源接收視訊資料。目的地裝置114可以與外部顯示裝置(未示出)介接及/或可以包括及/或使用(例如,集成的)顯示裝置132。在一些實施方式中,視訊編碼器單元118產生的資料流可以被傳輸到其他裝置而不用將該資料調變成載波信號,例如藉由直接數位傳輸,且其他裝置可以或可以不調變該資料以用於傳輸。 這裡提供的技術可以由任何數位視訊編碼及/或解碼裝置執行。雖然一般來說這裡提供的技術由分開的視訊編碼及/或視訊解碼裝置執行,但是該技術也可以由組合的視訊編碼器/解碼器(典型地稱為“CODEC”)來執行。這裡提供的技術還可以由視訊前置處理器等來執行。源裝置112和目的地裝置114僅是這些編碼裝置的示例,其中源裝置112可以產生(及/或可以接收視訊資料並可以產生)用於傳輸到目的地裝置114的被編碼視訊資訊。在一些代表性實施方式中,源裝置112和目的地裝置114可以用基本對稱的方式操作,由此該裝置112、114中的每一個可以包括視訊編碼和解碼組件及/或元件(統稱為“元件”)。因此,系統100可以支援源裝置112與目的地裝置114之間的單向和雙向視訊傳輸中的任一者(例如,用於視訊流、視訊重播、視訊廣播、視訊電話及/或視訊會議等的任一者)。在一些代表性實施方式中,源裝置112可以例如是視訊流伺服器,適用於產生(及/或接收視訊資料並產生)用於一個或多個目的地裝置的被編碼的視訊資訊,其中該目的地裝置可以經由有線及/或無線通訊系統以與源裝置112通信。 外部視訊源及/或視訊源124可以是及/或包括視訊擷取裝置,例如視訊攝影機、包含之前擷取的視訊的視訊檔案及/或從視訊內容供應方饋送的視訊。在一些代表性實施方式中,外部視訊源及/或視訊源124可以產生基於電腦圖形的資料作為源視訊、或現場視訊、存檔視訊及/或電腦產生視訊的組合。在一些代表性實施方式中,當視訊源124是視訊攝影機時,源裝置112和目的地裝置114可以是或可以實現為相機電話或視訊電話。 擷取的、預先擷取的、電腦產生的視訊、視訊饋送及/或其他類型的視訊資料(統稱為“未編碼視訊”)可以由視訊編碼器單元118編碼以形成已編碼視訊資訊。Tx/Rx單元120可以調變該已編碼視訊資訊(例如,根據通信標準,以形成攜帶已編碼視訊資訊的一個或多個調變信號)。Tx/Rx單元120可以將該已調變信號傳遞至其傳輸器以用於傳輸。該傳輸器可以經由Tx/Rx元件122將已調變信號傳送到目的地裝置114。 在目的地裝置114,Tx/Rx單元128可以經由Tx/Rx元件126以經由頻道116接收已調變信號。Tx/Rx單元128可以解調該已調變信號以得到已編碼視訊資訊。Tx/Rx單元128可以將該已編碼視訊資訊傳遞給視訊解碼器單元130。 視訊解碼器單元130可以解碼已編碼視訊資訊以得到解碼後的視訊資料。已編碼視訊資訊可以包括視訊編碼單元118定義的語法資訊。該語法資訊可以包括一個或多個元素(“語法元素”);這些語法元素的一些或所有可以有用於解碼已編碼視訊資訊。該語法元素可以包括例如已編碼視訊資訊的特性。該語法元素還可以包括用於形成已編碼視訊資訊的未編碼視訊的特性及/或描述對該未編碼視訊的處理。 視訊解碼器單元130可以輸出解碼後的視訊資料以用於之後的儲存及/或在外部顯示器(未示出)上顯示。在一些代表性實施方式中,視訊解碼器單元130可以輸出解碼後的視訊資料給顯示裝置132。該顯示裝置132可以是及/或可以包括適用於向使用者顯示解碼後的視訊資料的各種顯示裝置的單一、多個、組合。這些顯示裝置的示例包括液晶顯示器(LCD)、電漿顯示器、有機發光二極體(OLED)顯示器及/或陰極射線管(CRT)等。 通信頻道116可以是無線或有線通信媒體,例如射頻(RF)頻譜或一個或多個實體傳輸線,或無線和有線媒體的任何組合。通信頻道116可以形成基於封包的網路的部分,例如區域網路、廣域網路或全域網,例如網際網路。通信頻道116一般代表任何合適的通信媒體或不同通信媒體的集合,用於從源裝置112傳送視訊資料到目的地裝置114,包括有線及/或無線媒體的任何合適的組合。通信頻道116可以包括路由器、交換機、基地台及/或可以用於促進從源裝置112到目的地裝置114的通信的任何其他裝置。可以促進裝置112、114之間的這種通信的示例通信系統的細節在下文參照第15A圖至第15E圖描述。可以代表源裝置112、目的地裝置114的裝置的細節也在下文提供。 視訊編碼器單元118和視訊解碼器單元130可以根據一個或多個標準及/或規範(例如,MPEG-2、H.261、H.263、H.264、H.264/AVC及/或根據SVC擴展而擴展的H.264(“H.264/SVC”)等)來操作。本領域中具有通常知識者理解這裡提出的方法、裝置及/或系統適用於根據(及/或相容)不同標準實施的其他視訊編碼器、解碼器及/或編碼器,或適用於包括未來的視訊編碼器、解碼器及/或編碼器的專屬視訊編碼器、解碼器及/或編碼器。這裡提出的技術不限於任何特定的編碼標準。 上述H.264/AVC的相關部分可以從國際電信聯盟得到作為ITU-T推薦H.264,或更特別的,從 “ITU-T Rec. H.264 and ISO/IEC 14496-10 (MPEG4-AVC), 'Advanced Video Coding for Generic Audiovisual Services,' v5, 2010年3月”得到;其以引用的方式結合於此,且這裡可以稱為H.264標準、H.264規範、H.264/AVC標準及/或規範。這裡提供的技術可以應用於符合(例如,一般符合)H.264標準的裝置。 雖然在第1A圖中沒有示出,但視訊編碼器單元118和視訊解碼器單元130中的每一個可以包括及/或集成音訊編碼器及/或音訊解碼器(如果合適的話)。視訊編碼器單元118和視訊解碼器單元130可以包括合適的多工-解多工單元,或其他硬體及/或軟體,以處理共同資料流及/或分開的資料流中的音訊和視訊的編碼。如果合適,多工-解多工單元可以例如符合ITU-T推薦H.223多工器協定及/或其他協定,例如使用者資料包通訊協定(UDP)。 一個或多個視訊編碼器單元118及/或視訊解碼器單元130可以被包括在一個或多個編碼器及/或解碼器中;該編碼器及/或解碼器的任一者可以被集成作為編碼器的部分,且可以集成及/或結合各自的相機、電腦、行動裝置、用戶裝置、廣播裝置、機上盒及/或伺服器等。視訊編碼器單元118及/或視訊解碼器單元130可以分別被實施為各種合適編碼器及/或解碼器電路的任一者,例如一個或多個微處理器、數位訊號處理器(DSP)、專用積體電路(ASIC)、場可程式設計閘陣列(FPGA)、離散邏輯、軟體、硬體、韌體或其任何組合。視訊編碼器單元118和視訊解碼器單元130的一者或兩者可以基本以軟體實施,且視訊編碼器單元118及/或視訊解碼器單元130的元件的操作可以由一個或多個處理器(未示出)執行的合適軟體指令來執行,除了處理器以外,此種實施方式可以包含晶片外元件,例如外部儲存器(例如,以非揮發性記憶體的形式)及/或輸入/輸出介面等。 在視訊編碼器單元118及/或視訊解碼器單元130的元件的操作可以由一個或多個處理器執行的軟體指令執行的任一實施方式中,該軟體指令可以保持在電腦可讀媒體上,包括例如磁片、光碟、任何其他揮發性(例如,隨機存取記憶體(“RAM”))非揮發性(例如,唯讀記憶體(“ROM”))及/或CPU可讀的大型儲存系統等。該電腦可讀媒體可以包括合作或互連的電腦可讀媒體,其可以專用於處理系統及/或在本地或遠端於該處理系統的多個互連處理系統間進行分配。 第1B圖是示出了用於例如系統100的視訊編碼及/或解碼系統的示例視訊編碼器單元118的方塊圖。視訊編碼器單元118可以包括視訊編碼器133、輸出緩衝器134以及系統控制器136。視訊編碼器133(或其一個或多個元件)可以根據一個或多個標準及/或規範來實施,例如H.261、H.263、H.264、H.264/AVC、H.264/AVC的SVC擴展(H.264/AVC Annex G)、HEVC、及/或HEVC的可調擴展(SHVC)等。本領域中具有通常知識者理解這裡提供的方法、裝置及/或系統可以適用於根據不同標準及/或專屬CODEC(包括未來的CODEC)實施的其他視訊編碼器。 視訊編碼器133可以接收視訊源(例如,視訊源124)及/或外部視訊源提供的視訊訊號。此視訊訊號可以包括未編碼視訊。該視訊編碼器133可以對該未編碼視訊進行編碼、並在其輸出提供已編碼(即壓縮)視訊位元流(BS)。 已編碼視訊位元流BS可以被提供給輸出緩衝器134。該輸出緩衝器134可以緩衝該已編碼視訊位元流BS、並可以提供此種已編碼視訊位元流BS作為已緩衝位元流(BBS),用於經由通信頻道116傳輸。 從輸出緩衝器134輸出的已緩衝位元流BBS可以被發送給儲存裝置(未示出)以用於之後的觀看或傳輸。在某些代表性實施方式中,視訊編碼器單元118可以被配置用於視覺通信,其中已緩衝位元流BBS可以用指定的固定及/或可變位元速率(例如,有延遲(例如,非常低或最小延遲))以經由通信頻道116被傳送。 接下來已編碼視訊位元流BS和已緩衝位元流BBS可以攜帶已編碼信號資訊的位元。已緩衝位元流BBS的位元可以被設置為已編碼視訊訊框流。已編碼視訊訊框可以是內編碼訊框(例如,I訊框)、或間編碼訊框(例如,B訊框及/或P訊框)。已編碼視訊訊框流可以被設置為一系列的畫面組(GOP),其每個GOP的已編碼視訊訊框以指定順序排列。通常,每個GOP可以從內編碼訊框(例如,I訊框)開始,跟著的是一個或多個間編碼訊框(例如,P訊框及/或B訊框)。每個GOP可以包括僅單一內編碼訊框;但是GOP的任一者可以包括多個。考慮到B訊框可以不用於即時,例如雙向預測造成的低延遲應用、與單向預測(P訊框)相比可能導致額外的編碼延遲。額外的及/或其他訊框類型可以被使用且如本領域技術人與所知,已編碼視訊訊框的特定順序可以被修改。 每個GOP可以包括語法資料(“GOP語法資料”)。GOP語法資料可以被放置在GOP的標頭,在GOP的一個或多個訊框的標頭、及/或其他位置。GOP語法資料可以表明排序、數量或類型,及/或描述各自的GOP的已編碼視訊訊框。每個已編碼視訊訊框可以包括語法資料(“已編碼訊框語法資料”)。該已編碼訊框語法資料可以表明及/或描述各自的已編碼視訊訊框的編碼模式。 系統控制器136可以監視與頻道116相關聯的各種參數及/或約束、視訊編碼器單元118的計算能力、使用者需求等,並可以建立目標參數以提供適合頻道116的指定約束及/或條件的參與者體驗品質(QoE)。一個或多個目標參數可以取決於指定約束及/或頻道條件而不時地或週期地被調節。例如,QoE可以使用用於評估視訊品質的一種或多種度量來定量評估,包括例如通常稱為已編碼視訊序列相對感知品質的度量。例如使用峰值信號雜訊比(“PSNR”)度量所測量的已編碼視訊序列相對感知品質可以藉由已編碼位元流BS的位元速率(BR)來控制。一個或多個目標參數(包括例如量化參數(QP))可以被調節以在與已編碼位元流BS的位元流相關聯的約束內最大化視訊相對感知品質。 第2圖是用於例如系統100的視訊編碼及/或解碼系統的基於區塊的混合視訊編碼器200的方塊圖。 參考第2圖,基於區塊的混合編碼系統200可以包括變換單元204、量化單元206、熵編碼單元208、逆量化單元210、逆變換單元212、第一加法器216、第二加法器226、空間預測單元260、運動預測單元262、參考畫面庫264、一個或多個過濾器266(例如,迴路過濾器)及/或模式決定和編碼器控制器單元280等。 視訊編碼器200的細節僅僅用於示意,實際情況的實施可以不同。例如實際實施可以包括更多、更少及/或不同元件,及/或不同於第2圖所示的配置來排列。例如雖然分開顯示,但是變換單元204和量化單元206這兩者的一些或所有功能可以在一些實際實施中可以被高度集成,例如在使用H.264標準的核心變換的實施中。類似地,逆量化單元210和逆變換單元212在一些實際實施(例如,H.264或HEVC標準相容實施)中可以被高度集成,但是為了概念化將其分開顯示。 如上所述,視訊編碼器200可以在其輸入202接收視訊訊號。該視訊編碼器200可以從接收到的未編碼視訊產生已編碼視訊資訊、並將該已編碼視訊資訊(例如,內訊框或間訊框的任一者)以已編碼視訊位元流BS的形式從其輸出220輸出。例如視訊編碼器200可以作為混合視訊編碼器進行操作,且使用基於區塊的編碼過程來對該未編碼視訊進行編碼。當執行此編碼過程時,視訊編碼器200可以對該未編碼視訊的單獨訊框、畫面及/或圖像(統稱為“未編碼畫面”)進行操作。 為了便於基於區塊的編碼過程,視訊編碼器200可以將在其輸入202接收的每個未編碼畫面切片、劃分、分割、及/或分段(統稱為“分段”)為多個未編碼視訊區塊。例如,視訊編碼器200可以將該未編碼畫面分成多個未編碼視訊段(例如,片段)並可以(例如,然後可以)將每個未編碼視訊段分段為未編碼視訊區塊。視訊編碼器200可以傳遞、供應、發送或提供該未編碼視訊區塊給空間預測單元260、運動預測單元262、模式決定和編碼器控制器單元280及/或第一加法器216。如下面更詳細描述的,可以一區塊一區塊來提供未編碼視訊區塊。 空間預測單元260可以接收該未編碼視訊區塊,並以內模式對該視訊區塊進行編碼。該內模式是指基於空間壓縮的幾種模式的任一者,且內模式編碼用於提供對未編碼畫面的基於空間的壓縮。如果使用的話,基於空間的壓縮可以藉由降低或移除未編碼畫面內的視訊資訊的空間冗餘來實現。在形成預測區塊中,空間預測單元260可以相對於未編碼畫面的已經被編碼(已編碼視訊區塊)及/或重建(“重建視訊區塊”)的一個或多個視訊區塊來對每個未編碼視訊區塊執行空間預測(或“內預測”)。已編碼及/或重建視訊區塊可以在未編碼視訊區塊的附近、與其臨近或接近(例如,非常接近)。 運動預測單元262可以從輸入202接收未編碼視訊區塊並可以用內模式對其進行編碼。內模式是指基於時間的壓縮的幾種模式的任一者,包括例如P模式(單向預測)及/或B模式(雙向模式)。內模式編碼用於提供對未編碼畫面的基於時間的壓縮。如果使用的話,基於時間的壓縮可以藉由在未編碼畫面和一個或多個參考(例如,鄰近)畫面間降低或移除視訊資訊的時間冗餘來實現。運動/時間預測單元262可以相對於參考畫面的一個或多個視訊區塊(“參考視訊區塊”)對每個未編碼視訊區塊執行時間預測(或“間預測”)。時間預測的執行可以是單向預測(例如,P模式)及/或雙向預測(例如,B模式)。 針對單向預測,參考視訊區塊可以是來自一個或多個之前已編碼及/或重建畫面。已編碼及/或重建的一個或多個畫面可以在該未編碼畫面的附近、與之鄰近及/或接近。 針對雙向預測,參考視訊區塊可以是來自一個或多個之前的已編碼及/或重建畫面。已編碼及/或重建畫面可以在該未編碼畫面的附近、與之鄰近及/或接近。 如果多個參考畫面被使用(針對例如H.264/AVC及/或HEVC之類的最近的視訊編碼標準可能是這種情況),對於每個視訊區塊,其參考畫面索引可以被發送給熵編碼單元208以用於之後的輸出及/或傳輸。參考索引可以用於識別時間預測來自參考畫面庫264中的哪個或哪些參考畫面。 雖然典型地高度集成,但用於運動估計和運動補償的運動/時間預測單元262的功能可以由分開的實體或單元(未示出)來執行。運動估計可以被執行以估計相對於參考畫面視訊區塊的每個未編碼視訊區塊的運動,且可以包括產生未編碼視訊區塊的運動向量。該運動向量可以表明相對於正被編碼的未編碼視訊區塊的預測區塊的位移。此預測區塊是被發現在正被編碼的未編碼視訊區塊的像素差方面最接近匹配的參考畫面視訊區塊。該匹配可以藉由絕對差之和(SAD)、平方差之和(SSD)及/或其他差度量來確定。運動補償可以涉及基於藉由運動估計確定的運動向量來取得及/或產生預測區塊。 運動預測單元262可以藉由將未編碼視訊區塊與來自儲存在參考畫面庫264中的參考畫面的參考視訊區塊進行比較來計算未編碼視訊區塊的運動向量。該運動預測單元262可以計算參考畫面庫264中包括的參考畫面的分數像素位置的值。在一些情況中,加法器226和視訊編碼器200的另一單元可以計算重建視訊區塊的分數像素位置值,並可以將具有計算出的分數像素位置值的重建視訊區塊儲存在參考畫面庫264中。運動預測單元262可以內插參考畫面的子整數像素(例如,I訊框及/或P訊框及/或B訊框的)。 運動預測單元262可以被配置為編碼相對於所選運動預測器的運動向量。運動/時間預測單元262選擇的運動預測器可以是例如等於已經被編碼的相鄰區塊的運動向量的平均值的向量。為了編碼未編碼視訊區塊的運動向量,運動/時間預測單元262可以計算該運動向量與運動預測器之間的差以形成運動向量差值。 H.264和HEVC涉及作為“列表”的一組潛在的參考訊框。儲存在參考畫面庫264中的一組參考畫面可以對應於該參考訊框列表。運動/時間預測單元262可以將來自參考畫面庫264的參考畫面的參考視訊區塊與該未編碼視訊區塊(例如,P訊框的或B訊框的)進行比較。當參考畫面庫264中的參考畫面包括子整數像素值時,運動/時間預測單元262計算的運動向量可以涉及該參考畫面的子整數位置。運動/時間預測單元262可以發送計算出的運動向量到熵編碼單元208以及運動/時間預測單元262的運動補償功能。運動預測單元262(或其運動補償功能)可以計算相對於正被編碼的未編碼視訊區塊的預測區塊的誤差值。運動預測單元262可以基於該預測區塊來計算預測資料。 模式決定和編碼器控制器單元280可以選擇編碼模式、內模式或間模式中的一者。模式決定和編碼器控制器單元280可以基於例如速率失真最佳化方法及/或每種模式中產生的誤差結果來進行選擇。 視訊編碼器200可以藉由從正被編碼的未編碼視訊區塊中減去運動預測單元262提供的該預測資料來形成殘餘區塊(“殘餘視訊區塊”)。加法器216表示可以執行這種減法操作的一個或多個元件。 變換單元204可以對該殘餘視訊區塊應用變換以將該殘餘視訊區塊從像素值域轉換到變換域,例如頻域。該變換可以例如是這裡提供的變換、離散餘弦變換(DCT)或概念上相似變換的任一者。該變換的其他示例包括H.264及/或HEVC中定義的變換、小波變換、整數變換、及/或子帶變換等。變換單元204對殘餘視訊區塊應用該變換產生該殘餘視訊區塊的相應變換係數區塊(“參數變換係數”)。這些殘餘變換係數可以表示殘餘視訊區塊的頻率分量的大小。變換單元204可以將該殘餘變換係數轉發到量化單元206。 量化單元206可以量化該殘餘變換係數以進一步降低編碼的位元速率。例如該量化過程可以降低與殘餘變換係數的一些或所有相關聯的位元度。在一些情況中,量化單元206可以將殘餘變換係數的值除以與QP對應的量化等級以形成量化變換係數區塊。量化的程度可以藉由調整QP值來修改。量化單元206可以應用該量化以使用期望數量的量化步長來表示殘餘變換係數;使用的步長的數量(或相應地量化等級的值)可以確定用於表示殘餘視訊區塊的已編碼視訊位元的數量。量化單元206可以從速率控制器(未示出)得到該QP值。在量化之後,量化單元206可以提供量化的變換係數給熵編碼單元208和逆量化單元210。 熵編碼單元208可以給量化的變換係數應用熵編碼以形成熵編碼係數(即,位元流)。熵編碼單元208可以使用自適應可變長度編碼(CAVLC)、上下文自適應二進位算數編碼(CABAC)及/或另一熵編碼技術來形成熵編碼係數。如本領域中具有通常知識者可知CABAC可能需要上下文資訊(“上下文”)的輸入。此上下文可以基於例如相鄰視訊區塊。 熵編碼單元208可以用未經處理的已編碼視訊位元流的形式提供熵編碼係數和運動向量以及一個或多個參考畫面索引給內部位元流格式(未示出)。此位元流格式可以藉由在該未經處理的已編碼視訊位元流附上附加資訊(包括標頭及/或其他資訊,其用於例如使得視訊解碼器單元300(第3圖)解碼來自未經處理的已編碼視訊位元流的已編碼視訊區塊)來形成提供給輸出緩衝器134(第1B圖)的已編碼視訊位元流BS。在熵編碼之後,熵編碼單元208提供的該已編碼視訊位元流BS可以例如輸出給輸出緩衝器134,並可以例如經由頻道116被傳送給目的地裝置114或被歸檔用於之後的傳輸或擷取。 在一些代表性實施方式中,熵編碼單元208或視訊編碼器133、200的另一單元可以被配置為除了熵編碼之外還執行其他編碼功能。例如,熵編碼單元208可以被配置為確定該視訊區塊的碼區塊模式(CBP)值。在一些代表性實施方式中,熵編碼單元208可以執行視訊區塊中量化變換係數的運行長度編碼。例如,熵編碼單元208可以應用曲折(zigzag)掃描或其他掃描方式來設置視訊區塊中的量化變換係數並編碼零運行以用於進一步壓縮。熵編碼單元208可以用合適的語法元素來建構標頭資訊以用於在已編碼視訊位元流BS的傳輸。 逆量化單元210和逆變換單元212可以分別應用逆量化和逆變換以在像素域中重建殘餘視訊區塊,例如用於之後用作參考視訊區塊之一(例如,在參考畫面清單中的參考畫面之一內)。 模式決定和編碼器控制器單元280可以藉由將重建殘餘視訊區塊加到儲存在參考畫面庫264中的參考畫面之一的預測區塊來計算參考視訊區塊。模式決定和編碼器控制器單元280可以對該重建殘餘視訊區塊應用一個或多個內插過濾器來計算在運動估計中使用的子整數像素值(例如,用於半像素位置)。 加法器226可以將重建殘餘視訊區塊加到運動補償預測視訊區塊以產生重建視訊區塊以儲存在參考畫面庫264中。重建(像素值域)視訊區塊可以由運動預測單元262(或其運動估計功能及/或其運動補償功能)使用作為用於間編碼後續未編碼視訊中的未編碼視訊區塊的參考區塊之一。 過濾器266(例如,迴路過濾器)可以包括解區塊過濾器。該解區塊過濾器可以操作以移除在重建巨集區塊中存在的視覺假影。這些假影可能在編碼過程中被引入,例如是由於使用不同編碼模式(例如,I類型、P類型或B類型)造成的。假影可以例如存在於接收的視訊區塊的邊界及/或邊緣,且解區塊過濾器可以操作以平滑該視訊區塊的邊界及/或邊緣以改善視覺品質。該解區塊過濾器可以過濾加法器226的輸出。過濾器266可以包括其他迴路內過濾器,例如HEVC標準支援的取樣自適應偏移(SAO)過濾器。 第3圖是示出用於視訊解碼器單元(例如,第1A圖的視訊解碼器單元130)的視訊解碼器300的示例的方塊圖。視訊解碼器300可以包括輸入302、熵解碼單元308、運動補償預測單元362、空間預測單元360、逆量化單元310、逆變換單元312、參考畫面庫364、過濾器366、加法器326以及輸出320。視訊解碼器300可以執行一般與關於視訊編碼器133、200提供的編碼過程相反的解碼過程。 運動補償預測單元362可以基於從熵解碼單元308接收的運動向量來產生預測資料。運動向量可以相對於與已編碼運動向量對應的視訊區塊的運動預測器被編碼。運動補償預測單元362可以確定該運動預測器例如作為與將被解碼的視訊區塊相鄰的區塊的運動向量的中值。在確定該運動預測器之後,該運動補償預測單元362可以藉由從已編碼視訊位元流BS擷取運動向量差值並將該運動向量差值加到該運動預測器來解碼已編碼運動向量。運動補償預測單元362可以將該運動預測器量化為與已編碼運動向量相同的解析度。在某些代表性實施方式中,運動補償預測單元362可以針對一些或所有已編碼運動預測器使用相同的精確度。作為另一個示例,運動補償預測單元362可以被配置為使用上述方法之一並藉由分析從已編碼視訊位元流BS得到的序列參數集合、片段參數集合或畫面參數集合中包含的資料來確定使用哪種方法。 在解碼該運動向量之後,運動補償預測單元362可以從參考畫面庫364中的參考畫面中擷取該運動向量識別的預測視訊區塊。如果該運動向量指向分數像素位置,例如半像素,則運動補償預測單元362可以針對該分數像素位置插入值。該運動補償預測單元362可以使用自適應內插過濾器或固定內插過濾器來插入這些值。該運動補償預測單元362可以從接收的已編碼視訊位元流BS中得到使用哪個過濾器366的標記,並且在多種代表性實施方式中,得到該過濾器366的係數。
空間預測單元360可以使用在已編碼視訊位元流BS中接收的內預測模式以根據空間相鄰區塊形成預測視訊區塊。逆量化單元310可以逆量化(例如,解量化在已編碼視訊位元流BS中提供的且由熵解碼單元308解碼的量化區塊係數)。該逆量化過程可以包括例如H.264定義的常規過程。該逆量化過程可以包括針對每個視訊區塊使用視訊編碼器133、200計算的量化參數QP來確定量化度及/或將被應用的逆量化度。
逆變換單元312可以應用逆變換(例如,這裡提供的任何變換的逆變換、逆DCT、逆整數變換或概念上相似的逆變換過程)到變換係數以在像素域產生殘餘視訊區塊。運動補償預測單元362可以產生運動補償區塊,並基於內插過濾器可以執行內插。將被用於具有次像素精確度的運動估計的內插過濾器的識別符可以被包含在視訊區塊的語法元素中。該運動補償預測單元362可以在視訊區塊的編碼期間使用視訊編碼器133、200使用的內插過濾器來計算參考區塊的子整數像素的值。運動補償預測單元362可以根據接收的語法資訊來確定視訊編碼器133、200使用的該內插過濾器並使用該內插過濾器來產生預測區塊。
運動補償預測單元262可以使用:(1)用於確定用於編碼已編碼視訊序列的一個或多個畫面的視訊區塊大小的語法資訊;(2)描述已編碼視訊序列的訊框的每個視訊區塊如何被劃分的分區資訊;(3)表明如何編碼每個分區的模式(或模式資訊);(4)用於每個間編碼視訊區塊的一個或多個參考畫面,及/或(5)用於解碼已編碼視訊序列的其他資訊。
加法器326可以對殘餘區塊和運動補償預測單元362或空間預測單元360產生的相應預測區塊求和以形成解碼後視訊區塊。迴路過濾器366(例如,解塊過濾器或SAO過濾器)可以被應用於過濾該解碼後視訊區塊以移除區塊效應假影及/或改善視覺品質。解碼後視訊區塊可以被儲存在參考畫面庫364中,其可以提供用於後續運動補償的參考視訊區塊並可以產生用於在顯示裝置(未示出) 上呈現的解碼後視訊。
隨著每個視訊區塊經歷該編碼及/或解碼過程,與該視訊區塊相關聯的視訊資訊可以被不同表示。例如,視訊區塊可以包括:(i)像素域中的像素資料;(ii)表示未編碼視訊區塊與預測區塊之間的像素差的殘餘資料(“殘餘”);(iii)變換域中的變換係數(例如,在應用變換之後);以及(iv)量化的變換域中的量化的變換係數。
每個視訊區塊可以具有給定的尺寸或統稱為“大小”。視訊區塊大小可以取決於編碼標準。例如,H.264指標中支援針對亮度分量的各種視訊區塊大小的內預測,例如16×16、8×8、或4×4,以及針對色度分量支援8×8,且針對亮度分量支援各種區塊大小的間預測,例如16×16、16×8、8×16、8×8、8×4、4×8、以及4×4,且針對色度分量支援相應縮放的大小。在H.264標準中,16像素乘以16像素尺寸的視訊區塊通常稱為巨集區塊(MB),且小於16像素乘以16像素的視訊區塊通常稱為MB的分區(“MB分區”)。在HEVC中,稱為“編碼單元”或“CU”的視訊區塊可以用於更有效壓縮高解析度(例如,1080p及以上)視訊訊號。在HEVC中,CU大小在參數序列集合中被設定,且可以被設定大到64×64像素且小到4×4像素。CU還可以進一步被分成預測單元(PU),分開的預測方法可以用於該PU。可以使用空間預測單元360及/或運動補償預測單元362來處理每個視訊區塊(不管是MB、CU及/或PU還是其他的)。
如這使用的,“N×N”和“N乘以N”可以互換使用,用於指在垂直和水平維度上的分量(例如,像素、殘餘、變換係數及/或量化的變換係數等)的區塊大小。一般來說,16×16視訊區塊具有在垂直方向上16個元素(y=16)和水平方向上16個元素(x=16)。N×N區塊一般具有垂直方向上N個元素和水平方向上N個元素,其中N表示非負整數值。視訊區塊中的元素可以按列和行來排列。視訊區塊可以在水平方向和垂直方向上具有相同或不同數量的像素。例如,該視訊區塊可以包括N´M個像素,其中M等於或不等於N。 HEVC實現的壓縮是H.264/AVC的兩倍,或同等地是在相同視訊品質下使用或所需的位元速率減半。越來越多的新視訊應用,例如視訊聊天、行動視訊記錄和分享,以及視訊流可以使用或可以需要異質環境中的視訊傳輸。已知為考慮各種客戶裝置(例如,PC、智慧型電話、平板電腦、TV)的3屏或N屏的情形可以在裝置上提供在計算能力、記憶體/儲存大小、顯示解析度及/或顯示訊框率等方面寬變化能力的視訊使用。網路和傳輸頻道可以具有在封包丟失率、可用頻道頻寬及/或叢發錯誤率等方面的寬變化特性。現今視訊資料可以藉由有線網路或無線網路的組合來傳送,這可能使基礎傳輸頻道特性複雜化。可調視訊編碼可以改進在異質網路上在具有不同能力的裝置上運行的視訊應用的體驗品質。可調視訊編碼可以用最高表現(例如,時間解析度、空間解析度、及/或品質等)對該信號編碼一次並可以依據條件(例如,在特定用戶端裝置上運行的某些應用使用或所需的特定速率及/或表現)使得從視訊流的子集合解碼。在某些代表性實施方式中,與非伸縮視訊編碼過程相比,使用可調視訊編碼程序可以實現頻寬及/或儲存節省。國際視訊標準MPEG-2視訊、H.263、MPEG4視覺以及H.264具有支援一些可調性模式的工具及/或設定檔。 可調視訊編碼(SVC)是H.264的擴展,其可以實現部分位元流的傳輸和解碼以提供具有較低時間或空間解析度、或降低的保真度的視訊服務,並可以在給定部分位元流速率的情況下保持相對高重建品質。SVC中單迴路解碼(SLD)指在正被解碼的層設置(例如,僅需要設置)一個運動補償迴路的SVC解碼器,且不或可以不必在另外一個或多個較低層設置一個或多個運動補償迴路。例如,如果該位元流包含或包括2層(例如,作為基層的層1和作為增強層的層2)且如果解碼器想要重建層2視訊,則解碼後畫面緩衝和運動補償預測可以針對層2(例如,僅針對層2)但可以不針對層1(例如,層2所依據的基層)被設置或可以需要被設置。SVC不使用或不需要來自要被重建(例如,完全重建)的較低層的參考畫面,降低在解碼器處的計算複雜性和儲存需求。SLD藉由約束層間紋理預測來實現,其中對於給定層中的目前區塊,來自較低層的空間紋理預測僅在相應較低層區塊以內模式被編碼(稱為受限內預測)的情況下被允許。當較低層區塊在內模式下被編碼時,其可以在不需要運動補償操作和解碼後畫面緩衝的情況下被重建。對於增強層,SVC從較低層使用另外的層間預測技術,例如運動向量預測、殘餘預測以及模式預測等。雖然SVC的SLD在某種程度降低了解碼器的計算複雜性和儲存需求,但其由於嚴重依賴區塊等級的層間預測來實現所欲的性能而增加了執行複雜性。為了補償施加SLD約束而造成的性能懲罰,且仍然能夠實現滿意的可調編碼性能,編碼器設計和計算複雜性實際上由於使用了跨層聯合速率失真最佳化而增加了。交錯內容的編碼不被支援(例如,SVC很好地支援),這影響廣播行業採用它。SVC編碼器和解碼器設計和系統實施的複雜可以是在市場中採用SVC受限的原因。 在某些代表性實施方式中,可以經由(例如,主要經由)高級層間處理來實現可調編碼效率。 標準縮放性一般指當基層以例如H.264/AVC或甚至MPEG2之類的較早標準被編碼而一個或多個增強層使用例如HEVC標準之類的最近的標準被編碼時縮放性的情況。標準縮放性可以實現已經使用之前標準編碼且增強舊有內容品質的舊有內容編碼與提供更好編碼效率的如HEVC的新標準編碼的一個或多個增強層的向後相容性。這兩個術語在本文中可以互換使用。HEVC的可調增強的要求包括空間縮放性、時間縮放性、品質縮放性、標準縮放性等。下表1列出了這些縮放性的示例。 第4圖是用於實現有效可調編碼的兩層可調編碼系統(例如,使用或依賴畫面級層間處理(ILP))的方塊圖。第4圖中的BL編碼器(在此示例中是HEVC編碼器)可以使用空間預測和時間預測的組合來編碼器BL視訊輸入。BL視訊輸入被一些或所有視訊編碼標準(包括H.264和HEVC) 支援。BL編碼器45可以建立基層DPB(解碼器畫面緩衝)41以儲存用於或需要用於執行時間運動補償預測的參考畫面。在該增強層中,EL編碼器47可以與BL編碼器45進行類似操作。可以提供用於EL編碼器預測輸入EL視訊的參考畫面的增強層DPB 49可以包含或包括不僅來自目前增強層的參考畫面,還可以包含或包括來自其依據的層的DPB(例如,第4圖中的BL DPB)的一些參考畫面。在第4圖中,層間處理單元43可以用於在來自BL DPB 41的畫面可以用於預測EL視訊之前處理該畫面。在產生BL和EL位元流之後,多工器44用於將這些位元流組合成可調位元流42。如果層間處理單元43使用層間處理(ILP)參數,則該ILP 資訊可以被一起多工到該可調位元流。第5圖是示出可以對應於第4圖種的可調編碼系統的具有畫面級ILP的兩層可調解碼系統的圖。在第5圖中,解多工器501用於將該可調位元流拆包成BL位元流、EL位元流及/或ILP資訊。BL位元流可以被BL解碼器509解碼以產生基層重建畫面並將其放入BL DPB 503。ILP資訊可以由層間處理單元505用來產生層間參考畫面(例如,藉由處理BL重建畫面並將其儲存在EL DPB 507中)。EL解碼器511可以使用EL DPB中的該參考畫面來解碼EL位元流(該EL DPB可以包含或包括EL中的時間參考畫面及/或來自BL的層間參考畫面)。 雖然針對HEVC實施在第4圖中示出了BL編碼器45和EL編碼器47(例如,作為HEVC編碼器的部分),可以理解其他實施是可能的,包括符合例如MPEG-2視訊、H.263、MPEG4視覺及/或H.264等其他視訊標準的實施。 雖然針對HEVC實施在第5圖中示出了BL解碼器509和EL解碼器511(例如,作為HEVC解碼器的部分),但可以理解其他實施是可能的,包括符合例如MPEG-2視訊、H.263、MPEG4視覺及/或H.264等其他視訊標準的實施。 由於如第4圖和第5圖中示出的該可調編碼系統可能依賴用於可調編碼(例如,有效可調編碼)的畫面級層間預測,這樣的可調系統可以例如保持高編碼效率,而不管哪種編解碼器用作BL及/或EL編碼中的基礎單層編解碼器。例如,BL編解碼器可以用H.264/AVC編解碼器來替換(例如,不會影響可調編碼系統的總體架構和效率)。 回過來參考第2圖,基於區塊的混合視訊編碼器200可以提供通用基於區塊的單層視訊編碼器,其能夠例如被用作第4圖中的BL編碼器和EL編碼器。如第2圖所示,單層編碼器可以使用例如空間預測(也稱為內預測)和時間預測(也稱為間預測及/或運動補償預測)之類的已知技術來預測輸入視訊訊號,例如以實現有效壓縮。該編碼器可以具有模式決定邏輯,其例如通常基於某些標準(例如,速率及/或失真考慮中的一者或組合)來選擇最合適的預測形式。該編碼器可以變換並可以量化預測殘餘(例如,輸入信號與預測信號之間的差值信號)。量化的殘餘與該模式資訊(例如,內或間預測)和預測資訊(運動向量、參考畫面索引及/或內預測模式等)可以在熵編碼器處一起被壓縮(例如,進一步壓縮)並被打包為輸出視訊位元流。如第2圖所示,該編碼器可以藉由對量化的殘餘應用逆量化和逆變換以得到重建殘餘並將其加回到預測訊號來產生重建視訊訊號。該重建視訊訊號可以經過迴路過濾器過程(例如,解塊過濾器、取樣自適應偏移及/或自適應迴路過濾器)並可以被儲存參考畫面庫(或DPB)中以用於預測將來的視訊訊號。
再參考第3圖,視訊解碼器300可以提供與第2圖中的單層編碼器對應的通用基於區塊的單層解碼器。第3圖中的解碼器可以例如用作第5圖中的BL和EL解碼器。第5圖中的單層解碼器可以接收第2圖中的編碼器產生的視訊位元流並可以重建將被顯示的視訊訊號。在視訊解碼器處,該位元流可以被熵解碼器解析。殘餘係數可以被逆量化和逆變換以得到重建的殘餘。編碼模式和預測資訊可以用於使用空間預測及/或時間預測來得到預測信號。預測信號和重建的殘餘可以被加在一起以得到重建視訊。該重建視訊可以在被儲存到DPB以被顯示及/或用於解碼將來的視訊訊號之前經歷迴路過濾。上表1中提出的針對SHVC的標準縮放性特徵可以允許視訊服務供應方(例如,電纜網路操作者及/或廣播商等)繼續服務擁有具有(例如,僅具有)H.264/AVC能力的已有的接收裝置(例如,機上盒或STB)的舊有客戶,而新/付費客戶可以遷往具有HEVC解碼能力的更新的接收裝置(例如,STB)並例如藉由訂用付費服務享受視訊訊號的更高品質表現(例如,更高空間解析度、更高時間解析度及/或更高畫面品質等)。
第6圖中示出了這種遞送系統的代表性示例。在第6圖中,高品質視訊600在預處理步驟601被預處理(例如,以降低頻寬需求)。例如,預處理可以是對高品質視訊的空間降取樣、對高品質視訊的時間降取樣(訊框率降低)及/或連續到交錯轉換過程等。在預處理後,基礎品質視訊603可以使用例如H.264/AVC編碼器605之類的舊有編解碼器被編碼。H.264/AVC位元流(基層位元流)606可以使用合適的傳輸協定被打包(607),並可以經由頻道A 609被發送到訂閱基礎服務的客戶,其中其被拆包(615)並被舊有解碼器(例如,H.264/AVC解碼器617)解碼。可以使用可調編解碼器SHVC 611來編碼原始高品質視訊600,該SHVC 611具有混合編解碼器縮放性支援,例如H.264/AVC至 HEVC縮放性支援。增強層可調位元流613可以使用合適的傳輸協定被打包(614),並經由頻道B 619被傳輸給付費客戶,其中其被拆包(621)並被付費解碼器(例如,SHVC解碼器623)解碼。在該接收端,具有SHVC解碼器的付費客戶可以接收並消費高品質視訊。根據第4圖和第5圖中的架構,由於重建的基層視訊用作混合編解碼器縮放性的層間預測,遞送更高品質視訊給付費客戶並遞送較低品質視訊給舊有客戶所使用的或所需的頻寬與同播傳統較低品質視訊流和傳統較高品質視訊流相比是降低的。
在某些代表性實施方式中,混合編解碼器縮放性可以被用於將被儲存/傳送的視訊內容從交錯格式轉換成連續格式(例如,不會使視訊遞送網路負擔過重)。雖然多數(例如,大多數)網際網路視訊內容以連續掃描格式提供的,但廣播商及/或電纜網路遞送的相當量的視訊內容是以交錯掃描格式提供的。使用連續掃描格式的可能原因可以包括:(1)與升級歷史上大多處理交錯內容的已有視訊遞送設備和基礎結構相關聯的明顯成本及/或(2)交錯內容可以說明降低頻寬需求,且仍然保持高訊框率(例如,其可以有用於運動內容遞送)。
在某些代表性實施方式中,實施可調編碼系統,其依賴畫面級層間處理來實現交錯至連續縮放性(例如,具有高編碼效率)。
雖然第6圖中示出的混合編解碼器系統用作代表性示例,但這裡揭露的程序、過程及/或技術也適用於其他可調系統,例如在BL和EL中使用相同單層編解碼器的可調系統。
例如,源視訊內容可以使用連續相機以連續格式被擷取並被在遞送之前被轉換成交錯掃描內容。連續視訊格式的畫面通常稱為“訊框”,而交錯視訊的畫面通常稱為“場”。在連續到交錯轉換期間,連續掃描視訊訊框可以被分成兩個場(頂場和底場)。第7圖是代表性連續訊框的圖並示出了與連續訊框相比或相對於連續訊框的交錯視訊中頂場和底場中的像素的空間關係。第7圖中 的淡灰度陰影像素表示頂場像素701,且暗的灰度陰影像素表示底場像素703。由於頂場和底場可以是原始連續訊框的空間降取樣版本,因此在連續到交錯轉換期間可以應用某低通過濾(例如,以降低降取樣信號中的混疊)。第8圖是示出與交錯視訊803對應的連續視訊810中的訊框811相比,交錯視訊803的頂場805與底場807之間的時間關係的示例。如圖所示,交錯視訊可以用與其對應的連續視訊相同的畫面速率運行並可以具有半數像素(例如,由於在連續至交錯轉換期間的空間降取樣過程)。第8圖是一個示例。實際上,交錯視訊可以從底場而不是底場開始並可以不遵循1個頂場接1個底場(或反之亦然)的規則模式,因為其他時間畫面速率轉換可以在內容創建期間發生。例如,電影至TV(例如,NTSC)轉換,通常稱為3:2下拉,可以在內容創建期間被應用,且可以使得2個連續底場接著1個頂場。目前場圖是頂場還是底場是在視訊位元流中用信號被通知(例如,一般用信號通知)。
例如,在H.264/AVC標準中,交錯視訊位元流的片段標頭可以包含或包括稱為“底場旗標(bottom_field_flag)”的旗標,其當被設定為1時表明目前片段編碼底場,且當設定為0時表明目前片段編碼頂場。為了使用在基層中編碼的交錯內容以用於根據第4圖和第5圖描述的可調架構的有效層間預測,BL交錯內容可以被空間升取樣(例如,以匹配EL中的連續視訊的解析度)。SHVC初步標準支援兩個層之間任一空間比。SHVC初步標準不考慮頂/底場與第7圖示出的連續視訊之間的特定像素線關係。在對準頂/底場與連續訊框之間的色度相位時,在廣泛部署的YUV4:2:0視訊格式中使用色度子取樣可以加入其他考慮。在某些代表性實施方式中,過程、程序及/或技術可以被實施以實現交錯至連續縮放性(例如,有效率的交錯至連續縮放性)。例如,視訊參數集合(VPS)中的高階語法傳訊和片段標頭(SH)可以被提供以表明交錯至連續縮放性被使用。作為另一個示例,可以提供可以基於場奇偶性的修改的亮度和色度升取樣 過程。作為第三個示例,當使用區塊級自適應訊框場編碼來編碼基層視訊時,可以提供基於區域的自適應訊框/場升取樣(例如,用於有效率的可調編碼)。
為交錯至連續縮放性支援修改的VPS和SH傳訊
下表2示出了修改的VPS擴展語法以支援基層中交錯視訊。該修改包括以下。
(1)旗標(例如,新旗標)base_layer_frame_pic_only_flag可以被添加以表明該基層編碼視訊序列是否可以包含或包括交錯內容。在表2中,該旗標可以用avc_base_layer_flag作為條件(以使用H.264/AVC編解碼器編碼基層作為條件)。例如,當使用H.264/AVC編解碼器編碼基層時,在該基層中允許(例如,僅允許)交錯視訊。在某些代表性實施方式中,可以不用其他條件及/或甚至在基層使用其他編解碼器被編碼時允許該旗標。
(2)旗標cross_layer_phase_alignment_flag的傳訊可以用base_layer_field_picflag作為條件。該旗標cross_layer_phase_alignment_flag可以用於表明兩個層之間的降取樣過濾器相位對準,且該降取樣過濾器可以被左上角對準及/或中心對準。該旗標可以不或不應用到連續至交錯轉換過程,且在基層是交錯視訊且增強層是連續視訊時可以不或不用信號發送。
在一個實施方式中,base_layer_frame_pic_only_flag 等於1規定基層編碼視訊序列的編碼畫面包含或包括編碼訊框(例如,僅編碼訊框)。base_layer_frame_pic_only_flag等於0規定基層編碼視訊序列的編碼畫面可以是編碼場或編碼訊框。當base_layer_frame_pic_only_flag不存在時,其可以推定為等於1。 表3示出了修改的片段標頭以支援基層中交錯視訊。該修改包括以下。 (1)新旗標base_layer_frame_pic_flag可以被添加以表明用於層間預測的共置的基層編碼視訊畫面是否是訊框畫面。 (2)以base_layer_frame_pic_flag的值為條件,旗標(例如,新旗標)base_layer _bottom_field_flag可以被添加以表明用於層間預測的共置基層編碼視訊畫面是底場圖還是頂場圖。 在表3中,這兩個新旗標的存在可以用三個條件任一者或三個條件同時為真作為前提:(1)目前層是增強層;(2)目前層使用基層用於層間樣本預測;及/或基層編碼視訊序列包含或包括編碼訊框和至少一些編碼場(例如,不僅編碼訊框還有至少一些編碼場)。 base_layer_frame_pic_flag 等於1可以規定在層間樣本預測中使用的基層畫面是訊框畫面。base_layer_frame_pic_flag等於0可以規定在層間樣本預測中使用的基層畫面是頂場圖或底場圖。當base_layer_frame_pic_flag不存在時,其可以被推定為1。base_layer_bottom_field_flag 等於1可以規定在層間樣本預測中使用的基層是底場圖。base_layer_bottom_field _tflag等於0可以規定層間取樣預測中使用的基層畫面是頂場圖。當base_layer_bottom_field_flag不存在時,其可以推定為0。基於場奇偶性的亮度樣本的升取樣 如第7圖所示,交錯頂/底場可以在垂直方向具有連續訊框的解析度的一半,且在水平方向可以具有相同解析度。因此,垂直升取樣(例如,僅垂直升取樣)將或可以需要被應用於BL中的重建場以產生用於編碼EL中連續訊框的層間參考畫面。 下表5示出了用於SHVC的亮度分量的16相位8分接頭(tap)升取樣過濾器。構想了用於頂/底場的升取樣過程可以使用相同升取樣過濾器作為SHVC過濾器,但是描述的過程構想了其他升取樣過濾器可以代替SHVC過濾器被使用。 以下的虛擬碼描述基於場奇偶性的亮度樣本的升取樣過程: 虛擬碼1: If (若) (base_layer_bottom_field_flag == 0) // upsample the top field in BL(升取樣BL中的頂場) { for (y = 0; y < frame height (訊框高度); y++) { y0 = y >> 1; for (x = 0; x < frame width (訊框寬度); x++) { if(y0 << 1 == y) { // derive the even lines in the EL frame with copying copy pixel from the top field located at line y0 (從位於線y0的頂場,以複製複本像素導出EL訊框中的偶數線) } else (否則){ // derive the odd lines in the EL frame using vertical interpolation fetch pixels at lines y0-3, y0-2, y0-1, y0, y0+1, y0+2, y0+3, y0+4 from the base layer top field (從基層頂場提取線y0-3, y0-2, y0-1, y0, y0+1, y0+2, y0+3, y0+4處的像素) perform interpolation using phase-8 filter from Table 5 (使用表5的相位-8濾波器執行內插) } } else(否則) // upsample the bottom field in BL(升取樣BL中的底場) { for (y = 0; y < frame height; y++) { y0 = y >> 1; for (x = 0; x < frame width; x++) { if (y0 << 1 == y) { // derive the even lines in the EL frame with vertical interpolation (以垂直內插導出EL訊框中的偶數線) fetch pixels at lines y0-4, y0-3, y0-2, y0-1, y0, y0+1, y0+2, y0+3 from the base layer bottom field (從基層底場提取線y0-4, y0-3, y0-2, y0-1, y0, y0+1, y0+2, y0+3處的像素) perform interpolation using phase-8 filter from Table 5 (使用表5的相位-8濾波器執行內插) } else { // derive the odd lines in the EL frame with copying copy pixel from the bottom field located at line y0 (從位於線y0的底場,以複製複本像素導出EL訊框中的奇數線) } } 基於場奇偶性的色度樣本的升取樣 色度樣本的訊框及/或頂/底場之間的空間對準可以例如比亮度樣本的更複雜,這是因為YUV4:2:0視訊中色度的子取樣。第9圖是示出用於連續掃描視訊訊框的YUV4:2:0視訊格式(例如,共同使用的YUV4:2:0視訊格式)的色度樣本(第9圖中的圓表示)和亮度樣本(第9圖中的方形表示)的預設相對位置的圖。如第9圖所示,對於每個2´2亮度樣本,每個色度頻道1個色度樣本(例如,僅1個色度樣本)(即,Cb和Cr)是可用的。根據第9圖中示出的預設色度樣本位置,相對於2´2亮度相鄰樣本,色度樣本在水平方向可以對準到偶數個亮度位置。在某些代表性實施方式中,色度樣本在垂直方向可以在偶數和奇數位置之間像素減半。 第10圖是在用於交錯掃描視訊頂場(第10圖中用實像素表示)和底場(在第10圖中用陰影像素表示)的YUV4:2:0視訊格式中色度樣本(第10圖中用圓形表示)和亮度樣本(第10圖中用方形表示)的預設相對位置的圖。與連續視訊排列的方式相同,針對每2´2亮度樣本,每個色度頻道1個色度樣本(例如,僅1個色度樣本)(即Cb或Cr)可以是可用的。在交錯場的預設色度樣本位置中,相對於2´2亮度相鄰樣本,色度樣本可以在水平方向對準到偶數亮度位置(這可以與連續排列相同)。在某些代表性實施方式中,色度樣本在垂直方向在偶數和奇數亮度位置之間像素可以減少四分之一(這可以與連續排列不相同)。 在使用YUV4:2:0的多數視訊應用中(其可以包括客戶視訊應用),可以使用預設色度樣本位置。例如,色度樣本可以針對連續視訊如第9圖中所示來定位且針對交錯視訊可以如第10圖中所示來定位。與目前在SHVC草案4中規定的連續至連續空間縮放性相較,針對交錯至連續空間升取樣,可以使用或需要不同相位過濾器來正確執行色度升取樣。上表6示出在SHVC草案4中規定的4分接頭16相位色度升取樣過濾器。針對在垂直方向具有2x比的連續至連續縮放性,相位6和相位14過濾器可以用於升取樣色度。相較之下,對於在垂直方向具有2x比的交錯至連續,相位0和相位8過濾器可以是針對色度升取樣所選擇或選定的正確過濾器。例如,針對交錯至連續縮放性,用於亮度和色度的升取樣過濾器相位可以相同。如果表6中SHVC色度升取樣過濾被使用,則以下虛擬碼可以描述色度升取樣過程。可以構想,與這裡描述的亮度升取樣過程類似,以下的虛擬碼可以用於其他色度升取樣過濾器。 虛擬碼2: if (base_layer_bottom_field_flag == 0) // upsample the top field in BL { for (y = 0; y < chroma frame height; y++) { y0 = y >> 1; for (x = 0; x < chroma frame width; x++) { if(y0 << 1 == y) { // derive the even lines in the EL frame with copying copy chroma pixel from the top field located at line y0 } else { // derive the odd lines in the EL frame using vertical interpolation fetch chroma pixels at lines y0-1, y0, y0+1, y0+2 from the base layer top field perform interpolation using phase-8 filter from Table 6 } } else // upsample the bottom field in BL { for (y = 0; y <chroma frame height; y++) { y0 = y >> 1; for (x = 0; x < chroma frame width; x++) { if(y0 << 1 == y) { // derive the even lines in the EL frame with vertical interpolation fetch chroma pixels at lines y0-2, y0-1, y0, y0+1 from the base layer bottom field perform interpolation using phase-8 filter from Table 6 } else { // derive the odd lines in the EL frame with copying copy chroma pixel from the bottom field located at line y0 } } 當預設色度樣本位置用於BL中交錯視訊和EL中連續視訊時規定虛擬碼2中色度升取樣的過程。其他非預設色度樣本位置(第9圖和第10圖示出的這些以外的)可以被允許,且可以使用H.264/AVC標準及/或版本1 HEVC標準的視訊可用性資訊(VUI)作為視訊位元流的部分而用信號發送。例如,chroma_sample_loc_type的值可以用於定義或設定相對於其亮度相鄰樣本的色度樣本的位置。如果非預設色度樣本位置被使用(在交錯視訊中,連續視訊或兩者),顯式色度相位傳訊可以用於及/或被添加到可調位元流以描述交錯及/或連續視訊層的色度位置。此種顯示用信號發送的色度相位資訊可以用於得出用於色度升取樣的正確相位過濾器。 在SHVC草案4中,使用以下來執行(例如,在子條款H.6.2中)參考像素和在內插中使用的相位過濾器的選擇。 相位phaseX, phaseY, addX和addY如下得出: 變數xRef16 和yRef16如下得出: 在SHVC草案的框架內實施的一個實施方式中,如在虛擬碼1和虛擬碼2中描述的用於交錯至連續縮放性的基於場奇偶性的亮度和色度升取樣的調整可以如下進行為等式(H-6): phaseY = (base_layer_frame_pic_flag = = 0) ? 4* base_layer_bottom_field_flag : ( cIdx = = 0 ) ? ( cross_layer_phase_alignment_flag << 1 ) : cross_layer_phase_alignment_flag + 1基於區域的自適應訊框 / 場升取樣 H.264/AVC和HEVC允許用於交錯視訊序列的自適應訊框場編碼。可以使用三種類型的自適應訊框場(AFF)編碼。 (1)可以使用序列AFF(SAFF)。例如,可以在序列級調整訊框編碼及/或場編碼。在一個視訊序列中可以使用訊框編碼用於畫面(例如,所有畫面),且在另一視訊序列中可以使用場編碼用於畫面(例如,所有畫面)。在這種情況中,視訊序列可以被定義為即時解碼再新(IDR)畫面所標記的兩個隨機存取點(例如,而不是全長度的整個視訊訊號)之間的一組畫面。 (2)畫面AFF(PAFF)可以被使用。例如,可以在畫面級調整訊框編碼及/或場編碼。在視訊序列內,訊框編碼可以用於一個畫面,且場編碼可以用於另一畫面。 (3)可以使用區塊級AFF(MBAFF)。例如,可以在區塊級調整訊框編碼及/或場編碼。例如,在H.264/AVC中,基礎區塊編碼單元稱為巨集區塊或MB,且具有16´16像素的尺寸(在亮度分量方面)。MBAFF中的訊框及/或場傳訊可以基於MB對(16´32)。該傳訊可以允許畫面中一個巨集區塊對在訊框模式中被編碼、且另一巨集區塊對例如在相同畫面中將在場模式中被編碼。當場模式被使用時,MB對可以被分成頂場MB和底場MB且分別被編碼。 HEVC允許僅序列自適應訊框場編碼(SAFF)用於交錯內容,且H.264/AVC允許所有三種類型的AFF(例如,SAFF、PAFF和MBAFF)。與SAFF和PAFF相比,MBAFF在視訊序列的一些部分保持靜態(例如,靜態背景)且視訊序列的其他部分移動(例如,移動前景)時是有用的。第11圖是示出頂場和底場被結合成一個畫面的示例的畫面。在第11圖中,人的手和臂是移動部分(且該畫面的相應區域具有非常明顯的“交錯假影”或“梳狀假影”),而背景牆和人的頭基本是靜止的(畫面的相應區域看起來像正常連續訊框)。第11圖中的畫面可以使用MBAFF被編碼為一個複合訊框(例如,其中頂場和底場可以被組合成具有與連續訊框相同的解析度的一個訊框)(例如,覆蓋或對應於移動的手的巨集區塊可以被編碼(例如,更好編碼)為場巨集區塊,且覆蓋或對應於靜態牆和頭的巨集區塊可以被編碼(例如,更好編碼)為訊框巨集區塊)。這種配置可以用於使用H.264/AVC標準編碼BL交錯視訊。為了當BL視訊使用區塊級自適應訊框場編碼例如MBAFF被編碼時實現有效層間預測,基於區域的自適應訊框場升取樣過程可以被應用。 第12圖是示出基於區域的自適應訊框場升取樣的示例的圖。先看第12圖中最底下的列,編碼BL訊框可以包括或由兩個場組成。BL訊框1200的第一部分1210可以使用兩個場MB被編碼,如第12圖中分別陰影區域1201和格子區域1203表示的。MB在場模式中被編碼的部分1210中的頂場1201由陰影表示,MB在場模式被編碼的部分1210中的底場1203由格子表示。BL訊框1200的其他部分1220是使用訊框MB被編碼,如實心白色區域所表示。在時刻T和T+1的EL中兩個連續訊框1230和1240分別對應於BL中的頂場和底場。 以下步驟可以被應用於產生層間參考畫面1250,其將被用於例如有效預測在時刻T的EL連續訊框(其對應於BL中頂場1201): (1)靜態區域1220中的像素被複製; (2)在BL畫面1200中來自移動區域1210的頂場1201像素(例如,僅頂場像素)被複製; (3)根據這裡的揭露,在垂直方向直行基於場奇偶性2x升取樣以在時間T填充層間參考畫面1250中移動區域1220中的交錯線。 以下步驟可以被應用以產生層間參考畫面1240,其將被或可以被用於預測在時刻T+1的EL連續訊框1240(其對應於BL中的底場1203): (1)靜態區域1220中的像素被複製; (2)在BL畫面1200中來自移動區域1210的底場1203像素(例如,僅底場像素)被複製; (3)根據這裡的揭露,在垂直方向執行基於場奇偶性的2x升取樣以在時間T+1填充層間參考畫面1260中移動區域1220中的交錯線。 基於區域的自適應訊框場升取樣程序可以有效使用與EL中的正確時刻對應的編碼BL訊框1200中的那些像素以用於層間預測。 規定該畫面中哪些區域可以或應該使用基於場奇偶性的升取樣的參數可以由編碼器決定、並可以例如在EL片段標頭中作為位元流的部分而用信號發送。因為BL畫面可以被編碼為複合訊框而不是2個場,表3中的旗標base_layer_frame_pic_flag 可以設定為1。雖然第12圖示出BL中MB在場模式中被編碼且基於場奇偶性的升取樣可以被應用的一個區域1220(例如,僅一個區域),但是多於一個區域(例如,任何數量的這種區域)可以存在並可以在位元流中用信號被發送。可以藉由規定位置(例如,藉由規定角落座標,例如左上座標)和尺寸(例如,寬度和高度)及/或規定第二個對角角落位置來用信號通告一個或多個區域。在某些代表性實施方式中,可以藉由表明BL中哪些巨集區塊使用場模式(例如,按光柵掃描順序的起始MB索引和結尾MB索引)被編碼來用信號通告一個或多個區域。 在其他代表性實施方式中,用於每個區域的升取樣(訊框及/或場)程序可以被隱式決定或確定。編碼器和解碼器可以例如藉由偵測區域內頂場和底場之間的運動量來確定以相同方式應用於每個區域的合適的升取樣程序。為了確定頂場與底場之間的運動量,例如頂場與底場之間的絕對差總和(SAD)或平方差總和(SSE)之類的差值度量可以被應用。編碼器可以確定SAD或SSE的合適臨界值並可以將該臨界值傳送給解碼器。如果頂場域底場之間的SAD/SSE的值大於臨界值,則特定區域被認為是移動區域且可以應用基於場奇偶性的升取樣。否則(例如,如果頂場與底場之間的SAD/SSE值不大於臨界值),則特定區域被認為是靜態區域且可以應用像素複製。 在這裡描述的基於區域自適應訊框/場升取樣過程中,像素複製可以被應用於靜態區域(其中MB可以用訊框模式被編碼)。像素複製僅是一個示例。更複雜的層間處理技術例如去雜訊過濾或去假影過濾也可以被應用於屬於訊框模式MB的這些像素。此外,用於形成用於EL編碼的層間參考畫面的上述方法也可以用作解交錯技術。例如,顯示器可以偵測快速運動的區域(例如,藉由從位元流擷取關於哪些區塊使用MBAFF被編碼為場區塊的資訊),並可以執行解交錯以使用上述與第12圖有關的用於產生時間T和時間T+1的層間參考畫面相同的步驟來產生連續訊框。在其他實施方式中,特別參數可以由編碼器例如作為補充增強資訊(SEI)訊息的部分被發送以改進顯示器的解交錯。此種特別參數可以包括上述討論的參數,例如快速運動的區域的尺寸和位置的傳訊及/或用信號發送及/或使用用於顯示器的預定臨界值來確定該快速運動區域。基於場組合的參考畫面 當將交錯視訊轉換成連續格式(例如,用於顯示)時,可以使用場組合技術和程序。該轉換過程可以稱為“解交錯”。例如,廣播商可以執行對交錯內容的解交錯並以連續數位格式傳送該內容。作為另一示例,現代數位電視可以有本質上是連續的顯示器,且電視需要在以連續格式顯示內容之前解交錯接收到的交錯內容。這種解交錯技術和程序可以結合來自不同場的資訊(例如,以產生用於顯示的連續訊框)。在某些代表性實施方式中,可以實施程序以將場組合技術適用於層間預測任務。 第13圖示出了一個代表性程序。可以使用交錯場來編碼基層。這些在圖中被示出為“場A”1301和“場B”1302。場組合技術可以用於組合基層場以產生參考畫面1310,其可以用作層間參考畫面以用於在增強層中預測連續訊框1320。藉由組合來自基層的場,有可能建構比可能從單一場(例如,僅單一場)建構的更好的參考畫面。例如,場組合可以允許參考畫面保留全垂直解析度的細節,其中該細節可能在參考畫面從在垂直方向升取樣的單一場形成的情況下(如這裡所述的)而丟失。 場組合技術可以採用各種形式。在一個代表性實施方式中,來自第一場(例如,“場A”)的內容可以被複製到層間參考畫面的偶數線,且來自第二場(例如,“場B”)的內容可以被複製到層間參考畫面的奇數線。這樣,來自一個場的線可以與來自另一場的線交織在一起以產生參考畫面。 在另一代表性實施方式中,來自第一場(例如,“場A”)的內容可以與來自第二場(例如,“場B”)的內容被平均以產生參考畫面的線。這種平均可以使用例如加權平均技術來執行。例如,參考畫面的偶數線可以藉由加權平均來產生,該加權平均結合來自基層頂場的線和來自基層底場的對應的線。頂場線的權重可以大於、等於或小於底場線的權重(例如,頂場線的權重可以是0.8而底場線的權重可以是0.2)。這樣,基層場可以混合一起,且‘梳狀’假影可以在最終的參考畫面中減少。 在另一代表性實施方式中,使用運動補償技術,來自第一場(例如,“場A”)的內容可以與來自第二場(例如,“場B”)的內容結合。這樣,在對應於EL連續訊框的時間和對應於基層場的每一個的時間之間的時間差期間發生的運動可以被補償,且在所得的參考畫面中可以降低或基本消除‘梳狀’假影。例如,根據第13圖,如果基層的場A 1301 與將被預測的連續增強層訊框1320共置(例如,具有相同顯示時間),則基層的場B 1302可以相對於場A 1301和相對於連續增強層訊框1320具有不同顯示時間。例如,場B可以比場A晚1/30秒。在這種情況中,可以藉由將場A的線複製到參考畫面(例如,如果場A是頂場,則複製到參考畫面的偶數線)、並將場B的線的運動補償版本複製到參考畫面(例如,如果場B是底場則複製到參考畫面的奇數線)來構成參考畫面。場B的運動補償可以相對場A被執行以在建構參考畫面1310時將場B的畫面資料更好對準場A的畫面資料。這樣,該參考畫面可以保留全垂直解析度的細節,且可以降低或基本消除‘梳狀’假影。 運動補償可以相對於另一場(例如,‘場A’)而在一個場(例如,‘場B’)上被執行,其中這兩個場在編碼器和解碼器側都可用。例如,編碼器和解碼器的每個可以執行場之間的一致的運動估計和補償程序,且由此可以在編碼器側和解碼器側建構相同的參考畫面(例如,不需要從編碼器傳送運動資訊(例如,運動模式資訊)及/或運動向量到解碼器(例如,在位元流中))。總的場組合程序及/或技術(包括任一運動補償過程及/或程序)可以被確定且可以在編碼器側和解碼器側被預設(例如,提前商定好)。在某些代表性實施方式中,構想了過程/程序的變化是可能的,合適的傳訊從編碼器被發送到解碼器以定義(例如,設定或建立)該過程。例如,編碼器可以每個參考畫面用信號通告用於建構參考畫面的場結合是基於場複製(例如,場可以如這裡所述‘交織一起’)還是基於一個場相對於另一個場的運動補償。作為另一個示例,編碼器可以用信號通告不同場組合程序及/技術,其將被用於建構參考畫面的不同區域,由此參考畫面的一些區塊可以使用一個場組合程序/技術被建構,且參考畫面的其他區塊可以使用不同的場組合過程/技術被建構。 雖然第13圖示出了基層的場A 1301與將被預測的EL連續訊框1320共置,且基層的場B 1302作為時間上落後的場,但是其他配置是可能的。例如,參考畫面可以被建構為與將被預測的EL連續訊框共置的第一基層場與時間上早於第一基層場的第二基層場的組合。作為另一示例,參考畫面可以被建構為兩個基層場的組合,其中兩個基層場的任一個不與將被預測的EL連續訊框共置。 作為另一示例,參考畫面可以被建構為兩個以上的基層場的組合,例如,與將被預測的EL連續訊框1420共置的第一基層場(例如,“場A”)、時間上晚於第一基層場的第二基層場(例如,“場B”)和時間上早於第一基層場的第三基層場(例如,“場C”)的組合。第14A圖示出了代表性程序/過程。在某些代表性實施方式中,參考畫面1410可以被建構為第一1401、第二1402及/或第三1403基層場的加權組合。在其他代表性實施方式中,參考畫面1410可以使用相對於第一基層場1401的第二基層場1402和第三基層場1403的運動補償來建構,其中參考畫面的每個局部區域(例如,每個區塊)的運動補償資料可以依據哪個或哪些場提供對第一基層場中資料中更好的匹配(例如,更好對準)而從第二及/或第三基層場中選出。該相同過程可以在編碼器側和解碼器側被同等執行,由此例如可以不需要傳送運動資訊(例如,模式資訊及/或運動向量)以描述用於層間參考畫面重建的運動補償過程/程序。 第13圖和第14A圖中示出的每個交錯場可以將編碼的完全畫面表示為場、或可以表示畫面的場編碼子集合(例如,使用MBAFF所編碼的一個或多個巨集區塊場)。層自適應和畫面自適應重新取樣相位選擇 可以在重新取樣(例如,升取樣)中選擇合適的相位過濾器以在基層畫面例如用於重新取樣以預測增強層畫面時改進編碼效率。在一個非限制性示例中,最合適的相位過濾器可以取決於正被使用的基層資料是頂交錯場還是底交錯場。在某些代表性實施方式中,可以實施以下的一個或多個: (1)添加SPS傳訊vert_phase_position_present_flag以表明在畫面級的垂直相位過濾器調整是否可以被啟用用於一個或多個參考層; (2)添加片段標頭傳訊phase_position_flag以針對垂直相位過濾器調整被啟用的這些參考層表明垂直相位位置; (3)如果合適或需要,根據在片段標頭中的phase_position_flag值以在重新取樣期間調整垂直相位過濾器選擇;及/或 (4)添加VPS VUI指示vps_vui_phase_adjustment_flag以表明針對解碼可調位元流中的至少一個畫面是否需要基於畫面的相位過濾器調整。此VPS VUI表明旗標可以不影響標準的解碼過程。藉由向解碼器通知是否需要基於畫面的相位過濾器調整,如果基於畫面的相位過濾器調整不合適或不需要,此旗標可以允許一些解碼器實施在解碼視訊序列的開始(例如,剛開始)預先載入確定的相位過濾器。 如果上述的片段級傳訊是針對特定參考層的1位元旗標(例如,僅1位元旗標),其僅允許頂場與底場之間的雙態觸變(toggling)(例如,僅在垂直方向),但是可以不允許在畫面級改變垂直和水平相位過濾器。在水平及/或垂直升取樣的基於畫面的相位過濾選擇的附加靈活性可以是合適的及/或被實施(例如,用於以下用例): (1)不同的降取樣過濾器(例如,不同相位特性及/或不同取樣格對準)可以用於降取樣並產生不同層的視訊畫面,如在美國揭露的專利申請No. 2014/0037015中記載的,其內容藉由引用的方式結合於此; (2)常規降取樣過濾器可以與連續至交錯轉換過程結合,例如以直接將4k´2k連續視訊轉換成1080i交錯視訊; (3)對於色度子取樣,在交錯及/或連續YUV420或YUV422中使用非預設色度樣本位置(例如,相對於亮度樣本的色度樣本相位)。第9圖和第10圖中分別示出了YUV420連續和交錯視訊的預設色度樣本位置。但是,例如HEVC和H.264/AVC的視訊標準可以允許使用其他色度樣本位置。色度相位過濾器選擇可以或可以需要從亮度相位過濾器選擇解耦。 在某些代表性實施方式中,用於用信號發送取樣格參數的過程可以被實施,其可以用於選擇升取樣相位過濾器。當取樣格在序列級用信號被發送時,代表性程序可以不允許基於畫面的相位過濾器自適應。當取樣格在1/16像素精確度用信號發送時,代表性程序可以使用或需要更多的位元來用於表現。 用於用信號發送取樣格參數例如在之前提到的美國揭露的專利申請No. 2014/0037015揭露的參數的某些代表性程序可以被實施以用於用信號發送相位資訊,其可以是通用的,可以提供更效率的傳訊,且可以具有畫面級相位過濾器自適應的能力。 例如,可以基於以下變數來選擇相位過濾器: phaseX = cross_layer_phase_alignment_flag << 1 phaseXC = cross_layer_phase_alignment_flag phaseY = VertPhasePositionAdjustFlag ?( VertPhasePositionFlag << 2) : (cross_layer_phase_alignment_flag << 1) phaseYC = VertPhasePositionAdjustFlag ? phaseY : (cross_layer_phase_alignment_flag + 1) 可以構想phaseX和phaseXC可以用於分別選擇用於重新取樣亮度和色度分量的水平相位過濾器。PhaseY和phaseYC可以用於分別選擇用於重新取樣亮度和色度分量的的垂直相位過濾器。 如上表5和6中所示,16相位過濾器可以用於執行升取樣。對於重新取樣的畫面中的每個樣本(例如,每個亮度或色度樣本)位置(xP,yP),來自表5及/或表6的相位過濾器被選擇。使用亮度分量作為示例,以下可以用於從16個相位過濾器(亮度或色度)中選擇一個來用於重新取樣: addX = ( ScaleFactorX * phaseX + 2 ) >> 2 addY = ( ScaleFactorY * phaseY + 2 ) >> 2 xRef16 = ( ( ( xP - offsetX ) * ScaleFactorX + addX + ( 1 << 11 ) ) >> 12 ) − ( phaseX << 2 ) yRef16 = ( ( ( yP - offsetY ) * ScaleFactorY + addY + ( 1 << 11 ) ) >> 12 ) – ( phaseY << 2 ) x_phase_filter_idx = xRef16 modular 16 y_phase_filter_idx = yRef16 modular 16 其中ScaleFactorX和 ScaleFactorY是用16位元固定點精確度表現的縮放比,(xP, yP)是在重新取樣的畫面中的樣本位置,以及offsetX和offsetY是從重新取樣的畫面的左上角的修剪(cropping)偏移。 以上過程使用亮度過濾器選擇作為一個代表性示例,且該過程同樣適用於色度過濾器選擇。 phaseX、phaseY、phaseXC和phaseYC的值可以是取樣格的降低精確度表現。例如,不是1/16像素精確度,而是他們可以等於相位資訊的1/4像素精確度近似。表7列出了用於這裡討論的一些代表性用例的phaseX、phaseY、phaseXC和phaseYC 的值。左邊的行示出了代表性用例和語法元素和變數(例如,cross_layer_phase_alignment_flag,VertPhasePositionAdjustFlag,及/或VertPhasePositionFlag)的代表性(例如,對應)值。右邊的行示出了用信號發送的相位參數值。表7的最後一列給出了不能使用目前傳訊程序(例如,某些目前傳訊程序)表現的用例。在此用例中,色度樣本位置不是第9圖中示出的預設色度樣本位置。色度樣本位置可以需要不能使用現有技術的傳訊程序得到的phase X、 phaseY、phaseXC及/或phaseYC的值的新集合。 代替使用旗標集合(cross_layer_phase_alignment_flag, VertPhasePositionAdjustFlag及/或VertPhasePositionFlag)來得到phaseX、phaseY、phaseXC、及/或phaseYC的可能值的子集合(例如,有限子集合),這些變數的值可以直接用信號發送以允許用信號發送全範圍的可能的值。每個相位參數集合可以包括或由phaseX、phaseY、phaseXC、及/或 phaseYC組成,並可以替換目前基於旗標的傳訊。為了允許畫面級相位過濾器自適應,這些相位參數值的多個集合可以用信號被發送。每個畫面可以使用索引來表明這些相位參數值集合中的哪一個集合應當被用於執行用於解碼目前畫面的重新取樣。由於這些值可以具有較低精確度(例如,1/4像素而不是1/16像素),該值可以使用或需要更少的位元來表現;且該值可以適合(例如,更適合)用於實現畫面級自適應重新取樣相位選擇。 表8示出示例語法表,其可以用於發送phaseX、phaseY、phaseXC、及/或phaseYC值的多個集合。該語法表可以被包括作為視訊參數集合(VPS)、序列參數集合(SPS)及/或畫面參數集合(PPS)的部分。 resample_phase_parameter_set_present_flag 等於1可以用於表明重新取樣相位資訊語法元素num_resample_phase_parameter_set_minus1, resample_phase_x_luma[ i ]、 resample_phase_y_luma[ i ]、resample_phase_x_chroma[ i ]、和 resample_phase_y_chroma[i]在位元流中存在。resample_phase_parameter_set_present_flag等於0表明重新取樣相位資訊語法元素num_resample_phase_parameter_set_minus1, resample_phase_x_luma[ i ]、resample_phase_y_luma[ i ]、resample_phase_x_chroma[ i ]、resample_phase_y_chroma[ i ]可以不或不存在於位元流中且它們的值可以被導出。當resample_phase_parameter_set_present_flag不存在時,其可以被推斷為等於0。num_resample_phase_parameter_set_minus1 + 1可以用於規定正用信號發送的重新取樣相位參數集合的數量,包括四個語法元素resample_phase_x_luma[ i ]、resample_phase_y_luma[ i ]、resample_phase_x_chroma[ i ]、和resample_phase_y_chroma[ i ]的集合。當num_resample_phase_parameter_set_minus1不存在時,其可以推定為等於0。 resample_phase_x_luma [ i ]可以用於規定用於在水平方向選擇亮度重新取樣過濾器的第i個水平重新取樣相位調整值。當resample_phase_x_luma [ i ]不存在時,其可以被推定為等於0。resample_phase_y_luma [ i ]可以用於規定用於在垂直方向選擇亮度重新取樣過濾器的第i個垂直重新取樣相位調整值。當resample_phase_y_luma [ i ]不存在時,其可以被推定為等於0。resample_phase_x_chroma [ i ]可以用於規定用於在水平方向選擇色度重新取樣過濾器的第i個水平重新取樣相位調整值。當resample_phase_x_chroma [ i ]不存在時,其可以被推定為等於0。resample_phase_y_chroma [ i ]可以用於規定用於在垂直方向選擇色度重新取樣過濾器的第i個垂直重新取樣相位調整值。當resample_phase_x_chroma [ i ]不存在時,其可以被推定為等於1。 變數NumResamplePhaseParamSets、ResamplePhaseXLuma、ResamplePhaseYLuma、ResamplePhaseXChroma、及/或ResamplePhaseYChroma可以如下得出: NumResamplePhaseParamSets = resample_phase_parameter_set_present_flag ? num_resample_phase_parameter_set_minus1 + 1 : 1 if (resample_phase_parameter_set_present_flag ) { for ( i = 0; i < NumResamplePhaseParamSets; i ++) { ResamplePhaseXLuma [ i ] = resample_phase_x_luma [ i ] ResamplePhaseYLuma [ i ] = resample_phase_y_luma [ i ] ResamplePhaseXChroma [ i ] = resample_phase_x_chroma [ i ] ResamplePhaseYChroma [ i ] = resample_phase_y_chroma [ i ] } } else { ResamplePhaseXLuma [ 0 ] = 0 ResamplePhaseYLuma [ 0 ] = 0 ResamplePhaseXChroma [ 0 ] = 0 ResamplePhaseYChroma [ 0 ] = 1 } 如上所述,語法元素resample_phase_parameter_set_present_flag可以用於表明重新取樣相位調整值是否在位元流中用信號顯式發送。如果重新取樣相位調整值沒有用信號顯式發送,則可以使用預設集合。在某些用例(例如,最典型的用例)中,例如連續至連續空間縮放性(其中用於產生較低解析度視訊(例如,在第4圖的降取樣單元中)在左升取樣被對準(例如,cross_layer_phase_alignment_flag = 0)),resample_phase_parameter_set_ present_flag的值可以被設定為0,且重新取樣相位參數值包括ResamplePhaseXLuma[ 0 ],ResamplePhaseYLuma[ 0 ], ResamplePhaseXChroma[ 0 ], and/or ResamplePhaseYChroma[ 0 ]可以被推出(例如,根據表7中頂行中列出的值)。 在表8的示例中,語法元素resample_phase_x_luma, resample_phase_y_luma、resample_phase_x_chroma、及/或resample_phase_y_chroma可以使用3位元固定長度編碼而用信號發送(但是例如ue(v)或Exp-Golomb編碼之類的其他熵編碼程序可以被使用),且它們的值的範圍可以在0至7(包含邊界)。實際上,這些值的範圍可以被調整到例如另一範圍(-3至4的範圍(含邊界))。在此情況中,上述的虛擬碼可以修改如下: ResamplePhaseXLuma [ i ] = resample_phase_x_luma [ i ] - 3 ResamplePhaseYLuma [ i ] = resample_phase_y_luma [ i ] - 3 ResamplePhaseXChroma [ i ] = resample_phase_x_chroma [ i ] - 3 ResamplePhaseYChroma [ i ] = resample_phase_y_chroma [ i ] - 3 如果重新取樣相位參數集合的多於一個集合在序列級用信號被發送(例如,在VPS、SPS及/或PPS中),由此NumResamplePhaseParamSets 的值大於1,則附加語法元素可以用於表明這些集合中的哪一個可以用於重新取樣用於解碼目前畫面的一個或多個參考層畫面。此片段標頭語法元素的示例,稱為resample_phase_parameter_set_idx,在表9中給出。如表9中示例所示,一個索引(例如,僅一個索引)可以是或在片段標頭中被發送(例如,但是目前片段可以具有多個參考層畫面)。 例如,可調主要設定檔和可調主要10設定檔(例如,在SHVC草案5中定義)都可以具有約束,其針對在一致可調位元流中任一層中任何畫面的解碼最多一個參考層畫面(也稱為層間參考畫面)可以在要用於解碼目前畫面之前被重新取樣。即使目前畫面使用多於一個的層間參考畫面,這些層間參考畫面中的一個(例如,僅一個)可以被重新取樣,且其他(例如,所有其他)層間參考畫面具有(例如,可以或必須具有)相同畫面大小且不被重新取樣(例如,不需要被重新取樣)。此約束的目的是限制一致解碼器的複雜性。由於可調主要和可調主要10設定檔的此約束(例如,在SHVC草案5中定義),一個(例如,僅一個)重新取樣相位參數集合索引可以關於每個片段被發送(如表9中所示)。如果設定檔釋放此約束,resample_phase_parameter_set_idx可以針對每個片段被發送超過一次,且不同的參考層畫面可以使用不同的重新取樣相位參數。與許多其他語法元素類似,當畫面在多於一個片段中被編碼時,resample_phase_parameter_set_idx的值可以針對相同畫面中的所有片段是相同的。 resample_phase_parameter_set — idx 可以規定用於重新取樣用於解碼目前片的參考層畫面的重新取樣相位參數集合的索引。當resample_phase_parameter_set_idx不存在時,其可以被推定為等於0。resample_phase_parameter_set_idx的值的範圍可以在0和NumResamplePhaseParamSets – 1(含邊界)。 在重新取樣過程期間,以下修改可以被應用於子條款H.6.2(例如,用於在重新取樣中使用的參考層樣本位置的導出過程)以導出變數phaseX和phaseY: phaseX = ( cIdx = = 0 ) ? ResamplePhaseXLuma[resample_phase_parameter_set_idx] : ResamplePhaseXChroma[resample_phase_parameter_set_idx] (H-5) phaseY = ( cIdx = = 0 ) ? ResamplePhaseYLuma[resample_phase_parameter_set_idx] : ResamplePhaseYChroma[resample_phase_parameter_set_idx] (H-6) 表8及/或表9中的傳訊過程可以使用及/或可以需要比在片標頭中所需更多的位元來用信號發送重新取樣相位參數集合索引。用於用信號發送相位參數集合索引的位元數量可以藉由知道及/或考慮在重新取樣過程中參與的該一對層而進一步減少。第14B圖示出了3層可調位元流作為代表性示例,其中該3層可調位元流可以使用或可能需要總共5個重新取樣相位參數集合。在第14B圖中,對用於解碼層1畫面的層0畫面的重新取樣可以使用及/或可能需要重新取樣2個相位參數集合(例如,畫面級自適應重新取樣相位選擇在這兩個層之間被使用或需要)。對用於解碼層2畫面的層0畫面的重新取樣可以使用或可以需要重新取樣2個相位參數集合(例如,在這兩個層之間使用及/或需要畫面級自適應重新取樣相位選擇)。用於解碼層2畫面的層1畫面的重新取樣可以使用或可以需要(例如,可以僅使用或可以僅需要)重新取樣相位參數的1個集合(例如,沒有畫面級自適應可以被使用或可以需要,且層1畫面(例如,所有層1畫面)可以使用用於解碼層2畫面的重新取樣相位的該相同集合)。使用以上傳訊過程,在序列級,NumResamplePhaseParameterSets等於5,且片段標頭中每個語法元素resample_phase_parameter_set_idx可以使用或可以需要3個位元(例如,ceil(log2(NumResamplePhaseParameterSets)),因為固定長度編碼可以被應用於resample_phase_parameter_set_idx。 在片級,在重新取樣之前,用於確定重新取樣相位的兩個層(例如,目前層和參考層)可以是已知的(例如,已經已知的)。該已知資訊可以用於降低片標頭中的相位參數集合傳訊成本。例如,從重新取樣相位參數集合總數量中,可以在序列級規定(例如,另外規定)存在直接依存性的兩個層的每個對(例如,允許取樣預測的兩個層)之間被允許的相位參數集合。在片級,重新取樣相位參數集合可以選自在重新取樣中使用的目前層和其參考層之間被允許的重新取樣相位參數集合,而不是選自所有的重新取樣相位參數集合。在第14B圖的示例中,如果重新取樣被應用於層1畫面以用於解碼層2畫面,由於第4個相位參數集合(例如,僅第4個相位參數集合)可以在這兩個層之間被使用,則不需要用信號發送該相位參數集合索引(例如,由於其能夠被推定為第4個參數集合,因為其是用於被重新取樣以預測層2 畫面的層1畫面)。在第14B圖示出的另一示例中,如果重新取樣被應用於層0畫面以用於解碼層2畫面,由於在此示例中,僅第二和第三相位參數集合是可能的,因此1位元索引傳訊(而不是3位元索引傳訊)可以在片級是足夠的。該目前可調主要和可調主要10設定檔(例如,在SHVC草案5中定義)允許一個參考層畫面(例如,僅且最多一個參考層畫面)被重新取樣以用於解碼目前畫面。 雖然這裡描述了具有該一個參考層畫面重新取樣約束的程序,但是構思了傳訊可以被擴展以支援多於一個參考層畫面的重新取樣。 對於該目前畫面,在重新取樣中使用的參考層畫面的layer_id,表示為ResampleRefLayerId,可以使用以下虛擬碼來得到: The variable currLayerId is set equal to the value of nuh_layer_id of the current picture The variable NumActiveRefLayerPics is set equal to the number of active reference layers for decoding of the current picture The array RefPicLayerId stores the values of nuh_layer_id of the active reference layers for decoding of the current picture for ( i = 0; i < NumActiveRefLayerPics; i ++) { refLayerId = RefPicLayerId[ i ] if (VpsInterLayerSamplePredictionEnabled[ LayerIdxInVps[ currLayerId ] ] [ LayerIdxInVps[ refLayerId ] ] && // sample prediction is enabled (picture width or height or luma or chroma sample bit depth between currLayerId and refLayerId is different || at least one of the cropping parameters between currLayerId and refLayerId is non-zero ) ) { ResampleRefLayerId = refLayerId } } 表10中示出了建立對相位參數集合傳訊的示例語法表,且在片段標頭中的相應相位參數集合索引傳訊在表11中示出。 num_resample_phase_param_set_layer_pair[ i ] [ j ] 可以規定第i個層與第j個層之間的重新取樣相位參數集合的數量。當num_resample_phase_param_set_layer_pair[ i ] [ j ]不存在時,其可以被推定為等於0。resample_phase_param_set_idx_layer_pair[ i ] [ j ] [ k ] 可以規定用於第i個層畫面與第j個層畫面之間的重新取樣的重新取樣相位參數集合的第k個索引。當resample_phase_param_set_idx_layer_pair[ i ] [ j ] [ k ]不存在時,其可以被推定為等於0。resample_phase_param_set_idx_layer_pair[ i ] [ j ] [ k ]的值的範圍可以在0到NumResamplePhaseParamSets – 1(含邊界)。 resample_phase_param_set_idx 可以規定用於重新取樣layer_id等於ResampleRefLayerId的參考層畫面以用於解碼目前片的重新取樣相位參數集合的索引。當resample_phase_param_set_idx不存在時,其可以被推定為等於0。resample_phase_param_set_idx的值的範圍在0至num_resample_phase_param_set_layer_pair[LayerIdxInVps[nuh_layer_id]][LayerIdxInVps[R esampleRefLayerId]] – 1,其中nuh_layer_id是目前片的layer_id,以及ResampleRefLayerId是被應用重新取樣的目前層畫面的layer_id。 與表9相比,表11中的resample_phase_parameter set_idx的值具有縮小的動態範圍,且可以使用或可以需要更少的位元來表現。在重新取樣過程期間,以下修改可以被應用(例如,對於H.6.2,在重新取樣中使用參考層採用位置的導出過程)以導出變數phaseX和phaseY: resamplePhaseParamSetIdx = resample_phase_param_set_idx_layer_pair[LayerIdxInVps[nuh_layer_id]][LayerIdxInVps[Re sampleRefLayerId]][resample_phase_param_set_idx] phaseX = ( cIdx = = 0 ) ? ResamplePhaseXLuma[resamplePhaseParamSetIdx] : ResamplePhaseXChroma[resamplePhaseParamSetIdx] (H-5) phaseY = ( cIdx = = 0 ) ? ResamplePhaseYLuma[resamplePhaseParamSetIdx] : ResamplePhaseYChroma[resamplePhaseParamSetIdx] (H-6)實施例 在一個實施方式中,一種方法被實施用於解碼視訊訊號,包括:儲存一個或多個相位參數集合以在重新取樣視訊畫面中使用;接收視訊內容,其包括基層視訊內容和增強層視訊內容;以及基於該基層中的畫面和儲存的一個或多個相位參數集合以組合在預測增強層中至少一個畫面中使用的一個或多個層間參考(ILR)畫面。 前述實施例還可以包括使用該ILR參考畫面預測增強層畫面。 之前實施例的一個或多個還可以包括其中儲存的一個或多個集合相位參數的每一個包括:用於選擇用於一個或多個ILR參考畫面的亮度分量的水平相位過濾器的phaseX資訊;用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的水平相位過濾器的phaseXC資訊;用於選擇用於一個或多個ILR參考畫面的亮度分量的垂直相位過濾器的phaseY資訊;及/或用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的垂直相位過濾器的phaseYC資訊。 之前實施例的一個或多個還可以包括接收數量指示符,該數量指示符表明正被傳送的相位值的集合數量。 之前實施例的一個或多個還可以包括接收至少一個索引指示符,該至少一個索引指示符表明來自儲存的相位參數的一個或多個集合中的將被用於組合該至少一個ILR畫面的至少一個相位參數集合。 之前實施例的一個或多個還可以包括其中該至少一個索引指示符在片段標頭中被接收。 之前實施例的一個或多個還可以包括其中組合該一個或多個ILR畫面包括基於接收的至少一個索引指示符表明的至少一個相位參數集合以選擇用於重新取樣亮度及/或色度分量的至少一者的相位過濾器。 之前實施例的一個或多個還可以包括其中至少一個索引指示符與視訊內容的片相關聯,且該方法還包括根據與該片相關聯的索引指示符以調整用於接收的視訊內容的基層中的片的水平相位過濾器和垂直相位過濾器的至少一者,以用於組合該ILR畫面。 之前實施例的一個或多個還可以包括經由傳訊接收將被儲存的一個或多個相位參數集合。 之前實施例的一個或多個還可以包括其中將被儲存的一個或多個相位參數集合在視訊參數集合(VPS)中被接收。 之前實施例的一個或多個還可以包括其中將被儲存的一個或多個相位參數集合在畫面參數集合(PPS)中被接收。 之前實施例的一個或多個還可以包括經由傳訊接收旗標指示符,該旗標指示符表明至少一個索引指示符是否用信號被發送。 之前實施例的一個或多個還可以包括接收旗標指示符,該旗標指示符表明一個或多個相位參數集合是否用信號被發送。 之前實施例的一個或多個還可以包括其中表明一個或多個相位參數集合是否用信號被發送的旗標指示符的第一狀態表明一個或多個相位參數集合沒有用信號發送並表明一個或多個相位參數集合將被推斷出。 之前實施例的一個或多個還可以包括其中被推斷出的一個或多個相位參數集合是包括以下的集合:用於選擇用於一個或多個ILR參考畫面的亮度分量的水平相位過濾器的phaseX資訊是0;用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的水平相位過濾器的phaseXC資訊是0;用於選擇一個或多個ILR參考畫面的亮度分量的垂直相位過濾器的phaseY資訊是0;以及用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的垂直相位過濾器的phaseYC資訊是1。 之前實施例的一個或多個還可以包括其中基層畫面是被交錯掃描的且增強層畫面是被連續掃描的。 之前實施例的一個或多個還可以包括其中基層畫面包括交錯場且增強層畫面包括連續訊框。 在另一實施例中,視訊解碼系統可以包括處理器,被配置為:儲存在重新取樣視訊畫面中使用的一個或多個相位參數集合;接收視訊內容,其包括基層視訊內容和增強層視訊內容;以及基於在基層中的畫面和儲存的相位參數集合的一個或多個來組合在預測增強層中至少一個畫面中使用的層間參考(ILR)畫面。 之前實施例還可以包括其中該處理器還被配置為使用該ILR參考畫面預測增強層畫面。 之前實施例的一個或多個還可以包括其中儲存的一個或多個相位參數集合的每一個包括:用於選擇用於一個或多個ILR參考畫面的亮度分量的水平相位過濾器的phaseX資訊;用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的水平相位過濾器的phaseXC資訊;用於選擇用於一個或多個ILR參考畫面的亮度分量的垂直相位過濾器的phaseY資訊;及/或用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的垂直相位過濾器的phaseYC資訊。 之前實施例的一個或多個還可以包括其中該處理器還被配置為接收至少一個索引指示符,該至少一個索引指示符表明來自儲存的一個或多個相位參數集合中的將被用於組合該ILR畫面的相位參數的至少一個集合。 之前實施例的一個或多個還可以包括其中該至少一個索引指示符在片段標頭中被接收。 之前實施例的一個或多個還可以包括其中該處理器還被配置為藉由基於接收的至少一個索引指示符表明的至少一個相位參數集合選擇用於重新取樣亮度及/或色度分量的至少一者的相位過濾器來組合該一個或多個ILR畫面。 之前實施例的一個或多個還可以包括其中該至少一個索引指示符與該視訊內容的片相關聯,且其中該處理器還被配置為根據與該片相關聯的索引指示符來調整用於接收的視訊內容的基層中的片的水平相位過濾器和垂直相位過濾器的至少一者,以用於組合該ILR畫面。 之前實施例的一個或多個還可以包括其中該處理器還被配置為經由傳訊接收將被儲存的一個或多個相位參數集合。 之前實施例的一個或多個還可以包括其中將被儲存的一個或多個相位參數集合在畫面參數集合(PPS)中被接收。 之前實施例的一個或多個還可以包括其中該處理器還被配置為經由傳訊接收旗標指示符,該旗標指示符表明該至少一個索引指示符是否用信號被發送。 之前實施例的一個或多個還可以包括接收旗標指示符,該旗標指示符表明一個或多個相位參數集合是用信號發送還是被推斷出。 之前實施例的一個或多個還可以包括其中推斷出的一個或多個相位參數集合是包括以下的集合:用於選擇用於一個或多個ILR參考畫面的亮度分量的水平相位過濾器的phaseX資訊是0;用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的水平相位過濾器的phaseXC資訊是0;用於選擇用於一個或多個ILR參考畫面的亮度分量的垂直相位過濾器的phaseY資訊是0;以及用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的垂直相位過濾器的phaseYC資訊是1。 之前實施例的一個或多個還可以包括其中基層畫面是交錯掃描的且增強層畫面是連續掃描的。 在另一實施例中,視訊編碼方法可以在視訊編碼器中實施,該方法包括:傳送視訊內容,其包括基層視訊內容和增強層視訊內容;以及傳送一個或多個相位參數集合,其重新取樣基層中的視訊畫面,該視訊畫面由視訊解碼器用於基於基層中的畫面和相位參數集合的一個或多個以組合一個或多個層間參考(ILR)圖以用於預測增強層中的至少一個畫面。 之前實施方式還可以包括其中一個或多個相位參數集合的每一個包括:用於選擇用於ILR參考畫面的亮度分量的水平相位過濾器的phaseX資訊;用於選擇用於ILR參考畫面的色度分量的至少一個的水平相位過濾器的phaseXC資訊;用於選擇用於ILR參考畫面的亮度分量的垂直相位過濾器的phaseY資訊;及/或用於選擇用於ILR參考畫面的色度分量的至少一個的垂直相位過濾器的phaseYC資訊。 之前實施例的一個或多個還可以包括傳送數量指示符,該數量指示符表明正被傳送的相位值集合的數量。 之前實施例的一個或多個還可以包括傳送至少一個索引指示符,該至少一個索引指示符表明來自一個或多個相位參數集合中的將用於組合ILR畫面的至少一個相位參數集合。 之前實施例的一個或多個還可以包括其中至少一個索引指示符在片段標頭中被傳送。 之前實施例的一個或多個還可以包括其中多個相位參數集合在畫面參數集合(PPS)中被傳送。 之前實施例的一個或多個還可以包括傳送旗標指示符,該旗標指示符表明至少一個索引指示符是否用信號被發送。 之前實施例的一個或多個還可以包括其中基層畫面是被交錯掃描的且增強層畫面是被連續掃描的。 之前實施例的一個或多個還可以包括傳送旗標指示符,該旗標指示符表明一個或多個相位參數集合是用信號發送還是被推斷出。 之前實施例的一個或多個還可以包括其中推斷出的一個或多個相位參數集合是包括以下的集合:用於選擇用於一個或多個ILR參考畫面的亮度分量的水平相位過濾器的phaseX資訊是0;用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的水平相位過濾器的phaseXC資訊是0;用於選擇用於一個或多個ILR參考畫面的亮度分量的垂直相位過濾器的phaseY資訊是0;以及用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的垂直相位過濾器的phaseYC資訊是1。 在另一個實施例中,一種視訊編碼系統可以包括處理器,被配置為傳送在視訊解碼器用於重新取樣視訊畫面的多個相位參數集合;傳送視訊內容,其包括基層和增強層,每個層包括多個畫面;以及傳送視訊解碼器用於基於基層中畫面和相位參數集合的一個或多個以組合一個或多個層間參考(ILR)畫面以用於預測增強層中的至少一個畫面的資料。 之前實施例還可以包括其中一個或多個相位參數集合的每一個包括:用於選擇用於ILR參考畫面的亮度分量的水平相位過濾器的phaseX資訊;用於選擇用於ILR參考畫面的色度分量的至少一個的水平相位過濾器的phaseXC資訊;用於選擇用於ILR參考畫面的亮度分量的垂直相位過濾器的phaseY資訊;及/或用於選擇用於ILR參考畫面的色度分量的至少一個的垂直相位過濾器的phaseYC資訊。 之前實施例的一個或多個還可以包括傳送數量指示符,該數量指示符表明正被傳送的相位值集合的數量。 之前實施例的一個或多個還可以包括其中該處理器還被配置為傳送至少一個索引指示符,該至少一個索引指示符表明來自相位參數的一個或多個集合中將被用於組合ILR畫面的至少一個相位參數集合。 之前實施例的一個或多個還可以包括其中該處理器還被配置為在片段標頭中傳送至少一個索引指示符。 之前實施例的一個或多個還可以包括其中該處理器還被配置為在畫面參數集合(PPS)中傳送多個相位參數集合。 之前實施例的一個或多個還可以包括其中該處理器還被配置為傳送旗標指示符,該旗標指示符表明至少一個索引指示符是否用信號被發送。 之前實施例的一個或多個還可以包括其中基層畫面是被交錯掃描的且增強層畫面是被連續掃描的。 之前實施例的一個或多個還可以包括其中該處理器還被配置為傳送旗標指示符,該旗標指示符表明一個或多個相位參數集合是用信號被發送還是被推斷出。 之前實施例的一個或多個還可以包括其中推斷出的一個或多個相位參數集合是包括以下的集合:用於選擇用於一個或多個ILR參考畫面的亮度分量的水平相位過濾器的phaseX資訊是0;用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的水平相位過濾器的phaseXC資訊是0;用於選擇用於一個或多個ILR參考畫面的亮度分量的垂直相位過濾器的phaseY資訊是0;以及用於選擇用於一個或多個ILR參考畫面的色度分量的至少一個的垂直相位過濾器的phaseYC資訊是1。 在另一實施例中,一種視訊解碼方法可以包括:解碼器接收視訊內容,其包括多個層的第一、第二、第三和第四層;解碼器接收多個相位參數集合;解碼器接收第一相位參數選擇資訊,其表明該多個相位參數集合中一個或多個允許相位參數集合中的第一集合,該第一集合將被用於從第二層預測第一層;解碼器接收第二相位參數選擇資訊,其表明該多個相位參數集合中一個或多個允許相位參數集合中的第二集合,該第二集合將被用於從第四層預測第三層;識別參考層和目前層,其中解碼器從參考層重新取樣畫面;基於參考層和目前層的識別以從允許相位參數集合中被表明的第一集合或被表明的第二集合之一中選擇允許相位參數集合的一集合;解碼器接收索引指示符;基於該索引指示符,從允許相位參數集合的所選集合中選擇相位參數集合;基於所選相位參數集合,選擇用於重新取樣亮度及/或色度分量的任一者的水平相位過濾器和垂直相位過濾器的至少一者;以及組合一個或多個層間參考(ILR)畫面。 之前實施例還可以包括其中第一、第二、第三及/或第四層的任一者是相同層或不同層。 之前方法的一個或多個可以在視訊解碼器中被執行,該視訊解碼器包括記憶體及/或被配置為執行所列動作的處理器。 在另一實施例中,視訊解碼方法可以包括:解碼器接收視訊內容的第一和第二片,該視訊內容的第一片包括至少基層(BL)、增強層(EL)和第一相位資訊,該資訊表明來自多個相位參數集合中的一個或多個相位參數集合的第一組,該視訊內容的第二片包括至少基層(BL)、增強層(EL)和第二相位資訊,該資訊表明來自的多個相位參數集合的一個或多個相位參數集合的第二組;針對第一和第二片的每個各自的片:基於視訊內容的各自片和與各自片相關聯的接收的相位資訊,將BL組合成層間參考(ILR)畫面;選擇組合的ILR畫面或與各自片相關聯的EL參考畫面的一者或兩者;以及使用與各自片相關聯的接收相位資訊和所選的ILR畫面、或與各自片相關聯的所選EL參考畫面中的一者或多者來預測與各自片相關聯的EL畫面。 之前實施例還可以包括其中對EL畫面的預測包括:基於接收的相位資訊表明的phaseX資訊和phaseXC資訊以選擇用於重新取樣亮度和色度分量的水平相位過濾器;以及基於接收的相位資訊表明的phaseY資訊和phaseYC資訊,選擇用於重新取樣亮度和色度分量的垂直相位過濾器。 之前實施例的一個或多個還可以包括其中對EL畫面的預測包括:基於視訊內容的第一片的第一相位資訊表明的phaseX資訊和phaseXC資訊來選擇(1)用於重新取樣亮度和色度分量的水平相位過濾器的第一集合,和基於視訊內容的第二片的第二相位資訊表明的phaseX資訊和phaseXC資訊來選擇(2)用於重新取樣亮度和色度分量的水平相位過濾器的不同的第二集合;以及基於視訊內容的第一片的第一相位資訊表明的phaseY資訊和phaseYC資訊來選擇(1)用於重新取樣亮度和色度分量的垂直相位過濾器的第一集合,和基於視訊內容的第二片的第二相位資訊表明的phaseY資訊和phaseYC資訊來選擇(2)用於重新取樣亮度和色度分量的垂直相位過濾器的不同的第二集合。 之前實施例的一個或多個還可以包括其中該相位資訊包括或表明相位參數集合的一個或多個,針對每個集合其包括以下任一者:(1)phaseX資訊;(2)phaseXC資訊;(3)phaseY資訊及/或(4)phaseYC資訊。 之前實施例的一個或多個還可以包括其中相位資訊包括以下任一者:(1)允許的phaseX資訊;(2)允許的phaseXC資訊;(3)允許的phaseY資訊及/或(4)允許的phaseYC資訊。 之前實施例的一個或多個還可以包括對多個相位參數集合進行索引,使得該相位資訊包括一個或多個值,每個值表明被索引的多個相位參數集合中的特定相位參數集合。 之前實施例的一個或多個還可以包括根據與各自片相關聯的相位資訊以動態調整用於視訊內容的每個片的水平和垂直相位過濾器的至少一者。 之前實施例的一個或多個可以在視訊解碼器中執行,該視訊解碼器包括記憶體及/或被配置為執行所列舉動作的處理器。 在另一個實施例中,使用兩個或更多層的視訊解碼方法可以包括:解碼器接收視訊內容和索引資訊,該資訊表明一個或多個相位參數集合、以及層資訊,該資訊表明被包括在位元流中的兩個或更多層的至少兩個層;使用層資訊和索引資訊以基於視訊內容將至少兩個層中的第一個層組合成層間參考(ILR)畫面;以及使用所選的ILR畫面、至少兩個層中的第二個層以及基於層資訊和索引資訊所選擇的一個或多個相位參數集合來預測目前畫面。 之前的方法可以在視訊解碼器中執行,該視訊解碼器包括記憶體及/或用於執行所列舉動作的處理器。 在另一實施例中,視訊解碼方法可以包括:解碼器接收視訊內容和相位參數選擇資訊,其表明將被用於預測目前畫面的一個或多個可允許相位參數集合;基於允許的相位參數集合來選擇一個或多個相位過濾器;以及使用所選擇的相位過濾器來升取樣接收的視訊內容以預測目前畫面。 之前方法還可以包括其中接收的資訊包括配對層資訊,其表明多個相位資訊集合中的哪對被允許用於得出用於升取樣的水平和垂直相位過濾器。 之前實施例的一個或多個還可以包括其中:可允許相位參數集合是多個相位參數集合的子集合;可允許相位參數集合由第一索引表示;多個相位參數集合由第二索引表示;以及參數選擇資訊包括經由第一索引的查找值,該值是具有比與經由第二索引的另一個查找值相關聯的位元段長度小的長度的位元段。 之前實施例的一個或多個還可以包括其中解碼器被配置為存取一表,該表具有至少兩個索引,該表的第一個索引與可允許相位參數集合相關聯且該表的第二索引與用於升取樣的層相關聯,該方法還包括根據從與第一和第二索引匹配的參數選擇資訊導出的值來選擇儲存在表中的一個或多個相位參數集合,作為允許的相位參數集合;其中對一個或多個相位過濾器的選擇包括選擇以下任一者:基於允許的相位參數集合選擇用於升取樣接收的視訊內容的的水平及/或垂直相位過濾器;對接收的視訊內的升取樣包括使用選擇的水平及/或垂直相位過濾器以在水平方向及/或垂直方向的任何升取樣接收的視訊內容。 之前實施例的一個或多個可以體現在解碼器,其具有記憶體及/或被配置為執行所列舉動作的處理器。 在另一個實施例中,解碼視訊的方法可以包括:解碼器接收視訊內容,包括目前層、目前層的一個或多個參考層以及一個或多個相位參數集合;以及基於來自一個或多個參考層的視訊內容和一個或多個接收的相位參數集合來組合一個或多個層間參考(ILR)畫面。 之前實施例還可以包括使用ILR畫面的一個或多個來預測目前層畫面。 之前實施例的一個或多個還可以包括解碼器接收索引指示符,其表明一個或多個相位參數集合中的至少一個相位參數集合。 之前實施例的一個或多個還可以包括其中相位參數的一個或多個集合包括以下的至少一者:用於選擇用於亮度分量的水平相位過濾器的phaseX資訊;用於選擇用於色度分量的至少一個的水平相位過濾器的phaseXC資訊;用於選擇用於亮度分量的垂直相位過濾器的phaseY資訊;以及用於選擇用於色度分量的至少一個的垂直相位過濾器的phaseYC資訊。 之前實施例的一個或多個還可以包括其中該索引指示符在片段標頭中用信號被發送。 之前實施例的一個或多個還可以包括其中組合一個或多個ILR畫面包括基於接收的索引指示符表明至少一個相位參數集合選擇用於重新取樣亮度和色度分量的至少一者的水平相位過濾器和垂直相位過濾器的至少一者。 之前實施例的一個或多個還可以包括根據與各自片相關聯的索引指示符來調整針對接收的視訊內容中的至少一個片的水平和垂直相位過濾器的至少一者。 之前實施例的一個或多個還可以包括旗標指示符,其表明被推斷出而不是顯式用信號發送的一個或多個相位參數集合。 之前實施例的一個或多個可以體現在視訊解碼器中,其具有記憶體及/或被配置為執行所列舉動作的處理器。 在另一個實施例中,視訊解碼方法可以包括:解碼器接收視訊內容,包括目前層和目前層的一個或多個參考層;解碼器接收多個相位參數集合;解碼器接收相位參數選擇資訊,其表明多個相位參數集合中的一個或多個可允許相位參數集合,該一個或多個可允許相位參數集合用於從目前層的一個或多個參考層的第一參考層預測目前層;以及基於第一參考層和一個或多個可允許的接收相位參數集合以組合一個或多個層間參考(ILR)畫面。 之前實施例還可以包括解碼器接收索引指示符,其表明一個或多個可允許的相位參數集合中將用於從第一參考層預測目前層的至少一個相位參數集合。 之前實施例的一個或多個還可以包括其中該索引指示符在目前層的片段標頭中用信號被發送。 之前實施例的一個或多個還可以包括其中表明將用於從參考層預測目前層的一個或多個可允許相位參數集合的相位參數選擇資訊僅在目前層與參考層之間必須要重新取樣時才被接收。 之前實施例的一個或多個可以體現在解碼器中,其具有處理器及/或被配置為執行所列舉動作的處理器。 在還一個實施例中,視訊解碼方法可以包括:解碼器接收包括多個層的視訊內容;解碼器接收多個相位參數集合;解碼器接收第一相位參數選擇資訊,其表明多個相位參數集合中的第一集合,該第一集合將用於從第二層預測第一層的一個或多個可允許相位參數集合;解碼器接收第二相位參數選擇資訊,其表明該多個相位參數集合中的第二集合,該第二集合將用於第四層預測第三層的一個或多個可允許相位參數集合;識別參考層和目前層,其中解碼器從參考層重新取樣畫面;基於參考層和目前層的識別以從可允許相位參數集合的第一或第二集合選擇可允許相位參數集合的一集合;解碼器接收索引指示符;基於索引指示符,從可允許相位參數集合的該集合選擇相位參數集合;基於所選擇的相位參數集合,選擇用於重新取樣亮度和色度分量的至少一者的水平相位過濾器和垂直相位過濾器的至少一者;以及組合一個或多個層間參考(ILR)畫面。 之前實施例可以在解碼器中執行,該解碼器具有記憶體及/或被配置為執行所列舉動作的處理器。 在還一個實施例中,一種視訊解碼方法也可以在視訊解碼器中執行,該視訊解碼器具有記憶體和被配置為執行所列舉動作的處理器,該方法可以包括:解碼器接收視訊內容,其包括至少基層(BL)、增強層(EL)和指示符資訊,該指示符資訊包括表明BL是否是以交錯格式的序列指示符、以及表明BL與EL之間的對準的對準指示符;基於接收到指示符資訊,將BL組合成層間參考(ILR)畫面;選擇被處理的ILR畫面或EL參考畫面中的一者或兩者;以及使用所選ILR畫面或EL參考畫面的一個或多個來預測目前EL畫面。 之前實施例還可以包括其中組合ILR畫面是基於以下列為條件的指示符資訊:(1)目前層是EL;(2)EL使用BL用於層間取樣預測;及/或BL包括至少一個編碼場。 之前實施例可以被體現在解碼器中,該解碼器具有處理器及/或被配置為執行所列舉動作的處理器。 在另一實施例中,該實施例可以在視訊解碼器中執行,該視訊解碼器具有記憶體及/或被配置為執行所列舉動作的處理器,視訊編碼方法可以包括:接收視訊訊號;編碼器從視訊訊號產生包括基層(BL)和增強層(EL)的至少兩個層;編碼器將表明BL是否是以交錯格式被產生的序列指示符和表明BL與EL之間的對準的對準指示符設定為指示符資訊;以及編碼器發送包括至少兩個層和所設定的指示符資訊的視訊內容。 之前實施例還可以包括其中對指示符資訊的設定和發送是以下列為條件的:(1)目前層是EL;(2)EL使用BL用於層間樣本預測;(3)BL包括至少一個編碼場。 之前實施例的一個或多個還可以包括其中序列指示符資訊被包含在視訊參數集合中,且對準指示符被包含在片段標頭中。 在另一實施例中,其也可以在視訊解碼器中執行,該視訊解碼器具有處理器及/或被配置為執行所列舉動作的處理器,視訊解碼方法可以包括:解碼器接收包括至少交錯基層(IBL)、增強層(EL)和IBL的至少場奇偶性指示符的視訊內容;基於接收到的IBL的場奇偶性指示符以升取樣IBL;使用升取樣的IBL來產生層間參考(ILR)畫面;以及使用產生的ILR畫面來預測目前連續EL畫面。 之前實施例還可以包括其中產生亮度樣本及/或色度樣本的ILR畫面包括:在接收的場奇偶性表明第一值的情況下,升取樣BL中的頂場;以及在接收的場奇偶性表明第二值的情況下,升取樣BL中的底場。 之前實施例的一個或多個還可以包括其中升取樣BL中的頂場包括藉由經由垂直內插複製並導出升取樣的IBL的偶數線或奇數線的其餘部分的第二集合來導出升取樣的IBL的偶數線或奇數線的第一集合。 之前實施例的一個或多個還可以包括根據表5和表6中的值以使用相位8過濾器來執行垂直內插。 之前實施例的一個或多個還可以包括其中升取樣BL中的底場包括藉由經由垂直內插複製並導出升取樣的IBL的偶數線或奇數線的其餘部分的第二集合來導出升取樣的IBL的偶數線或奇數線的第一集合。 之前實施例的一個或多個還以包括根據表5和表6中的值以使用相位8過濾器來執行處置內插。 之前實施例的一個或多個還可以包括其中接收視訊訊號還包括接收表明色度樣本的位置的色度位置資訊;該方法還包括基於色度位置資訊導出用於色度升取樣的相位過濾器。 在另一個實施例中,其也可以在視訊解碼器中執行,該視訊解碼器具有記憶體及/或被配置為執行所列舉動作的處理器,視訊解碼方法可以包括:解碼器接收包括至少交錯基層(IBL)和增強層(EL)的視訊內容,其中IBL包括BL訊框,每個BL訊框由頂場和對應底場的集合來定義,每個BL訊框包括巨集區塊(MB)被編碼為場MB的BL訊框的一部分、以及MB被編碼為訊框MB的BL訊框的其餘部分;藉由以下方式將交錯BL組合成第一層間參考(ILR)畫面:複製與訊框MB相關聯的BL訊框的像素以產生第一ILR畫面的第一部分,以及針對與場MB相關聯的BL訊框的頂場的像素,在垂直方向執行2X升取樣以產生第一ILR畫面的其餘部分;以及使用第一ILR畫面預測第一EL畫面。 之前實施例還可以包括:藉由以下方式進一步將交錯BL按ILR畫面系列的方式組合成連續的第二ILR畫面:複製與訊框MB相關聯的BL訊框的像素以產生第二ILR畫面的第一部分,以及針對與場MB相關聯的BL訊框的底場的像素,在垂直方向執行2X升取樣以產生第二ILR畫面的其餘部分;以及使用第二ILR畫面來預測連續的第二EL畫面。 在另一實施例中,其也可以在視訊解碼器中執行,該視訊解碼器具有記憶體及/或被配置為執行所列舉動作的處理器,視訊解碼方法可以包括:解碼器接收包括至少交錯基層(IBL)和增強層(EL)的視訊內容,其中IBL包括BL訊框,每個BL訊框定義頂場和對應底場的集合,每個BL訊框包括基於運動所編碼的部分;藉由以下方式將交錯BL組合成第一層間參考(ILR)畫面:複製與非運動相關聯的BL訊框的像素以產生第一ILR畫面的第一部分,以及針對與運動相關聯的BL訊框的頂場的像素,在垂直方向執行2X升取樣以產生第一ILR畫面的其餘部分;以及使用第一ILR畫面來預測第一EL畫面。 之前實施例還可以包括藉由以下方式進一步將IBL按ILR畫面系列的方式組合成連續的第二ILR畫面:複製與非運動相關聯的BL訊框的像素以產生第二ILR畫面的第一部分,以及針對與運動相關聯的底場的像素,在垂直方向執行2X升取樣以產生第二ILR畫面的其餘部分;以及使用第二ILR畫面預測第二EL畫面。 之前實施例還可以包括從編碼器得到關於與運動相關聯的BL訊框的像素的資訊。 之前實施例的一個或多個還可以包括基於預定標準確定關於與運動相關聯的BL訊框的像素的資訊。 之前實施例的一個或多個還可以包括其中確定關於與運動相關聯的BL訊框的像素的資訊包括使用以下任一者的比較來確定多個區域內BL訊框的頂場與對應底場之間的運動量:BL訊框的頂場與底場之間的絕對差之和(SAD)及/或平方差之和(SSE)與臨界值的比較。 在另一實施例中,其也可以在視訊解碼器中執行,該視訊解碼器具有記憶體及/或被配置為執行所列舉動作的處理器,視訊解碼方法可以包括:解碼器接收包括至少交錯基層(IBL)和增強層(EL)的視訊內容,其中IBL包括一個或多個連續的頂場和一個或多個連續底場;藉由將一個或多個頂場與一個或多個底場組合以產生ILR畫面來將IBL組合成層間參考(ILR)畫面;以及使用產生的ILR畫面和增強層來預測目前連續EL畫面。 之前實施例還可以包括其中組合一個或多個頂場和一個或多個底場以產生ILR畫面包括以下任一者:(1)將來自第一場的內容複製到ILR畫面的偶數線或奇數線的一者,以及將來自第二場的內容複製到ILR畫面的偶數線或奇數線的其餘一者;(2)來自第一場的內容與來自第二場的內容被平均或被加權平均以產生ILR畫面的線;(3)使用運動補償,將來自第一場的內容與來自第二場的內容組合;(4)來自第一場的內容、第二和至少一個另一個場被加權並組合以產生ILR畫面的線;或(5)使用相對於第一場的第二和第三場的運動補償以產生ILR畫面的線,其中針對ILR畫面的每個區域的運動補償資料是依據第二或第三場中的哪一者或兩者提供與第一場中資料更好對準以從第二或第三場中選擇。 代表性網路和硬體基礎結構 這裡描述的代表性系統和方法可以很好適於涉及所有類型的通信包括有線和無線網路的視訊通信。各種類型的無線裝置和基礎結構的總覽關於第15A圖-第15E圖提供,其中各種網路元件可以使用這裡描述的系統和方法。處於簡便,描述了無線網路,但是本領域中具有通常知識者理解,各種實施方式同樣適用於有線網路、混合網路(例如,有線和無線)及/或ad hoc網路等。更具體地,基地台,例如基礎收發站(BTS)、節點B、e節點B、家用節點B、家用e節點B、網站控制器、存取點(AP)、無線路由器、媒體已知網路元件(MANE),包括無線傳輸/接收單元(WTRU)可以使用這裡描述的方法來從一個實體向另一個實體傳送編碼視訊資料。 第15A圖是可以在其中可實現一個或多個揭露的實施方式的示例通信系統400的示圖。通信系統400可以是用於提供諸如語音、資料、視訊、訊息、廣播等內容給多個無線使用者的多重存取系統。通信系統400能夠使得多個無線使用者經由共用包括無線頻寬的系統資源來存取這些內容。例如,通信系統900可以使用一種或多種頻道存取方法,例如分碼多重存取(CDMA)、分時多重存取(TDMA)、分頻多重存取(FDMA)、正交FDMA(OFDMA)、單載波FDMA(SC-FDMA)等。 如第15A圖所示,通信系統400可以包括無線傳輸/接收單元(WTRU)402a、402b、402c、402d、無線電存取網(RAN)404、核心網路406、公共交換電話網路(PSTN)408、網際網路410和其他網路412,但是應當理解,所揭露的實施方式預期了任何數量的WTRU、基地台、網路及/或網路元件。WTRU 402a、402b、402c、402d中的每一個可以是被配置為在無線環境中操作及/或通信的任何類型的裝置。舉例來說,WTRU 402a、402b、402c、402d可被配置為發送及/或接收無線信號、並且可包括使用者設備(UE)、行動站、固定或行動用戶單元、呼叫器、行動電話、個人數位助理(PDA)、智慧型電話、膝上型電腦、隨身行易網機、個人電腦、無線感測器、消費類電子產品等。 通信系統400還可以包括基地台414a和基地台414b。基地台414a、414b中的每一個可以是被配置為與WTRU 402a、402b、402c、402d中的至少一個進行無線連接以便於存取例如核心網路406、網際網路410及/或網路412之類的一個或多個通信網路的任何類型的裝置。作為例子,基地台414a、414b可以是基地收發站(BTS)、節點B、e節點B、家用節點B、家用e節點B、網站控制器、存取點(AP)、無線路由器等等。雖然基地台414a、414b分別被畫為單一元件,但是可以理解基地台414a、414b可以包括任何數量的互連的基地台及/或網路元件。 基地台414a可以是RAN 404的一部分,該RAN 404還可以包括其它基地台及/或網路元件(未示出),例如基地台控制器(BSC)、無線電網路控制器(RNC)、中繼節點等。基地台414a及/或基地台414b可以被配置為在特定地理區域內傳輸及/或接收無線信號,該特定地理區域被稱作胞元(未示出)。該胞元還被分割成胞元扇區。例如,與基地台414a相關聯的胞元被分割成三個扇區。如此,在一個實施方式中,基地台414a包括三個收發器,即,針對胞元的每個使用一個收發器。在另一實施方式中,基地台414a可以使用多輸入多輸出(MIMO)技術,因此,可以針對胞元的每個扇區使用多個收發器。 基地台414a、414b可以經由空中介面416以與WTRU 402a、402b、402c、402d中的一個或多個進行通信,該空中介面416可以是任何適當的無線通訊鏈路(例如,射頻(RF)、微波、紅外線(IR)、紫外線(UV)、可見光等等)。可以使用任何適當的無線電存取技術(RAT)來建立空中介面416。 更具體而言,如上所述,通信系統400可以是多重存取系統且可以採用一種或多種頻道存取方案,諸如CDMA、TDMA、FDMA、OFDMA、SC-FDMA等等。例如,RAN 404中的基地台414a和WTRU 402a、402b、402c可以實現諸如通用行動電信系統(UMTS)陸地無線電存取(UTRA)之類的無線電技術,其中該無線電技術可以使用寬頻CDMA(WCDMA)來建立空中介面416。WCDMA可以包括諸如高速封包存取(HSPA)及/或演進型HSPA(HSPA+)之類的通信協定。HSPA可以包括高速下鏈封包存取(HSDPA)及/或高速上鏈封包存取(HSUPA)。 在另一實施方式中,基地台414a和WTRU 402a、402b、402c可以實現諸如演進型UMTS陸地無線電存取(E-UTRA)之類的無線電技術,其中該無線電技術可以使用LTE及/或高級LTE(LTE-A)來建立空中介面416。 在其它實施方式中,基地台414a和WTRU 402a、402b、402c可以實現諸如IEEE 802.16(即全球互通微波存取(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV-DO、臨時標準2000(IS-2000)、臨時標準95(IS-95)、臨時標準856(IS-856)、全球行動通信系統(GSM)、增強型資料速率GSM演進(EDGE)、GSM EDGE(GERAN)等無線電技術。 第15A圖中的基地台414b可以是諸如無線路由器、家用節點B、家用e節點B、或存取點、並且可以利用任何適當的RAT來促進諸如營業場所、家庭、車輛、校園等局部區域中的無線連接。在一個實施方式中,基地台414b和WTRU 402c、402d可以實施諸如IEEE 802.11之類的無線電技術以建立無線區域網路(WLAN)。在另一實施方式中,基地台414b和WTRU 402c、402d可以實施諸如IEEE 802.15之類的無線電技術以建立無線個人區域網路(WPAN)。在另一實施方式中,基地台414b和WTRU 402c、402d可以利用基於蜂窩的RAT(例如,WCDMA、CDMA2000、GSM、LTE、LTE-A等)以建立微微胞元或毫微微胞元。如第15A圖所示,基地台414b可以具有到網際網路410的直接連接。因此,基地台414b可以不需要經由核心網路406存取網際網路410。 RAN 404可以與核心網路406通信,核心網路406可以是被配置為向WTRU 402a、402b、402c、402d中的一個或多個提供語音、資料、應用程式、及/或網際網路協定語音(VoIP)服務的任何類型的網路。例如,核心網路406可以提供呼叫控制、計費服務、基於移動位置的服務、預付費呼叫、網際網路連接、視訊遞送等、及/或執行諸如使用者認證等高階安全功能。雖然第15A圖未示出,但應認識到RAN 404及/或核心網路406可以與跟RAN 404採用相同的RAT或不同的RAT的其它RAN進行直接或間接通信。例如,除連接到可以利用E-UTRA無線電技術的RAN 404之外,核心網路406還可以與採用GSM無線電技術的另一RAN(未示出)通信。 核心網路406還可以充當用於WTRU 402a、402b、402c、402d存取PSTN 408、網際網路410、及/或其它網路412的閘道。PSTN 408可以包括提供普通老式電話服務(POTS)的電路交換電話網。網際網路410可以包括使用公共通信協定的互連電腦網路和裝置的全域系統,該公共通信協定例如為傳輸控制協定(TCP)/網際網路協定(IP)網際網路協定族中的TCP、使用者資料包通訊協定(UDP)和IP。網路412可以包括由其它服務提供者所擁有及/或操作的有線或無線通訊網路。例如,網路412可以包括連接到可以與RAN 404採用相同的RAT或不同的RAT的一個或多個RAN的另一核心網路。 通信系統400中的某些或全部WTRU 402a、402b、402c、402d可以包括多模式能力,即WTRU 402a、402b、402c、402d可以包括用於經由不同的無線鏈路以與不同的無線網路進行通信的多個收發器。例如,第15A圖所示的WTRU 402c可以被配置為與可以採用蜂窩式無線電技術的基地台414a通信、且與可以採用IEEE 802無線電技術的基地台414b通信。 第15B圖是示例WTRU 402的系統圖。如第15B圖所示,WTRU 402可以包括處理器418、收發器420、傳輸/接收元件422、揚聲器/麥克風424、鍵盤426、顯示器/觸控板428、不可移式記憶體430、可移式記憶體432、電源434、全球定位系統(GPS)晶片組436、以及其它週邊裝置438。應認識到在保持與實施方式一致的同時,WTRU 402可以包括前述元件的任何子組合。 處理器418可以是通用處理器、專用處理器、常規處理器、數位訊號處理器(DSP)、多個微處理器、與DSP核相關聯的一或多個微處理器、控制器、微控制器、專用積體電路(ASIC)、現場可程式設計閘陣列(FPGA)電路、任何其它類型的積體電路(IC)、狀態機等等。處理器418可以執行信號編碼、資料處理、功率控制、輸入/輸出處理、及/或使WTRU 402能夠在無線環境中操作的任何其它功能。處理器418可以耦合到收發器420,收發器420可以耦合到傳輸/接收元件422。雖然第15B圖將處理器418和收發器420畫為單獨的元件,但應認識到處理器418和收發器420可以被一起集成在電子元件或晶片中。 傳輸/接收元件422可以被配置為經由空中介面416向基地台(例如,基地台414a)傳輸信號或從基地台(例如,基地台414a)接收信號。例如,在一個實施方式中,傳輸/接收元件422可以是被配置為傳輸及/或接收RF信號的天線。在另一實施方式中,傳輸/接收元件422可以是被配置為傳輸及/或接收例如IR、UV、或可見光信號的發射器/偵測器。在另一實施方式中,傳輸/接收元件422可以被配置為傳輸和接收RF和光信號兩者。應認識到傳輸/接收元件422可以被配置為傳輸及/或接收無線信號的任何組合。 另外,雖然傳輸/接收元件422在第15B圖中被畫為單一元件,但WTRU 402可以包括任何數目的傳輸/接收元件422。更具體而言,WTRU 402可以採用MIMO技術。因此,在一個實施方式中,WTRU 402可以包括用於經由空中介面416來傳輸和接收無線信號的兩個或更多個傳輸/接收元件422(例如,多個天線)。 收發器420可以被配置為調變將由傳輸/接收元件422傳輸的信號並對由傳輸/接收元件422接收到的信號進行解調。如上所述,WTRU 402可以具有多模式能力。因此,例如,收發器420可以包括用於使WTRU 402能夠經由諸如UTRA和IEEE 802.11之類的多種RAT進行通信的多個收發器。 WTRU 402的處理器418可以耦合到揚聲器/麥克風424、鍵盤426、及/或顯示器/觸控板428(例如,液晶顯示器(LCD)顯示單元或有機發光二極體(OLED)顯示單元)、並且可以從這些元件接收使用者輸入資料。處理器418還可以向揚聲器/擴音器424、鍵盤426、及/或顯示器/觸控板428輸出使用者資料。另外,處理器418可以存取來自任何類型的合適的記憶體(例如,不可移式記憶體430和可移式記憶體432)的資訊,或者將資料儲存在該記憶體中。不可移式記憶體430可以包括隨機存取記憶體(RAM)、唯讀記憶體(ROM)、硬碟、或任何其它類型的記憶體儲存裝置。可移式記憶體432可以包括使用者標識模組(SIM)卡、記憶條、安全數位(SD)儲存卡等。在其它實施方式中,處理器418可以存取來自在實體上不位於WTRU 402上(諸如在伺服器或家用電腦(未示出))的記憶體的資訊並將資料儲存在該記憶體中。 處理器418可以從電源434接收電力、並且可以被配置為分配及/或控制到WTRU 402中的其它元件的電力。電源434可以是用於為WTRU 402供電的任何適當裝置。例如,電源434可以包括一個或多個乾電池(例如,鎳鎘(NiCd)、鎳鋅鐵氧體(NiZn)、鎳金屬氫化物(NiMH)、鋰離子(Li)等等)、太陽能電池、燃料電池等等。 處理器418還可以耦合到GPS晶片組436,GPS晶片組436可以被配置為提供關於WTRU 402的目前位置的位置資訊(例如,經度和緯度)。除了來自GPS晶片組436的資訊之外或作為其替代,WTRU 402可以經由空中介面416從基地台(例如,基地台414a、414b)接收位置資訊及/或基於從兩個或更多個附近的基地台接收到信號的時序來確定其位置。應認識到在保持與實施方式一致的同時,WTRU 402可以用任何適當的位置確定方法來獲取位置資訊。 處理器418還可以耦合到其它週邊裝置438,週邊裝置438可以包括提供附加特徵、功能及/或有線或無線連接的一個或多個軟體及/或硬體模組。例如,週邊裝置438可以包括加速計、電子指南針、衛星收發器、數位相機(用於拍照或視訊)、通用序列匯流排(USB)埠、振動裝置、電視收發器、免持耳機、藍牙®模組、調頻(FM)無線電單元、數位音樂播放器、媒體播放器、視訊遊戲機模組、網際網路瀏覽器等等。 第15C圖是根據實施方式的RAN 404和核心網路406的系統圖。如上所述,RAN 404可以使用UTRA無線電技術以經由空中介面416與WTRU 402a、402b、402c通信。RAN 404還可以與核心網路406通信。如第15C圖中所示,RAN 404可以包括節點B 440a、440b、440c,其每一個可以包括一個或多個收發器用於經由控制介面416以與WTRU 402a、402b、402c通信。節點B 440a、440b、440c每一個可以與RAN 404內的特定胞元(未示出)相關聯。RAN 404還可以包括RNC 442a、442b。可以理解RAN 404可以包括任何數量的節點B和RNC並與實施方式保持一致。 如第15C圖中所示,節點B 440a、440b可以與RNC 442a通信。此外,節點B 440c可以與RNC 442b通信。節點B 440a、440b、440c可以經由Iub介面與各自的RNC 442a、442b通信。RNC 442a、442b可以經由Iur介面彼此通信。RNC 442a、442b、442c的每一個可以被配置為控制與其連接的各自節點B 440a、440b、440c。此外,RNC 442a、442b的每個可以被配置為執行或支援其他功能,例如外環功率控制、負載控制、允許控制、封包排程、切換控制、巨集分集、安全功能、資料加密等。 第15C圖中的核心網路406可以包括媒體閘道(MGW)444、行動切換中心(MSC)446、服務GPRS支援節點(SGSN)448及/或閘道GPRS支援節點(GGSN)450。雖然之前元件的每個被描繪為核心網路406的部分,但可以理解這些元件的任一個可以被核心網路操作者以外的實體擁有及/或操作。 RAN 404中的RNC 442a可以經由IuCS介面而連接到核心網路406中的MSC 446。MSC 446可以連接到MGW 444。MSC 446和MGW 444可以為WTRU 402a、402b、402c提供到電路交換網路例如PSTN 408的存取,以促進WTRU 402a、402b、402c與傳統陸線通信裝置之間的通信。 RAN 404中的RNC 442a還可以經由IuPS介面連接到核心網路406中的SGSN 448。SGSN 448可以連接到GGSN 450。SGSN 448和GGSN 450可以為WTRU 402a、402b、402c提供到封包交換網路例如網際網路410的存取,以促進WTRU 402a、402b、402c與IP賦能裝置之間的通信。 如上所述,核心網路406還可以連接到網路412,其可以包括其他服務提供者擁有及/或操作的其他有線或無線網路。 第15D圖是根據另一實施方式的RAN 404和核心網路406的系統圖。如上所述,RAN 404可以使用E-UTRA無線電技術以經由控制介面416來與WTRU 402a、402b、402c通信。RAN 404還可以與核心網路406通信。 RAN 404可包括e節點B 460a、460b、460c,但是可以理解,RAN 404可以包括任何數量的e節點B並與實施方式保持一致。該e節點B 460a、460b、460c中的每一個都可包含一個或多個收發器,用於經由空中介面416來與WTRU 402a、402b、402c進行通信。在一個實施方式中,該e節點B 460a、460b、460c可使用MIMO技術。因此,例如e節點B 460a 可使用多個天線,用於向WTRU 402a發送和接收無線信號。 該e節點B 460a、460b、460c中的每一個可與特定胞元(未示出)相連接、並可配置為處理無線電資源管理決定、切換決定、上鏈及/或下鏈的使用者排程等。如第15D圖所示,e節點B 460a、460b、460c可以經由X2介面相互通信。 第15D圖中所示的核心網路406可包括移動性管理閘道(MME)462、服務閘道464和封包資料網路(PDN)閘道466。雖然將上述各個元件表示為核心網路406的一部分,但是可以理解,任何一個元件都可由核心網路操作者以外的實體所有及/或操作。 MME 462可以經由S1介面而連接至RAN 404中的e節點B 460a、460b、460c中的每一個、並可充當控制節點。例如,MME 462可以用於對WTRU 402a、402b、402c的使用者認證、承載啟動/停用、在WTRU 402a、402b、402c的初始連結期間選擇特定服務閘道等。MME 462還可提供控制平面功能,用於在RAN 404和使用其他無線電技術,例如GSM或WCDMA的RAN之間進行切換。 服務閘道464可以經由S1介面而連接至RAN 404中的e節點B 460a、460b、460c中的每一個。服務閘道464通常可以向/從WTRU 402a、402b、402c路由和轉發使用者資料封包。服務閘道464還可執行其他功能,例如在e節點B之間的切換期間錨定使用者平面,當下鏈資料可用於WTRU 402a、402b、402c時觸發傳呼、管理和儲存WTRU 402a、402b、402c上下文等。 服務閘道464還可連接至PDN閘道466,該PDN閘道可向WTRU 402a、402b、402c提供對封包交換網路的連接,例如網際網路410,從而實現WTRU 402a、402b、402c與IP賦能裝置之間的通信。 核心網路406可以促進與其他網路的通信。例如,核心網路406可以對WTRU 402a、402b、402c提供對電路切換式網路的連接,例如PSTN 408,以實現WTRU 402a、402b、402c與傳統陸線通信裝置之間的通信。例如,核心網路406可以包括IP閘道(例如,IP多媒體子系統(IMS)伺服器),或可以與該IP閘道進行通信,該IP閘道用作核心網路406與PSTN 408之間的介面。此外,核心網路406可以向WTRU 402a、402b、402c提供對網路412的連接,該網路412可以包括由其他服務操作者所有/操作的有線或無線網路。 第15E圖是根據另一實施方式的RAN 404和核心網路406的系統圖。RAN 404可以是存取服務網(ASN),其使用IEEE 802.16無線電技術以經由空中介面416來與WTRU 402a、402b、402c通信。如在下面進一步描述的,WTRU 402a、402b、402c、RAN 404與核心網路406的不同功能實體之間的通信鏈路可以被定義為參考點。 如第15E圖所示,RAN 404可以包括基地台470a、470b、470c以及ASN閘道472,但是可以理解RAN 404可以包括任何數量的基地台和ASN閘道而與實施方式保持一致。基地台470a、470b、470c每一個可以與RAN 404中特定胞元(未示出)相關聯,且每個可以包括一個或多個收發器用於經由控制介面416以與WTRU 402a、402b、402c通信。在一個實施方式中,基地台470a、470b、470c可以執行MIMO技術。因此,例如基地台470a可以使用多個天線來傳送無線信號到WTRU 402a、並從其接收無線信號。基地台470a、470b、470c還可以提供移動性管理功能,例如切換觸發、隧道建立、無線電資源管理、訊務分類、服務品質(QoS)策略執行等。ASN閘道472可以用作訊務聚合點並可以負責傳呼、用戶設定檔快取、到核心網路406的路由等。 WTRU 402a、402b、402c與RAN 404之間的空中介面416可以被定義為R1參考點,其執行IEEE 802.16規範。此外,WTRU 402a、402b、402c的每一個可以與核心網路406建立邏輯介面(未示出)。WTRU 402a、402b、402c與核心網路406之間的邏輯介面可以被定義為R2參考點,其可以用於認證、授權、IP主機配置管理及/或移動性管理。 基地台470a、470b、470c的每個之間的通信鏈路可以被定義為R8參考點,其包括用於促進WTRU切換和基地台之間的資料傳輸的協定。基地台470a、470b、470c與ASN閘道472之間的通信鏈路可以被定義為R6參考點。R6參考點可以包括用於促進基於與WTRU 402a, 402b, 402c的每個相關聯的移動性事件的移動性管理的協定。 如第15E圖所示,RAN 404可以連接到核心網路406。RAN 404與核心網路406之間的通信鏈路可以被定義為R3參考點,其包括用於促進例如資料傳輸和移動性管理能力的協定。核心網路406可以包括行動IP本地代理(MIP-HA)474、認證、授權、記帳(AAA)伺服器476以及閘道478。雖然前述元件的每個被描繪成核心網路406的部分,但可以理解這些元件的任一個可以被核心網路操作者以外的實體擁有及/或操作。 MIP-HA 474可以負責IP位址管理、並可以使WTRU 402a、402b、402c在不同ASN及/或不同核心網路之間漫遊。MIP-HA 474可以給WTRU 402a、402b、402c提供到封包交換網例如網際網路410的存取,以促進WTRU 402a、402b、402c與IP賦能裝置之間的通信。AAA伺服器478可以促進與其他網路的互通。例如,閘道478可以為WTRU 402a、402b、402c提供到電路交換網例如PSTN 408的存取,以促進WTRU 402a、402b, 402c與傳統陸線通信裝置之間的通信。此外,閘道478可以給WTRU 402a、402b、402c到網路412的存取,該網路412可以包括其他服務提供者擁有及/或操作的其他有線或無線網路。 雖然在第15E圖中沒有示出,但可以理解RAN 404可以連接到其他ASN且核心網路406可以連接到其他核心網路。RAN 404與其他ASN之間的通信鏈路可以被定義為R4參考點,其可以包括用於協調WTRU 402a、402b、402c在RAN 404與其他ASN之間的移動性的協定。核心網路406與其他核心網路之間的通信鏈路可以被定義為R5參考,其可以包括用於促進本地核心網路與受訪核心網路之間的互通。 其他 在不偏離本發明的範圍的情況下上述方法、裝置和系統的變形是可能的。根據能應用的寬範圍的實施方式,應該理解所示的實施方式僅是示意性的,且不應當認為限制以下申請專利範圍的範圍。例如,在這裡描述的示意性實施方式中包括手持裝置。 在本揭露中,本領域中具有通常知識者理解某些代表性實施方式可以用於其他代表性實施方式的替代或結合。 例如,合適的處理器包括通用處理器、專用處理器、常規處理器、數位訊號處理器(DSP)、多個微處理器、與DSP核相關聯的一或多個微處理器、控制器、微控制器、專用積體電路(ASIC)、專用標準產品(ASSP);場可程式設計閘陣列(FPGA)電路、任何其他類型的積體電路(IC)及/或狀態機。 與軟體相關聯的處理器可以用於執行射頻收發器,用於在無線傳輸接收單元(WTRU)、使用者設備(UE)、終端、基地台、移動性管理實體(MME)或演進型封包核心(EPC)或任何主機電腦中使用。WTRU可以結合以硬體及/或軟體實施的模組使用,其包括軟體定義的無線電(SDR),以及其他元件,例如相機、視訊相機模組、視訊電話、揚聲器電話、振動裝置、揚聲器、麥克風、電視收發器、免持耳機、鍵盤、藍牙® 模組、調頻(FM)無線電單元、進場通信(NFC)模組、液晶顯示(LCD)顯示單元、有機發光二極體(OLED)顯示單元、數位音樂播放器、媒體播放器、視訊遊戲機模組、網際網路瀏覽器及/或任何無線區域網路(WLAN)或超寬頻(UWB)模組。雖然本發明是在視訊編碼和解碼方法、裝置和系統方面描述的,但構想了它們可以用軟體在微處理器/通用電腦(未示出)上被實施。在某些實施方式中,各種元件的一個或多個功能可以用控制通用電腦的軟體來實施。 雖然以上以特定組合描述的上述特徵和元素,但本領域中具有通常知識者應認識到每個特徵或元素都可以被單獨地使用或與其它特徵和元素以任何方式組合使用。另外,可以在結合在電腦可讀媒體中的電腦程式、軟體、或韌體中實施本發明所述的方法,以便由電腦或處理器執行。電腦可讀媒體的例子包括電信號(經由有線或無線連接發送的)和電腦可讀儲存媒體。電腦可讀儲存媒體的示例包括但不限於唯讀記憶體(ROM)、隨機存取記憶體(RAM)、暫存器、快取記憶體、半導體記憶體裝置、磁性媒體(諸如內部硬碟和抽取式磁碟)、磁光媒體、以及光學媒體,諸如CD-ROM磁片和數位多功能磁片(DVD)。與軟體相關聯的處理器可以用於實現射頻收發器,以在WTRU、UE、終端、基地台、RNC或任何主機中使用。 此外,在上述實施方式中,處理平臺、計算系統、控制器以及其他包含處理器的裝置被提及。這些裝置可以包含至少一個中央處理單元(“CPU”)和記憶體。根據電腦程式設計領域中具有通常知識者的實踐,對動作的參考和操作或指令的符號表示可以由各種CPU和記憶體來執行。這種動作和操作或指令可以成為“被執行”、“電腦執行的”或“CPU執行的”。 本領域中具有通常知識者動作和符號表示的操作或指令包括CPU操控電信號。電系統表示能夠導致電信號的產生的變換或減少的資料位元以及資料位元保持在記憶體系統中的儲存位置,由此重新配置或改變CPU的操作,以及其他信號處理。資料位元保持的儲存位置是實體位置,其具有對應於資料位元或代表資料位元的特定電、磁、光或有機屬性。應當理解,示意性實施方式不限於上述平臺或CPU且其他平臺和CPU可以支援該方法。 資料位元還可以保持在電腦可讀媒體上,包括磁片、光碟以及CPU可讀的任何其他揮發性(例如,隨機存取記憶體(“RAM”))或非揮發性(例如,唯讀記憶體(“ROM”))大型儲存系統。計算可讀媒體可以包括合作或互連的電腦可讀媒體,其只存在於處理系統或在與該處理系統本地或遠端的多個互連處理系統之間分配。應當理解該實施方式不限於上述記憶體且其他平臺和記憶體可以支援該方法。 在本申請案的描述中使用的元件、動作或指令不應當解釋為對本發明是關鍵或必要的,除非有明確描述。此外,如這裡所使用的,冠詞“一”旨在包括一個或多個項。如果要指僅一個項,使用術語“單一”或類似語言。此外,在列出的多個項及/或多個項的種類之後使用的“的任一者”旨在包括單獨或與其他項及/或其他項種類一起的項及/或項的種類的“任一”、“任一組合”、“任何多個”及/或“多個的任何組合”。此外,這裡使用的術語“集合”旨在包括任何數量的項,包括零。此外,這裡使用的術語“數量”旨在包括任何數量,包括零。 此外,申請專利範圍不應當理解為受限於描述的順序或元素除非一開始有這種作用。此外,在任一申請專利範圍中使用術語“裝置”旨在引用35 U.S.C. §112, ¶ 6,且沒有“裝置”字眼的任一申請專利範圍沒有此用意。 以下參考檔的每一個的內容以引用的方式結合於此: (1)ITU-T Rec H.261, “Video Codec for Audiovisual services at px384kbit/s”, November 1988; (2)ISO/IEC 11172-2:1993, “Information technology – Coding of moving pictures and associated audio for digital storage media at up to about 1,5 Mbit/s – part 2: Video”, 1993; (3)ISO/IEC 13818-2, “Information technology -- Generic coding of moving pictures and associated audio information: Video”, December, 2000; (4)ITU-T Rec H.263, “Video coding for low bit rate communication”; (5)ISO/IEC 14496-2, “Information technology – Coding of audio-visual objects – part 2: Visual”, December 2001; (6)ITU-T Rec H.264 and ISO/IEC/MPEG 4 part 10, “Advanced video coding for generic audiovisual services”, November 2007; (7)B. Bross, W-J. Han, J-R. Ohm, G. J. Sullivan, Y. K. Wang, T. Wiegand, “High Efficiency Video Coding (HEVC) Text Specification Draft 10”, Document no JCTVC­L1003, January 2013; (8)A. Luthra, “Joint Call for Proposals on the Scalable Video Coding Extensions of HEVC”, ISO/IEC JTC-1/SC29/WG11 N12957, July 2012; (9)A. Luthra, “Use cases for the scalable enhancement of HEVC”, ISO/IEC JTC­1/SC29/WG11 N12955, July 2012; (10)A. Luthra, “Requirements for the scalable enhancement of HEVC”, ISO/IEC JTC­1/SC29/WG11 N12956, July 2012; (11)Heiko Schwarz, Detlev Marpe and Thomas Wiegand, “Overview of the Scalable Video coding Extension of the H.264/AVC Standard”, IEEE Transactions on Circuits and Systems for Video Technology, Vol.17, No.9, September 2007; (12)A. Vetro, T. Wiegand, G. Sullivan, “Overview of the stereo and multiview video coding extensions of the H. 264/MPEG-4 AVC standard”, Proceedings of the IEEE. 2011; (13)U.S. Published Patent Application No. 2014/0010294, entitled “Codec Architecture for Multiple Layer Video Coding”; (14)U.S. Published Patent Application No. 2014/0064374, entitled “Method and Apparatus of Motion Vector Prediction for Scalable Video Coding”; (15)InterDigital Communications, “Description of scalable video coding technology”, JCTVC document no JCTVC-K0034. October 2012; (16)J. Chen, J. Boyce, Y. Ye, and M. M. Hunnuksela, “SHVC Test Model 4 (SHM 4)”, JCTVC document no JCTVC-O1007, Oct 2013; (17)J. Chen, J. Boyce, Y. Ye, and M. M. Hunnuksela, Y. K. Wang, “SHVC Draft 4”, JCTVC document no JCTVC-O1008, Oct 2013; (18)J-R. Ohm, G. J. Sullivan, “Meeting report of the 13th meeting of the Joint Collaborative Team on Video Coding (JCT-VC)”, Incheon, KR, 18–26 Apr. 2013. (19)G.J. Sullivan and T. Wiegand, “Rate-distortion optimization for video compression”, IEEE Signal Processing Magazine, vol. 15, issue 6, November 1998; (20)“SCE4: Summary Report of SHVC Core Experiment on inter-layer filtering”, JCTVC document no JCTVC-M0024, April 2013; (21)“MV-HEVC/SHVC HLS: On inter-layer sample and syntax prediction indications”, JCTVC document no JCTVC-M045, April 2013; (22)“AHG15: Interlaced to progressive scalability for SHVC hybrid codec use case,” JCTVC document no JCTVC-P0163, Jan 2014; (23)“Interlaced to progressive scalability in SHVC,” JCTVC document no JCTVC­P0165, Jan 2014; (24)“On field to frame scalability,” JCTVC document no JCTVC-P0175, Jan 2014; (25)“BoG report on phase adjustment in SHVC re-sampling process,” JCTVC document no JCTVC-P0312, Jan 2014; (26)J. Chen, J. Boyce, Y. Ye, and M. M. Hunnuksela, G. J. Sullivan, Y. K. Wang, “SHVC Draft 5,” JCTVC document no JCTVC-P1008, Jan 2014; and (27)U.S. Published Patent Application No. 2014/0037015, entitled “Upsampling based on sampling grid to align spatial layers in multi-layer video coding”, April 2013. 此外,雖然本發明在這裡參考特定實施方式示出並描述,但本發明不意在受限於所示的細節。而是在不偏離本發明的情況下在申請專利範圍的等效範圍內可以對細節進行各種修改。
100‧‧‧視訊編碼和解碼系統
112‧‧‧源裝置
114‧‧‧目的地裝置
116‧‧‧通信頻道
118‧‧‧視訊編碼器單元
120、128‧‧‧Tx/Rx單元
122、126‧‧‧Tx/Rx元件
124‧‧‧視訊源
130‧‧‧視訊解碼器單元
132‧‧‧顯示裝置
133‧‧‧視訊編碼器
134‧‧‧輸出緩衝器
136‧‧‧系統控制器
200‧‧‧混合視訊編碼器
202、302‧‧‧輸入
204‧‧‧變換單元
206‧‧‧量化單元
208‧‧‧熵編碼單元
210、310‧‧‧逆量化單元
212、312‧‧‧逆變換單元
216‧‧‧第一加法器
220、320‧‧‧輸出
226‧‧‧第二加法器
260、360‧‧‧空間預測單元
262‧‧‧運動預測單元
264、364‧‧‧參考畫面庫
266、366‧‧‧過濾器
280‧‧‧模式決定和編碼器控制器單元
300‧‧‧視訊解碼器
308‧‧‧熵解碼單元
326‧‧‧加法器
362‧‧‧運動補償預測單元
41‧‧‧基層DPB
42‧‧‧可調位元流
43、505‧‧‧層間處理單元
44‧‧‧多工器
45‧‧‧BL編碼器
47‧‧‧EL編碼器
49‧‧‧增強層DPB
501‧‧‧解多工器
503‧‧‧BL DPB
507‧‧‧EL DPB
509‧‧‧BL解碼器
511‧‧‧EL解碼器
600‧‧‧高品質視訊
601‧‧‧預處理步驟
603‧‧‧基礎品質視訊
605‧‧‧編碼器
606‧‧‧位元流(基層位元流)
607‧‧‧使用傳輸協定進行打包
609‧‧‧頻道A
611‧‧‧可調編解碼器SHVC
613‧‧‧增強層可調位元流
614‧‧‧使用傳輸協定進行打包
615‧‧‧拆包
617‧‧‧H.264/AVC解碼器
619‧‧‧頻道B
621‧‧‧拆包
623‧‧‧SHVC解碼器
701‧‧‧頂場像素
703‧‧‧底場像素
805‧‧‧頂場
807‧‧‧底場
803‧‧‧交錯視訊
810‧‧‧連續視訊
811‧‧‧訊框
1200‧‧‧BL訊框
1201‧‧‧陰影區域/頂場
1203‧‧‧格子區域/底場
1210‧‧‧移動區域
1220‧‧‧靜態區域
1230、1240、1320、1420‧‧‧連續訊框
1250、1260‧‧‧層間參考畫面
1301‧‧‧場A
1302‧‧‧場B
1310、1410‧‧‧參考畫面
1401‧‧‧第一基層場
1402‧‧‧第二基層場
1403‧‧‧第三基層場
400‧‧‧通信系統
402a、402b、402c、402d‧‧‧無線傳輸/接收單元(WTRU)
404‧‧‧無線電存取網(RAN)
406‧‧‧核心網路
408‧‧‧公共交換電話網路(PSTN)
410‧‧‧網際網路
412‧‧‧其他網路
414a、414b、470a、470b、470c‧‧‧基地台
416‧‧‧空中介面
418‧‧‧處理器
420‧‧‧收發器
422‧‧‧傳輸/接收元件
424‧‧‧揚聲器/麥克風
426‧‧‧鍵盤
428‧‧‧顯示器/觸控板
430‧‧‧不可移式記憶體
432‧‧‧可移式記憶體
434‧‧‧電源
436‧‧‧全球定位系統(GPS)晶片組
438‧‧‧週邊裝置
440a、440b、440c‧‧‧節點B
442a、442b‧‧‧無線電網路控制器(RNC)
444‧‧‧媒體閘道(MGW)
446‧‧‧行動切換中心(MSC)
448‧‧‧服務GPRS支援節點(SGSN)
450‧‧‧閘道GPRS支援節點(GGSN)
460a、460b、460c‧‧‧e節點B
462‧‧‧移動性管理閘道(MME)
464‧‧‧服務閘道
466‧‧‧封包資料網路(PDN)閘道
472‧‧‧存取服務網(ASN)閘道
474‧‧‧行動IP本地代理(MIP-HA)
476‧‧‧認證、授權、記帳(AAA)伺服器
478‧‧‧閘道
BL‧‧‧基層
BS‧‧‧視訊位元流
BBS‧‧‧已緩衝位元流
DPB‧‧‧解碼器畫面緩衝
EL‧‧‧增強層
ILP‧‧‧層間處理
IP‧‧‧網際網路協定
Iub、Iur、IuCS、IuPS、X2、S1‧‧‧介面
R1、R3、R6、R8‧‧‧參考點
SHVC‧‧‧可調高品質視訊編碼
從結合附圖以示例方式給出的下面的詳細說明中可以得到更詳細的理解。圖式中的圖與詳細說明一樣是示例。因此,附圖和具體實施方式不被認為是限制性的,且其他同樣有效的示例也是可能和可行的。此外,附圖中相同的元件符號表示相同的元件,且在圖式中:第1A圖是示出了可以實施及/或執行一個或多個實施方式的示例視訊編碼和解碼系統的方塊圖;第1B圖是示出了與第1A圖的視訊編碼及/或解碼系統使用的示例視訊編碼器的方塊圖;第2圖是基於一般區塊的混合視訊編碼系統;第3圖是基於區塊的視訊解碼器的一般性方塊圖;第4圖是示出了使用畫面級層間處理(ILP)的兩層可調編碼系統的方塊圖;第5圖是示出了使用畫面級ILP的兩層可調解碼系統的圖;第6圖是示出了使用具有混合編解碼可調性支援的SHVC編碼器的代表性視訊傳遞的圖;第7圖是示出了代表性連續訊框並示出與連續訊框相較的交錯視訊的頂場和底場中的像素的空間關係的圖;第8圖是示出了代表性交錯視訊並示出與其連續視訊中的訊框相比該交錯視訊的頂/底場之間的時間關係示例的圖;第9圖是示出在連續掃描視訊訊框的YUV4:2:0視訊格式中的色度樣本和亮度樣本的預設相對位置的圖;第10圖是示出了交錯掃描的視訊頂場和底場的YUV4:2:0視訊格式中的色度樣本和亮度樣本的預設相對位置的圖;第11圖是示出頂場和底場組合成一張畫面的示例的畫面;第12圖是示出基於區域的自適應訊框場升取樣的示例;第13圖是示出使用場組合的層間預測的代表性過程的圖; 第14A圖是示出了使用多於兩個場的場組合的層間預測的代表性過程的圖; 第14B圖是示出具有5組(例如,多組)再取樣相位資訊的3層(例如,多層)可調位元流的示例的圖; 第15A圖是可以實施一個或多個揭露的實施方式的示例通信系統的圖; 第15B圖是可以在第15A圖示出的通信系統中使用的示例無線傳輸/接收單元(WTRU)的圖;以及 第15C圖、第15D圖以及第15E圖是可以在第15A圖示出的通信系統中使用的示例無線電存取網和示例核心網路的圖。

Claims (26)

  1. 一種在一視訊解碼器中執行的視訊解碼方法,包括:接收一視訊訊號,該視訊訊號包括了包含一交錯場圖的一基層視訊內容及包含多個連續訊框畫面的一增強層視訊內容;儲存在重新取樣一視訊畫面中使用的一個或多個跨層相位對準參數集合;基於在該基層中的一場圖及該儲存的一個或多個跨層相位對準參數集合,組合在預測該增強層中的至少一連續訊框畫面中使用的一個或多個連續訊框層間參考(ILR)畫面;以及使用該ILR畫面預測一增強層畫面。
  2. 如申請專利範圍第1項所述的方法,其中該交錯場圖包括一頂場圖和一底場圖。
  3. 如申請專利範圍第1項所述的方法,更包括使用該儲存的一個或多個跨層相位對準參數集合中的一第一集合以重新取樣一頂場圖、以及使用該儲存的一個或多個跨層相位對準參數集合中的一第二集合以重新取樣一底場圖。
  4. 如申請專利範圍第1項所述的方法,其中該儲存的一個或多個跨層相位對準參數集合中的每一個集合包括:一相位X資訊,用於選擇該一個或多個ILR參考畫面的一亮度分量的一水平相位過濾器;一相位XC資訊,用於選擇該一個或多個ILR參考畫面的多個色度分量中的至少其一的一水平相位過濾器;一相位Y資訊,用於選擇該一個或多個ILR參考畫面的該亮度分量的一垂直相位過濾器;及/或一相位YC資訊,用於選擇該一個或多個ILR參考畫面的該多個色度分量中的至少其一的一垂直相位過濾器。
  5. 如申請專利範圍第1項所述的方法,更包括:接收一數量指示符,該數量指示符表明正在被傳送的跨層相位對準參數集合的一數量。
  6. 如申請專利範圍第1項所述的方法,更包括:接收至少一索引指示符,該至少一索引指示符表明該儲存的一個或多個跨層相位對準參數集合中將在組合該至少一ILR畫面中使用的至少一跨層相位對準參數集合。
  7. 如申請專利範圍第6項所述的方法,其中該至少一索引指示符在一片段標頭中被接收。
  8. 如申請專利範圍第6項所述的方法,其中所述組合該一個或多個ILR畫面包括:基於該接收的至少一索引指示符表明的該至少一跨層相位對準參數集合,選擇用於重新取樣該一個或多個ILR畫面的該亮度分量及/或該色度分量的至少一者的相位過濾器。
  9. 如申請專利範圍第8項所述的方法,其中該至少一索引指示符與該視訊訊號的一片段相關聯,且該方法更包括根據與該片段相關聯的該索引指示符調整用於該基層視訊內容中的一片段的該水平相位過濾器及該垂直相位過濾器中的至少一者,以在組合該ILR畫面中使用。
  10. 如申請專利範圍第1項所述的方法,更包括經由傳訊接收將被儲存的該一個或多個跨層相位對準參數集合。
  11. 如申請專利範圍第10項所述的方法,其中將被儲存的該一個或多個跨層相位對準參數集合在一視訊參數集合(VPS)中被接收。
  12. 如申請專利範圍第10項所述的方法,其中將被儲存的該一個或多個跨層相位對準參數集合在一畫面參數集合(PPS)中被接收。
  13. 如申請專利範圍第8項所述的方法,更包括:經由傳訊接收一旗標指示符,該旗標指示符表明該至少一索引指示符是否正在被傳訊。
  14. 如申請專利範圍第1項所述的方法,更包括:接收一旗標指示符,該旗標指示符表明該一個或多個跨層相位對準參數集合是否被傳訊。
  15. 如申請專利範圍第14項所述的方法,其中表明該一個或多個跨層相位對準參數集合是否被傳訊的該旗標指示符的一第一狀態表明該一個或多個跨層相位對準參數集合沒有被傳訊、且該一個或多個跨層相位對準參數集合將被推斷出。
  16. 如申請專利範圍第15項所述的方法,其中所推斷出的一個或多個跨層相位對準參數集合包括包含一亮度水平相位參數、一亮度垂直相位參數、一色度水平相位參數及一色度垂直相位參數的一集合,其中該亮度水平相位參數、該亮度垂直相位參數及該色度水平相位參數具有相同數值,以及該色度水平相位參數及該色度垂直相位參數彼此具有不同數值。
  17. 如申請專利範圍第15項所述的方法,其中所推斷出的一個或多個跨層相位對準參數集合是包括以下的一集合:用於選擇該一個或多個ILR參考畫面的一亮度分量的一水平相位過濾器的一相位X資訊是0;用於選擇該一個或多個ILR參考畫面的多個色度分量中的至少其一的一水平相位過濾器的一相位XC資訊是0;用於選擇該一個或多個ILR參考畫面的該亮度分量的一垂直相位過濾器的一相位Y資訊是0;以及用於選擇該一個或多個ILR參考畫面的該多個色度分量中的至少其一的一垂直相位過濾器的一相位YC資訊是1。
  18. 一種在一視訊編碼器中執行的視訊編碼方法,包括:傳送一視訊訊號,該視訊訊號包括包含一交錯場圖的一基層視訊內容及包含多個連續訊框畫面的一增強層視訊內容;以及傳送在重新取樣該基層中的一視訊畫面中使用的一個或多個跨層相位對準參數集合,該一個或多個跨層相位對準參數集合由一視訊解碼器在組合一個或多個連續訊框層間參考(ILR)畫面中使用,以用於基於該基層中的一場圖及該一個或多個跨層相位對準參數集合來預測該增強層中的至少一連續訊框畫面。
  19. 如申請專利範圍第18項所述的方法,其中該一個或多個跨層相位對準參數集合中的每一個集合包括:一相位X資訊,用於選擇該ILR參考畫面的一亮度分量的一水平相位過濾器;一相位XC資訊,用於選擇該ILR參考畫面的多個色度分量中的至少其一的一水平相位過濾器;一相位Y資訊,用於選擇該ILR參考畫面的該亮度分量的一垂直相位過濾器;及/或一相位YC資訊,用於選擇該ILR參考畫面的該多個色度分量中的至少其一的一垂直相位過濾器。
  20. 如申請專利範圍第18項所述的方法,更包括:傳送一數量指示符,該數量指示符表明正在被傳送的相位值集合的一數量。
  21. 如申請專利範圍第18項所述的方法,更包括傳送至少一索引指示符,該至少一索引指示符表明該一個或多個跨層相位對準參數集合中將在組合該ILR畫面中使用的至少一跨層相位對準參數集合。
  22. 如申請專利範圍第21項所述的方法,其中該至少一索引指示符在一片段標頭中被傳送。
  23. 如申請專利範圍第18項所述的方法,其中該多個跨層相位對準參數集合在一畫面參數集合(PPS)中被傳送。
  24. 如申請專利範圍第23項所述的方法,更包括:傳送一旗標指示符,該旗標指示符表明該至少一索引指示符是否正在被傳訊。
  25. 如申請專利範圍第18項所述的方法,更包括:傳送一旗標指示符,該旗標指示符表明該一個或多個跨層相位對準參數集合是否被傳訊或被推斷出。
  26. 如申請專利範圍第25項所述的方法,其中所推斷出的一個或多個跨層相位對準參數集合包括了包含一亮度水平相位參數、一亮度垂直相位參數、一色度水平相位參數及一色度垂直相位參數的一集合,其中該亮度水平相位參數、該亮度垂直相位參數及該色度水平相位參數具有相同數值,以及該色度水平相位參數及該色度垂直相位參數彼此具有不同數值。
TW103145266A 2014-01-02 2014-12-24 視訊解碼及編碼方法 TWI660621B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201461923110P 2014-01-02 2014-01-02
US61/923,110 2014-01-02
US201461939217P 2014-02-12 2014-02-12
US61/939,217 2014-02-12

Publications (2)

Publication Number Publication Date
TW201537953A TW201537953A (zh) 2015-10-01
TWI660621B true TWI660621B (zh) 2019-05-21

Family

ID=52355255

Family Applications (2)

Application Number Title Priority Date Filing Date
TW107134825A TWI720348B (zh) 2014-01-02 2014-12-24 視訊解碼器裝置及視訊編碼器裝置
TW103145266A TWI660621B (zh) 2014-01-02 2014-12-24 視訊解碼及編碼方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
TW107134825A TWI720348B (zh) 2014-01-02 2014-12-24 視訊解碼器裝置及視訊編碼器裝置

Country Status (9)

Country Link
US (2) US9819947B2 (zh)
EP (1) EP3090549A1 (zh)
JP (1) JP6560230B2 (zh)
KR (2) KR20160105861A (zh)
CN (2) CN111083493B (zh)
IL (1) IL246542B (zh)
MY (1) MY178217A (zh)
TW (2) TWI720348B (zh)
WO (1) WO2015103032A1 (zh)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110035286B (zh) * 2012-07-09 2021-11-12 Vid拓展公司 用于多层视频编码的编解码器架构
US9510001B2 (en) * 2013-07-09 2016-11-29 Electronics And Telecommunications Research Institute Video decoding method and apparatus using the same
US10341685B2 (en) 2014-01-03 2019-07-02 Arris Enterprises Llc Conditionally parsed extension syntax for HEVC extension processing
US9338464B2 (en) * 2014-02-04 2016-05-10 Cable Television Laboratories, Inc. Adaptive field and frame identification
CA2943121C (en) 2014-03-18 2020-09-08 Arris Enterprises Llc Scalable video coding using reference and scaled reference layer offsets
WO2015168581A1 (en) * 2014-05-01 2015-11-05 Arris Enterprises, Inc. Reference layer and scaled reference layer offsets for scalable video coding
WO2015184470A1 (en) 2014-05-30 2015-12-03 Arris Enterprises, Inc. Reference layer offset parameters for inter-layer prediction in scalable video coding
GB201500719D0 (en) * 2015-01-15 2015-03-04 Barco Nv Method for chromo reconstruction
US10455242B2 (en) * 2015-03-04 2019-10-22 Qualcomm Incorporated Signaling output indications in codec-hybrid multi-layer video coding
WO2017075804A1 (en) * 2015-11-06 2017-05-11 Microsoft Technology Licensing, Llc Flexible reference picture management for video encoding and decoding
CN113347442B (zh) 2016-02-09 2022-08-23 弗劳恩霍夫应用研究促进协会 用于对编码有图片的数据流进行解码的方法
US10291923B2 (en) * 2016-05-24 2019-05-14 Qualcomm Incorporated Mapping of tile grouping and samples in HEVC and L-HEVC file formats
US10616583B2 (en) * 2016-06-30 2020-04-07 Sony Interactive Entertainment Inc. Encoding/decoding digital frames by down-sampling/up-sampling with enhancement information
WO2018143268A1 (ja) * 2017-02-03 2018-08-09 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP7086587B2 (ja) * 2017-02-24 2022-06-20 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 復号された画像データから画像データを再構成する方法および装置
US11310532B2 (en) 2017-02-24 2022-04-19 Interdigital Vc Holdings, Inc. Method and device for reconstructing image data from decoded image data
EP4415366A2 (en) * 2017-08-03 2024-08-14 Sharp Kabushiki Kaisha Systems and methods for partitioning video blocks in an inter prediction slice of video data
CN110868591A (zh) 2018-08-28 2020-03-06 北京字节跳动网络技术有限公司 用扩展四叉树进行分割时的上下文编码
US12022059B2 (en) * 2018-12-07 2024-06-25 Beijing Dajia Internet Information Technology Co., Ltd. Video coding using multi-resolution reference picture management
WO2020200235A1 (en) 2019-04-01 2020-10-08 Beijing Bytedance Network Technology Co., Ltd. Half-pel interpolation filter in intra block copy coding mode
US11109064B2 (en) * 2019-05-22 2021-08-31 Mediatek Inc. Signaling of motion vector difference derivation
US11190781B2 (en) * 2019-06-24 2021-11-30 Alibaba Group Holding Limited Adaptive resolution change in video processing
CN113766247B (zh) * 2019-06-25 2023-07-25 北京大学 环路滤波的方法与装置
BR112022002480A2 (pt) 2019-08-20 2022-04-26 Beijing Bytedance Network Tech Co Ltd Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador armazenado em uma mídia legível por computador não transitória
US12114008B2 (en) 2019-09-30 2024-10-08 Hyundai Motor Company Method and apparatus for inter-prediction of pictures with different resolutions
WO2022141096A1 (zh) * 2020-12-29 2022-07-07 华为技术有限公司 一种无线投屏方法及装置
US11539566B2 (en) * 2021-02-26 2022-12-27 Qualcomm Incorporated Generalization of encoding for uplink transmissions
CN115868157A (zh) 2021-03-02 2023-03-28 京东方科技集团股份有限公司 视频图像去交错方法和视频图像去交错装置
CN114520914B (zh) * 2022-02-25 2023-02-07 重庆邮电大学 一种基于shvc质量可伸缩帧间视频编码方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040017852A1 (en) * 2002-05-29 2004-01-29 Diego Garrido Predictive interpolation of a video signal
WO2008148708A1 (en) * 2007-06-05 2008-12-11 Thomson Licensing Device and method for coding a video content in the form of a scalable stream
US20090310674A1 (en) * 2008-06-17 2009-12-17 Canon Kabushiki Kaisha Method and device for coding a sequence of images
TWI330498B (en) * 2005-04-01 2010-09-11 Lg Electronics Inc Method for scalably encoding and decoding video signal
US20100283895A1 (en) * 2005-11-18 2010-11-11 Shijun Sun Methods and Systems for Picture Resampling
CN102655014A (zh) * 2009-04-07 2012-09-05 索尼公司 信息处理设备、信息处理方法、播放设备、播放方法和程序

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993076B1 (en) * 1999-05-11 2006-01-31 Thomson Licensing S.A. Apparatus and method for deriving an enhanced decoded reduced-resolution video signal from a coded high-definition video signal
WO2005083636A1 (es) * 2004-02-27 2005-09-09 Td Vision Corporation, S.A. De C.V. Método y sistema de codificación digital de imágenes de video 3d estereoscópicas
JP5017825B2 (ja) * 2005-09-15 2012-09-05 ソニー株式会社 復号装置および復号方法
US8023569B2 (en) * 2005-12-15 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for block-based residual upsampling
US7956930B2 (en) * 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
US7991236B2 (en) * 2006-10-16 2011-08-02 Nokia Corporation Discardable lower layer adaptations in scalable video coding
KR101366249B1 (ko) * 2007-06-28 2014-02-21 삼성전자주식회사 스케일러블 영상 부호화장치 및 방법과 그 영상 복호화장치및 방법
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
US8665968B2 (en) * 2009-09-30 2014-03-04 Broadcom Corporation Method and system for 3D video coding using SVC spatial scalability
US9014276B2 (en) * 2009-12-04 2015-04-21 Broadcom Corporation Method and system for 3D video coding using SVC temporal and spatial scalabilities
US20140003527A1 (en) * 2011-03-10 2014-01-02 Dolby Laboratories Licensing Corporation Bitdepth and Color Scalable Video Coding
KR20120118781A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오를 위한 단일화된 스케일러블 비디오 부호화 방법 및 그 장치, 다시점 비디오를 위한 단일화된 스케일러블 비디오 복호화 방법 및 그 장치
US9014263B2 (en) * 2011-12-17 2015-04-21 Dolby Laboratories Licensing Corporation Multi-layer interlace frame-compatible enhanced resolution video delivery
US9049445B2 (en) * 2012-01-04 2015-06-02 Dolby Laboratories Licensing Corporation Dual-layer backwards-compatible progressive video delivery
JP6110410B2 (ja) * 2012-01-31 2017-04-05 ヴィド スケール インコーポレイテッド スケーラブルな高効率ビデオコーディング(hevc)のための参照ピクチャセット(rps)シグナリング
CN104255031B (zh) * 2012-02-29 2017-12-22 Lg 电子株式会社 层间预测方法和使用层间预测方法的装置
CN110035286B (zh) 2012-07-09 2021-11-12 Vid拓展公司 用于多层视频编码的编解码器架构
CN104704831B (zh) 2012-08-06 2019-01-04 Vid拓展公司 多层视频编码中用于空间层的采样栅格信息
EP3588958B1 (en) 2012-08-29 2024-07-03 Vid Scale, Inc. Method and apparatus of motion vector prediction for scalable video coding
BR112015006551B1 (pt) * 2012-09-27 2022-12-06 Dolby Laboratories Licensing Corporation Processamento de figuração de referência entre camadas para escalabilidade padrão de codificação
JP2015536087A (ja) * 2012-09-28 2015-12-17 サムスン エレクトロニクス カンパニー リミテッド インターレイヤ予測誤差を符号化するためのsaoオフセット補償方法及びその装置
AU2014231403A1 (en) * 2013-03-12 2015-07-16 Hfi Innovation Inc. Inter-layer motion vector scaling for scalable video coding
WO2015053287A1 (ja) * 2013-10-08 2015-04-16 シャープ株式会社 画像復号装置、画像符号化装置、および、符号化データ変換装置
WO2015102441A1 (ko) * 2014-01-03 2015-07-09 삼성전자 주식회사 효율적인 파라미터 전달을 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040017852A1 (en) * 2002-05-29 2004-01-29 Diego Garrido Predictive interpolation of a video signal
TWI330498B (en) * 2005-04-01 2010-09-11 Lg Electronics Inc Method for scalably encoding and decoding video signal
US20100283895A1 (en) * 2005-11-18 2010-11-11 Shijun Sun Methods and Systems for Picture Resampling
WO2008148708A1 (en) * 2007-06-05 2008-12-11 Thomson Licensing Device and method for coding a video content in the form of a scalable stream
US20090310674A1 (en) * 2008-06-17 2009-12-17 Canon Kabushiki Kaisha Method and device for coding a sequence of images
CN102655014A (zh) * 2009-04-07 2012-09-05 索尼公司 信息处理设备、信息处理方法、播放设备、播放方法和程序

Also Published As

Publication number Publication date
CN111083493B (zh) 2023-08-18
MY178217A (en) 2020-10-07
TWI720348B (zh) 2021-03-01
TW201924329A (zh) 2019-06-16
KR102521870B1 (ko) 2023-04-13
US9819947B2 (en) 2017-11-14
CN111083493A (zh) 2020-04-28
KR20160105861A (ko) 2016-09-07
KR20220017517A (ko) 2022-02-11
TW201537953A (zh) 2015-10-01
CN105874792B (zh) 2020-03-03
WO2015103032A1 (en) 2015-07-09
IL246542B (en) 2020-05-31
JP6560230B2 (ja) 2019-08-14
JP2017507548A (ja) 2017-03-16
IL246542A0 (en) 2016-08-31
US10154269B2 (en) 2018-12-11
EP3090549A1 (en) 2016-11-09
US20180020225A1 (en) 2018-01-18
US20150189298A1 (en) 2015-07-02
CN105874792A (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
TWI660621B (zh) 視訊解碼及編碼方法
US10841615B2 (en) Systems and methods for model parameter optimization in three dimensional based color mapping
CN108322744B (zh) 用于可缩放的高效视频译码(hevc)的参考图片集(rps)信令
JP6640751B2 (ja) ブロックベクトル導出を用いるイントラブロックコピー符号化のための方法およびシステム
US10277909B2 (en) Single loop decoding based interlayer prediction
CN110855994B (zh) 针对多层视频编码的层间参考图片增强的设备
TW202110178A (zh) 具有可切換濾波器之參考圖像重新取樣
TW202042552A (zh) 用於照明補償之區塊大小限制