KR102273741B1 - 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치 - Google Patents

비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치 Download PDF

Info

Publication number
KR102273741B1
KR102273741B1 KR1020207028096A KR20207028096A KR102273741B1 KR 102273741 B1 KR102273741 B1 KR 102273741B1 KR 1020207028096 A KR1020207028096 A KR 1020207028096A KR 20207028096 A KR20207028096 A KR 20207028096A KR 102273741 B1 KR102273741 B1 KR 102273741B1
Authority
KR
South Korea
Prior art keywords
list
picture
syntax element
reference picture
current picture
Prior art date
Application number
KR1020207028096A
Other languages
English (en)
Other versions
KR20200115684A (ko
Inventor
얀 예
용 헤
Original Assignee
브이아이디 스케일, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47561871&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR102273741(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 브이아이디 스케일, 인크. filed Critical 브이아이디 스케일, 인크.
Priority to KR1020217020082A priority Critical patent/KR102367618B1/ko
Publication of KR20200115684A publication Critical patent/KR20200115684A/ko
Application granted granted Critical
Publication of KR102273741B1 publication Critical patent/KR102273741B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

시간적 예측에 사용되는 기준 화상들의 시그널링을 위한 개선된 방법 및 장치가 개시된다. HEVC WD5(Working Draft 5)에서 상이한 기준 화상 목록들을 위한 시그널링 방식 및 구성 프로세스가 개선된다.

Description

비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치{METHOD AND APPARATUS FOR SIGNALING AND CONSTRUCTION OF VIDEO CODING REFERENCE PICTURE LISTS}
본 출원은 참조로서 통합되어 있는, 2012년 1월 19일에 출원된 미국 가출원 제61/588,571호의 본 출원(non-provisional)이다.
비디오 코딩 시스템들은 디지털 비디오 신호들을 압축하여 이러한 신호들의 저장 필요성 및/또는 전송 대역폭을 줄이기 위해 널리 사용된다. 블록 기반 시스템, 웨이블릿(wavelet) 기반 시스템, 및 객체 기반 시스템과 같은 다양한 타입의 비디오 코딩 시스템 중에, 현재에는 블록 기반 하이브리드 비디오 코딩 시스템들이 가장 널리 사용되고 보급되어 있다. 블록 기반 비디오 코딩 시스템들의 일례들은 MPEG1/2/4 part 2, H.264/MPEG-4 part 10 AVC[1][3], 및 VC-1[2] 표준들과 같은 국제적인 비디오 코딩 표준들을 포함한다.
도 1은 일반적인 블록 기반 하이브리드 비디오 인코딩 시스템의 블록도이다. 이력 비디오 신호(102)는 블록마다 프로세싱된다. 기존의 모든 비디오 코딩 표준들에서, 비디오 블록 유닛은 16x16 픽셀로 구성되는데, 이러한 블록 유닛은 보통 매크로블록 또는 MB라고 지칭된다. 현재, ITU-T/SG16/Q.6/VCEG 및 ISO/IEC/MPEG의 JCT-VC(Joint Collaborative Team on Video Coding)이 고효율 비디오 코딩 또는 HEVC[4]라고 지칭되는 차세대 비디오 코딩 표준을 개발하고 있다. HEVC에서, 확장 블록 사이즈들(“코딩 유닛” 또는 CU라고 지칭됨)은 고해상도(1080p 이상) 비디오 신호들을 효율적으로 압축하는데 사용된다. HEVC에서, CU는 최대 64×64 픽셀일 수 있다. CU는 별도의 예측 방법들이 적용되는 예측 유닛들 또는 PU들로 더 분할될 수 있다. 입력 비디오 블록(MB 또는 CU)마다, 공간적 예측(160) 및/또는 시간적 예측(162)이 수행될 수 있다. 공간적 예측(또는 “인트라 예측”)은 동일한 비디오 화상/슬라이스에서 이미 코딩된 이웃 블록들로부터의 픽셀들을 사용하여 현재 비디오 블록을 예측한다. 공간적 예측은 비디오 신호에 내재하는 공간적 리던던시(spatial redundancy)를 줄인다. 시간적 예측(“인터 예측” 또는 “모션 보상 예측”이라고도 지칭됨)은 이미 코딩된 비디오 화상들(보통 “기준 화상들”이라고 지칭됨)로부터의 픽셀들을 사용하여 현재 비디오 블록을 예측한다. 시간적 예측은 비디오 신호에 내재하는 시간적 리던던시(temporal redundancy)를 줄인다. 소정의 비디오 블록을 위한 시간적 예측 신호는 기준 화상에서 현재의 블록과 그 예측 블록 사이의 모션의 양 및 방향을 지시하는 하나 이상의 모션 벡터에 의해 대개 시그널링된다. 또한, (H.264/AVC 또는 HEVC와 같은 최신 비디오 코딩 표준들의 경우에서와 같이) 다수의 기준 화상들이 지원되면, 비디오 블록마다 기준 화상 인덱스가 추가적으로 전송된다. 기준 화상 인덱스는 재구성될 현재의 비디오 블록의 예측을 생성하기 위해 기준 화상 저장소(164; “디코딩 화상 버퍼(DPB)”라고도 지칭됨)에서 어떠한 기준 화상으로부터 시간적 예측 신호가 획득되어야 하는지를 식별한다. 공간적 및/또는 시간적 예측 후에, 인코더의 모드 판정 블록(180)은 예를 들어, 레이트 왜곡 최적화 방법(rate-distortion optimization method)에 기반하여 최선의 예측 모드를 선택한다. 그 후, 예측 블록은 현재 비디오 블록(116)으로부터 차감되고; 예측 잔여(prediction residual)가 변환되고(104), 양자화된다(106). 정량화된 잔여 계수들은 역 양자화되고(110), 역 변환되어(112) 재구성된 잔여를 형성하는데, 이는 예측 블록(126)에 다시 추가되어 재구성 비디오 블록을 형성한다. 또한, 기준 화상 저장소(164)에 두고 미래의 비디오 블록들을 코딩하는데 사용되기 전에 디블록킹 필터들(deblocking filters), 샘플 적응 오프셋(Sample Adaptive Offset), 적응 루프 필터들(Adaptive Loop Filters)과 같은 인-루프 필터링(in-loop filtering)이 재구성 비디오 블록에 적용될 수 있다(166). 출력 비디오 비트스트림(120)을 형성하기 위해, 코딩 모드(인터 또는 인트라), 예측 모드 정보, 모션 정보, 및 양자화된 잔여 계수들 모두가 엔트로피 코딩 유닛(108)에 전송되어 더 압축되고 패킹되어 비트스트림을 형성한다.
도 2는 블록 기반 비디오 디코더의 일반적인 블록도를 제시한다. 비디오 비트스트림(202)는 엔트로피 디코딩 유닛(208)에서 우선 패킹 해제되고 엔트로피 디코딩된다. 코딩 모드 및 예측 정보는 공간적 예측 유닛(260)(인트라 코딩된 경우) 또는 시간적 예측 유닛(262)(인터 코딩된 경우)에 전송되어 예측 블록을 형성한다. 인터 코딩되면, 예측 정보는 예측 블록 사이즈들, (모션의 방향 및 양을 지시하는) 하나 이상의 모션 벡터, 및 (예측 신호가 어느 기준 화상으로부터 획득되어야 하는지를 지시하는) 하나 이상의 기준 인덱스를 포함한다. 모션 보상 예측이 시간적 예측 유닛(262)에 적용되어 시간적 예측 블록을 형성한다. 잔여 변환 계수들은 역 양자화 유닛(210) 및 역 변환 유닛(212)에 전송되어 잔여 블록을 재구성한다. 그 후, 예측 블록 및 잔여 블록이 226에서 함께 더해진다. 재구성된 블록은 기준 화상 저장소(264)에 저장되기 전에 인-루프 필터링(in-loop filtering) 처리될 수 있다. 기준 화상 저장소에서 재구성 비디오는 장래의 비디오 블록들을 예측하는데 사용될 뿐 아니라 디스플레이 디바이스를 구동하기 위해 전송된다.
시간적 예측에 사용되는 기준 화상들의 시그널링을 개선하기 위해 유연성을 제공하는 방법 및 시스템들이 여기에 설명된다(도 1의 블록(162) 및 도 2의 블록(262) 참조). 특히, HEVC WD5(Working Draft 5)[4][5]에서의 상이한 기준 화상 목록들을 위한 시그널링 방식들 및 구성 프로세스가 개선된다.
일 실시예에 따르면, 비디오 데이터 내의 예측 화상을 디코딩하기 위한 기준 화상 목록 L0 및 L1을 생성하는 방법으로서, 디코딩 화상 버퍼(DPB)로부터 기준 화상들의 제1 순서 목록 RefPicSetCurrTempList0을 생성하는 단계 - 이 목록은 현재 화상으로부터의 시간적 거리에 따라 순서대로 목록화된 현재 화상보다 시간적으로 이전인 DPB 내의 기준 화상들, 현재 화상으로부터의 시간적 거리에 따라 순서대로 목록화된 현재 화상보다 시간적으로 늦은 DPB 내의 기준 화상들, 및 DPB에 저장된 순서대로 목록화된 DPB 내의 장기 기준 화상들의 순서로 정렬됨 -, DPB로부터 기준 화상들의 제2 순서 목록 RefPicSetCurrTempList1을 생성하는 단계 - 이 목록은 현재 화상으로부터의 시간적 거리에 따라 순서대로 목록화된 현재 화상보다 시간적으로 늦은 DPB 내의 기준 화상들, 현재 화상으로부터의 시간적 거리에 따라 순서대로 목록화된 현재 화상보다 시간적으로 이른 DPB 내의 기준 화상들, 및 DPB에 저장된 순서대로 목록화된 DPB 내의 장기 기준 화상들의 순서로 정렬됨 -, 및 제1 순서 목록 및 제2 순서 목록으로부터 각각 기준 화상들을 선택함으로써 목록 L0 및 L1 중 적어도 하나를 생성하는 단계를 포함한다.
다른 실시예에 따르면, P 또는 B 슬라이스 헤더를 디코딩하기 위한 기준 화상 목록용 디코더를 초기화하는 방법으로서,
Figure 112020103501118-pat00001
에 의해 제1 임시 목록 RefPicSetCurrTempList0을 구성하는 단계를 포함한다.
또 다른 실시예에 따르면, 복수의 기준 화상 목록에 대한 수정 사항들을 시그널링하는 방법은 통일된 시그널링 구문을 사용하여 복수의 기준 화상 목록에 대한 수정 사항들을 시그널링하는 단계를 포함한다.
일 실시예에 따르면, 방법은 기준 화상 목록 내의 엔트리의 개수를 결정하는 단계; 및 기준 화상 목록 내의 엔트리를 식별하는 값을 포함하는 메시지를 생성하는 단계를 포함하고, 기준 화상 목록 내의 엔트리들의 개수가 2이면 값은 단일 비트로 표현되고, 기준 화상 목록 내의 엔트리들의 개수가 3 이상이면 다수의 비트로 표현되고, 메시지는 기준 화상 목록 내의 엔트리들의 개수가 하나이면 값을 생략한다.
일 실시예에 따르면, 제1 기준 화상 목록 L0 및 제2 기준 화상 목록 L1으로부터 P 또는 B 화상을 디코딩하기 위해 사용될 기준 화상 결합 목록 LC를 생성하는 방법으로서, L0가 두 개 이상의 엔트리를 포함하는지 여부를 결정하는 단계; L1이 두 개 이상의 엔트리를 포함하는지 여부를 결정하는 단계; L0 또는 L1 중 하나가 두 개 이상의 엔트리를 포함하면, 구문 요소 ref_idx_list_curr를 사용하여 LC로 추가될 L0 및 L1 중 적어도 하나 내의 엔트리를 나타내는 단계; L0가 단 하나의 엔트리를 포함하면, ref_idx_list_curr를 0으로 설정하는 단계; L1이 단 하나의 엔트리를 포함하면, ref_idx_list_curr를 0으로 설정하는 단계; 및 ref_idx_list_curr의 값을 사용하여 LC를 생성하는 단계를 포함한다.
첨부 도면과 함께 일례로서 다음의 설명으로부터 더 상세히 이해될 수 있다.
도 1은 본 발명의 일 실시예가 통합될 수 있는 블록 기반 하이브리드 비디오 인코딩 방식의 블록도이다.
도 2는 본 발명의 일 실시예가 통합될 수 있는 블록 기반 비디오 디코딩 방식의 블록도이다.
도 3은 종래 기술에 따른 다수의 기준 화상들을 포함하는 기준 화상 저장소로부터의 시간적 단-예측(uni-prediction)을 도시한다.
도 4는 종래 기술에 따른 다수의 기준 화상들을 사용하는 시간적 양-예측(bi-prediction)을 도시한다.
도 5는 종래 기술에 따른 결합된 기준 화상 목록을 구성하는 프로세스의 흐름도이다.
도 6은 도 5와 함께 설명되는 프로세스에 따라 결합 기준 화상 목록을 구성하는 프로세스의 일례를 도시한다.
도 7은 종래 기술에 따른 결합된 기준 화상 목록을 구성하기 위해 수정된 프로세스의 일례를 도시한다.
도 8은 일례로서 L0를 사용하여 종래 기술에 따라 L0 및 L1을 위한 기준 화상 목록 수정의 흐름도이다.
도 9는 도 8과 함께 설명된 프로세스에 따라 L0를 위한 ref_pic_list_modification 프로세스의 일례이다.
도 10은 본 발명의 일 실시예에 따라, 일례로서 L0를 사용하여 기준 화상 목록 수정의 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 도 9에서와 같이 동일한 예시를 위한 ref_pic_list_modification 프로세스이다.
도 12a는 하나 이상의 개시된 실시예들이 구현될 수 있는 예시적인 통신 시스템의 시스템도이다.
도 12b는 도 12a에 예시된 통신 시스템 내에서 사용될 수 있는 예시적인 무선 송수신 유닛(WTRU)의 시스템도이다.
도 12c, 도 12d, 및 도 12e는 도 12a에 예시된 통신 시스템 내에 사용될 수 있는 예시적인 무선 액세스 네트워크 및 예시적인 코어 네트워크의 시스템도들이다.
여기에 사용된 바와 같이, “시간적 예측”, “모션 예측”, “모션 보상 예측”, 및 “인터 예측”이라는 용어들은 상호 교환적으로 사용되고, "기준 화상 저장소”, “디코딩 화상 버퍼”, 및 “DPB”라는 용어들은 상호 교환적으로 사용된다.
H.264 및 HEVC WD5에 채택된 공지 기법들에 따르면, 비디오 블록들의 시간적 예측은 단-예측(uni-prediction) 기법 또는 양-예측(bi-prediction) 기법을 사용하여 수행될 수 있다. 이러한 기법들에 따라 예측을 수행하기 위해, 기준 화상 목록들이 시그널링되고 구성된다. 단-예측의 경우, 현재 화상 내의 블록들이 예측되는 기준 화상들의 단일 목록이 존재할 수 있다. 양-예측의 경우, 2개의 목록 L0 및 L1이 존재하는데, 하나의 기준 화상은 현재 화상에서 블록들의 예측을 형성하기 위해 각 목록으로부터 선택된다. 또한, 처음 2개의 목록 L0 및 L1의 결합인 제3의 목록(이하 목록 LC라고 지칭됨)의 사용을 포함하는 양-예측 기법들에 대해 제안되었다(기입 시점에 최신 HEVC WD9[9]에 더 이상 통합되지 않음). 결합 기준 화상 목록 LC의 시그널링을 위한 기법뿐 아니라 모든 기준 화상 목록들 L0, L1, 및/또는 LC을 위한 수정 구문(modification syntax)의 시그널링을 위한 효율적인 통일된 기법을 위한 방법 및 시스템들이 여기에 설명된다.
도 3은 인터 예측 프로세서에 의해 수행될 수 있는 단일 기준 화상 목록(301)으로부터 단-예측을 도표로 예시한다(예를 들어, 도 1의 블록(162)). 단-방향 기법들에 따르면, 기준 화상 목록(301)은 현재 비디오 블록을 예측하기 위해 이웃한 이미 코딩된 비디오 프레임들로부터 비디오 블록들, 예를 들어, 블록(304)에 대한 링크들을 포함하고, 이로써 시간적 상관관계를 이용하여 비디오 신호에 내재된 시간적 리던던시를 제거할 수 있다. 이들의 이미 코딩된 비디오 프레임들은 디코딩 화상 버퍼(DPB), 예를 들어 도 1에서의 기준 화상 저장소(164)에서 저장된다. H.264/AVC 및 HEVC WD 5는 하나보다 많은 기준 화상의 사용을 허용한다. 도 3에서, refn(n= 0,...,N-l)이라고 표지된 N개의 기준 화상들(303)의 목록은 현재 화상(305)에서 비디오 블록들(307)을 예측하는데 사용될 수 있다. refm은 현재 블록(307)이 모션 벡터(mvx, mvy)를 이용하여 예측될 기반으로서 선택된다. 시간적 예측은 다음과 같이 수행된다.
Figure 112020103501118-pat00002
여기서, refm(x,y)는 기준 화상(refm)의 위치(x,y)에서의 픽셀 값이고, P(x,y)는 예측된 블록이다. 기존의 비디오 코딩 시스템들은 단편적인 픽셀 정밀도(fractional pixel precision)[1][2][4]를 이용한 인터 예측을 지원한다. 모션 벡터(mvx, mvy)가 단편적인 픽셀 값을 갖는 경우, 단편적인 픽셀 위치들에서 픽셀 값들을 획득하기 위해 보간 필터들이 적용된다.
수학식(1)에서, 시간적 예측은 하나의 소스(즉, refm)로부터 기원하는데, 이는 보통 단-예측이라고 지칭된다. 화상 또는 슬라이스 내의 모든 블록들이 단-예측을 사용하여 예측되는 화상 또는 슬라이스(비디오 블록들의 그룹)는 보통 P 화상 또는 P 슬라이스라고 지칭된다.
시간적 예측 정확성을 개선하기 위해, 더 최근의 블록 기반 비디오 코딩 시스템들은 다중 가설 예측(multi-hypothesis prediction)을 또한 지원하는데, 여기서 예측 신호는 상이한 기준 화상들로부터 복수의 예측 신호들을 결합함으로써 형성된다. 다중 가설 예측의 일반적으로 사용된 형태는 양-예측이고, 여기서 각각 상이한 기준 화상 목록에서의 화상으로부터의 2개의 예측 신호들은 현재 블록을 위한 예측을 형성하기 위해 결합된다. 도 4는 양-예측을 예시하는 것을 보조한다. 특히, 2개의 기준 화상 목록, 목록 0(401), 및 목록 1(403)은 현재 화상에서의 비디오 블록들을 예측하는데 사용된다. 목록 0는 총 N0개의 화상(404)을 포함하는 반면에, 목록 1은 총 N1개의 화상(404)을 포함한다. 도 4에서, 모션 벡터(mvxO, mvyO)를 갖는 목록 0(401)로부터의 refm0 및 모션 벡터(mvx1, mvy1)를 갖는 목록 1(403)로부터의 refm1은 수학식(2)에서와 같이 현재 화상(412)의 예측 블록(410)의 양-예측을 형성하기 위해 선택된다.
Figure 112020103501118-pat00003
여기서, P0(x,y) 및 P1(x,y)는 각각 제1 예측 블록(407) 및 제2 예측 블록(408)이다. 화상 또는 슬라이스 내의 적어도 일부 블록이 양 예측을 사용하여 예측되면(반면 나머지 블록은 단-예측을 사용하여 예측될 수 있음), 화상 또는 슬라이스는 보통 B 화상 또는 B 슬라이스라고 지칭된다. 양-예측은 MPEG2/4, VC1, H.264, 및 HEVC와 같은 모든 최근의 비디오 코딩 표준들에서 지원된다.
예측 후에, 예측 블록 P(x,y)은 제1 합산기(도 1의 116 참조)에서 원 비디오 블록으로부터 차감되어 예측 잔여 블록을 형성한다. 예측 잔여 블록은 변환 유닛(104)에서 변환되고, 양자화 유닛(106)에서 양자화된다. 이후, 양자화된 잔여 변환 계수 블록들은 엔트로피 코딩 유닛(108)으로 전송되어 엔트로피 코딩됨으로써 비트 레이트를 더 감축시킨다. 그 후, 엔트로피 코딩 잔여 계수들은 패킹되어 출력 비디오 비트스트림(120)의 일부를 형성한다.
모든 블록들이 단-예측을 사용하여 예측되기 때문에 P 화상/슬라이스를 위한 기준 화상 목록의 구조는 상대적으로 간단한데, 이는 단 하나의 기준 화상 목록이 필요하다는 것을 의미한다. 그러나, B 화상/슬라이스에서, 일부 블록들은 양-예측을 사용하여 예측될 수 있고, 나머지 블록들은 단-방향을 사용하여 예측된다. HEVC에서, 양-예측을 위한 기준 화상 목록, 즉 도 4에서와 같은 목록 0(또는 LO)(401) 및 목록 1(또는 L1)(403)은 H.264/AVC에서와 동일하다. 그러나, HEVC는 B 화상/슬라이스를 위해 단-예측용 기준 화상 목록이 형성되는 방법에서 H.264/AVC와 상이하다. H.264/AVC에서, B 화상/슬라이스에서의 비디오 블록을 위한 단-예측은 예측이 L0에서 기원하는지 또는 L1에서 기원하는지 여부를 우선 지시하는 것을 필요로 하는데, 이러한 특별한 목록을 위한 ref_idx가 뒤따른다. HEVC에서, 제4차 JCT-VC 미팅에서, 결합 기준 화상 목록의 개념이 제시되었다[8]. 본 명세서에서 LC라고 지칭되는 결합 목록은 L0 및 L1를 결합함으로써 형성되는데, LC는 B 화상/슬라이스에서의 단-예측을 사용하여 예측된 모든 블록들을 위한 유일한 기준 화상 목록 역할을 한다.
현재 HECV에서, 디폴트로, 결합 목록 LC는 결합 목록에서의 최소 리던던시를 보장하기 위해 L0와 L1로부터 고유 화상들을 교대로 취함으로써 형성된다. 디폴트 결합된 목록 생성의 흐름도가 도 5에 주어진다. 특히, 2개의 목록 L0 및 L1의 사이즈와 같이, 목록 L0, L1, 및 LC에 대한 인덱스(i, j, 및 k)는 501에서 초기화된다. 판정(503)에서, L0에서의 기준 화상 전부가 확인되었는지 여부가 결정된다. 확인되지 않으면, 흐름은 판정 블록(505)으로 진행하는데, 여기서 L0에서 인덱스(i)에서의 기준 화상이 결합 목록 LC에 이미 존재하는지 여부가 결정된다. 존재하지 않으면, 추가되고, 결합 목록 LC으로의 인덱스는 증분된다(507). 인덱스(i)는 또한 증분된다(509). 한편, LC에 이미 존재하면, 흐름은 대신 505로부터 509로 직접 진행한다. 다음으로, 필수적으로 동일한 프로세스는 목록 L1에서의 인덱스(j)에서 기준 화상과 함께 수행된다. 구체적으로, 판정(511)에서, L1에서의 기준 화상 전부가 확인되었는지 여부가 결정된다. 확인되지 않으면, 흐름은 판정 블록(513)으로 진행하는데, 여기서 L1의 인덱스(j)에서의 기준 화상이 결합 목록 LC에 이미 존재하는지 여부가 결정된다. 존재하지 않으면, 추가되고, LC로의 인덱스는 증분된다(515). L1로의 인덱스(j) 또한 증분된다(517). 한편, L1의 인덱스(j)에서의 기준 화상이 LC에 이미 존재하면, 흐름은 대신 513로부터 517로 직접 진행한다. 판정 블록(519)에서 알 수 있듯이, 2개의 목록의 마지막에 도달될 때까지 목록 L0 및 L1 각각에서 다음 기준 화상을 확인함으로써 프로세스가 반복된다.
도 5의 흐름도에 의해 예시된 프로세스에 의해 생성된 결합 목록 LC의 일례는 도 6에 주어진다. 본 예시에서, 코딩되고 있는 현재 화상은 기준 화상(2 및 4) 사이에 시간상 존재한다. 또한, L0는 기준 화상들(Ref2, Ref1, 및 Ref4)을 이러한 순서로 포함하고, L1는 기준 화상들(Ref4, Ref5, 및 Ref2)을 이러한 순서로 포함한다. 도 5에서의 흐름을 따라, 도 6에서의 예시는 LO 및 L1 내의 3개의 기준 화상 각각이 이미 LC에 존재하는지 여부를 교대로 조사하고, 사전에 존재하지 않는 기준 화상들을 LC에 추가함으로써 결합 목록 LC를 형성한다. 결과적으로, 도 6에서의 예시는 LO의 제1 기준 화상(Ref2), L1의 제1 기준 화상(Ref4), LO의 제2 기준 화상(Ref1), L1의 제2 기준 화상(Ref5)을 순서대로 LC에 추가하고, L1의 제1 기준 화상과 동일한 화상이어서 LC에 이미 추가되었기 때문에 LO의 제3 기준 화상(Ref4)을 스킵하고, LO의 제1 기준 화상과 동일한 화상이어서 LC에 이미 추가되었기 때문에 L1 의 제3 기준 화상(Ref2)을 스킵함으로써 4개의 기준 화상을 갖는 결합 목록 LC을 형성한다.
기준 화상들(Ref4 및 Ref5)(이후 디스플레이 순서)이 현재 화상 전에 코딩됨에 따라 도 6의 목록 L0, L1, 및 LC 각각의 기준 화상들의 코딩 순서는 디스플레이 순서와 상이하다는 점에 주목한다. 목록 L0과 L1 사이를 왕래함(ping-ponging)으로써 LC를 구성하기 위한 이러한 디폴트 프로세스는 LC에서의 각 엔트리가 코딩된 비디오 시퀀스에서 고유 화상을 나타내는 것을 보장하여, 최소 리던던시를 보장한다.
디폴트 프로세스가 기준 화상 순서 재결정(reordering)을 지원하기 않기 때문에(즉, 디폴트 목록 사이즈와 상이한 목록 사이즈를 갖고, 디폴트 프로세스와 상이하게 순서가 정해진 목록에 엔트리를 갖고, 그 목록에서 일부 엔트리를 반복하고, 목록으로부터 일부 엔트리들을 제거하는 등), 결합 목록 LC의 수정 프로세스를 지원하기 위해 HEVC WD5에서 추가적인 구문 요소들(syntax elements)이 사용된다(표 1 참조). 도 7은 결합 목록 수정의 2개의 예시를 제시하는데, 제1 예시는 순서 재결정된 LC를 도시하고, 제2 예시는 반복된 엔트리 및 디폴트 LC 사이즈(4개의 엔트리)와 상이한 수정된 LC 사이즈(3개의 엔트리)를 갖는 LC를 도시한다. HEVC WD5에서, 결합 기준 화상 목록 LC은 표 1의 구문 표를 사용하여 시그널링된다.
Figure 112020103501118-pat00004
WD5[4]의 기준 화상 목록 결합 구문
기준 화상 목록 결합 어휘 의미는 다음과 같다.
ref_pic_list_combination_flag가 1이라는 것은 기준 화상 목록 0 및 기준 화상 목록 1이 결합되어 단-예측되고 있는 블록들 또는 다른 예측 유닛들에 사용되는 추가적인 결합 기준 화상 목록이 되었다는 것을 나타낸다. 이 플래그가 0이면, 기준 화상 목록 0 및 기준 화상 목록 1이 동일하여, 기준 화상 목록 0이 결합 기준 화상 목록으로 사용될 수 있다는 것을 나타낸다. 결합 기준 화상 목록은 표 1에 정의된 루프의 시작 부분에 비어있도록 설정된다.
num_ref_idx_lc_active_minus1+1는 결합된 기준 화상 목록에서 기준 화상 목록 0 또는 기준 화상 목록 1로부터 선택된 기준 화상들의 개수를 명시한다.
ref_pic_list_modification_flag_lc이 1이라는 것은 구문 요소 pic_from_list_0_flag 및 ref_idx_list_curr가 기준 화상 목록 0 및 기준 화상 목록 1의 엔트리들에 대한 결합 기준 화상 목록의 엔트리들의 매칭을 명시하기 위해 존재한다는 것을 명시한다.
ref_pic_list_modification_flag_lc가 0이라는 것은 이들 구문 요소들이 존재하지 않는다는 것을 명시한다. 결합된 기준 화상 목록은 HEVC WD 5의 서브-절 8.2.2.4에 명시된 바와 같이 초기화된다.
pic_from_list_0_flag는 결합 기준 화상 목록에 추가된 현재 기준 화상이 기준 화상 목록 0 또는 기준 화상 목록 1에서 나온 것임을 나타낸다. 이 플래그가 1인 경우, 화상은 기준 화상 목록 0에서 나온 것이고, CurrRefPicList는 기준 화상 목록 0이며, 이 플래그가 0인 경우, 화상은 기준 화상 목록 1에서 나온 것이고, CurrRefPicList는 기준 화상 목록 1이다.
ref_idx_list_curr는 기준 화상 목록 결합의 마지막 부분에 첨부될 CurrRefPicList의 화상의 기준 인덱스를 나타낸다.
기준 화상 목록 L0 및 L1은 수정될 수 있다. 기준 화상 목록 L0 및 L1의 사용의 유연성을 허용하기 위해, 디폴트 구성 프로세스와 수정 구성 프로세스는 양자 모두 HEVC에서 지원된다. L0 및 L1를 위한 현재의 기준 화상 목록 구성 및 수정 프로세스는 2011년 11월에서의 제7차 JCT-VC 미팅에서 제안되어[6][7], HEVC WD5으로 채택되었다[4]. HEVC WD5에서의 목록 0 및 목록 1을 위한 기준 화상 목록 수정을 위한 구문은 다음의 표 2에서 주어지고, 도 8에서의 흐름도 형태로 표현된다.
Figure 112020103501118-pat00005
목록 0 및 목록 1을 위한 기준 화상 목록 수정 구문
기준 화상 목록 수정 어휘 의미는 다음과 같다.
구문 요소 list_modification_idc 및 ref_pic_set_idx는 초기 기준 화상 목록들로부터 슬라이스를 디코딩하는데 사용될 기준 화상 목록들로의 변경을 명시한다.
ref_pic_list_modification_flag_l0가 1이라는 것은 구문 요소 list_modification_idc가 기준 화상 목록 0을 명시하기 위해 존재한다는 것을 명시하고, ref_pic_list_modification_flag_l0가 0이라는 것은 이러한 구문 요소가 존재하지 않는다는 것을 명시한다. ref_pic_list_modification_flag_l0가 1인 경우, ref_pic_list_modification_flag_l0 이후 list_modification_idc가 3이 아닌 횟수는 num_ref_idx_l0_active_minus1+1를 초과하지 않을 것이다.
ref_pic_list_modification_flag_l1이 1이라는 것은 구문 요소 list_modification_idc가 기준 화상 목록 1을 명시하기 위해 존재한다는 것을 명시하고, ref_pic_list_modification_flag_l1이 0이라는 것은 이러한 구문 요소가 존재하지 않는다는 것을 명시한다. ref_pic_list_modification_flag_l1이 1인 경우, ref_pic_list_modification_flag_l1 이후 list_modification_idc가 3이 아닌 횟수는 num_ref_idx_l1_active_minus1+1를 초과하지 않을 것이다.
ref_pic_set_idx와 함께 list_modification_idc는 기준 화상들 중 어느 것이 재매핑되는지를 명시한다. list_modification_idc의 값들은 표 3에 명시되어 있다. ref_pic_list_modification_flag_l0 또는 ref_pic_list_modification_flag_l1 직후에 뒤따르는 처음 list_modification_idc의 값은 3이 아닐 것이다.
list_modification_idc 명시된 수정
0
목록 0의 경우: ref_pic_set_idx가 존재하고 RefPicSetStCurr0에 대한 인덱스에 대응하고; 목록 1의 경우: ref_pic_set_idx가 존재하고 RefPicSetStCurr1에 대한 인덱스에 대응한다.
1
목록 0의 경우: ref_pic_set_idx가 존재하고 RefPicSetStCurr1에 대한 인덱스에 대응하고; 목록 1의 경우: ref_pic_set_idx가 존재하고 RefPicSetStCurr0에 대한 인덱스에 대응한다.
2
ref_pic_set_idx가 존재하고 RefPicSetLtCurr에 대한 인덱스에 대응한다.
3
초기 참조 화상 목록의 수정을 위한 마지막 루프
기준 화상 목록들의 수정을 위한 list_modification_idc 동작들
ref_pic_set_idx는 기준 화상 목록의 현재의 인덱스에 의해 참조되는 기준 화상의 RefPicSetStCurr0, RefPicSetStCurr1, 또는 RefPicSetLtCurr에 대한 인덱스를 명시한다. ref_pic_set_idx의 값은 0이상 max_num_ref_frames 이하의 범위에 있을 것이다.
도 8은 일례로서 L0를 사용하여 종래 기술에 따라 L0 및 L1을 위한 기준 화상 목록 수정의 흐름도이다. 기준 값 세트들(RefPicSetStCurr0, RefPicSetStCurr1, 및 RefPicSetLtCurr)의 정의들을 포함하는 L0 및 L1을 위한 상세한 수정 프로세스는 HEVC WD5[4] 및 [6][7]의 규격 초안(working draft) 부분에서 발견될 수 있다. 다음은 간단한 용어로 도 8의 기준 화상 세트들을 정의한다.
RefPicSetStCurr0: 이른 디스플레이 순서를 갖는, 즉 현재 화상(예를 들어, 도 6의 Ref1 및 Ref2) 이전의 단기 기준 화상들(short term reference pictures)
RefPicSetStCurr1: 늦은 디스플레이 순서를 갖는, 즉 현재 화상(예를 들어, 도 6의 Ref4 및 Ref5) 이후의 단기 기준 화상들
RefPicSetLtCurr: 장기 기준 화상들(도 6에 미도시)
801에서, 목록 L0에 대한 인덱스는 0으로 초기화된다. 803에서, ref_modification_idc가 판독된다. ref_modification_idc는 4개의 값인 0, 1, 2, 및 3을 가질 수 있다. 값 3은 더 이상의 수정이 수행되지 않고 수정 프로세스가 종료될 수 있다는 것을 나타낸다. (값이 0, 1, 또는 2인 ref_modification_idc에 의해 시그널링된 원하는 수정들은 단계들(811, 813, 및 815)과 함께 이하 설명됨). 이에 따라, 판정 단계(805)에서, ref_modification_idc가 3으로 설정되면, 더 이상의 구문이 판독되지 않는다. 임의의 다른 값이면, 807에서, ref_pic_set_idx가 판독된다. DPB에서의 3개의 세트의 화상들 중 하나에 대한 인덱스이다(즉, “이전” 현재의 화상은 디코딩된 화상들의 세트이고, 화상들의 "이후” 세트 또는 화상들의 장기간 세트). (3개의 세트 중 특정한 세트의 선택은 이하 더 설명되는 바와 같이 단계들(811, 813, 및 815)에서 일어날 것임). 판정 단계(809)에서, ref_modification_idc가 0, 1, 또는 2인지 여부가 결정된다. 0이면, 811에서, 목록 L0에 대한 현재 인덱스(RefldxL0)에 대한 목록 L0 내의 엔트리는 DPB에서의 단기 이른 기준 화상들의 세트에서 위치 ref_pic_set_idc에 있는 이른 디스플레이 순서를 갖는 단기 기준 화상(즉, RefPicSetStCurr0)으로 설정된다. 1이면, 813에서, 목록 L0에 대한 현재 인덱스(RefldxL0)에서의 목록 L0 내의 엔트리는 DPB에서의 단기 늦은 기준 화상들의 세트에서 위치 ref_pic_set_idc에 있는 코딩될 현재 사진보다 늦은 디스플레이 순서를 갖는 단기 기준 화상(즉, RefPicSetStCurr1)으로 설정된다. 마지막으로, 2이면, 815에서, 목록 L0에 대한 현재 인덱스(RefldxL0)에서의 목록 L0 내의 엔트리는 DPB에서의 장기 기준 화상들의 세트에서 위치 ref_pic_set_idc에 있는 장기 기준 화상(즉, RefPicSetLtCurr)으로 설정된다.
3가지 경우 각각에서, 흐름은 817로 진행하는데, 방금 수정된 엔트리와 동일한 화상을 지칭하는 방금 수정된 엔트리 이후의 목록 L0의 임의의 엔트리들이 L0로부터 제거된다. 819에서, 목록 L0에 대한 인덱스는 증분되고, 흐름은 803으로 복귀한다. 프로세스는 ref_modification_idc의 값이 3일 때까지 계속되는데, 이는 더 이상 수정이 수행되지 않는다는 것을 나타낸다.
다시 일례로서 L0를 사용하여, 도 9는 (1) 단기 이른 기준 화상 세트(즉, RefPicSetStCurr0)에 있는 (이 순서의) 기준 화상들(Ref2 및 Ref1) 및 (2) 단기 늦은 기준 화상 세트(즉, RefPicSetStCurr1)에 있는 (이 순서의) 기준 화상들(Ref4 및 Ref5)을 포함하는 DPB를 위한 도 8의 흐름도에 의해 윤곽이 정해진 기준 화상 목록 수정 프로세스의 결과들을 도시한다. 간략화를 위해, 그리고 보편성의 손실 없이, 도 9의 예시는 장기 기준 화상의 사용과 관련된 RefPicSetLtCurr를 고려하지 않고, RefPicSetStCurr0 및 RefPicSetStCurr1에 의해 지시된 단기 기준 화상들의 사용만을 고려한다.
도 9에 도시된 바와 같이, 디폴트 목록 L0는 그 순서로 기준 화상들(Ref2, Ref1, Ref4, 및 Ref5)로 구성될 것이다. 도 9의 예시에서, L0의 마지막 엔트리의 간단한 수정을 원한다. 도 8의 프로세스는 어떠한 변화도 요구하지 않는 처음 3개의 엔트리를 포함하여 L0의 모든 엔트리에 대해 단계 803 내지 839를 통하는 루프를 형성하고, 각각에 대해 ref_modification_idc 및 ref_pic_set_idx를 시그널링하고, 그 후 값이 3인 다른 ref_modification_idc을 더 시그널링함으로써 프로세스가 종료되었음을 더 시그널링하는 것을 요구한다. 이에 따라, 5개의 단계가 목표 수정 목록 L0에 도달하는데 사용된다. 마지막 단계를 제외하고 각 단계에서, 2개의 구문 요소 list_modification_idc 및 ref_pic_set_idx가 시그널링되고, 추가 변수(Refldx)가 유지 및 증분된다.
또한, LC(전술한 표 1) 및 L0/L1(전술한 표 2 및 표 3)을 위한 기준 화상 목록 수정 프로세스를 비교하면, HEVC WD5에서의 LC를 위한 수정 프로세스가 L0 및 L1을 위한 수정 프로세스와 상이하다는 것에 유의한다. 특히, 특정 목록의 각 엔트리마다 2개의 구문 요소 list_modification_idc 및 ref_pic_set_idx를 시그널링하는 것 대신에, 수정된 LC에서의 각 엔트리가 명백하게 시그널링됨에 LC를 위한 수정 프로세스가 더 간단하다.
이들 목록 수정 프로세스를 통일하여 더 적은 시그널링을 요구하고 더 간단한 L0 및 L1을 위한 수정 프로세스를 제공하는 방법들이 설명된다.
일 실시예에서, 기준 화상 목록 결합 프로세스에 대한 효율을 개선하기 위한 방법이 제공된다. 표 4는 본 발명의 일 실시예에 따른 결합 기준 화상 목록을 형성하기 위한 의사 코드를 도시한다. 표 1로부터의 변화(결합 목록 LC을 형성하는 HEVC WD5 방법을 위한 의사 코드)는 별표(asterisk)로 표시되어 있다.
Figure 112020103501118-pat00006
기준 화상 목록 결합 구문
대응 목록 L0 또는 L1이 단 하나의 엔트리를 포함하면 아무 것도 전송될 필요가 없기 때문에 L0(pic_from_list_0_flag가 1인 경우) 또는 L1(pic_from_list_1_flag가 0인 경우)이 복수의 엔트리를 포함하는 경우에만 구문 ref_idx_list_curr가 시그널링된다는 것에 유의한다. 이로 인해, 시그널링의 양이 감소한다.
추가적으로, ue(v)를 사용하는 것 대신에, te(v)는 ref_idx_list_curr를 시그널링하는 더 효율적인 방식인데, 그 이유는 엔트로피 코딩 방법인 te(v)(H.264 [1]에서의 서브절 9.1) 는 ref_idx와 같은 구문 요소들을 코딩하기 위해 구체적 설계되기 때문이다. (지수 골롬 코드(Exponential Golomb code)라고 알려진) ue(v)는 값 1을 전송하기 위해 3개의 비트를 사용할 수 있다. 그러나, te(v)는 ref_idx_list_curr에 존재하는 가능한 값들의 개수를 우선 결정하는데 사용될 수 있고, 단지 2개의 값이 존재하면, 구문 요소는 하나의 비트를 사용하여 전송될 수 있다. 더 많은 값이 존재하면, ue(v)가 사용될 수 있다.
다시 말하면, 구문 요소가 te(v)로서 코딩되면, 구문 요소를 위한 가능한 값의 범위가 우선 결정된다. 구문 요소를 위한 가능한 값의 범위가 0과 1 사이에 있으면, 단 하나의 비트가 구문 요소를 코딩하는데 사용되고, 이로써 시그널링 오버헤드를 절감한다. 그렇지 않고, 구문 요소의 범위가 0과 x 사이에 있고, x가 1보다 크면, 구문 요소를 코딩하는데 ue(v)가 사용된다.
이로 인해, 시스템은 ref_idx_list_curr의 가능한 값들에 기반하여 결정한다. 구문 요소 ref_idx_list_curr를 위해 단 하나의 값만이 존재하면, 아무것도 전송되지 않는데, 그 이유는 다른 값에 기반하여 인코더와 디코더 양자 모두에 의해 결정될 수 있기 때문이다. 구문 요소 ref_idx_list_curr를 위해 2개의 가능한 값이 존재하면, 하나의 비트가 전송된다. 그렇지 않고, 구문 요소 ref_idx_list_curr를 위해 3개 이상의 가능한 값이 존재하면, ref_idx_list_curr를 코딩하기 위해 ue(v)가 사용된다.
그러므로, HEVC WD5에 비해 오버헤드를 시그널링할 때 절감이 실현된다.
추가 실시예에서, L0 및 L1를 수정하는데 사용될 수 있는 단일의 조화된 기준 화상 목록 수정 프로세스가 개시된다. 본 발명에 따르면, L0 및 L1을 위한 기준 화상 목록 수정 프로세스는 표 5에 도시된 구문을 사용한다. 표 2의 의사 코드와 비교했을 때의 변화들(즉, HEVC WD5에서 목록 0 및 목록 1을 위한 기준 화상 목록 수정 구문)이 별표(asterisk)로 표시되어 있다.
Figure 112020103501118-pat00007
목록 0 및 목록 1을 위한 기준 화상 목록 수정 구문
기준 화상 목록 수정 어휘 의미는 다음과 같다.
구문 요소 ref_pic_set_idx는 초기 기준 화상 목록으로부터 수정 기준 화상 목록으로의 변경을 명시하는데 사용된다.
ref_pic_list_modification_flag_l0가 1이라는 것은 구문 요소 ref_pic_set_idx가 기준 화상 목록 0을 명시하기 위해 존재한다는 것을 명시한다.
ref_pic_list_modification_flag_l0가 0이라는 것은 이 구문 요소가 존재하지 않는다는 것을 명시한다.
ref_pic_list_modification_flag_l1이 1이라는 것은 구문 요소 ref_pic_set_idx가 기준 화상 목록 1을 명시하기 위해 존재한다는 것을 명시한다.
ref_pic_list_modification_flag_l1이 0이라는 것은 이 구문 요소가 존재하지 않는다는 것을 명시한다.
ref_pic_set_idx는 기준 화상 목록 LX(여기서 X는 목록 L0에 관한 것이면 0이고, X는 목록 L1에 관한 것이면 1임)의 현재 위치에 위치할 RefPicSetCurrTempListX에서의 화상의 인덱스를 명시한다. 구문 ref_pic_set_idx은 0이상 max_num_ref_frames-1 이하의 범위에 있을 것이다. 구문 요소 ref_pic_set_idx가 존재하지 않으면, 0으로 설정된다.
새로운 프로세스는 일부 경우(실제 대부분의 경우)에 실질적으로 시그널링을 감소시킨다. 수행될 수정의 타입 및 사용될 기준 화상의 DPB에 대한 인덱스를 목록 내의 엔트리마다 시그널링하는 것 대신에, 표 2의 구문 및 도 8의 흐름도에서와 같이, 본 발명의 프로세스는 DPB에 대한 인덱스만을 시그널링하고, 목록 수정 프로세스의 마지막을 나타내기 위해 추가 신호를 요구하지 않는다.
전술한 표 5에 개시된 프로세스는 L0 및/또는 L1의 각각에 대한 기준 화상의 중간 목록 RefPicSetCurrTempListX의 사용을 포함하는데, 여기서 X는 수정 목록이 고려되는지 여부에 따라 0 또는 1을 표현한다. 이러한 방식에서, 기본 화상을 위한 개정된 초기화 프로세스가 제공된다. 초기화 프로세스는 P 또는 B 슬라이스 헤더를 디코딩할 때 호출된다. P 또는 B 슬라이스를 디코딩하는 경우, RefPicSetStCurr0, RefPicSetStCurr1, 또는 RefPicSetLtCurr에서 적어도 하나의 기준 화상이 존재할 수 있다.
RefPicSetCurrTempList0를 구성하기 위해 다음의 절차가 행해진다.
Figure 112020103501118-pat00008
ref_pic_list_modification_flag_l0가 0이면, 디폴트 목록 L0로부터의 어떠한 수정도 수행되지 않을 것이고, 디폴트 RefPicList0는 RefPicSetCurrTempList0 내의 처음 num_ref_idx_l0_active_minus1+1개의 엔트리들을 순서대로 취함으로써 구성된다. 한편, ref_pic_list_modification_flag_l0가 1이면, 기준 화상 목록 L0의 수정을 위한 표 5의 프로세스는 입력으로서 RefPicSetCurrTempList0와 num_ref_idx_l0_active_minus1 및 출력으로서 RefPicList0 (L0)를 이용하여 호출된다.
간단하게, 전술한 의사 코드는 이전, 이후, 및 장기 화상들의 개수를 합산함으로써 DPB에서의 기준 화상들의 개수(즉, NumRpsCurrTempList)를 결정하고, 이전 화상들(현재 화상으로부터의 가장 가까운 시간적 거리부터 가장 먼 시간적 거리의 순서로), 이후 화상들(현재 화상으로부터의 가장 가까운 시간적 거리부터 가장 먼 시간적 거리의 순서로), 장기 기준 화상들의 순서로 배치한다.
RefPicSetCurrTempList1를 구성하기 위해 다음의 절차가 구현된다.
Figure 112020103501118-pat00009
ref_pic_list_modification_flag_l1이 0이면, 디폴트 목록 L1으로부터의 어떠한 수정도 수행되지 않을 것이고, 디폴트 RefPicList1는 RefPicSetCurrTempList1 내의 처음 num_ref_idx_l1_active_minus1+1개의 엔트리들을 순서대로 취함으로써 구성된다. 한편, ref_pic_list_modification_flag_l1이 1이면, 기준 화상 목록 L1의 수정을 위한 표 5의 수정 프로세스는 입력으로서 RefPicSetCurrTempList1와 num_ref_idx_l1_active_minus1 및 출력으로서 RefPicList1를 이용하여 호출된다.
간단하게, 전술한 의사 코드는 이전, 이후, 및 장기 화상들의 개수를 합산함으로써 DPB에서의 기준 화상들의 개수(즉, NumRpsCurrTempList)를 결정하고, 이전 화상들(현재 화상으로부터의 가장 가까운 시간적 거리부터 가장 먼 시간적 거리의 순서로), 이후 화상들(현재 화상으로부터의 가장 가까운 시간적 거리부터 가장 먼 시간적 거리의 순서로), 장기 기준 화상들의 순서로 배치한다.
2개의 목록 RpsCurrTempLX의 생성은 기준 화상 목록 L0 및 L1에 대해 어떠한 수정이 행해지지 않을 경우에도 유리한데, 그 이유는 기준 화상 목록 L0 및 L1이 목록 L0 및 L1을 위한 디폴트 순서에 이미 존재하여, 이러한 경우에 RpsCurrTempLX의 처음 몇 개의 엔트리를 취함으로써 매우 간단히 생성될 수 있기 때문이라는 점에 유의한다.
표 5에 반영된 바와 같이 기준 화상 목록들을 위한 수정 프로세스는 입력으로서 기준 화상들의 전술한 어레이(RefPicSetCurrTempLX) 및 기준 화상 목록의 사이즈(num_ref_idx_1X_active_minus1)(여기서 X는 목록이 수정되었는지 여부에 따라 0 또는 1임)를 받아들인다. 이러한 프로세스의 출력은 수정된 기준 화상 목록 RefPicListX을 포함하는 어레이이다.
도 10은 예시적인 목록 L0을 위한 표 5로부터의 목록 수정 프로세스를 예시한 흐름도이다. 프로세스는 목록 L1과 유사할 것이다. 1001에서, 목록 L0에 대한 인덱스는 0으로 초기화된다. 1003에서, 목록이 단 하나의 엔트리를 포함하면 ref_pic_set_idx의 시그널링이 필요하지 않기 때문에 임시 목록 RefPicSetCurrTempL0가 두 개 이상의 엔트리를 포함하는지 여부가 결정된다. 목록이 단 하나의 엔트리를 포함하면, 흐름은 1004로 진행하는데, 여기서 ref_pic_set_idx가 시그널링되지 않고, 대신 디폴트로서 0으로 설정된다. 그렇지 않으면, 흐름은 1005로 진행하는데, 여기서 중간 목록 RefPicSetCurrTempList0에 대한 인덱스(ref_pic_set_idx)가 판독된다. 1007에서, 현재 인덱스에서의 수정 목록 L0 내의 엔트리는 시그널링된 인덱스 위치(ref_pic_set_idx)에 위치하는 목록 RefPicSetCurrTempList0의 값으로 설정된다. 1009에서, 수정 목록 L0에 대한 인덱스는 증분된다. 1011에서, L0의 마지막에 도달되었는지 여부가 결정된다. 그렇지 않으면, 흐름은 1003으로 복귀한다. 그렇다면, 프로세스는 종료한다.
전술한 바와 같이, 목록의 어떠한 수정도 원치 않으면, 도 10의 프로세스는 수행되지 않고, RefPicSetCurrTempListX의 처음 num_ref_idx_lx_active_minus1+1개의 엔트리들이 간단히 대응하는 목록 LX가 된다.
도 11은 도 9에서와 동일한 예시를 위해 제안된 기준 화상 목록 방식이 어떻게 작용하는지를 도시한다. 도 11을 도 9와 비교하면, 도 11의 수정 프로세스는 도 9에서와 같은 구문 요소들의 개수의 절반을 사용하는데, 즉 ref_pic_set_idx 및 list_modification_idc가 아니라 ref_pic_set_idx가 목록 L0 내의 엔트리마다 시그널링된다. 또한, 목록의 각 엔트리를 명백하게 시그널링하고, 도 8의 복잡한 프로세스를 필요로 하지 않는다는 점에서 도 10의 흐름도에 예시된 프로세스는 도 8의 흐름도의 프로세스보다 더 간단하다.
여기에 설명된 시스템들 및 방법들은 유무선 네트워크 모두를 통한 비디오 스트림들의 통신에 적합하다. 유선 네트워크들인 널리 알려져 있다. 다양한 타입의 무선 디바이스들 및 인프라구조의 검토는 도 12a 내지 도 12e에 관해 제공되는데, 네트워크의 다양한 요소들은 여기에 설명된 시스템 및 방법들을 활용할 수 있다. 더 구체적으로, 무선 송수신 유닛(WTRU) 뿐 아니라 BTS(base transceiver station), Node-B, eNode B, Home Node B, Home eNode B, 사이트 컨트롤러, 액세스 포인트(AP), 무선 라우터, 미디어 인지 네트워크 요소(MANE)와 같은 기지국들이 전술된 시그널링을 생성 및/또는 프로세싱하여 코딩된 비디오 데이터를 하나의 엔티티로부터 다른 엔티티로 운송할 수 있다.
도 12a는 하나 이상의 개시된 실시예가 구현될 수 있는 예시적인 통신 시스템(100)의 도면이다. 통신 시스템(100)은 음성, 데이터, 동영상, 메시징, 방송 등의 콘텐츠를 다수의 무선 사용자에게 제공하는 다중 액세스 시스템일 수 있다. 통신 시스템(100)은 무선 대역폭을 포함하는 시스템 리소스의 공유를 통해 다수의 무선 사용자들이 이러한 콘텐츠에 액세스할 수 있게 한다. 예를 들어, 통신 시스템들(100)은 CDMA(code division multiple access), TDMA(time division multiple access), FDMA(frequency division multiple access), OFDMA(orthogonal FDMA), SC-FDMA(single-carrier FDMA) 등과 같은 하나 이상의 채널 액세스 방법을 채택할 수 있다.
도 12a에 도시된 바와 같이, 통신 시스템(100)은 무선 송수신 유닛들(WTRU; 102a, 102b, 102c, 및 102d), 무선 액세스 네트워크(RAN; 104), 코어 네트워크(106), PSTN(public switched telephone network; 108), 인터넷(110), 및 다른 네트워크들(112)을 포함할 수 있지만, 개시된 실시예들이 임의의 개수의 WTRU, 기지국, 네트워크, 및/또는 네트워크 요소들을 고려할 수 있다는 점이 이해될 것이다. WTRU(102a, 102b, 102c, 및 102d) 각각은 무선 환경에서 동작하고/하거나 통신하도록 구성된 임의의 타입의 디바이스일 수 있다. 일례로서, WTRU(102a, 102b, 102c, 및 102d)는 무선 신호들을 송수신하도록 구성될 수 있고, 사용자 기기(UE), 이동국, 고정 또는 이동 가입자 유닛, 페이저, 휴대폰, PDA(personal digital assistant), 스마트폰, 랩톱, 넷북, 개인용 컴퓨터, 무선 센서, 가전 등을 포함할 수 있다.
통신 시스템들(100)은 또한 기지국(114a) 및 기지국(114b)을 포함할 수 있다. 기지국들(114a 및 114b) 각각은 WTRU(102a, 102b, 102c, 및 102d) 중 적어도 하나와 무선 인터페이싱하여 코어 네트워크(106), 인터넷(110), 및/또는 네트워크(112)와 같은 하나 이상의 통신 네트워크에 대한 액세스를 용이하게 하도록 구성된 임의의 타입의 디바이스일 수 있다. 일례로서, 기지국들(114a 및 114b)은 BTS(base transceiver station), Node-B, eNode B, Home eNode B, 사이트 컨트롤러, 액세스 포인트(AP), 무선 라우터 등일 수 있다. 기지국들(114a 및 114b)이 각각 단일 요소로서 설명되어 있지만, 기지국들(114a 및 114b)은 임의의 개수의 상호 연결된 기지국 및/또는 네트워크 요소들을 포함할 수 있다는 점이 이해될 것이다.
기지국(114a)은 기지국 컨트롤러(BSC), 무선 네트워크 컨트롤러(RNC), 릴레이 노드들 등과 같은 다른 기지국들 및/또는 네트워크 요소들(미도시)을 포함할 수 있는 RAN(104)의 일부일 수 있다. 기지국(114a) 및/또는 기지국(114b)은 셀(미도시)이라고 지칭될 수 있는 특정 지리적 영역 내에서 무선 신호들을 송수신하도록 구성될 수 있다. 셀은 셀 섹터들로 더 분할될 수 있다. 예를 들어, 기지국(114a)과 관련된 셀은 3개의 섹터로 분할될 수 있다. 이에 따라, 일 실시예에서, 기지국(114a)은 3개의 트랜스시버, 즉 셀의 각 섹터 당 하나를 포함할 수 있다. 다른 실시예에서, 기지국(114a)은 MIMO(multiple-input multiple output) 기술을 사용하여 셀의 섹터마다 다수의 트랜스시버를 활용할 수 있다.
기지국들(114a 및 114b)은 임의 적절한 무선 통신 링크(예를 들어, 고주파(RF), 마이크로파, 적외선(IR), 자외선(UV), 가시광선 등)일 수 있는 무선 인터페이스(116)를 통해 WTRU들(102a, 102b, 102c, 및 102d) 중 하나 이상과 통신할 수 있다. 무선 인터페이스(116)는 임의의 적절한 무선 액세스 기술(RAT)을 사용하여 구축될 수 있다.
더 구체적으로, 전술한 바와 같이, 통신 시스템(100)은 다중 액세스 시스템일 수 있고, CDMA, TDMA, FDMA, OFDMA, SC-FDMA 등과 같은 하나 이상의 채널 액세스 방식을 채택할 수 있다. 예를 들어, RAN(104)의 기지국(114a) 및 WTRU들(102a, 102b, 및 102c)은 WCDMA(wideband CDMA)를 사용하여 무선 인터페이스(116)를 구축할 수 있는 UMTS(Universal Mobile Telecommunications System) UTRA(Terrestrial Radio Access)와 같은 무선 기술을 구현할 수 있다. WCDMA는 HSPA(High-Speed Packet Access) 및/또는 HSPA+(Evolved HSPA)와 같은 통신 프로토콜을 포함할 수 있다. HSPA는 HSDPA(High-Speed Downlink Packet Access) 및/또는 HSUPA(High-Speed Uplink Packet Access)를 포함할 수 있다.
다른 실시예에서, 기지국(114a) 및 WTRU들(102a, 102b, 및 102c)은 LTE(Long Term Evolution) 및/또는 LTE-A(LTE-Advanced)를 사용하여 무선 인터페이스(116)를 구축할 수 있는 E-UTRA(Evolved UMTS Terrestrial Radio Access)와 같은 무선 기술을 구현할 수 있다.
다른 실시예들에서, 기지국(114a) 및 WTRU들(102a, 102b, 및 102c)은 IEEE 802.16(즉, WiMAX(Worldwide Interoperability for Microwave Access)), CDMA2000, CDMA2000 IX, CDMA2000 EV-DO, IS-2000(Interim Standard 2000), IS-95(Interim Standard 95), IS-856(Interim Standard 856), GSM(Global System for Mobile communications), EDGE(Enhanced Data rates for GSM Evolution), GERAN(GSM EDGE) 등과 같은 무선 기술들을 구현할 수 있다.
도 12a에서의 기지국(114b)은 예를 들어, 무선 라우터, Home Node B, Home eNode B, 또는 액세스 포인트일 수 있고, 사업장, 가정, 차량, 대학 등과 같은 로컬화된 영역에서의 무선 연결성을 용이하게 하기 위한 임의의 적절한 RAT를 활용할 수 있다. 일 실시예에서, 기지국(114b) 및 WTRU들(102c 및 102d)은 IEEE 802.11와 같은 무선 기술을 구현하여 WLAN(wireless local area network)를 구축할 수 있다. 다른 실시예에서, 기지국(114b) 및 WTRU들(102c 및 102d)은 IEEE 802.15와 같은 무선 기술을 구현하여 WPAN(wireless personal area network)를 구축할 수 있다. 또 다른 실시예에서, 기지국(114b) 및 WTRU들(102c 및 102d)은 셀룰러 기반 RAT(예를 들어, WCDMA, CDMA2000, GSM, LTE, LTE-A 등)을 활용하여 피코셀 또는 펨토셀을 구축할 수 있다. 도 12a에 도시된 바와 같이, 기지국(114b)은 인터넷(110)과의 직접 연결을 가질 수 있다. 이에 따라, 기지국(114b)은 코어 네트워크(106)를 통해 인터넷(110)에 액세스하도록 요구 받지 않을 수 있다.
RAN(104)은 음성, 데이터, 애플리케이션, 및/또는 VoIP(voice over internet protocol) 서비스를 WTRU들(102a, 102b, 102c, 및 102d) 중 하나 이상에 제공하도록 구성된 임의의 타입의 네트워크일 수 있는 코어 네트워크(106)와 통신 중일 수 있다. 예를 들어, 코어 네트워크(106)는 호출 제어, 과금 서비스들, 모바일 위치 기반 서비스, 선불 호출, 인터넷 연결성, 동영상 배포 등을 제공할 수 있고/거나, 사용자 인증과 같은 고급 보안 기능들을 수행할 수 있다. 도 12a에 도시되지 않았지만, RAN(104) 및/또는 코어 네트워크(106)가 RAN(104)과 동일한 RAT 또는 상이한 RAT를 채택하는 다른 RAN들과 직간접 통신 중일 수 있다. 예를 들어, 코어 네트워크(106)는 E-UTRA 무선 기술을 활용할 수 있는 RAN(104)에 연결되는 것뿐 아니라, GSM 무선 기술을 채택하는 다른 RAN(미도시)과 통신 중일 수 있다.
코어 네트워크(106)는 또한 WTRU들(102a, 102b, 102c, 및 102d)이 PSTN(108), 인터넷(110), 및/또는 다른 네트워크(112)에 액세스하는 게이트웨이 역할을 할 수 있다. PSTN(108)은 POTS(plain old telephone service)를 제공하는 회선 교환 전화망(circuit- switched telephone network)을 포함할 수 있다. 인터넷(110)은 TCP/IP 인터넷 프로토콜 슈트(internet protocol suite)에서 전송 제어 프로토콜(TCP), 사용자 데이터그램 프로토콜(UDP), 및 인터넷 프로토콜(IP)과 같은 공통 통신 프로토콜들을 사용하는 상호 연결된 컴퓨터 네트워크 및 디바이스의 글로벌 시스템을 포함할 수 있다. 네트워크들(12)은 다른 서비스 제공자에 의해 소유되고/되거나 동작되는 유무선 통신 네트워크를 포함할 수 있다. 예를 들어, 네트워크(112)는 RAN(104)과 동일한 RAT 또는 상이한 RAT를 채택할 수 있는 하나 이상의 RAN에 연결된 다른 코어 네트워크를 포함할 수 있다.
통신 시스템(100)에서의 WTRU들(102a, 102b, 102c, 및 102d) 중 일부 또는 전부는 멀티-모드 능력을 포함할 수 있는데, 즉 WTRU들(102a, 102b, 102c, 및 102d)은 상이한 무선 링크들을 통해 상이한 무선 네트워크들과 통신하기 위한 다수의 트랜스시버를 포함할 수 있다. 예를 들어, 도 12a에 도시된 WTRU(102c)는 셀룰러 기반 무선 기술을 채택할 수 있는 기지국(114a) 및 IEEE 802 무선 기술을 채택할 수 있는 기지국(114b)과 통신하도록 구성될 수 있다.
도 12b는 예시적인 WTRU(102)의 시스템도이다. 도 12b에 도시된 바와 같이, WTRU(102)는 프로세서(118), 트랜스시버(120), 송수신 요소(122), 스피커/마이크(132), 키패드(126), 디스플레이/터치패드(128), 제거 불가 메모리(106), 분리형 메모리(132), 전원(134), GPS(global positioning system) 칩셋(136), 및 다른 주변부(138)를 포함할 수 있다. WTRU(102)는 일 실시예와 부합하는 한 전술한 요소들의 임의의 서브 조합을 포함할 수 있다는 점이 이해될 것이다.
프로세서(118)는 범용 프로세서, 전용 프로세서, 종래의 프로세서, DSP(digital signal processor), 복수의 마이크로프로세서, DSP 코어와 관련된 하나 이상의 마이크로프로세서, 컨트롤러, 마이크로컨트롤러, ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 회로들, 임의의 다른 타입의 집적 회로(IC), 상태 기계 등일 수 있다. 프로세서(118)는 신호 코딩, 데이터 프로세싱, 전력 제어, 입출력 프로세싱, 및/또는 WTRU(102)가 무선 환경에서 동작할 수 있게 하는 임의의 다른 기능성을 수행할 수 있다. 프로세서(118)는 송수신 요소(122)와 결합될 수 있는 트랜스시버(120)에 결합될 수 있다. 도 12b는 별도의 컴포넌트로서 프로세서(118) 및 트랜스시버(120)를 설명하고 있지만, 프로세서(118) 및 트랜스시버(120)는 전자 패키지 또는 칩에 함께 통합될 수 있다는 점이 이해될 것이다.
송수신 요소(122)는 무선 인터페이스(116)를 통해 신호를 기지국(예를 들어, 기지국(114a))에 송신하거나 기지국으로부터 수신하도록 구성될 수 있다. 예를 들어, 일 실시예에서, 송수신 요소(122)는 RF 신호들을 송수신하도록 구성된 안테나일 수 있다. 다른 실시예에서, 송수신 요소(122)는 예를 들어, IR, UV, 또는 가시광선 신호들을 송수신하도록 구성된 방출기/검출기일 수 있다. 또 다른 실시예에서, 송수신 요소(122)는 RF 신호와 광 신호 양자 모두를 송수신하도록 구성될 수 있다. 송수신 요소(122)는 무선 신호들의 임의의 조합을 송수신하도록 구성될 수 있다는 점이 이해될 것이다.
또한, 송수신 요소(122)가 단일 요소로서 도 12b에 설명되었지만, WTRU(102)는 임의의 개수의 송수신 요소들(122)을 포함할 수 있다. 더 구체적으로, WTRU(102)는 MIMO 기술을 채택할 수 있다. 이에 따라, 일 실시예에서, WTRU(102)는 무선 인터페이스(116)를 통해 무선 신호들을 송수신하기 위한 2 이상의 송수신 요소들(122)(예를 들어, 다수의 안테나)을 포함할 수 있다.
트랜스시버(120)는 송수신 요소(122)에 의해 송신될 신호를 변조하고, 송수신 요소(122)에 의해 수신된 신호들을 복조하도록 구성될 수 있다. 전술한 바와 같이, WTRU(102)는 다중-모드 능력을 가질 수 있다. 이에 따라, 트랜스시버(120)는 예를 들어, UTRA 및 IEEE 802.11와 같은 다수의 RAT를 통해 WTRU(102)가 통신할 수 있는 다수의 트랜스시버를 포함할 수 있다.
WTRU(102)의 프로세서(118)는 스피커/마이크(124), 키패드(126), 및/또는 디스플레이/터치패드(128)(예를 들어, LCD(liquid crystal display) 디스플레이 유닛 또는 유기 발광 다이오드(OLED) 디스플레이 유닛)에 결합되어 이들로부터 사용자 입력 데이터를 수신할 수 있다. 프로세서(118)는 또한 사용자 데이터를 스피커/마이크(124), 키패드(126), 및/또는 디스플레이/터치패드(128)에 출력할 수 있다. 또한, 프로세서(118)는 제거 불가 메모리(106) 및/또는 분리형 메모리(132)와 같은 임의의 타입의 적절한 메모리로부터 정보를 액세스하고, 이에 데이터를 저장할 수 있다. 제거 불가 메모리(106)는 RAM(random access memory), ROM(read-only memory), 하드 디스크, 또는 임의의 다른 타입의 메모리 저장 디바이스를 포함할 수 있다. 분리형 메모리(132)는 SIM(subscriber identity module) 카드, 메모리 스틱, SD(secure digital) 메모리 카드 등을 포함할 수 있다. 다른 실시예들에서, 프로세서(118)는 서버 또는 가정용 컴퓨터(미도시)와 같은, WTRU(102)에 물리적으로 위치하지 않은 메모리로부터 정보를 액세스하고, 이에 데이터를 저장할 수 있다.
프로세서(118)는 전원(134)으로부터 전력을 수신할 수 있고, WTRU(102)의 다른 컴포넌트들에 전력을 배포 및/또는 제어하도록 구성될 수 있다. 전원(134)은 WTRU(102)에 전력을 공급하는 임의의 적절한 디바이스일 수 있다. 예를 들어, 전원(1340은 하나 이상의 건식 셀 배터리(예를 들어, 니켈-카드뮴(NiCd), 니켈-아연(NiZn), 니켈 수소(NiMH), 리튬-이온(Li-ion) 등), 태양 전지, 연료 전지 등을 포함할 수 있다.
프로세서(118) 또한 WTRU(102)의 현재 위치에 관한 위치 정보(예를 들어, 위도 및 경도)를 제공하도록 구성될 수 있는 GPS 칩셋(136)에 결합될 수 있다. GPS 칩셋(136)으로부터의 정보에 추가하거나 이를 대신하여, WTRU(102)는 기지국(예를 들어, 기지국들(114a 및 114b)로부터 무선 인터페이스(116)를 통해 위치 정보를 수신하고/하거나, 2개 이상의 근처 기지국들로부터 수신된 신호들의 타이밍에 기반하여 그 위치를 결정할 수 있다. WTRU(102)는 일 실시예와 부합하는 한 임의의 적절한 위치 결정 방법을 통해 위치 정보를 획득할 수 있다는 점이 이해될 것이다.
프로세서(118)는 추가적인 특징, 기능성, 및/또는 유무선 연결성을 제공하는 하나 이상의 소프트웨어 및/또는 하드웨어 모듈들을 포함할 수 있는 다른 주변부들(138)에 더 결합될 수 있다. 예를 들어, 주변부들(138)은 가속도계, 전자 나침반, 위성 트랜스시버, (사진 또는 동영상을 위한) 디지털 카메라, USB(universal serial bus) 포트, 진동 디바이스, 텔레비전 트랜스시버, 핸드 프리 헤드셋, 블루투스® 모듈, FM(frequency modulated) 무선 유닛, 디지털 뮤직 플레이어, 미디어 플레이어, 비디오 게임 플레이어 모듈, 인터넷 브라우저 등을 포함할 수 있다.
도 12c는 일 실시예에 따른 RAN(104) 및 코어 네트워크(106)의 시스템도이다. 전술한 바와 같이, RAN(104)은 무선 인터페이스(116)를 통해 WTRU들(102a, 102b, 및 102c)과 통신하기 위한 UTRA 무선 기술을 채택할 수 있다. RAN(104) 또한 코어 네트워크(106)와 통신하고 있을 수 있다. 도 12c에 도시된 바와 같이, RAN(104)은 Node-B(140a, 140b, 및 140c)를 포함할 수 있고, 각각은 무선 인터페이스(116)를 통해 WTRU(102a, 102b, 및 102c)와 통신하기 위한 하나 이상의 트랜스시버를 포함할 수 있다. Node-B(140a, 140b, 및 140c)는 각각 RAN(104) 내의 특정 셀(미도시)과 관련되어 있다. RAN(104)은 또한 RNC(142a 및 142b)를 포함할 수 있다. RAN(104)은 일 실시예와 부합하는 한 임의의 개수를 Node-B 및 RNC를 포함할 수 있다는 점이 이해될 것이다.
도 12c에 도시된 바와 같이, Node-B(140a 및 140b)는 RNC(142a)와 통신 중일 수 있다. 또한, Node-B(140c)는 RNC(142b)와 통신 중일 수 있다. Node-B(140a, 140b, 및 140c)는 Iub 인터페이스를 통해 각각 RNC(142a 및 142b)와 통신할 수 있다. RNC(142a 및 142b)는 Iur 인터페이스를 통해 서로 통신 중일 수 있다. RNC(142a 및 142b) 각각은 연결된 Node-B(140a, 140b, 및 140c)를 제어하도록 구성될 수 있다. 또한, RNC(142a 및 142b) 각각은 외부 로프 전력 제어, 부하 제어, 허가 제어, 패킷 스케줄링, 핸드오버 제어, 매크로 다이버시티, 보안 기능들, 데이터 암호화 등의 다른 기능성을 이행하거나 지원하도록 구성될 수 있다.
도 12c에 도시된 코어 네트워크(106)는 미디어 게이트웨이(MGW; 144), 모바일 스위칭 센터(MSC; 146), 서빙 GPRS 지원 노드(SGSN; 148), 및/또는 게이트웨이 GPRS 지원 노드(GGSN; 150)를 포함할 수 있다. 전술한 요소 각각이 코어 네트워크(106)의 일부로서 설명되지만, 이들 요소 중 어느 하나가 코어 네트워크 운영자 이외의 엔티티에 의해 소유 및/또는 운영될 수 있다는 점이 이해될 것이다.
RAN(104)의 RNC(142a)는 IuCS 인터페이스를 통해 코어 네트워크(106)의 MSC(146)에 연결될 수 있다. MSC(146)는 MGW(144)에 연결될 수 있다. MSC(146) 및 MGW(144)는 PSTN(108)과 같은 회선 교환 네트워크에 대한 액세스를 WTRU들(102a, 102b, 및 102c)에 제공하여 WTRU들(102a, 102b, 및 102c)과 종래의 지상선(land-line) 통신 디바이스들 사이의 통신을 용이하게 할 수 있다.
RAN(104)의 RNC(142a)는 또한 IuPS 인터페이스를 통해 코어 네트워크(106)의 SGSN(148)에 연결될 수 있다. SGSN(148)은 GGSN(150)에 연결될 수 있다. SGSN(148) 및 GGSN(150)은 인터넷(110)과 같은 패킷 교환 네트워크에 대한 액세스를 WTRU들(102a, 102b, 및 102c)에 제공하여 WTRU들(102a, 102b, 및 102c)과 IP-인에이블 디바이스 사이의 통신을 용이하게 할 수 있다.
전술한 바와 같이, 코어 네트워크(106)는 또한 다른 서비스 제공자에 의해 소유되고/거나 운영되는 다른 유무선 네트워크들을 포함할 수 있는 네트워크들(112)에 연결될 수 있다.
도 12d는 다른 실시예에 따른 RAN(104) 및 코어 네트워크(106)의 시스템도이다. 전술한 바와 같이, RAN(104)은 무선 인터페이스(116)를 통해 WTRU들(102a, 102b, 및 102c)과 통신하기 위한 E-UTRA 무선 기술을 채택할 수 있다. RAN(104) 또한 코어 네트워크(106)와 통신하고 있을 수 있다.
RAN(104)은 eNode-B(160a, 160b, 및 160c)를 포함할 수 있지만, 일 실시예와 부합하는 한, 임의의 개수의 eNode-B를 포함할 수 있다는 점이 이해될 것이다. eNode-B(160a, 160b, 및 160c) 각각은 무선 인터페이스(116)를 통해 WTRU(102a, 102b, 및 102c)와 통신하기 위한 하나 이상의 트랜스시버를 포함할 수 있다. 일 실시예에서, eNode-B(160a, 160b, 및 160c)는 MIMO 기술을 구현할 수 있다. 이에 따라, eNode-B(160a)는 예를 들어, 다수의 안테나를 이용하여 WTRU(102a)로 무선 신호들을 송신하고 이로부터 무선 신호들을 수신할 수 있다.
eNode-B들(160a, 160b, 및 160c) 각각은 특정 셀(미도시)과 관련되어 있을 수 있고, 업링크 및/또는 다운링크 등에서 무선 리소스 관리 결정, 핸드오버 결정, 및 사용자들의 스케줄링을 취급하도록 구성될 수 있다. 도 12d에 도시된 바와 같이, eNode-B들(160a, 160b, 및 160c)은 X2 인터페이스를 통해 서로 통신할 수 있다.
도 12d에 도시된 코어 네트워크(106)는 MME(mobility management gateway; 162), 서빙 게이트웨이(164), 및 PDN(packet data network) 게이트웨이(166)를 포함할 수 있다. 전술한 요소 각각이 코어 네트워크(106)의 일부로서 설명되지만, 이들 요소 중 어느 하나가 코어 네트워크 운영자 이외의 엔티티에 의해 소유 및/또는 운영될 수 있다는 점이 이해될 것이다.
MME(162)는 S1 인터페이스를 통해 RAN(104)에서 eNode-B(160a, 160b, 및 160c) 각각에 연결될 수 있고, 제어 노드 역할을 할 수 있다. 예를 들어, MME(162)는 WTRU들(102a, 102b, 및 102c)의 사용자들을 인증하고, 베어러(bearer) 활성화/비활성화하고, WTRU들(102a, 102b, 102c 등)의 초기 부착 중에 특정한 서빙 게이트웨이를 선택하는 것을 담당할 수 있다. MME(162) 또한 GSM 또는 WCDMA와 같은 다른 무선 기술들을 채택하는 RAN(104)과 다른 RAN들(미도시) 사이의 스위칭을 위한 컨트롤 플레인 기능을 제공할 수 있다.
서빙 게이트웨이(164)는 S1 인터페이스를 통해 RAN(104)의 eNode-B(160a, 160b, 및 160c) 각각에 연결될 수 있다. 서빙 게이트웨이(164)는 일반적으로 WTRU들(102a, 102b, 및 102c)로/로부터 사용자 데이터 패킷들을 라우팅하고 포워딩할 수 있다. 서빙 게이트웨이(164) 또한 eNode B 간의 핸드오버 중에 유저 플레인을 고정시키고, 다운링크 데이터가 WTRU들(102a, 102b, 및 102c)에 이용될 수 있는 경우 페이징을 트리거하고, WTRU들(102a, 102b, 및 102c)의 콘텍스트를 관리 및 저장하는 것과 같은 다른 기능들을 수행할 수도 있다.
서빙 게이트웨이(164) 또한 인터넷(110)과 같은 패킷 교환 네트워크에 대한 액세스를 WTRU들(102a, 102b, 및 102c)에 제공하여 WTRU(102a, 102b, 및 102c) 및 IP 인에이블 디바이스들 사이의 통신을 용이하게 할 수 있는 PDN 게이트웨이(166)에 연결될 수 있다.
코어 네트워크(106)는 다른 네트워크들과의 통신을 용이하게 할 수 있다. 예를 들어, 코어 네트워크(106) 또한 PSTN(108)과 같은 회선 교환 네트워크에 대한 액세스를 WTRU들(102a, 102b, 및 102c)에 제공하여 WTRU들(102a, 102b, 및 102c)과 종래의 지상선(land-line) 통신 디바이스들 사이의 통신을 용이하게 할 수 있다. 예를 들어, 코어 네트워크(106)는 코어 네트워크(106)와 PSTN(108) 사이의 인터페이스 역할을 하는 IP 게이트웨이(예를 들어, IP 멀티미디어 서브시스템(IMS) 서버)를 포함하거나 이와 통신할 수 있다. 또한, 코어 네트워크(106)는 다른 서비스 제공자에 의해 소유되고/거나 운영되는 다른 유무선 네트워크들을 포함할 수 있는 네트워크들(112)에 대한 액세스를 WTRU들(102a, 102b, 및 102c)에 제공할 수 있다.
도 12e는 다른 실시예에 따른 RAN(104) 및 코어 네트워크(106)의 시스템도이다. RAN(104)은 무선 인터페이스(116)를 통해 WTRU들(102a, 102b, 및 102c)과 통신하기 위한 IEEE 802.16 무선 기술을 채택하는 액세스 서비스 네트워크(ASN)일 수 있다. 후에 더 설명되는 바와 같이, WTRU들(102a, 102b, 및 102c), RAN(104), 및 코어 네트워크(106)의 상이한 기능 엔티티들 사이의 통신 링크가 기준 지점으로서 정의될 수 있다.
도 12e에 도시된 바와 같이, RAN(104)은 기지국(170a, 170b, 및 170c) 및 ASN 게이트웨이(172)를 포함할 수 있지만, 일 실시예와 부합하는 한, 임의의 개수의 기지국들 및 ASN 게이트웨이들을 포함할 수 있다는 점이 이해될 것이다. 기지국(170a, 170b, 및 170c) 각각은 RAN(104)의 특정 셀(미도시)과 관련되어 있을 수 있으며, 무선 인터페이스(116)를 통해 WTRU(102a, 102b, 및 102c)와 통신하기 위한 하나 이상의 트랜스시버를 포함할 수 있다. 일 실시예에서, 기지국들(170a, 170b, 및 170c)은 MIMO 기술을 구현할 수 있다. 이에 따라, 기지국(170a)은 예를 들어, 다수의 안테나를 이용하여 WTRU(102a)로 무선 신호들을 송신하고 이로부터 무선 신호들을 수신할 수 있다. 기지국들(170a, 170b, 및 170c)은 또한 핸드오프 트리거링(handoff triggering), 터널 구축, 무선 리소스 관리, 트래픽 분류, 서비스 품질(QoS) 정책 강화 등과 같은 이동성 관리 기능성들을 제공할 수 있다. ASN 게이트웨이(172)는 트래픽 집성 포인트(traffic aggregation point) 역할을 할 수 있고, 페이징, 가입자 프로파일들의 캐싱(caching), 코어 네트워크(106)로의 라우팅 등을 담당할 수 있다.
WTRU들(102a, 102b, 및 102c) 및 RAN(104) 사이의 무선 인터페이스(116)는 IEEE 802.16 사양을 구현하는 R1 기준 포인트로서 정의될 수 있다. 또한, WTRU들(102a, 102b, 및 102c) 각각은 코어 네트워크(106)와의 논리 인터페이스(미도시)를 구축할 수 있다. WTRU들(102a, 102b, 및 102c)과 코어 네트워크(106) 사이의 논리 인터페이스는 인증, 인가, IP 호스트 구성 관리, 및/또는 이동성 관리에 사용될 수 있는 R2 기준 포인트로서 정의될 수 있다.
기지국들(170a, 170b, 및 170c) 각각 사이의 통신 링크는 기지국들 사이의 데이터의 전송 및 WTRU 핸드오버를 용이하게 하기 위한 프로토콜들을 포함하는 R8 기준 포인트로서 정의될 수 있다. 기지국들(170a, 170b, 및 170c)과 ASN 게이트웨이(172) 사이의 통신 링크는 R6 기준 포인트로서 정의될 수 있다. R6 기준 포인트는 WTRU들(102a, 102b, 및 102c)과 관련된 이동성 이벤트에 기반한 이동성 관리를 용이하게 하기 위한 프로토콜들을 포함할 수 있다.
도 12e에 도시된 바와 같이, RAN(104)은 코어 네트워크(106)에 연결될 수 있다. RAN(104)과 코어 네트워크(106) 사이의 통신 링크는 예를 들어, 데이터 전송 및 이동성 관리 능력들을 용이하게 하기 위한 프로토콜들을 포함하는 R3 기준 포인트로서 정의될 수 있다. 코어 네트워크(106)는 이동성 IP 홈 에이전트(MIP-HA)(174), 인증, 인가, 회계(AAA) 서버(176), 및 게이트웨이(178)를 포함할 수 있다. 전술한 요소 각각이 코어 네트워크(106)의 일부로서 설명되지만, 이들 요소 중 어느 하나가 코어 네트워크 운영자 이외의 엔티티에 의해 소유 및/또는 운영될 수 있다는 점이 이해될 것이다.
MIP-HA(174)는 IP 주소 관리를 담당할 수 있고, WTRU들(102a, 102b, 및 102c)이 상이한 ASN들 및/또는 상이한 코어 네트워크 사이에서 로밍하는 것을 가능하게 할 수 있다. MIP-HA(174)는 인터넷(110)과 같은 패킷 교환 네트워크에 대한 액세스를 WTRU들(102a, 102b, 및 102c)에 제공하여 WTRU들(102a, 102b, 및 102c)과 IP 인에이블 디바이스들 사이의 통신을 용이하게 할 수 있다. AAA 서버(176)는 사용자 인증 및 사용자 서비스 지원을 담당할 수 있다. 게이트웨이(178)는 다른 네트워크와의 인터네트워킹을 용이할 수 있다. 예를 들어, 게이트웨이(178) 또한 PSTN(108)과 같은 회선 교환 네트워크에 대한 액세스를 WTRU들(102a, 102b, 및 102c)에 제공하여 WTRU들(102a, 102b, 및 102c)과 종래의 지상선(land-line) 통신 디바이스들 사이의 통신을 용이하게 할 수 있다. 또한, 게이트웨이(178)는 다른 서비스 제공자에 의해 소유되고/거나 운영되는 다른 유무선 네트워크들을 포함할 수 있는 네트워크들(112)에 대한 액세스를 WTRU들(102a, 102b, 및 102c)에 제공할 수 있다.
도 12e에 도시되지 않았지만, RAN(104)는 다른 ASN들에 연결될 수 있고, 코어 네트워크(106)는 다른 코어 네트워크들에 연결될 수 있다는 점이 이해될 것이다. RAN(104)과 다른 ASN들 사이의 통신 링크는, RAN(104)과 다른 ASN들 사이의 WTRU들(102a, 102b, 및 102c)의 이동성을 조정하기 위한 프로토콜들을 포함할 수 있는, R4 기준 포인트로서 정의될 수 있다. 코어 네트워크(106)와 다른 코어 네트워크들 사이의 통신 링크는 홈 코어 네트워크와 방문 코어 네트워크 사이의 상호 작용을 용이하게 하기 위한 프로토콜들을 포함할 수 있는 R5 기준으로서 정의될 ㅅ수 있다.
실시예들
일 실시예에서, 비디오 데이터 내의 예측 화상을 디코딩하기 위한 기준 화상 목록 L0 및 L1을 생성하는 방법은 디코딩 화상 버퍼(DPB)로부터 기준 화상들의 제1 순서 목록 RefPicSetCurrTempList0을 생성하는 단계 - 이 목록은 현재 화상으로부터의 시간적 거리에 따라 순서대로 목록화된 현재 화상보다 시간적으로 이전인 DPB 내의 기준 화상들, 현재 화상으로부터의 시간적 거리에 따라 순서대로 목록화된 현재 화상보다 시간적으로 늦은 DPB 내의 기준 화상들, 및 DPB에 저장된 순서대로 목록화된 DPB 내의 장기 기준 화상들의 순서로 정렬됨 -; DPB로부터 기준 화상들의 제2 순서 목록 RefPicSetCurrTempList1을 생성하는 단계 - 이 목록은 현재 화상으로부터의 시간적 거리에 따라 순서대로 목록화된 현재 화상보다 시간적으로 늦은 DPB 내의 기준 화상들, 현재 화상으로부터의 시간적 거리에 따라 순서대로 목록화된 현재 화상보다 시간적으로 이른 DPB 내의 기준 화상들, 및 DPB에 저장된 순서대로 목록화된 DPB 내의 장기 기준 화상들의 순서로 정렬됨 -; 및 RefPicSetCurrTempList0 및 RefPicSetCurrTempList1으로부터 기준 화상들을 각각 선택함으로써 목록 L0 및 L1 중 적어도 하나를 생성하는 단계를 포함한다.
본 실시예에 따르면, 목록 L0와 L1 중 어느 하나가 수정 목록인지 여부를 결정하는 단계 - 목록 L0가 수정 목록이면, 목록 L0를 생성하는 단계는 기준 화상 목록 L0의 기준 화상마다, 제1 순서 목록에 대한 제1 인덱스를 수신하는 단계 및 L0에서의 대응하는 엔트리에서 제1 순서 목록 내의 인덱스에서 식별된 기준 화상을 목록화하는 단계를 포함하고, 목록 L0가 수정 목록이면, 목록 L1을 생성하는 단계는 기준 화상 목록 L1의 기준 화상 엔트리마다, 제2 순서 목록에 대한 제2 인덱스를 수신하는 단계 및 L1에서의 대응하는 엔트리에서 제2 순서 목록 내의 인덱스에서 식별된 기준 화상을 목록화하는 단계를 포함함 -; 를 더 포함한다.
전술한 실시예 중 하나 이상은 목록 L0가 수정 목록이 아니면, 목록 L0를 생성하는 단계는 최대 제1 특정 개수의 엔트리까지 순서대로 RefPicSetCurrTempList0로부터 엔트리들을 취하는 단계; 및 목록 L1이 수정 목록이 아니면, 목록 L1을 생성하는 단계는 최대 제2 특정 개수의 엔트리까지 순서대로 RefPicSetCurrTempList1로부터 엔트리들을 취하는 단계를 포함한다.
전술한 실시예 중 하나 이상에서, 결정 단계는 목록 L0에 대한 구문 요소 ref_pic_list_modification_flag_l0 및 목록 L1에 대한 구문 요소 ref_pic_list_modification_flag_l1를 판독하는 단계를 포함한다.
전술한 실시예 중 하나 이상에서, 제1 인덱스 및 제2 인덱스는 0부터 DPB 내의 화상의 개수까지의 범위에 있다.
전술한 실시예 중 하나 이상에서, 제1 인덱스 및 제2 인덱스를 명시하기 위해 구문 요소 ref_pic_set_idx가 사용된다.
전술한 실시예 중 하나 이상은 구문 요소 ref_pic_list_modification_flag_l1를 판독하는 단계를 더 포함하고, ref_pic_list_modification_flag_l1이 제1 값을 갖는 것은 구문 요소 ref_pic_set_idx가 L1을 명시하기 위해 존재한다고 명시하고, ref_pic_list_modification_flag_l1이 제2 값을 갖는 것은 구문 요소가 L1을 명시하기 위해 존재하지 않는다고 명시한다.
전술한 실시예 중 하나 이상은 구문 요소 ref_pic_list_modification_flag_l0를 판독하는 단계를 더 포함하고, ref_pic_list_modification_flag_l0가 제1 값을 갖는 것은 구문 요소 ref_pic_set_idx가 L0를 명시하기 위해 존재한다고 명시하고, ref_pic_list_modification_flag_l0가 제2 값을 갖는 것은 구문 요소가 L0를 명시하기 위해 존재하지 않는다고 명시한다.
전술한 실시예 중 하나 이상은 구문 요소 ref_pic_list_modification_flag_l1를 판독하는 단계를 더 포함하고, ref_pic_list_modification_flag_l1이 제1 값을 갖는 것은 구문 요소 ref_pic_set_idx가 L1를 명시하기 위해 존재한다고 명시하고, ref_pic_list_modification_flag_l1이 제2 값을 갖는 것은 구문 요소가 L1를 명시하기 위해 존재하지 않는다고 명시한다.
전술한 실시예 중 하나 이상에서, 제1 인덱스가 존재하지 않으면 0으로 설정되고, 제2 인덱스가 존재하지 않으면 0으로 설정된다.
다른 실시예 또는 전술한 실시예들 중 어느 하나와 함께, P 또는 B 슬라이스 헤더를 디코딩하기 위한 기준 화상 목록용 디코더를 초기화하는 방법으로서,
Figure 112020103501118-pat00010
에 의해 제1 임시 목록 RefPicSetCurrTempList0을 구성하는 단계를 포함할 수 있다.
전술한 실시예 중 하나 이상은 플래그 ref_pic_list_modification_flag_l0가 0이면, RefPicSetCurrTempList0 내에서 처음 num_ref_idx_l0_active_minus1+1개의 엔트리를 취함으로써 목록 L0 (RefPicList0)를 구성하는 단계를 더 포함할 수 있다.
전술한 실시예 중 하나 이상은 플래그 ref_pic_list_modification_flag_l0가 1이면, 입력으로서 RefPicSetCurrTempList0와 num_ref_idx_l0_active_minus1을 이용하여 화상 목록 프로세스의 수정을 호출함으로써 목록 L0를 구성하는 단계를 더 포함할 수 있다.
전술한 실시예 중 하나 이상은 B 슬라이스 헤더를 디코딩하면,
Figure 112020103501118-pat00011
에 의해 제2 임시 목록 RefPicSetCurrTempList1을 구성하는 단계를 더 포함할 수 있다.
전술한 실시예 중 하나 이상은 플래그 ref_pic_list_modification_flag_l1이 0이면, RefPicSetCurrTempList1 내에서 처음 num_ref_idx_l1_active_minus1+1개의 엔트리를 취함으로써 목록 L1(RefPicList1)를 구성하는 단계를 더 포함할 수 있다.
전술한 실시예 중 하나 이상은 플래그 ref_pic_list_modification_flag_l1이 1이면, 입력으로서 RefPicSetCurrTempList1과 num_ref_idx_l1_active_minus1을 이용하여 기준 화상 목록 수정 프로세스를 호출함으로써 목록 L1(RefPicList1)를 구성하는 단계를 더 포함할 수 있다.
전술한 실시예 중 하나 이상에서, 기준 화상 목록 수정 프로세스는 RefPicListX를 생성하는데 사용되는데, X는 대응하는 목록 0 또는 1을 지정하고, 기준 화상 목록(RefPicListLX)에 대한 인덱스로서 refldxLX를 설정하고, refldxLX가 num_ref_idx_lX_active_minus1+1보다 클 때까지, 즉 RefPicListX[refIdxLX++] = RefPicSetCurrTempLX[ref_pic_set_idx]일 때까지 반복한다.
다른 실시예에서 또는 전술한 실시예들 중 어느 하나와 함께, 복수의 기준 화상 목록에 대한 수정 사항들을 시그널링하는 방법은 통일된 시그널링 구문을 사용하여 복수의 기준 화상 목록에 대한 수정 사항들을 시그널링하는 단계를 포함할 수 있다.
전술한 실시예 중 하나 이상에서 복수의 기준 화상 목록은 L0, L1, 및 결합 목록 LC를 포함한다.
전술한 실시예 중 하나 이상에서, 통일된 시그널링 구문은 엔트로피 코딩 방법을 사용하여 기준 화상의 인덱스를 코딩하는 단계를 포함한다.
전술한 실시예 중 하나 이상에서, 통일된 시그널링 구문은 te(v)를 사용하여 기준 화상의 인덱스를 코딩하는 단계를 포함한다.
다른 실시예 또는 전술한 실시예들 중 어느 하나와 함께, 방법은 기준 화상 목록 내의 엔트리의 개수를 결정하는 단계; 및 기준 화상 목록 내의 엔트리를 식별하는 값을 포함하는 메시지를 생성하는 단계를 포함하고, 기준 화상 목록 내의 엔트리들의 개수가 2이면 값은 단일 비트로 표현되고, 기준 화상 목록 내의 엔트리들의 개수가 3 이상이면 다수의 비트로 표현되고, 메시지는 기준 화상 목록 내의 엔트리들의 개수가 하나이면 값을 생략한다.
전술한 실시예 중 하나 이상은 엔트리의 개수가 3개 이상인 경우 값은 ue(v)이다.
전술한 실시예 중 하나 이상에서, 인덱스는 구문 요소 ref_idx_list_curr에 의해 명시된다.
다른 실시예 또는 전술한 실시예 중 어느 하나와 함께, 제1 기준 화상 목록 L0 및 제2 기준 화상 목록 L1으로부터 B 슬라이스를 디코딩하기 위해 사용될 기준 화상 결합 목록 LC를 생성하는 방법으로서, L0가 두 개 이상의 엔트리를 포함하는지 여부를 결정하는 단계; L1이 두 개 이상의 엔트리를 포함하는지 여부를 결정하는 단계; L0 또는 L1 중 하나가 두 개 이상의 엔트리를 포함하면, 구문 요소 ref_idx_list_curr를 사용하여 LC로 추가될 L0 및 L1 중 적어도 하나 내의 엔트리를 나타내는 단계; L0가 단 하나의 엔트리를 포함하면, ref_idx_list_curr를 0으로 설정하는 단계; L1이 단 하나의 엔트리를 포함하면, ref_idx_list_curr를 0으로 설정하는 단계; 및 ref_idx_list_curr의 값을 사용하여 LC를 생성하는 단계를 포함할 수 있다.
전술한 실시예 중 하나 이상에서, L0가 두 개 이상의 엔트리를 포함하는지 여부를 결정하는 단계는 구문 요소 num_ref_idx_l0_active_minus1이 0 이상인지 여부를 결정하는 단계를 포함하고, L1이 두 개 이상의 엔트리를 포함하는지 여부를 결정하는 단계는 구문 요소 num_ref_idx_l1_active_minus1이 0 이상인지 여부를 결정하는 단계를 포함한다.
결론
다음의 참고 문헌들이 여기에 참조로서 통합되어 있다.
[1] ITU-T Rec H.264 and ISO/IEC/MPEG 4 part 10, Advanced video coding for generic audiovisual services, November 2007.
[2] SMPTE 421M, "VC-1 Compressed Video Bitstream Format and Decoding Process," April 2006.
[3] M reference software JM18.2, located at hypertext transfer protocol, colon, slash-slash iphome.hhi.de/suehring/tml/download/jml8.2.zip, November, 2011.
[4] B. Bross, W.-J. Han, J.-R. Ohm, G. J. Sullivan, T. Wiegand. WD5: Working Draft 5 of High-Efficiency Video Coding. Document no CTVC-Gl 103, November 2011.
[5] K. McCann, S. Sekiguci, B. Bross, W.-J. Han, HM5: HEVC Test Model 5 Encoder Description. Document no JCTVC-G1102, December 2011.
[6] J. Boyce, R. Sjoberg, Y. K. Wang, BoG report: Reference picture buffering and list construction. Document no JCTVC-G1002, November 2011.
[7] D. Flynn, R. Sjoberg, et al, JCTVC AhG report: Reference picture buffering and list construction. Document no JCTVC-G021, November 2011.
[8] Y. Suzuki, et al, Extension of uni-prediction simplification in B slices. Document no JCTVC-D421 , January 2011.
[9] B. Bross, W.-J. Han, J.-R. Ohm, G. J. Sullivan, T. Wiegand. WD9: Working Draft 9 of High-Efficiency Video Coding. Document no JCTVC-K1103, October 2012.
특징들 및 요소들이 특정 조합으로 전술되어 있지만, 당업자는 각각의 특징 또는 요소가 독자적으로 사용되거나 다른 특징 및 요소들과의 임의의 조합으로 사용될 수 있다는 점을 이해할 것이다. 또한 여기에 설명된 방법들은 컴퓨터 또는 프로세서에 의한 실행용 컴퓨터 판독가능 매체에 통합되는 컴퓨터 프로그램, 소프트웨어, 또는 펌웨어에 구현될 수 있다. 비일시적인 컴퓨터 판독가능 저장 매체의 예시들은 ROM(read only memory), RAM(random access memory), 레지스터, 캐시 메모리, 반도체 메모리 디바이스, 내부 하드 디스크 및 착탈식 디스크와 같은 자기 매체, 자기 광학 매체, 및 CD-ROM 디스크 및 DVD(digital versatile disk)와 같은 광학 매체를 포함하지만, 이들로 제한되는 것은 아니다. 소프트웨어와 관련 있는 프로세서는 WTRU, UE, 단말기, 기지국, RNC, 또는 임의의 호스트 컴퓨터에서 사용하기 위한 고주파 트랜스시버를 구현하는데 사용될 수 있다.
또한, 여기에 설명된 실시예들에서, 프로세싱 플랫폼, 컴퓨팅 시스템, 컨트롤러, 및 프로세서들을 포함하는 다른 디바이스들에 유의한다. 이들 디바이스는 적어도 하나의 중앙 처리 장치(CPU) 및 메모리를 포함할 수 있다. 컴퓨터 프로그램 분야의 당업자의 실행, 활동에 대한 참조, 및 동작 또는 명령의 심볼 표현은 다양한 CPU 및 메모리들에 의해 수행될 수 있다. 이러한 활동 및 동작 또는 명령들은 “실행된”, “컴퓨터 실행된” 또는 "CPU 실행된” 것을 지칭할 수 있다.
당업자는 활동 및 심볼로 표현된 동작 또는 명령은 CPU에 의한 전기 신호들의 조작을 포함한다는 점을 이해할 것이다. 전기적 시스템은 전기 신호의 최종 변환 또는 감축 및 메모리 시스템의 메모리 위치들에서 데이터 비트들의 유지를 초래함으로써 CPU의 동작 및 신호들의 다른 프로세싱을 재구성 또는 변형할 수 있는 데이터 비트들을 표현한다. 데이터 비트가 유지되는 메모리 위치들은 데이터 비트에 대응하거나 이를 대표하는 특정 전기, 자기, 광학, 또는 유기적 특성들을 갖는 물리적 위치들이다.
데이터 비트들은 또한 자기 디스크, 광학 디스크, 및 CPU에 의해 판독 가능한 임의의 다른 휘발성(예를 들어, RAM(Random Access Memory) 또는 비휘발성(예를 들어, ROM(Read-Only Memory)) 대용량 저장 시스템에 유지될 수 있다. 컴퓨터 판독가능 매체는 프로세싱 시스템에 배타적으로 존재하거나 프로세싱 시스템에 로컬 또는 원거리에 있을 수 있는 다수의 상호 연결된 프로세싱 시스템들 중에 분산된 연동 또는 상호 연결된 컴퓨터 판독 가능 매체를 포함할 수 있다. 예시적인 실시예들이 전술한 메모리들로 제한되지 않고, 다른 플랫폼들 및 메모리들이 전술된 방법들을 지원할 수 있다는 점이 이해된다.
본 출원의 설명에 사용된 요소, 활동, 또는 명령은 이와 같이 명백히 설명되지 않는 한 중요하거나 필수적인 것으로 간주되지 않아야 한다. 여기에 사용된 바와 같이, 단수 표현은 하나 이상의 항목을 포함하는 것을 의도한다. 단 하나의 항목이 의도되는 경우, “하나”라는 용어 또는 이와 유사한 언어가 사용된다. 또한, 여기에 사용된 “복수의 항목 및/또는 복수의 항목 카테고리의 다음의 목록 중 어느 하나라는 용어는 “중 어느 하나”, “의 임의의 조합”, “다수의”, 및/또는 “개별적으로 또는 다른 항목 및/또는 다른 항목 카테고리와 함께 다수의 항목 및/또는 다수의 항목 카테고리의 임의의 조합”을 포함하는 것을 의도한다. 또한, 여기에 사용된 바와 같이, “세트”라는 용어는 0을 포함하여 임의의 개수의 항목을 포함하는 것을 의도한다. 또한, 여기에 사용된 바와 같이, “개수”라는 용어는 0을 포함하여 임의의 개수를 포함하는 것을 의도한다.
더구나, 청구항들은 이러한 효과로 언급되지 않는 한, 설명된 순서 또는 요소들로 제한되는 것으로서 판독되지 않아야 한다. 또한, 임의의 청구항에서의 “수단”이라는 용어의 사용은 35 U.S.C. §112, 6을 적용하는 것을 의도하고, “수단”이라는 단어가 없는 임의의 청구항은 그러한 것이 의도되지 않는다.
여기의 시스템 및 방법들은 UWB 멀티-밴드 통신 시스템의 측면에서 설명되어 있지만, 마이크로프로세서들/범용 컴퓨터들(미도시) 상의 소프트웨어로 구현될 수 있다는 점이 고려된다. 일정한 실시예들에서, 다양한 컴포넌트들의 기능들 중 하나 이상은 범용 컴퓨터를 제어하는 컴퓨터로 구현될 수 있다.
102: 입력 비디오 104: 변환
106: 양자화 108: 엔트로피 코딩
110: 역 양자화 112: 역 변환
120: 비트스트림 160: 공간적 예측
162: 모션 예측(추정 및 보상) 164: 기준 화상 저장소
166: 루프 필터
180: 모드 판정 및 다른 인코더 제어 로직
202: 비트스트림 208: 엔트로비 디코딩
210: 역 양자화 212: 역 변환
220: 재구성된 비디오 출력 260: 공간적 예측
262: 모션 보상 예측 264: 기준 화상 저장소
266: 루프 필터

Claims (18)

  1. 비디오 디코더 장치에 있어서,
    디코딩되는 현재 화상에 관련된 디코딩 화상 버퍼(decoded picture buffer; DPB)로부터의 하나 이상의 단기 기준 화상(short term reference picture)을 포함하는 기준 화상의 임시 순서 목록(temporary ordered list)을 생성하고 - 상기 임시 순서 목록 내의 상기 하나 이상의 단기 기준 화상은 상기 현재 화상으로부터의 시간적 거리에 기초하여 정렬됨 -;
    수정된 기준 화상 목록의 각 엔트리에 대해 상기 임시 순서 목록의 각 기준 화상의 인덱스를 획득하고 상기 수정된 기준 화상 목록 내의 상기 엔트리에 상기 인덱스에 대응하는 상기 각 기준 화상을 삽입함으로써, 수정된 기준 화상 목록을 생성하도록 구성되는
    프로세서를 포함하는,
    비디오 디코더 장치.
  2. 제1항에 있어서,
    상기 프로세서는, 기준 화상의 상기 임시 순서 목록 내에서, 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이전인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해 정렬하도록 구성되는 것인,
    비디오 디코더 장치.
  3. 제1항에 있어서,
    상기 프로세서는, 기준 화상의 상기 임시 순서 목록 내에서, 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이전인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해, 그리고 그에 뒤따르는 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이후인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해 정렬하도록 구성되는 것인,
    비디오 디코더 장치.
  4. 제1항에 있어서,
    상기 프로세서는, 제1 구문 요소(syntax element)에 기초하여, 상기 현재 화상에 대한 기준 화상 목록이 상기 수정된 기준 화상 목록이 되는 것을 결정하도록 구성되고,
    상기 제1 구문 요소가 특정 값과 같은 조건에서, 상기 프로세서는 제2 구문 요소를 사용하여 상기 수정된 기준 화상 목록을 생성하도록 구성되는 것인,
    비디오 디코더 장치.
  5. 제4항에 있어서,
    상기 제1 구문 요소는 ref_pic_list_modification_flag_l0 구문 요소이고,
    상기 제2 구문 요소는 ref_pic_set_idx 구문 요소인 것인,
    비디오 디코더 장치.
  6. 제5항에 있어서,
    상기 제1 구문 요소가 또 다른 특정 값과 동일한 조건에서:
    상기 제1 구문 요소는 상기 제2 구문 요소가 상기 수정된 기준 화상 목록을 생성하는데 사용하기 위해 존재하지 않음을 특정하고; 그리고
    상기 인덱스는 0으로 설정되는 것인,
    비디오 디코더 장치.
  7. 수정된 기준 화상 목록을 생성하는 방법에 있어서,
    디코딩되는 현재 화상에 관련된 디코딩 화상 버퍼(decoded picture buffer; DPB)로부터의 하나 이상의 단기 기준 화상(short term reference picture)을 포함하는 기준 화상의 임시 순서 목록(temporary ordered list)을 생성하는 단계 - 상기 임시 순서 목록 내의 상기 하나 이상의 단기 기준 화상은 상기 현재 화상으로부터의 시간적 거리에 기초하여 정렬됨 -;
    수정된 기준 화상 목록의 각 엔트리에 대해 상기 임시 순서 목록의 각 기준 화상의 인덱스를 획득하고 상기 수정된 기준 화상 목록 내의 상기 엔트리에 상기 인덱스에 대응하는 상기 각 기준 화상을 삽입함으로써, 수정된 기준 화상 목록을 생성하는 단계를 포함하는,
    수정된 기준 화상 목록을 생성하는 방법.
  8. 제7항에 있어서,
    기준 화상의 상기 임시 순서 목록 내에서, 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이전인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해 정렬하는 단계를 더 포함하는,
    수정된 기준 화상 목록을 생성하는 방법.
  9. 제7항에 있어서,
    기준 화상의 상기 임시 순서 목록 내에서, 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이전인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해, 그리고 그에 뒤따르는 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이후인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해 정렬하는 단계를 더 포함하는,
    수정된 기준 화상 목록을 생성하는 방법.
  10. 제7항에 있어서,
    제1 구문 요소(syntax element)에 기초하여, 상기 현재 화상에 대한 기준 화상 목록이 상기 수정된 기준 화상 목록이 되는 것을 결정하는 단계를 더 포함하고,
    상기 제1 구문 요소가 특정 값과 같은 조건에서, 상기 수정된 기준 화상 목록을 생성하는 단계는 제2 구문 요소를 사용하여 상기 수정된 기준 화상 목록을 생성하는 단계를 포함하는 것인,
    수정된 기준 화상 목록을 생성하는 방법.
  11. 제10항에 있어서,
    상기 제1 구문 요소는 ref_pic_list_modification_flag_l0 구문 요소이고,
    상기 제2 구문 요소는 ref_pic_set_idx 구문 요소인 것인,
    수정된 기준 화상 목록을 생성하는 방법.
  12. 제11항에 있어서,
    상기 제1 구문 요소가 또 다른 특정 값과 동일한 조건에서:
    상기 제1 구문 요소는 상기 제2 구문 요소가 상기 수정된 기준 화상 목록을 생성하는데 사용하기 위해 존재하지 않음을 특정하고;
    상기 방법은 상기 인덱스를 0으로 설정하는 단계를 더 포함하는 것인,
    수정된 기준 화상 목록을 생성하는 방법.
  13. 컴퓨터에 의해 실행될 때 수정된 기준 화상 목록을 생성하는 방법을 가능하게 하는 명령어를 갖는 비일시적(non-transitory) 컴퓨터 판독 가능한 매체에 있어서, 상기 방법은,
    디코딩되는 현재 화상에 관련된 디코딩 화상 버퍼(decoded picture buffer; DPB)로부터의 하나 이상의 단기 기준 화상(short term reference picture)을 포함하는 기준 화상의 임시 순서 목록(temporary ordered list)을 생성하는 단계 - 상기 임시 순서 목록 내의 상기 하나 이상의 단기 기준 화상은 상기 현재 화상으로부터의 시간적 거리에 기초하여 정렬됨 -;
    수정된 기준 화상 목록의 각 엔트리에 대해 상기 임시 순서 목록의 각 기준 화상의 인덱스를 획득하고 상기 수정된 기준 화상 목록 내의 상기 엔트리에 상기 인덱스에 대응하는 상기 각 기준 화상을 삽입함으로써, 수정된 기준 화상 목록을 생성하는 단계를 포함하는,
    비일시적 컴퓨터 판독 가능한 매체.
  14. 제13항에 있어서, 상기 방법은,
    기준 화상의 상기 임시 순서 목록 내에서, 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이전인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해 정렬하는 단계를 더 포함하는,
    비일시적 컴퓨터 판독 가능한 매체.
  15. 제13항에 있어서, 상기 방법은,
    기준 화상의 상기 임시 순서 목록 내에서, 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이전인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해, 그리고 그에 뒤따르는 상기 현재 화상에 관련되고 상기 현재 화상보다 시간적으로 이후인 하나 이상의 단기 기준 화상을 상기 현재 화상으로부터의 시간적 거리에 의해 정렬하는 단계를 더 포함하는,
    비일시적 컴퓨터 판독 가능한 매체.
  16. 제13항에 있어서, 상기 방법은,
    제1 구문 요소(syntax element)에 기초하여, 상기 현재 화상에 대한 기준 화상 목록이 상기 수정된 기준 화상 목록이 되는 것을 결정하는 단계를 더 포함하고,
    상기 제1 구문 요소가 특정 값과 같은 조건에서, 상기 수정된 기준 화상 목록을 생성하는 단계는 제2 구문 요소를 사용하여 상기 수정된 기준 화상 목록을 생성하는 단계를 포함하는,
    비일시적 컴퓨터 판독 가능한 매체.
  17. 제16항에 있어서,
    상기 제1 구문 요소는 ref_pic_list_modification_flag_l0 구문 요소이고,
    상기 제2 구문 요소는 ref_pic_set_idx 구문 요소인 것인,
    비일시적 컴퓨터 판독 가능한 매체.
  18. 제17항에 있어서,
    상기 제1 구문 요소가 또 다른 특정 값과 동일한 조건에서:
    상기 제1 구문 요소는 상기 제2 구문 요소가 상기 수정된 기준 화상 목록을 생성하는데 사용하기 위해 존재하지 않음을 특정하고;
    상기 방법은 상기 인덱스를 0으로 설정하는 단계를 더 포함하는 것인,
    비일시적 컴퓨터 판독 가능한 매체.
KR1020207028096A 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치 KR102273741B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020217020082A KR102367618B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261588571P 2012-01-19 2012-01-19
US61/588,571 2012-01-19
KR1020197030879A KR102163103B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
PCT/US2013/021014 WO2013109460A1 (en) 2012-01-19 2013-01-10 Method and apparatus for signaling and construction of video coding reference picture lists

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020197030879A Division KR102163103B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020217020082A Division KR102367618B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20200115684A KR20200115684A (ko) 2020-10-07
KR102273741B1 true KR102273741B1 (ko) 2021-07-05

Family

ID=47561871

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020217020082A KR102367618B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020227005716A KR102460288B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020207028096A KR102273741B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020147023154A KR102037545B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020227037142A KR102559468B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020197030879A KR102163103B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020237024942A KR20230111277A (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는방법 및 장치

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020217020082A KR102367618B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020227005716A KR102460288B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치

Family Applications After (4)

Application Number Title Priority Date Filing Date
KR1020147023154A KR102037545B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020227037142A KR102559468B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020197030879A KR102163103B1 (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는 방법 및 장치
KR1020237024942A KR20230111277A (ko) 2012-01-19 2013-01-10 비디오 코딩 기준 화상 목록들을 시그널링하고 구성하는방법 및 장치

Country Status (11)

Country Link
US (4) US9467695B2 (ko)
EP (5) EP2805512B1 (ko)
JP (5) JP6480185B2 (ko)
KR (7) KR102367618B1 (ko)
CN (2) CN104170390B (ko)
AU (2) AU2013209989B2 (ko)
ES (2) ES2780849T3 (ko)
MX (1) MX338055B (ko)
PL (2) PL3917140T3 (ko)
TW (7) TWI634781B (ko)
WO (1) WO2013109460A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9106927B2 (en) * 2011-09-23 2015-08-11 Qualcomm Incorporated Video coding with subsets of a reference picture set
JP6480185B2 (ja) * 2012-01-19 2019-03-06 ヴィド スケール インコーポレイテッド 映像符号化参照ピクチャリストをシグナリングおよび構築する方法および装置
US9549177B2 (en) * 2012-04-11 2017-01-17 Google Technology Holdings LLC Evaluation of signaling of collocated reference picture for temporal prediction
JP6065613B2 (ja) * 2013-01-29 2017-01-25 富士通株式会社 動画像符号化装置
US20150172669A1 (en) * 2013-03-15 2015-06-18 KASAH Technology, Inc. System and method for processing compressed images and video for improved data communication
US10412387B2 (en) * 2014-08-22 2019-09-10 Qualcomm Incorporated Unified intra-block copy and inter-prediction
US9918105B2 (en) 2014-10-07 2018-03-13 Qualcomm Incorporated Intra BC and inter unification
KR102206504B1 (ko) * 2015-04-29 2021-01-22 에이치에프아이 이노베이션 인크. 인트라 블록 복사 참조 리스트 구축을 위한 방법 및 장치
EP3854099A4 (en) * 2018-09-21 2022-06-29 Sharp Kabushiki Kaisha Systems and methods for signaling reference pictures in video coding
CN111726632B (zh) * 2019-03-18 2022-08-26 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
WO2022270978A1 (ko) 2021-06-25 2022-12-29 전남대학교 산학협력단 지방분해효소 억제제를 포함하는 rna 바이러스 감염증 예방 또는 치료용 약제학적 조성물
CN116881183A (zh) * 2023-09-06 2023-10-13 北京融为科技有限公司 译码数据处理方法及装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1190081C (zh) * 1997-03-17 2005-02-16 松下电器产业株式会社 发送和接收动态图像数据的方法及其设备
JP2003259369A (ja) 2002-02-28 2003-09-12 Techno Mathematical Co Ltd 動画像の電子透かしを用いたエラー隠蔽方法
CN101043626B (zh) * 2002-07-15 2010-06-09 株式会社日立制作所 动态图像编码方法
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
EP1820351A4 (en) 2004-12-10 2010-04-21 Korea Electronics Telecomm DEVICE FOR UNIVERSAL CODING FOR MULTI-VIEW VIDEO
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
CN101461242B (zh) * 2006-03-30 2011-08-03 Lg电子株式会社 用于解码/编码视频信号的方法和装置
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
KR100966567B1 (ko) * 2006-03-30 2010-06-29 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
TWI375469B (en) 2006-08-25 2012-10-21 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
KR101418627B1 (ko) * 2007-04-04 2014-07-15 톰슨 라이센싱 참조 화상 리스트 관리
JP5303556B2 (ja) 2007-08-06 2013-10-02 トムソン ライセンシング 複数のインタービュー参照ピクチャを用いたモーションスキップモードのための方法及び装置
WO2009130561A1 (en) * 2008-04-21 2009-10-29 Nokia Corporation Method and device for video coding and decoding
TWI387347B (zh) * 2009-02-18 2013-02-21 Novatek Microelectronics Corp 圖像解碼器,參考圖資訊溝通介面以及參考圖控制方法
CN101547368B (zh) * 2009-04-24 2011-03-09 炬力集成电路设计有限公司 一种图像中参考帧的处理装置、方法以及解码器
WO2010131537A1 (ja) * 2009-05-11 2010-11-18 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、方法およびプログラム、並びに、動画像復号化装置、方法およびプログラム
US20100296579A1 (en) 2009-05-22 2010-11-25 Qualcomm Incorporated Adaptive picture type decision for video coding
RU2551207C2 (ru) 2009-12-17 2015-05-20 Телефонактиеболагет Лм Эрикссон (Пабл) Способ и устройство для кодирования видео
US8619852B2 (en) * 2010-07-21 2013-12-31 Dolby Laboratories Licensing Corporation Systems and methods for multi-layered frame-compatible video delivery
WO2012052968A1 (en) * 2010-10-20 2012-04-26 Nokia Corporation Method and device for video coding and decoding
US9008176B2 (en) 2011-01-22 2015-04-14 Qualcomm Incorporated Combined reference picture list construction for video coding
US20120230409A1 (en) * 2011-03-07 2012-09-13 Qualcomm Incorporated Decoded picture buffer management
CN103563382A (zh) 2011-03-11 2014-02-05 三星电子株式会社 用于对图像进行编码的方法和设备以及用于进行解码的方法和设备
ES2844148T3 (es) 2011-09-19 2021-07-21 Sun Patent Trust Procedimiento de descodificación de imágenes, dispositivo de descodificación de imágenes
US9451284B2 (en) * 2011-10-10 2016-09-20 Qualcomm Incorporated Efficient signaling of reference picture sets
US20130094774A1 (en) * 2011-10-13 2013-04-18 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
JP6480185B2 (ja) * 2012-01-19 2019-03-06 ヴィド スケール インコーポレイテッド 映像符号化参照ピクチャリストをシグナリングおよび構築する方法および装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BROSS B ET AL: "High Efficiency Video Coding(HEVC) text specification Working Draft 5",JCTVC-G1103
SUZUKI Y ET AL:"Extension of Uni-prediction simplification in B slices",JCTVC-D421
Viktor Wahadaniah, et al., "AHG21: Construction and modification of predefined reference picture sets and reference picture lists", JCT-VC of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 7th Meeting: Gen*

Also Published As

Publication number Publication date
JP2024009229A (ja) 2024-01-19
US9467695B2 (en) 2016-10-11
EP3917140A1 (en) 2021-12-01
US10771780B2 (en) 2020-09-08
KR20140120347A (ko) 2014-10-13
KR102559468B1 (ko) 2023-07-24
EP2805512B1 (en) 2018-06-27
KR20200115684A (ko) 2020-10-07
KR20210083385A (ko) 2021-07-06
MX338055B (es) 2016-04-01
TW201811030A (zh) 2018-03-16
AU2013209989A1 (en) 2014-08-21
US20130188697A1 (en) 2013-07-25
WO2013109460A1 (en) 2013-07-25
KR20190122874A (ko) 2019-10-30
TW201342928A (zh) 2013-10-16
TW202249490A (zh) 2022-12-16
TW201921951A (zh) 2019-06-01
TWI680672B (zh) 2019-12-21
EP3383042B1 (en) 2019-11-27
JP7393474B2 (ja) 2023-12-06
KR20220146715A (ko) 2022-11-01
ES2689045T3 (es) 2018-11-08
EP2805512A1 (en) 2014-11-26
EP4224845A1 (en) 2023-08-09
KR20220025300A (ko) 2022-03-03
US20230026503A1 (en) 2023-01-26
EP3624447A1 (en) 2020-03-18
US20160381361A1 (en) 2016-12-29
AU2017202286A1 (en) 2017-04-27
TWI573445B (zh) 2017-03-01
JP2020096387A (ja) 2020-06-18
TW202031050A (zh) 2020-08-16
CN104170390B (zh) 2018-05-08
TWI825592B (zh) 2023-12-11
JP2015508248A (ja) 2015-03-16
TWI760276B (zh) 2022-04-01
JP2019088022A (ja) 2019-06-06
CN104170390A (zh) 2014-11-26
US20200336737A1 (en) 2020-10-22
KR102037545B1 (ko) 2019-10-28
KR102367618B1 (ko) 2022-02-28
US11490074B2 (en) 2022-11-01
CN108462881B (zh) 2021-07-09
MX2014008573A (es) 2015-02-10
TWI634781B (zh) 2018-09-01
AU2013209989B2 (en) 2017-01-12
EP3383042A1 (en) 2018-10-03
PL3917140T3 (pl) 2023-12-04
KR20230111277A (ko) 2023-07-25
CN108462881A (zh) 2018-08-28
JP2022105762A (ja) 2022-07-14
TW201637452A (zh) 2016-10-16
EP3917140B1 (en) 2023-07-19
KR102163103B1 (ko) 2020-10-08
JP6480185B2 (ja) 2019-03-06
PL3624447T3 (pl) 2021-11-22
ES2780849T3 (es) 2020-08-27
JP7083000B2 (ja) 2022-06-09
TW202201965A (zh) 2022-01-01
KR102460288B1 (ko) 2022-10-27
TWI741503B (zh) 2021-10-01
EP3624447B1 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
JP7393474B2 (ja) 映像符号化参照ピクチャリストをシグナリングおよび構築する方法および装置

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant