KR20210118070A - 인터 및 인트라 결합 예측 - Google Patents

인터 및 인트라 결합 예측 Download PDF

Info

Publication number
KR20210118070A
KR20210118070A KR1020217019990A KR20217019990A KR20210118070A KR 20210118070 A KR20210118070 A KR 20210118070A KR 1020217019990 A KR1020217019990 A KR 1020217019990A KR 20217019990 A KR20217019990 A KR 20217019990A KR 20210118070 A KR20210118070 A KR 20210118070A
Authority
KR
South Korea
Prior art keywords
mode
prediction
intra
inter
mmvd
Prior art date
Application number
KR1020217019990A
Other languages
English (en)
Inventor
샤오유 시우
유웬 헤
지안콩 루오
Original Assignee
브이아이디 스케일, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브이아이디 스케일, 인크. filed Critical 브이아이디 스케일, 인크.
Publication of KR20210118070A publication Critical patent/KR20210118070A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

인터 및 인트라 결합 예측을 위한 시스템, 방법 및 수단이 개시된다. 비디오 코딩 디바이스는 MMVD(motion vector difference) 모드가 코딩 유닛(CU)의 인터 예측을 생성하는 데 사용되는지 여부를 나타내는 MMVD 모드 표시를 수신할 수 있다. 예를 들어, MMVD 모드 표시가 MMVD 모드가 CU의 인터 예측을 생성하는 데 사용되지 않는다는 것을 나타낼 때, 비디오 코딩 디바이스는 CIIP(combined inter merge/intra prediction) 표시를 수신할 수 있다. 비디오 코딩 디바이스는, 예를 들어, MMVD 모드 표시 및/또는 CIIP 표시에 기초하여, CU에 대해 삼각형 병합 모드를 사용할지 여부를 결정할 수 있다. CIIP 표시가 CU에 대해 CIIP가 적용된다는 것을 나타내거나 MMVD 모드 표시가 MMVD 모드가 인터 예측을 생성하는 데 사용된다는 것을 나타낸다는 조건 하에서, 비디오 코딩 디바이스는 CU에 대해 삼각형 병합 모드를 디스에이블시킬 수 있다.

Description

인터 및 인트라 결합 예측
관련 출원의 상호 참조
본 출원은, 그 전체가 참고로 본 명세서에 포함되는, 2018년 12월 31일에 출원된 미국 가특허 출원 제62/786,653호에 대한 우선권을 주장한다.
비디오 코딩 시스템은 디지털 비디오 신호를 압축하여 그러한 신호의 스토리지 요구 및/또는 전송 대역폭을 감소시키기 위해 널리 사용된다. 블록 기반, 웨이블릿 기반, 및 객체 기반 시스템과 같은, 다양한 유형의 비디오 코딩 시스템 중에서, 블록 기반 하이브리드 비디오 코딩 시스템이 널리 사용되고 배포되어 있다.
인터 및 인트라 결합 예측(combined inter and intra prediction)을 위한 시스템, 방법 및 수단이 개시된다. 비디오 코딩 디바이스는 MMVD(motion vector difference) 모드가 코딩 유닛의 인터 예측을 생성하는 데 사용되는지 여부를 나타내는 MMVD 모드 표시(mode indication)를 수신할 수 있다. 예를 들어, MMVD 모드 표시가 MMVD 모드가 코딩 유닛의 인터 예측을 생성하는 데 사용되지 않는다는 것을 나타낼 때, 비디오 코딩 디바이스는 CIIP(combined inter merge/intra prediction) 표시를 수신할 수 있다. 비디오 코딩 디바이스는, 예를 들어, MMVD 모드 표시 및/또는 CIIP 표시에 기초하여, 코딩 유닛에 대해 삼각형 병합 모드를 사용할지 여부를 결정할 수 있다. MMVD 모드 표시가 코딩 유닛에 대해 MMVD 모드가 사용된다는 것을 나타낼 때 CIIP 표시가 수신되지 않을 수 있다. MMVD 모드 표시는 코딩 유닛별로 수신될 수 있다.
CIIP 표시가 코딩 유닛에 대해 CIIP가 적용된다는 것을 나타낸다는 조건 하에서, 비디오 코딩 디바이스는 코딩 유닛에 대해 삼각형 병합 모드를 디스에이블시킬 수 있다. MMVD 모드 표시가 MMVD 모드가 인터 예측을 생성하는 데 사용된다는 것을 나타낸다는 조건 하에서, 비디오 코딩 디바이스는 코딩 유닛에 대해 삼각형 병합 모드를 디스에이블시킬 수 있다. CIIP 표시가 코딩 유닛에 대해 CIIP가 적용되지 않는다는 것을 나타내고 MMVD 모드 표시가 MMVD 모드가 인터 예측을 생성하는 데 사용되지 않는다는 것을 나타낸다는 조건 하에서, 비디오 코딩 디바이스는 코딩 유닛에 대해 삼각형 병합 모드를 인에이블시킬 수 있다. 비디오 코딩 디바이스는 삼각형 병합 플래그를 수신하지 않고 코딩 유닛에 대해 삼각형 병합 모드를 인에이블시킬 수 있다. 비디오 코딩 디바이스는 MMVD 모드 표시 또는 CIIP 표시 중 하나 이상에 기초하여 코딩 유닛에 대해 삼각형 병합 모드를 인에이블시킬지 여부를 추론할 수 있다. MMVD 모드 표시가 코딩 유닛에 대해 MMVD 모드가 사용된다는 것을 나타낼 때 CIIP 표시가 수신되지 않을 수 있다. MMVD 모드 표시는 코딩 유닛별로 수신될 수 있다.
도 1은 블록 기반 비디오 인코더의 예시적인 다이어그램을 예시한다.
도 2a는 다중 유형 트리 구조 및 4진 분할에서의 블록 분할과 연관된 예를 예시한다.
도 2b는 다중 유형 트리 구조 및 수직 2진 분할에서의 블록 분할과 연관된 예를 예시한다.
도 2c는 다중 유형 트리 구조 및 수평 2진 분할에서의 블록 분할과 연관된 예를 예시한다.
도 2d는 다중 유형 트리 구조 및 수직 3진 분할에서의 블록 분할과 연관된 예를 예시한다.
도 2e는 다중 유형 트리 구조 및 수평 3진 분할에서의 블록 분할과 연관된 예를 예시한다.
도 3은 블록 기반 비디오 디코더의 예시적인 다이어그램을 예시한다.
도 4a는 인터 및 인트라 결합 예측, 및 DC 플래너 모드와 연관된 예를 예시한다.
도 4b는 인터 및 인트라 결합 예측, 및 수평 모드와 연관된 예를 예시한다.
도 4c는 인터 및 인트라 결합 예측, 및 수직 모드와 연관된 예를 예시한다.
도 5는 대안적인 시간적 모션 벡터 예측과 연관된 예를 예시한다.
도 6은 아핀 모션 필드 모델링과 연관된 예를 예시한다.
도 7a는 대각 삼각형 분할 기반 모션 보상 예측과 연관된 예를 예시한다.
도 7b는 역대각 삼각형 분할 기반 모션 보상 예측과 연관된 예를 예시한다.
도 8은 삼각형 모드에서 단방향 예측(uni-prediction) 모션 벡터(MV)를 생성하는 것과 연관된 예를 예시한다.
도 9는 인트라 모드 유도(intra mode derivation)와 연관된 예를 예시한다.
도 10은 인트라 모드 유도를 위한 템플릿 샘플의 기울기 계산과 연관된 예를 예시한다.
도 11은 CCLM(cross-component linear model) 크로마 예측 샘플을 사용하는 인터 및 인트라 결합 예측을 위한 크로마 예측과 연관된 예를 예시한다.
도 12는 크로마 인터 예측 샘플과 CCLM 크로마 예측 샘플을 결합하는 것에 의해 인터 및 인트라 결합 예측을 위한 크로마 예측과 연관된 예를 예시한다.
도 13a는 하나 이상의 개시된 실시예가 구현될 수 있는 예시적인 통신 시스템의 시스템 다이어그램이다.
도 13b는 도 13a에 예시된 통신 시스템 내에서 사용될 수 있는 예시적인 무선 송수신 유닛(wireless transmit/receive unit, WTRU)의 시스템 다이어그램이다.
도 13c는 도 13a에 예시된 통신 시스템 내에서 사용될 수 있는 예시적인 무선 액세스 네트워크(radio access network, RAN) 및 예시적인 코어 네트워크(core network, CN)의 시스템 다이어그램이다.
도 13d는 도 13a에 예시된 통신 시스템 내에서 사용될 수 있는 추가의 예시적인 RAN 및 추가의 예시적인 CN의 시스템 다이어그램이다.
보다 높은 코딩 효율 및 적당한 구현 복잡도를 제공할 수 있는 코딩 도구는 아핀 모션 모델, ATMVP(alternative temporal motion vector prediction 또는 advanced temporal motion vector prediction), IMV(integer motion vector), GBi(generalized bi-prediction), BDOF(bi-directional optical flow), CIIP(combined inter merge/intra prediction), MMVD(merge with motion vector difference), 쌍별 평균 병합 후보(pairwise average merge candidate), 인터 코딩을 위한 삼각형 인터 예측, CCLM(cross-component linear model), 다중 라인 인트라 예측, 인트라 예측을 위한 CPR(current picture referencing); EMT(enhanced multiple transform), 양자화 및 변환 코딩을 위한 종속 양자화, 및 인루프 필터(in-loop filter)에 대한 ALF(adaptive loop filtering) 중 하나 이상을 포함할 수 있다.
도 1은 예시적인 블록 기반 하이브리드 비디오 인코딩 시스템(200)의 블록 다이어그램을 도시한다. 입력 비디오 신호(202)는 블록 단위로 프로세싱될 수 있다. 확장된 블록 크기(예를 들면, "코딩 유닛" 또는 CU라고 지칭됨)은 고해상도(예를 들면, 1080p 이상) 비디오 신호를 압축하는 데 사용될 수 있다. CU는 최대 128x128 픽셀의 크기를 포함할 수 있다. 블록은 쿼드 트리에 기초하여 분할될 수 있다. 코딩 트리 유닛(coding tree unit, CTU)은 쿼드/2진/3진 트리에 기초하여 다양한 로컬 특성에 적응하기 위해 CU로 분할될 수 있다. CU는 별도의 예측이 적용될 수 있는 예측 유닛 또는 PU로 분할될 수 있거나 분할되지 않을 수 있다. CU는 더 이상의 분할이 없는 예측 및 변환을 위한 기본 유닛으로서 사용될 수 있다. 다중 유형 트리 구조에서, (예를 들면, 하나의) CTU는 쿼드 트리 구조에 의해 분할될 수 있다(예를 들면, 먼저 분할될 수 있다). 쿼드 트리 리프 노드(예를 들면, 각각의 쿼드 트리 리프 노드)는 2진 및 3진 트리 구조에 의해 더 분할될 수 있다. 도 2에 도시된 바와 같이, 하나 이상의(예를 들면, 5 개의) 분할 유형이 있을 수 있다. 4진 분할(예를 들면, (a)), 수평 2진 분할(예를 들면, (c)), 수직 2진 분할(예를 들면, (b)), 수평 3진 분할(예를 들면, (e)), 및 수직 3진 분할(예를 들면, (d)) 중 하나 이상이 예시적인 분할 유형일 수 있다.
도 1을 참조하면, 입력 비디오 블록(예를 들면, 매크로블록(MB) 또는 CU)에 대해, 공간적 예측(260) 또는 모션 예측(262)이 수행될 수 있다. 공간적 예측(예를 들면, 또는 인트라 예측)은 현재 비디오 블록을 예측하기 위해 동일한 비디오 픽처 및/또는 슬라이스 내의 이미 코딩된 이웃 블록으로부터의 픽셀을 사용할 수 있다. 공간적 예측은 비디오 신호에 내재된 공간적 중복성(spatial redundancy)을 감소시킬 수 있다. 모션 예측(예를 들면, 인터 예측 또는 시간적 예측이라고 지칭됨)은 현재 비디오 블록을 예측하기 위해 이미 코딩된 비디오 픽처로부터의 픽셀을 사용할 수 있다. 모션 예측은 비디오 신호에 내재된 시간적 중복성을 감소시킬 수 있다. 주어진 비디오 블록에 대한 모션 예측 신호는 현재 블록과 그의 참조 블록 사이의 모션의 양 및/또는 방향을 나타내는 모션 벡터에 의해 시그널링될 수 있다. 다수의 참조 픽처들이 지원되는 경우, 비디오 블록의 참조 픽처 인덱스가 디코더로 시그널링될 수 있다. 참조 인덱스는 시간적 예측 신호가 참조 픽처 저장소(364) 내의 어느 참조 픽처로부터 올 수 있는지를 식별하는 데 사용될 수 있다.
공간적 예측 및/또는 모션 예측 이후에, 인코더에서의 모드 결정(280)은, 예를 들어, 레이트 왜곡 최적화(rate-distortion optimization)에 기초하여, 예측 모드를 선택할 수 있다. 216에서 예측 블록이 현재 비디오 블록으로부터 차감될 수 있다. 목표 비트 레이트를 달성하기 위해 변환 모듈(204) 및 양자화 모듈(206)을 사용하여 예측 잔차가 역상관될 수 있다. 양자화된 잔차 계수는, 210에서, 역양자화되고, 212에서, 역변환되어 재구성된 잔차를 형성할 수 있다. 재구성된 잔차는, 226에서, 예측 블록에 다시 가산되어 재구성된 비디오 블록을 형성할 수 있다. 재구성된 비디오 블록이 참조 픽처 저장소(264)에 넣어지기 전에, 266에서, 재구성된 비디오 블록에 디블록킹 필터 및/또는 적응 루프 필터와 같은 인루프 필터가 적용될 수 있다. 참조 픽처 저장소(264) 내의 참조 픽처는 미래의 비디오 블록을 코딩하는 데 사용될 수 있다. 출력 비디오 비트스트림(220)이 형성될 수 있다. 코딩 모드(예를 들면, 인터 또는 인트라), 예측 모드 정보, 모션 정보, 및/또는 양자화된 잔차 계수는 압축 및 패킹되어 비트스트림(220)을 형성하기 위해 엔트로피 코딩 유닛(208)으로 송신될 수 있다.
도 3은 예시적인 블록 기반 비디오 디코더의 일반 블록 다이어그램을 도시한다. 비디오 비트스트림(302)은 엔트로피 디코딩 유닛(308)에서 수신, 언팩킹 및/또는 엔트로피 디코딩될 수 있다. 코딩 모드 및/또는 예측 정보는 공간적 예측 유닛(360)(예를 들면, 인트라 코딩된 경우)로 및/또는 시간적 예측 유닛(362)(예를 들면, 인터 코딩된 경우)으로 송신될 수 있다. 공간적 예측 유닛(360) 및/또는 시간적 예측 유닛(362)에 의해 예측 블록이 형성될 수 있다. 잔차 블록을 재구성하기 위해 잔차 변환 계수가 역양자화 유닛(310) 및/또는 역변환 유닛(312)으로 송신될 수 있다. 336에서, 예측 블록 및 잔차 블록이 가산될 수 있다. 재구성된 블록은 인루프 필터링(366)을 거칠 수 있고 참조 픽처 저장소(364)에 저장될 수 있다. 참조 픽처 저장소(364) 내의 재구성된 비디오는 디스플레이 디바이스를 구동하기 위해 및/또는 미래의 비디오 블록을 예측하기 위해 사용될 수 있다.
하나 이상의 코딩 모듈, 예를 들어, 인터 예측과 연관된 코딩 모듈은 인터 코딩 효율을 개선시키기 위해 향상될 수 있다. 하나 이상의 인터 코딩 도구가 본 명세서에 기술될 수 있다.
인터 및 인트라 결합 예측이 수행될 수 있다.
도 1 및 도 3에 도시된 바와 같이, 비디오 신호에 존재하는 시간적 및 공간적 중복성을 활용하기 위해 인터 예측 및 인트라 예측이 사용될 수 있다. 예에서, PU는 시간 도메인 또는 공간 도메인에서의 원래 비디오의 상관을 활용할 수 있다. 인터 및 인트라 예측의 특성을 고려할 때, 그러한 방식은 특정 비디오 콘텐츠에 최적이 아닐 수 있다. 예를 들어, 오래된 객체와 새로 등장하는 객체가 혼합된 비디오 영역의 경우, 예를 들어, 인터 예측과 인트라 예측을 함께 결합하는 방법이 있는 경우, 보다 나은 코딩 효율이 예상될 수 있다. 그러한 고려에 기초하여, 인터 및 인트라 결합 예측 도구가 수행될 수 있다. 인터 및 인트라 결합 예측 도구는 인트라 예측을 병합 모드로부터 생성되는 인터 예측과 결합시킬 수 있다. 예에서, 병합 모드에서 코딩되는 각각의 CU에 대해, 인터 및 인트라 결합 모드가 적용되는지 여부를 나타내기 위해 플래그가 시그널링될 수 있다. 플래그가 참(true)일 때, 예를 들어, 미리 정의된 인트라 모드 후보 목록으로부터 인트라 모드를 선택하기 위해 추가적인 신택스가 시그널링될 수 있다. 루마 성분의 경우, 인트라 모드 후보는 4개의 빈번히 선택되는 인트라 모드, 예를 들면, 플래너, DC, 수평 및 수직을 포함할 수 있다. 크로마 성분의 경우, 임의의 시그널링이 없더라도 (예를 들면, 크로마 성분이 그의 예측 샘플을 생성하기 위해 루마 인트라 모드를 재사용한다는 것을 나타내는) DM 모드가 적용될 수 있다. 인터 예측 샘플과 인트라 예측 샘플을 결합시키기 위해 가중치가 적용될 수 있다. 다음 중 하나 이상이 적용될 수 있다.
DC 또는 플래너 모드에 의해 예측되는 CU 및 폭 또는 높이가 4보다 작거나 같은 CU의 경우, 동일한 가중치, 예를 들어, 0.5가 적용될 수 있다.
CU가 수평 또는 수직 모드에 의해 예측되고 CU가 폭 및 높이가 4 초과 샘플인 경우, CU는 (예를 들면, 적용되는 인트라 모드에 따라) 수평 또는 수직 방향으로 분할될 수 있고; 분할은 4 개의 동일한 크기의 영역으로 될 수 있다. (w_intrai, w_interi)(단, i = 0,..., 3임)로 표시되는 가중치 조합. 예에서, (w_intra0, w_inter0) = (0.75, 0.25)이고, (w_intra1, w_inter1) = (0.625, 0.375)이며, (w_intra2, w_inter2) = (0.375, 0.625)이고, (w_intra3, w_inter3) = (0.25, 0.75)이며, 여기서 (w_intra0, w_inter0)은 재구성된 이웃 샘플(예를 들면, 인트라 참조 샘플)에 가장 가까운 영역에 대응할 수 있고, (w_intra3, w_inter3)은 재구성된 주변 샘플로부터 가장 멀리 떨어진 영역에 대응할 수 있다. 도 4는 인터 및 인트라 결합 예측 모드의 경우 인터 예측 샘플과 인트라 예측 샘플을 결합시키기 위해 적용될 수 있는 예시적인 가중치를 예시한다. 예를 들어, (a)는 DC 및/또는 플래너 모드에서 적용될 수 있는 예시적인 가중치를 예시하고; (b)는 수평 모드에서 적용될 수 있는 예시적인 가중치를 예시하며; (c)는 수직 모드에서 적용될 수 있는 예시적인 가중치를 예시한다. 표 1은 인터 및 인트라 결합 예측을 위한 추가적인 신택스 요소를 포함시킨 후의 예시적인 코딩 유닛 신택스 테이블을 보여준다.
Figure pct00001
표 1을 참조하면, 다음 중 하나 이상이 적용될 수 있다. mh_intra_flag[ x0 ][ y0 ]은 현재 코딩 유닛에 대한 인터 및 인트라 결합 예측이 적용되는지 여부를 나타낼 수 있다. mh_intra_flag[ x0 ][ y0 ]이 존재하지 않을 때, 이는 0과 동일한 것으로 추론될 수 있다. mh_intra_luma_mpm_flag[ x0 ][ y0 ] 및 mh_intra_luma_mpm_idx[ x0 ][ y0 ]은, 예를 들어, 샘플 위치(x0, y0), 현재 코딩 블록의 폭, 현재 코딩 블록의 높이, mh_intra_luma_mpm_flag[ x0 ][ y0 ], 및 mh_intra_luma_mpm_idx[ x0 ][ y0 ]를 입력으로서 사용하여 mh 인트라 모드에 대한 루마 인트라 예측 모드에 대한 유도 프로세스를 호출하는 것에 의해, 루마 샘플에 대한 인트라 예측 모드를 나타낼 수 있다.
예를 들어, 현재 CU가 종래의 병합 모드, 예를 들면, HEVC의 병합 모드에 대해 사용되는 것과 같은 5개의 공간적 이웃 및 2개의 시간적 이웃에 의해 코딩될 때, 인터 및 인트라 결합 예측 모드가 인에이블될 수 있다. 비트스트림에서 MV를 시그널링하는 인터 CU 또는 다른 병합 모드(예를 들면, 아핀 병합, ATMVP, MMVD 및 삼각형 예측)에서 코딩되는 인터 CU의 경우, 인터 및 인트라 결합 예측이 디스에이블될 수 있다.
서브 블록 병합 모드가 수행될 수 있다.
병합 모드에 의해 코딩되는 CU(예를 들면, 각각의 CU)는 예측 방향(예를 들면, 각각의 예측 방향)에 대한 모션 파라미터 세트(예를 들면, 하나의 모션 벡터 및 하나의 참조 픽처 인덱스)를 가질 수 있다. 서브 블록 레벨에서 모션 정보의 유도를 가능하게 하는 하나 이상의 병합 후보가 병합 모드에 포함될 수 있다. 서브 블록 병합 후보의 카테고리는 ATMVP(alternative temporal motion vector prediction)를 포함할 수 있다. ATMVP는 TMVP(temporal motion vector prediction) 도구의 동일한 개념을 기반으로 구축될 수 있고, CU가 자신의 시간적 이웃 픽처(예를 들면, 콜 참조 픽처(collocated reference picture))로부터의 다수의 작은 블록들로부터 그의 서브 블록의 모션 정보를 페치할 수 있게 할 수 있다. 서브 블록 병합 후보의 카테고리는 아핀 모델에 기초하여 CU 내부의 서브 블록의 모션을 모델링할 수 있는 아핀 병합 모드를 포함할 수 있다.
ATMVP가 수행될 수 있다.
ATMVP에서, 예를 들어, 블록이 현재 블록 내의 서브 블록에 대한 모션 정보(예를 들면, 모션 벡터 및 참조 인덱스를 포함하는 다중 모션 정보)를 유도할 수 있게 하는 것에 의해, 시간적 모션 벡터 예측이 개선될 수 있다. 서브 블록(예를 들면, 각각의 서브 블록)에 대한 모션 정보는 현재 픽처의 시간적으로 이웃하는 픽처의 대응하는 작은 블록으로부터 유도될 수 있다.
ATMVP는 블록의 서브 블록의 모션 정보를 유도할 수 있다. 다음 중 하나 이상이 적용될 수 있다. 현재 블록의 대응하는 블록(예를 들면, 콜 블록(collocated block)이라 불릴 수 있음)은 선택된 시간적 참조 픽처에서 식별될 수 있다. 현재 블록은 서브 블록들로 분할될 수 있고 각각의 서브 블록의 모션 정보는, 예를 들어, 도 5에 도시된 바와 같이, 콜 픽처(collocated picture) 내의 대응하는 작은 블록으로부터 유도될 수 있다.
도 5는 예시적인 서브 블록 모션 정보 유도(500)를 묘사한다. 현재 블록은 서브 블록들로 분할될 수 있고 각각의 서브 블록의 모션 정보는, 예를 들어, 도 5에 도시된 바와 같이, 콜 픽처 내의 대응하는 작은 블록으로부터 유도될 수 있다. 선택된 시간적 참조 픽처는 콜 픽처라고 불릴 수 있다. 다음 중 하나 이상이 적용될 수 있다. 콜 블록 및 콜 픽처는 현재 블록의 공간적 이웃 블록의 모션 정보에 의해 식별될 수 있다. 도 5는 ATMVP와 연관된 예를 예시한다. 도 5를 참조하면, 블록 A는 현재 블록의 병합 후보 목록 내의 첫 번째 이용 가능한 병합 후보로서 식별될 수 있다. 블록 A의 대응하는 모션 벡터(예컨대, MVA) 및 그의 참조 인덱스는 콜 픽처 및 콜 블록을 식별하는 데 사용될 수 있다. 콜 픽처에서의 콜 블록의 위치는 블록 A의 모션 벡터(MVA)를 현재 블록의 좌표에 가산하는 것에 의해 결정될 수 있다.
현재 블록은 서브 블록들로 분할될 수 있고 각각의 서브 블록의 모션 정보는, 예를 들어, 도 5에 도시된 바와 같이, 콜 픽처 내의 대응하는 작은 블록으로부터 유도될 수 있다. 예에서, 현재 블록 내의 각각의 서브 블록에 대한 모션 정보는 (예를 들면, 도 5에서 적색 화살표로 표시된 바와 같이) 콜 블록 내의 그의 대응하는 작은 블록으로부터 유도될 수 있다. (예를 들면, 시간적 모션 벡터 스케일링이 적용될 수 있는 HEVC에서의 TMVP와 유사한 방식으로) 작은 블록(예를 들면, 콜 블록 내의 각각의 작은 블록)의 모션 정보가 식별되고 현재 블록 내의 대응하는 서브 블록의 모션 벡터 및 참조 인덱스로 변환될 수 있다.
모션 정보를 나타내기 위해 아핀 모델이 사용될 수 있다. 비디오 시퀀스에 하나 이상의 유형의 모션, 예를 들어, 병진 모션, 줌인/줌아웃, 회전, 원근 모션, 또는 다른 불규칙한 모션 중 하나 이상이 존재할 수 있다. 아핀 모션 필드 모델링에 기초한 모션 보상 예측이 적용될 수 있다. 도 6은 아핀 모션 필드 모델링(600)의 예를 예시한다. 도 6에 도시된 바와 같이, 블록의 아핀 모션 필드는 하나 이상, 예를 들면, 3개의 제어 포인트 모션 벡터(control-point motion vector)에 의해 기술될 수 있다. 3개의 제어 포인트 모션에 기초하여, 하나의 아핀 블록의 모션 필드가 수학식 1로서 기술될 수 있다:
Figure pct00002
모션 벡터 (v0x, v0y)는 좌측 상부 코너 제어 포인트의 모션 벡터일 수 있고, 모션 벡터 (v1x, v1y)는 우측 상부 코너 제어 포인트의 모션 벡터일 수 있다. 하나의 비디오 블록이 아핀 모드에 의해 코딩될 때, 그의 모션 필드는 4x4 블록의 입도(granularity)에 기초하여 유도될 수 있다. 각각의 4x4 블록의 모션 벡터를 유도하기 위해, 각각의 4x4 서브 블록의 중심 샘플의 모션 벡터는 수학식 1에 따라 계산될 수 있다. 이는 1/16 펠 정확도(pel accuracy)로 반올림될 수 있다. 유도된 모션 벡터는 모션 보상 스테이지에서 현재 블록 내부의 각각의 서브 블록의 예측 신호를 생성하는 데 사용될 수 있다.
삼각형 인터 예측이 수행될 수 있다. 도 7은 예시적인 삼각형 예측 분할(700, 702)을 묘사한다.
일부 콘텐츠(예를 들면, 자연 비디오 콘텐츠)에서, 2 개의 움직이는 객체 사이의 경계는 수평 또는 수직(예를 들면, 전적으로 수평 또는 수직)이 아닐 수 있으며, 이는 직사각형 블록에 의해 정확하게 근사하기 어려울 수 있다. 예를 들어, 모션 보상 예측을 위한 삼각형 분할을 가능하게 하기 위해, 삼각형 예측이 적용될 수 있다. 도 7에 도시된 바와 같이, 삼각형 예측은 CU를, 예를 들어, 대각 또는 역대각 방향으로, 하나 이상의(예를 들면, 2 개의) 삼각형 예측 유닛으로 분할할 수 있다. 삼각형 예측 유닛(예를 들면, CU 내의 각각의 삼각형 예측 유닛)은, 단방향 예측 후보 목록으로부터 유도될 수 있는, 그 자신의 단방향 예측 모션 벡터 및 참조 프레임 인덱스를 사용하여 인터 예측될 수 있다.
도 8은 예시적인 단방향 예측 모션 벡터 후보 유도(800)를 묘사한다. 단방향 예측 후보 목록은 하나 이상의(예를 들면, 5 개의) 단방향 예측 모션 벡터 후보를 포함할 수 있다. 단방향 예측 모션 벡터 후보는 병합 프로세스(예를 들면, HEVC의 병합 프로세스)에 사용되는 것과 유사한(예를 들면, 동일한) 공간적/시간적 이웃 블록으로부터 유도될 수 있다. 예에서, 단방향 예측 MV 후보는 도 8에 도시된 바와 같이 5 개의 공간적 이웃 블록 및 2 개의 시간적 콜 블록으로부터 유도될 수 있다. 도 8을 참조하면, 7 개의 이웃 블록의 모션 벡터가 수집되고, 이웃 블록의 L0 모션 벡터, 이웃 블록의 L1 모션 벡터, 및 이웃 블록의 L0 모션 벡터와 L1 모션 벡터의 평균 모션 벡터(예를 들면, 이웃 블록이 양방향 예측되는 경우)의 순서로 단방향 예측 MV 후보 목록에 넣어질 수 있다. MV 후보의 수가 5 개 미만인 경우, 0 개의 모션 벡터가 MV 후보 목록에 추가된다.
크로마 인트라 예측을 위한 교차 성분 예측(cross-component prediction)이 수행될 수 있다. 특정 비디오 콘텐츠(예를 들면, 자연 비디오 콘텐츠)의 루마 성분과 크로마 성분 사이의 상관이 존재할 수 있다. 크로마 인트라 예측을 위해 CCLM(cross-component linear model) 예측 모드가 사용될 수 있다. CCLM 예측 모드에서, 크로마 샘플은 선형 모델, 예를 들면, 수학식 2를 사용하여 블록(예를 들면, 동일한 블록)의 재구성된 루마 샘플로부터 예측될 수 있다.
Figure pct00003
수학식 2를 참조하면, predc(i,j)는 블록 내의 크로마 샘플의 예측을 나타낼 수 있고, recL(i,j)는, 4:2:0 크로마 형식 콘텐츠에 대해 다운 샘플링될 수 있는, 크로마 블록과 동일한 해상도의 동일한 블록의 재구성된 루마 샘플을 나타낼 수 있다. 파라미터 α 및 β는, 제각기, 선형 모델의 스케일링 파라미터 및 오프셋을 나타낼 수 있다.
본 명세서에 기술된 바와 같이, 루마 성분에 대해, 예를 들면, 플래너, DC, 수평 및 수직 모드를 포함한, 하나 이상의(예를 들면, 최대 4 개의 빈번히 사용되는) 인트라 모드가 (예를 들면, 인터 및 인트라 결합 예측 모드에 의해) 지원될 수 있다. 코딩 디바이스(예를 들면, 인코더)는 복수의 인트라 모드들을 검사할 수 있다. 코딩 디바이스는 (예를 들면, 레이트 왜곡 트레이드오프의 관점에서) 최상의 성능을 제공하는 복수의 인트라 모드들 중의 인트라 모드를 선택할 수 있다. 코딩 디바이스는 선택된 인트라 모드를 시그널링할 수 있다(예를 들면, 디코더에 명시적으로 시그널링됨). 인터 및 인트라 결합 예측 모드의 경우, 무시할 수 없는(예를 들면, 상당한) 양의 비트 레이트가 인트라 모드의 코딩에 소비될 수 있다. 예에서, 계산 능력의 증가로 인해, 최신의 디바이스(예를 들면, 디코더가 장착된 무선 모바일 디바이스와 같은, 배터리 구동 디바이스조차)는 일부 복잡한 작업을 수행할 수 있다. 디코더 측에서의 인터 및 인트라 결합 예측에 사용되는 인트라 모드가 유도될 수 있다. 디코더 측 유도가 정확한 경우, 인트라 모드의 시그널링이 스킵될 수 있고 코딩 효율이 개선될 수 있다.
CU가 병합 모드에 의해 코딩될 때 인터 및 인트라 결합 예측이 인에이블될 수 있다. 병합 모드는 (예를 들면, 도 8에 도시된 바와 같이) 병합 모드를 위해 5개의 공간적 이웃 및 2개의 시간적 이웃을 사용하는 것을 포함할 수 있다. 다른 병합 모드(예를 들면, 아핀 병합, ATMVP, MMVD 및 삼각형 예측)에 의해 예측되는 인터 CU의 경우, 인터 및 인트라 결합 예측이 디스에이블될 수 있다(예를 들면, 항상 디스에이블될 수 있음). 예를 들어, MMVD 모드가 진정한 양방향 예측 시나리오(예를 들면, 참조 목록 L0 및 L1로부터의 순방향 및 역방향 예측이 있는 경우)에서 대체로 선택되기 때문에, MMVD에 대한 인터 및 인트라 결합 예측이 디스에이블될 수 있다. 모션 보상 예측(예를 들면, 인터 예측)은 현재 CU를 예측하는 데 정확할 수 있다. 추가적인 인트라 예측이 필요하지 않을 수 있다. 다른 병합 모드에 대해 인터 및 인트라 결합 예측이 디스에이블되지 않을 수 있다. 하나 이상의 병합 모드(예를 들면, ATMVP 및 삼각형 예측 모드)의 경우, 동일한 참조 픽처 내의 공간적 이웃 또는 시간적 참조 픽처 내의 콜 블록으로부터 유도되는 서브 블록 모션은 정확하지 않을 수 있다. 그러한 경우에, 인터 및 인트라 결합 예측과 그러한 병합 모드의 조합을 가능하게 하는 것이 (예를 들면, 코딩 성능의 관점에서) 유익할 수 있다.
인터 및 인트라 결합 예측 모드의 코딩 성능이 개선될 수 있다. 인트라 모드 유도는, 예를 들어, 코딩 디바이스(예를 들면, 디코더)의 계산 능력을 활용하는 것에 의해, 인트라 모드를 시그널링하는 오버헤드를 스킵할 수 있다. 인터 및 인트라 결합 예측 모드에 대한 크로마 코딩이 개선될 수 있다. 인터 및 인트라 결합 예측 모드의 적용은, 예를 들어, 삼각형 인터 예측 및/또는 서브 블록 병합 모드를 포함한, 하나 이상의 코딩 도구를 사용하여 확장될 수 있다.
인터 및 인트라 결합 예측은, 예를 들어, 디코더 인트라 모드 유도로 수행될 수 있다. 인터 및 인트라 결합 예측에서, 예를 들어, 루마 성분의 선택된 인트라 모드(예를 들면, 플래너, DC, 수평 또는 수직 모드)가 코딩 디바이스(예를 들면, 인코더 또는 디코더)로 및/또는 그로부터 시그널링될 수 있다. 선택된 인트라 모드를 시그널링하는 것은 비트스트림의 무시할 수 없는 부분(예를 들면, 출력 비트스트팀)을 차지할 수 있고/있거나 전체 코딩 성능을 감소시킬 수 있다. 인터 및 인트라 결합 예측을 위해 사용되는 인트라 모드가 코딩 디바이스(예를 들면, 디코더)에서 유도될 수 있으며, 이는 오버헤드를 감소시킬 수 있다. 달리 말하면, 디코더는 (예를 들면, 하나 이상의 이웃하는 재구성된 샘플에 기초하여) 인터 및 인트라 결합 예측을 위한 인트라 모드를 유도할 수 있다. (예를 들면, 비트스트림에서 인트라 모드를 직접 시그널링하는 대신에) 인터 및 인트라 결합 예측이 CU에 적용될 때, 인트라 모드는, 예를 들어, CU의 이웃하는 재구성된 샘플로부터 유도될 수 있다.
도 9는 예시적인 인트라 모드 유도(900)(예를 들면, 인터 및 인트라 결합 모드에 대한 인트라 모드의 디코더 측 유도)를 예시한다. 도 9에 도시된 바와 같이, 인터 및 인트라 결합 모드가 적용되는 현재 CU는 N x N(폭 x 높이)의 크기를 포함할 수 있다. 템플릿은 현재 CU의 인트라 모드를 유도하는 데 사용되는 재구성된 샘플 세트를 명시할 수 있다. 도 9에서 음영 처리된 영역은 템플릿을 나타낼 수 있다. 템플릿 크기는 타깃 블록의 상단 및 좌측으로 연장되는 L자형 영역 내의 샘플들의 수(예를 들면, L)로 표시될 수 있다. 예를 들어, 현재 CU의 샘플과 그의 이웃 블록(예를 들면, 템플릿) 사이에 강한 상관이 있을 때, 기울기 분석은 템플릿 샘플의 상단에 적용될 수 있다. 기울기 분석은 현재 CU의 인터 및 인트라 결합 예측에 사용되는 인트라 모드를 추정하는 데 사용될 수 있다. 예에서, 수학식 3에 나타낸 바와 같이, 템플릿 내의 샘플의 수평 및 수직 기울기를 계산하기 위해 3 x 3 소벨(Sobel) 필터가 적용될 수 있다.
Figure pct00004
2 개의 행렬(예를 들면, Mx 및 My)이 3 x 3 샘플 윈도(예를 들면, 템플릿 샘플에 중심을 둔 샘플)와 곱해질 수 있다. 2 개의 기울기 값(Gx 및 Gy) 및 활동 값(Acth)이, 예를 들어, 수학식 4를 사용하여 각각의 템플릿 샘플에서 수평 기울기와 수직 기울기를 합산하는 것에 의해 계산될 수 있다.
Figure pct00005
수학식 4를 참조하면,
Figure pct00006
Figure pct00007
는, 제각기, 좌표 (i,j)에서의 템플릿 샘플의 수평 기울기 및 수직 기울기를 나타낼 수 있다. Ω은 템플릿 내의 샘플의 좌표의 집합을 나타낼 수 있다. 도 10은 인트라 모드 유도를 위한 템플릿 샘플의 예시적인 기울기 계산(1000)을 예시한다. 수학식 4에서 계산된 기울기 값 및 활동 값이 주어지면, 최종 인트라 모드(예를 들면, 현재 CU에 적용되는 최종 인트라 모드)는 수학식 5에 의해 결정될 수 있다.
Figure pct00008
수학식 5를 참조하면, thg 및 thact는, 코딩 디바이스(예를 들면, 인코더 및/또는 디코더)에서 고정되고 사용될 수 있는, 기울기 값 및 활동 값에 대한 2 개의 미리 정의된 임계치를 나타낼 수 있다. 예에서, 기울기 값 및 활동 값에 대한 임계치는 코딩 디바이스(예를 들면, 인코더)에 의해 결정되고 비트스트림에서 다른 코딩 디바이스(예를 들면, 디코더)로 시그널링될 수 있다.
도 9에서, L자형 영역을 형성하는 재구성된 샘플(예를 들면, 현재 CU에 가장 가까운 재구성된 샘플)이 템플릿으로서 사용될 수 있다. 예에서, 상이한 복잡도/성능 트레이드오프를 제공할 수 있는, 상이한 형상 및/또는 크기를 갖는 템플릿이 선택될 수 있다. 큰 템플릿 크기를 선택할 때, 템플릿의 샘플이 타깃 블록으로부터 멀리 떨어져 있을 수 있다. 템플릿과 타깃 블록 간의 상관이 충분하지 않을 수 있다. (예를 들면, 기울기 및 활동 계산을 위해 보다 많은 샘플이 고려될 수 있다는 것을 감안할 때) 큰 템플릿 크기는 인코딩 및 디코딩 복잡도를 증가시킬 수 있다. 잡음이 존재할 때 큰 템플릿 크기는 신뢰할 수 있는 추정을 산출할 수 있다. 예에서, 인트라 모드 추정을 위해 적응적 템플릿 크기가 사용될 수 있다. 예를 들어, 템플릿 크기가 CU 크기에 기초하여 결정될 수 있다. 템플릿 크기가 도 9에서 "L"의 값으로 표현될 수 있다. 예에서, 특정 CU 크기(예를 들면, 64 개 미만의 샘플)에 대해 제1 템플릿 크기가 사용될 수 있고 다른 CU 크기(예를 들면, 64 개 이상의 샘플을 갖는 CU)에 대해 제2 템플릿 크기가 사용될 수 있다. 제1 템플릿 크기는 3(예를 들면, 도 9에 도시된 바와 같이 L=3)일 수 있다. 제2 템플릿 크기는 5(예를 들면, 도 9에 도시된 바와 같이 L=5)일 수 있다.
디코더는 인터 및 인트라 결합 모드에 대한 루마 인트라 모드를 선택할 수 있다. 인터 및 인트라 결합 모드에 대한 루마 인트라 모드는, 예를 들어, 인터 예측 샘플과 인트라 예측 샘플 간의 차이를 최소화하는 것에 의해 선택될 수 있다. 인터 및 인트라 결합 모드에 대한 루마 인트라 모드의 선택은 (예를 들면, 각각의 인트라 예측 모드에 대해) 인터 예측 신호와 인트라 예측 신호 사이에서 측정된 비용을 계산하는 것을 포함할 수 있다. 예를 들어, SAD(sum of absolute difference), SSD(sum of square difference) 및/또는 SATD(sum of absolute transformed difference)와 같은, 비용 측정(예를 들면, 템플릿 비용 측정) 중 하나 이상이 적용될 수 있다. 비용의 비교에 기초하여, 최소 템플릿 비용을 산출하는 인트라 예측 모드가 현재 CU의 인트라 예측 모드(예를 들면, 현재 CU의 최적 인트라 예측 모드)로서 선택될 수 있다. 예에서, 가장 낮은 측정된 비용과 연관된 인트라 예측 모드가 (예를 들면, 디코더에 의해) 선택될 수 있다.
인터 및 인트라 결합 예측은 크로마 CCLM 모드로 수행될 수 있다. 인터 및 인트라 결합 예측에서, 직접 모드(direct mode, DM)는, 예를 들어, 시그널링 없이, 하나 이상의 크로마 성분에 적용될 수 있다. DM에서, 루마 성분 인트라 모드가 하나 이상의 크로마 성분에 대해 재사용될 수 있다. 루마 성분과 크로마 성분 사이의 채널 간 상관이 존재할 수 있다. 예를 들어, 루마 성분은 크로마 성분과 채널 간 상관을 가질 수 있다. 크로마 성분은 루마 성분과 채널 간 상관을 가질 수 있다. CCLM은 크로마 인트라 예측에 사용될 수 있다. 예를 들어, CCLM은, 선형 모델에 기초하여 서브샘플링이 적용되는, 크로마 샘플이 대응하는 루마 샘플로부터 예측되는 크로마 인트라 예측에 사용될 수 있다. 하나 이상의 CCLM 모델 파라미터는 하나 이상의 이웃 루마 및/또는 크로마 샘플(예를 들면, 현재 CU 주변의 인과 이웃 루마 및 크로마 샘플)로부터 유도될 수 있다. 예를 들어, 인터 및 인트라 결합 예측이 CU에 적용될 때, DM 모드가 크로마 샘플의 인트라 예측을 위해 CCLM 모드로 대체될 수 있다. 달리 말하면, CCLM 모드가 (예를 들면, DM 모드 대신에) 하나 이상의 크로마 성분에 적용될 수 있다.
CCLM 모드는 이하의 방법들 중 하나 이상으로 크로마 성분에 적용될 수 있다. 예에서, CU의 하나 이상의 루마 예측 샘플은 (예를 들면, 비트스트림에서 시그널링되는 인트라 모드에 기초한) 인트라 예측 및 (예를 들면, 병합 인덱스에 의해 표시된 이웃 블록의 MV에 기초한) 인터 예측으로부터 생성되는 예측 샘플들을 블렌딩하는 것에 의해 생성될 수 있다. 예를 들어, 하나 이상의 재구성된 루마 샘플을 생성(예를 들면, 형성)하기 위해, 하나 이상의 루마 예측 샘플과 루마 성분의 잔차 샘플이 함께 가산될 수 있다. 하나 이상의 재구성된 루마 샘플은 서브샘플링될 수 있다. 하나 이상의 재구성된 루마 샘플은 CCLM 모드에 기초하여 하나 이상의 크로마 예측 샘플을 생성하는 데 사용될 수도 있다.
예에서, 예를 들어, 크로마 성분에 대한 최종 예측 샘플을 생성하기 위해, 하나 이상의 크로마 예측 샘플(예를 들면, CCLM 예측 샘플)이 크로마 인터 예측 샘플과 결합될 수 있다. 하나 이상의 크로마 예측 샘플은 크로마 인트라 예측 샘플이라고 지칭될 수 있다.
도 11은 CCLM 크로마 예측 샘플을 사용하는(예를 들면, 직접 사용하는) 인터 및 인트라 결합 예측을 위한 예시적인 크로마 예측(1100)을 예시한다. CCLM 모드를 크로마 성분에 적용하는 (예를 들면, 도 11에 도시된 바와 같은) 제1 예시적인 방법에서, 크로마 LM 예측 샘플이 직접 사용될 수 있다.
도 12는 크로마 인터 예측 샘플과 CCLM 크로마 예측 샘플을 결합시키는 것에 의한 인터 및 인트라 결합 예측을 위한 예시적인 크로마 예측(1200)을 예시한다. CCLM 모드를 크로마 성분에 적용하는 (예를 들면, 도 12에 도시된 바와 같은) 제2 예시적인 방법에서, 크로마 인트라 예측 샘플은 크로마 인터 예측 샘플과 결합될 수 있다.
DM 모드 및 CCLM 모드가 인터 및 인트라 결합 예측의 크로마 인트라 예측을 위해 인에이블될 수 있다. 예를 들어, 인터 및 인트라 결합 예측이 현재 CU에 대해 인에이블될 때, 플래그가 시그널링될 수 있다. 플래그는 DM 모드 또는 CCLM 모드가 적용되는지를 나타낼 수 있다. 다음 중 하나 이상이 적용될 수 있다. 플래그가 참으로 설정될 때, 예를 들면, 루마 성분의 동일한 인트라 모드가 크로마 인트라 예측 샘플을 생성하는 데 재사용되도록, DM 모드가 크로마 성분에 적용될 수 있다. 플래그가 거짓(false)으로 설정될 때, CCLM 모드가 크로마 샘플의 인트라 예측에 적용될 수 있으며, 예를 들어, 크로마 인트라 예측 샘플은 선형 모드에 기초하여 서브샘플링된 루마 재구성 샘플로부터 생성될 것이다.
인터 및 인트라 결합 예측은 다른 코딩 도구와 상호작용할 수 있다. CU가 병합 모드(예를 들면, 종래의 병합 모드)에 의해 코딩될 때 인터 및 인트라 결합 예측이 인에이블될 수 있다. 인터 및 인트라 결합 예측 모드는 (예를 들면, 아핀 병합, ATMVP 및 삼각형 예측을 포함한) 하나 이상의 다른 인터 코딩 도구와 상호작용할 수 있다. 인터 및 인트라 결합 예측 모드와 하나 이상의 다른 인터 코딩 도구 간의 상호작용(들)(예를 들면, 상호작용의 시너지)이 개선될 수 있다. 다음 중 하나 이상이 적용될 수 있다.
서브 블록 병합 모드에 대해 인터 및 인트라 결합 예측이 인에이블될 수 있다. 모션 정보는 서브 블록 레벨에서 유도될 수 있다. 예를 들어, 모션 정보의 서브 블록 유도는 서브 블록 병합 모드, 예를 들면, ATMVP 및 아핀 모드를 통해 인에이블될 수 있다. 예에서, (예를 들면, 서브 블록 모드에 의해 예측되는 CU에 대해) 인터 및 인트라 결합 예측이 디스에이블될 수 있다. 서브 블록 모션 정보는 (예를 들면, 아핀 병합 모드에서) 하나 이상의 공간적 이웃으로부터 유도(예를 들면, 전적으로 유도됨)될 수 있다. 서브 블록 모션 정보는 (예를 들면, ATMVP 모드에서) 하나 이상의 시간적 이웃으로부터 유도될 수 있다. 서브 블록 모션 정보는 현재 CU의 예측 샘플을 생성하기에 충분히 정확하지 않을 수 있다. 서브 블록 병합 모드에 대한 인터 및 인트라 결합 예측이 인에이블될 수 있다. 예에서, 인터 및 인트라 결합 모드는 ATMVP 모드에 대해 인에이블(예를 들면, 단지 인에이블)될 수 있고, 아핀 병합 모드에 대해 디스에이블(예를 들면, 항상 디스에이블)될 수 있다. 예를 들어, 인터 및 인트라 결합 예측을 인에이블시키기 하기 위해, 인터 및 인트라 결합 예측 플래그가 시그널링될 수 있다. 인터 및 인트라 결합 예측 플래그는 서브 블록 병합 인덱스 이후에 시그널링될 수 있다. 서브 블록 병합 인덱스가 아핀 후보를 참조할 때, 인터 및 인트라 결합 예측 플래그는 스킵될 수 있다. 서브 블록 병합 인덱스가 아핀 후보를 참조할 때, 인터 및 인트라 결합 예측 플래그는 거짓인 것으로, 예를 들어, 인터/인트라 결합 예측을 디스에이블시키는 것으로 추론될 수 있다. 서브 블록 병합 인덱스가 ATMVP 후보를 참조하는 경우, 현재 CU에 대해 인터 및 인트라 결합 예측이 인에이블되는지 여부를 나타내기 위해 인터/인트라 결합 플래그가 시그널링될 수 있다.
삼각형 모드(예를 들면, 삼각형 병합 모드)에 대해 인터 및 인트라 결합 예측이 인에이블될 수 있다. 삼각형 예측에서, 현재 CU 내의 PU(예를 들면, 각각의 PU)는 현재 CU에 대한 단방향 예측 후보 목록으로부터의 MV(예를 들면, 모션 벡터 후보)를 사용하여 인터 예측될 수 있다. 단방향 예측 후보 목록 내의 MV 후보는, CU의 모션을 기술하기에 충분히 정확하지 않을 수 있는, 현재 CU의 공간적으로 및/또는 시간적으로 이웃하는 블록으로부터 유도될 수 있다. 인터 및 인트라 결합 예측은, 예를 들어, 삼각형 인터 예측의 효율을 개선시키기 위해, 삼각형 예측 모드를 위한 것일 수 있다. 하나 이상의(예를 들면, 2 개의) PU에 대해 인트라 예측 모드(예를 들면, 단일 인트라 예측 모드)가 시그널링될 수 있다. 예를 들면, 각각의 PU에 대해 개별적으로, 인트라 예측 모드가 시그널링될 수 있다.
인터 및 인트라 결합 예측 및/또는 MMVD 모드에 대해 삼각형 모드가 디스에이블될 수 있다. 삼각형 모드는 삼각형 병합 모드라고 지칭될 수 있다. CIIP가 적용되지 않고 MMVD 모드가 사용되지 않을 때 삼각형 병합 모드가 인에이블될 수 있다. 예를 들어, 비디오 코딩 디바이스(예를 들면, 도 1에 도시된 바와 같이 구성된 인코더)는 삼각형 병합 모드를 인에이블시킬지 여부를 결정할 수 있다. 인코더가 삼각형 병합 모드를 인에이블시키기로 결정할 때, 인코더는 CIIP를 적용하지 않고 MMVD 모드를 사용하지 않기로 결정할 수 있다. 예를 들어, 비디오 코딩 디바이스는 삼각형 병합 모드 표시(예를 들면, 삼각형 병합 모드 플래그)를 수신하지 않고 삼각형 병합 모드를 인에이블시킬 수 있다. 비디오 코딩 디바이스(예를 들면, 도 3에 도시된 바와 같이 구성된 디코더)는 MMVD 모드 표시(예를 들면, MMVD 플래그)를 수신할 수 있다. 예를 들어, 인코더는 MMVD 모드 표시를 비디오 코딩 디바이스로 송신할 수 있다. 비디오 코딩 디바이스는 (예를 들면, 도 13a 내지 도 13d에 도시된 WTRU(102)와 같은) WTRU일 수 있다. 비디오 코딩 디바이스는 (예를 들면, 도 13a 내지 도 13d에 도시된 WTRU(102)와 같은) WTRU를 포함할 수 있다. MMVD 모드 표시는 CU의 인터 예측을 생성하기 위해 MMVD 모드가 사용되는지 여부를 나타낼 수 있다. MMVD 모드 표시는 코딩 유닛별로 수신될 수 있다. 비디오 코딩 디바이스는 CIIP(combined inter merge/intra prediction) 표시(예를 들면, CIIP 플래그)를 수신할 수 있다. 예를 들어, 인코더는 CIIP 표시를 비디오 코딩 디바이스로 송신할 수 있다. MMVD 모드 표시가 CU에 대해 MMVD 모드가 사용된다는 것을 나타낼 때 CIIP 표시가 수신되지 않을 수 있다. CIIP 표시는 CU에 대해 CIIP가 적용되는지 여부를 나타낼 수 있다.
예에서, 삼각형 병합 플래그는, 예를 들어, 서브 블록 병합 플래그, 인터/인트라 결합 플래그, 및/또는 MMVD 플래그 이후에 시그널링될 수 있다. 위의 플래그들 중 하나 이상이 참으로 설정되어 있는 경우, 삼각형 플래그가 시그널링되지 않을 수 있다. CIIP 표시가 CU에 대해 CIIP가 적용된다는 것을 나타낼 때, 삼각형 병합 플래그가 시그널링되지 않을 수 있다. 예를 들어, CIIP 표시가 CU에 대해 CIIP가 적용된다는 것을 나타낼 때 인코더는 비디오 코딩 디바이스(예를 들면, 디코더)에 대한 메시지에 삼각형 병합 플래그를 포함시키지 않기로 결정할 수 있다. MMVD 모드 표시가 MMVD 모드가 인터 예측을 생성하는 데 사용된다는 것을 나타낼 때, 삼각형 병합 플래그가 시그널링되지 않을 수 있다. 예를 들어, MMVD 모드 표시가 MMVD 모드가 인터 예측을 생성하는 데 사용된다는 것을 나타낼 때, 인코더는 비디오 코딩 디바이스(예를 들면, 디코더)에 대한 메시지에 삼각형 병합 플래그를 포함시키지 않기로 결정할 수 있다. 삼각형 병합 플래그가 시그널링되지 않을 때, 삼각형 병합 플래그는 거짓인 것으로(예를 들면, 삼각형 모드를 디스에이블시키는 것으로) 유추될 수 있다. 예를 들어, 비디오 코딩 디바이스는 MMVD 모드 표시 및/또는 CIIP 표시에 기초하여 CU에 대한 삼각형 병합 모드를 인에이블시킬지 여부를 추론할 수 있다. 예를 들어, MMVD 모드 표시가 MMVD 모드가 인터 예측을 생성하는 데 사용된다는 것을 나타낼 때, 비디오 코딩 디바이스는 CU에 대한 삼각형 병합 모드를 디스에이블시킬 수 있다. 예를 들어, CIIP 표시가 CU에 대해 CIIP가 적용된다는 것을 나타낼 때, 비디오 코딩 디바이스는 삼각형 병합 모드를 디스에이블시킬 수 있다. 3 개의 플래그가 거짓으로 설정되는 경우, 예를 들어, 삼각형 모드가 현재 CU에 적용되는지 여부를 나타내기 위해 삼각형 플래그가 시그널링될 수 있다.
도 13a는 하나 이상의 개시된 실시예가 구현될 수 있는 예시적인 통신 시스템(100)을 예시하는 시스템 다이어그램이다. 통신 시스템(100)은, 음성, 데이터, 비디오, 메시징, 방송 등과 같은, 콘텐츠를 다수의 무선 사용자들에게 제공하는 다중 액세스 시스템(multiple access system)일 수 있다. 통신 시스템(100)은 다수의 무선 사용자들이, 무선 대역폭을 포함한, 시스템 자원들의 공유를 통해 그러한 콘텐츠에 액세스하는 것을 가능하게 할 수 있다. 예를 들어, 통신 시스템(100)은, CDMA(code division multiple access), TDMA(time division multiple access), FDMA(frequency division multiple access), OFDMA(orthogonal FDMA), SC-FDMA(single-carrier FDMA), ZT UW DTS-s OFDM(zero-tail unique-word DFT-Spread OFDM), UW-OFDM(unique word OFDM), 자원 블록 필터링된 OFDM(resource block-filtered OFDM), FBMC(filter bank multicarrier) 등과 같은, 하나 이상의 채널 액세스 방법을 이용할 수 있다.
도 13a에 도시된 바와 같이, 통신 시스템(100)은 WTRU들(wireless transmit/receive units)(102a, 102b, 102c, 102d), RAN(104/113), CN(106/115), PSTN(public switched telephone network)(108), 인터넷(110), 및 다른 네트워크들(112)을 포함할 수 있지만, 개시된 실시예들이 임의의 수의 WTRU들, 기지국들, 네트워크들, 및/또는 네트워크 요소들을 고려하고 있음이 이해될 것이다. WTRU들(102a, 102b, 102c, 102d) 각각은 무선 환경에서 동작하고/하거나 통신하도록 구성된 임의의 유형의 디바이스일 수 있다. 예로서, WTRU들(102a, 102b, 102c, 102d) - 그 중 임의의 것은 "스테이션" 및/또는 "STA"이라고 지칭될 수 있음 - 은 무선 신호들을 전송 및/또는 수신하도록 구성될 수 있으며, UE(user equipment), 이동국, 고정 또는 이동 가입자 유닛, 가입 기반 유닛, 페이저, 셀룰러 전화, PDA(personal digital assistant), 스마트폰, 랩톱, 넷북, 개인용 컴퓨터, 무선 센서, 핫스폿 또는 Mi-Fi 디바이스, IoT(Internet of Things) 디바이스, 시계 또는 다른 웨어러블, HMD(head-mounted display), 차량, 드론, 의료 디바이스 및 응용 분야들(예를 들면, 원격 수술), 산업 디바이스 및 응용 분야들(예를 들면, 산업 및/또는 자동화된 프로세싱 체인 콘텍스트들에서 동작하는 로봇 및/또는 다른 무선 디바이스들), 소비자 전자 디바이스, 상업 및/또는 산업 무선 네트워크들 상에서 동작하는 디바이스 등을 포함할 수 있다. WTRU들(102a, 102b, 102c 및 102d) 중 임의의 것은 상호 교환 가능하게 UE라고 지칭될 수 있다.
통신 시스템(100)은 기지국(114a) 및/또는 기지국(114b)을 또한 포함할 수 있다. 기지국들(114a, 114b) 각각은, CN(106/115), 인터넷(110), 및/또는 다른 네트워크들(112)과 같은, 하나 이상의 통신 네트워크에 대한 액세스를 용이하게 하기 위해 WTRU들(102a, 102b, 102c, 102d) 중 적어도 하나와 무선으로 인터페이싱하도록 구성된 임의의 유형의 디바이스일 수 있다. 예로서, 기지국들(114a, 114b)은 BTS(base transceiver station), Node-B, eNode B, Home Node B, Home eNode B, gNB, NR NodeB, 사이트 제어기(site controller), AP(access point), 무선 라우터(wireless router) 등일 수 있다. 기지국들(114a, 114b)이 각각 단일 요소로서 묘사되어 있지만, 기지국들(114a, 114b)이 임의의 수의 상호연결된 기지국들 및/또는 네트워크 요소들을 포함할 수 있다는 것이 이해될 것이다.
기지국(114a)은, BSC(base station controller), RNC(radio network controller), 릴레이 노드들(relay nodes) 등과 같은, 다른 기지국들 및/또는 네트워크 요소들(도시되지 않음)을 또한 포함할 수 있는 RAN(104/113)의 일부일 수 있다. 기지국(114a) 및/또는 기지국(114b)은, 셀(cell)(도시되지 않음)이라고 지칭될 수 있는, 하나 이상의 캐리어 주파수 상에서 무선 신호들을 전송 및/또는 수신하도록 구성될 수 있다. 이러한 주파수들은 면허 스펙트럼(licensed spectrum), 비면허 스펙트럼(unlicensed spectrum), 또는 면허 스펙트럼과 비면허 스펙트럼의 조합에 있을 수 있다. 셀은 상대적으로 고정될 수 있거나 시간에 따라 변할 수 있는 특정 지리적 영역에 대한 무선 서비스를 위한 커버리지를 제공할 수 있다. 셀은 셀 섹터들(cell sectors)로 추가로 분할될 수 있다. 예를 들어, 기지국(114a)과 연관된 셀이 3개의 섹터로 분할될 수 있다. 따라서, 일 실시예에서, 기지국(114a)은, 즉, 셀의 각각의 섹터에 대해 하나씩, 3 개의 트랜시버를 포함할 수 있다. 일 실시예에서, 기지국(114a)은 MIMO(multiple-input multiple-output) 기술을 이용할 수 있고, 셀의 각각의 섹터에 대해 다수의 트랜시버들을 활용할 수 있다. 예를 들어, 빔포밍은 신호들을 원하는 공간 방향들로 전송 및/또는 수신하는 데 사용될 수 있다.
기지국들(114a, 114b)은 임의의 적합한 무선 통신 링크(예를 들면, RF(radio frequency), 마이크로파, 센티미터 파, 마이크로미터 파, IR(infrared), UV(ultraviolet), 가시 광 등)일 수 있는, 에어 인터페이스(air interface)(116)를 통해 WTRU들(102a, 102b, 102c, 102d) 중 하나 이상과 통신할 수 있다. 에어 인터페이스(116)는 임의의 적합한 RAT(radio access technology)를 사용하여 확립될 수 있다.
보다 구체적으로, 위에서 언급된 바와 같이, 통신 시스템(100)은 다중 액세스 시스템일 수 있고, CDMA, TDMA, FDMA, OFDMA, SC-FDMA 등과 같은, 하나 이상의 채널 액세스 방식을 이용할 수 있다. 예를 들어, RAN(104/113) 내의 기지국(114a) 및 WTRU들(102a, 102b, 102c)은, WCDMA(wideband CDMA)를 사용하여 에어 인터페이스(115/116/117)를 확립할 수 있는, UTRA(Universal Mobile Telecommunications System (UMTS) Terrestrial Radio Access)와 같은 무선 기술(radio technology)을 구현할 수 있다. WCDMA는 HSPA(High-Speed Packet Access) 및/또는 HSPA+(Evolved HSPA)와 같은 통신 프로토콜들을 포함할 수 있다. HSPA는 HSDPA(High-Speed Downlink (DL) Packet Access) 및/또는 HSUPA(High-Speed UL Packet Access)를 포함할 수 있다.
일 실시예에서, 기지국(114a) 및 WTRU들(102a, 102b, 102c)은, LTE(Long Term Evolution) 및/또는 LTE-A(LTE-Advanced) 및/또는 LTE-A Pro(LTE-Advanced Pro)를 사용하여 에어 인터페이스(116)를 확립할 수 있는, E-UTRA(Evolved UMTS Terrestrial Radio Access)와 같은 무선 기술을 구현할 수 있다.
일 실시예에서, 기지국(114a) 및 WTRU들(102a, 102b, 102c)은, NR(New Radio)을 사용하여 에어 인터페이스(116)를 확립할 수 있는, NR 무선 액세스(NR Radio Access)와 같은 무선 기술을 구현할 수 있다.
일 실시예에서, 기지국(114a) 및 WTRU들(102a, 102b, 102c)은 다수의 무선 액세스 기술들을 구현할 수 있다. 예를 들어, 기지국(114a) 및 WTRU들(102a, 102b, 102c)은, 예를 들어, DC(dual connectivity) 원리들을 사용하여, LTE 무선 액세스와 NR 무선 액세스를 함께 구현할 수 있다. 따라서, WTRU들(102a, 102b, 102c)에 의해 활용되는 에어 인터페이스는 다수의 유형의 기지국들(예를 들면, eNB 및 gNB)로/로부터 송신되는 다수의 유형의 무선 액세스 기술들 및/또는 전송들에 의해 특징지어질 수 있다.
다른 실시예들에서, 기지국(114a) 및 WTRU들(102a, 102b, 102c)은 IEEE 802.11(즉, WiFi(Wireless Fidelity)), IEEE 802.16(즉, WiMAX(Worldwide Interoperability for Microwave Access)), CDMA2000, CDMA2000 1X, CDMA2000 EV-DO, IS-2000(Interim Standard 2000), IS-95(Interim Standard 95), IS-856(Interim Standard 856), GSM(Global System for Mobile communications), EDGE(Enhanced Data rates for GSM Evolution), GSM EDGE(GERAN) 등과 같은 무선 기술들을 구현할 수 있다.
도 13a에서의 기지국(114b)은, 예를 들어, 무선 라우터, Home Node B, Home eNode B, 또는 액세스 포인트일 수 있고, 사업장, 가정, 차량, 캠퍼스, 산업 시설, (예를 들면, 드론들이 사용할) 공중 회랑(air corridor), 도로 등과 같은, 로컬화된 영역에서의 무선 연결성을 용이하게 하기 위한 임의의 적합한 RAT를 활용할 수 있다. 일 실시예에서, 기지국(114b)과 WTRU들(102c, 102d)은 WLAN(wireless local area network)을 확립하기 위해 IEEE 802.11과 같은 무선 기술을 구현할 수 있다. 일 실시예에서, 기지국(114b)과 WTRU들(102c, 102d)은 WPAN(wireless personal area network)을 확립하기 위해 IEEE 802.15와 같은 무선 기술을 구현할 수 있다. 또 다른 실시예에서, 기지국(114b)과 WTRU들(102c, 102d)은 피코셀(picocell) 또는 펨토셀(femtocell)을 확립하기 위해 셀룰러 기반 RAT(예를 들면, WCDMA, CDMA2000, GSM, LTE, LTE-A, LTE-A Pro, NR 등)를 활용할 수 있다. 도 13a에 도시된 바와 같이, 기지국(114b)은 인터넷(110)에 대한 직접 연결(direct connection)을 가질 수 있다. 따라서, 기지국(114b)은 CN(106/115)을 통해 인터넷(110)에 액세스할 필요가 없을 수 있다.
RAN(104/113)은, 음성, 데이터, 애플리케이션들, 및/또는 VoIP(voice over internet protocol) 서비스들을 WTRU들(102a, 102b, 102c, 102d) 중 하나 이상에 제공하도록 구성된 임의의 유형의 네트워크일 수 있는, CN(106/115)과 통신할 수 있다. 데이터는, 상이한 처리량 요구사항, 지연 요구사항, 허용 오차(error tolerance) 요구사항, 신뢰도 요구사항, 데이터 처리량 요구사항, 이동성 요구사항 등과 같은, 다양한 QoS(Quality of Service) 요구사항을 가질 수 있다. CN(106/115)은 호 제어(call control), 빌링(billing) 서비스, 모바일 위치 기반 서비스, 선불 전화(pre-paid calling), 인터넷 연결성, 비디오 배포 등을 제공할수 있고/있거나, 사용자 인증과 같은, 상위 레벨 보안 기능을 수행할 수 있다. 비록 도 13a에 도시되어 있지는 않지만, RAN(104/113) 및/또는 CN(106/115)이 RAN(104/113)과 동일한 RAT 또는 상이한 RAT를 이용하는 다른 RAN들과 직접 또는 간접 통신을 할 수 있다는 것이 이해될 것이다. 예를 들어, NR 무선 기술을 활용하고 있을 수 있는 RAN(104/113)에 연결되는 것 외에도, CN(106/115)은 또한 GSM, UMTS, CDMA 2000, WiMAX, E-UTRA, 또는 WiFi 무선 기술을 이용하는 다른 RAN(도시되지 않음)과 통신할 수 있다.
CN(106/115)은 또한 WTRU들(102a, 102b, 102c, 102d)이 PSTN(108), 인터넷(110), 및/또는 다른 네트워크들(112)에 액세스하기 위한 게이트웨이로서 역할할 수 있다. PSTN(108)은 POTS(plain old telephone service)를 제공하는 회선 교환 전화 네트워크들을 포함할 수 있다. 인터넷(110)은 TCP/IP 인터넷 프로토콜 스위트 내의 TCP(transmission control protocol), UDP(user datagram protocol) 및/또는 IP(internet protocol)와 같은, 공통의 통신 프로토콜들을 사용하는 상호연결된 컴퓨터 네트워크들 및 디바이스들의 글로벌 시스템을 포함할 수 있다. 네트워크들(112)은 다른 서비스 제공자들에 의해 소유 및/또는 운영되는 유선 및/또는 무선 통신 네트워크들을 포함할 수 있다. 예를 들어, 네트워크들(112)은, RAN(104/113)과 동일한 RAT 또는 상이한 RAT를 이용할 수 있는, 하나 이상의 RAN에 연결된 다른 CN을 포함할 수 있다.
통신 시스템(100) 내의 WTRU들(102a, 102b, 102c, 102d)의 일부 또는 전부는 다중 모드 능력을 포함할 수 있다(예를 들면, WTRU들(102a, 102b, 102c, 102d)은 상이한 무선 링크들을 통해 상이한 무선 네트워크들과 통신하기 위한 다수의 트랜시버들을 포함할 수 있다). 예를 들어, 도 13a에 도시된 WTRU(102c)는 셀룰러 기반 무선 기술을 이용할 수 있는 기지국(114a)과 통신하도록, 그리고 IEEE 802 무선 기술을 이용할 수 있는 기지국(114b)과 통신하도록 구성될 수 있다.
도 13b는 예시적인 WTRU(102)를 예시하는 시스템 다이어그램이다. 도 13b에 도시된 바와 같이, WTRU(102)는, 그 중에서도, 프로세서(118), 트랜시버(120), 송수신 요소(transmit/receive element)(122), 스피커/마이크로폰(124), 키패드(126), 디스플레이/터치패드(128), 비이동식 메모리(130), 이동식 메모리(132), 전원(134), GPS(global positioning system) 칩세트(136), 및/또는 다른 주변기기들(138)을 포함할 수 있다. 실시예와 부합한 채로 있으면서 WTRU(102)가 전술한 요소들의 임의의 하위 조합(sub-combination)을 포함할 수 있다는 것이 이해될 것이다.
프로세서(118)는 범용 프로세서, 특수 목적 프로세서, 종래의 프로세서, DSP(digital signal processor), 복수의 마이크로프로세서들, DSP 코어와 연관된 하나 이상의 마이크로프로세서, 제어기, 마이크로컨트롤러, ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 회로, 임의의 다른 유형의 IC(integrated circuit), 상태 머신 등일 수 있다. 프로세서(118)는 WTRU(102)가 무선 환경에서 동작하는 것을 가능하게 하는 신호 코딩, 데이터 프로세싱, 전력 제어, 입출력 프로세싱, 및/또는 임의의 다른 기능성을 수행할 수 있다. 프로세서(118)는 트랜시버(120)에 결합될 수 있고, 트랜시버(120)는 송수신 요소(122)에 결합될 수 있다. 도 13b가 프로세서(118)와 트랜시버(120)를 별개의 컴포넌트들로서 묘사하고 있지만, 프로세서(118)와 트랜시버(120)가 전자 패키지 또는 칩에 함께 통합될 수 있다는 것이 이해될 것이다.
송수신 요소(122)는 에어 인터페이스(116)를 통해 기지국(예를 들면, 기지국(114a))으로 신호들을 전송하거나 기지국으로부터 신호들을 수신하도록 구성될 수 있다. 예를 들어, 일 실시예에서, 송수신 요소(122)는 RF 신호들을 전송 및/또는 수신하도록 구성된 안테나일 수 있다. 일 실시예에서, 송수신 요소(122)는, 예를 들어, IR, UV, 또는 가시 광 신호들을 전송 및/또는 수신하도록 구성된 방출기/검출기(emitter/detector)일 수 있다. 또 다른 실시예에서, 송수신 요소(122)는 RF 및 광 신호들 둘 모두를 전송 및/또는 수신하도록 구성될 수 있다. 송수신 요소(122)가 무선 신호들의 임의의 조합을 전송 및/또는 수신하도록 구성될 수 있음이 이해될 것이다.
비록 송수신 요소(122)가 도 13b에서 단일 요소로서 묘사되어 있지만, WTRU(102)는 임의의 수의 송수신 요소들(122)을 포함할 수 있다. 보다 구체적으로는, WTRU(102)는 MIMO 기술을 이용할 수 있다. 따라서, 일 실시예에서, WTRU(102)는 에어 인터페이스(116)를 통해 무선 신호들을 전송 및 수신하기 위한 2 개 이상의 송수신 요소(122)(예를 들면, 다수의 안테나들)를 포함할 수 있다.
트랜시버(120)는 송수신 요소(122)에 의해 전송되어야 하는 신호들을 변조하도록 그리고 송수신 요소(122)에 의해 수신되는 신호들을 복조하도록 구성될 수 있다. 위에서 언급된 바와 같이, WTRU(102)는 다중 모드 능력을 가질 수 있다. 따라서, 트랜시버(120)는 WTRU(102)가, 예를 들어, NR 및 IEEE 802.11과 같은, 다수의 RAT들을 통해 통신하는 것을 가능하게 하기 위해 다수의 트랜시버들을 포함할 수 있다.
WTRU(102)의 프로세서(118)는 스피커/마이크로폰(124), 키패드(126), 및/또는 디스플레이/터치패드(128)(예를 들면, LCD(liquid crystal display) 디스플레이 유닛 또는 OLED(organic light-emitting diode) 디스플레이 유닛)에 결합될 수 있고 이들로부터 사용자 입력 데이터를 수신할 수 있다. 프로세서(118)는 또한 사용자 데이터를 스피커/마이크로폰(124), 키패드(126), 및/또는 디스플레이/터치패드(128)에 출력할 수 있다. 추가적으로, 프로세서(118)는, 비이동식 메모리(130) 및/또는 이동식 메모리(132)와 같은, 임의의 유형의 적합한 메모리로부터의 정보에 액세스하고 그에 데이터를 저장할 수 있다. 비이동식 메모리(130)는 RAM(random-access memory), ROM(read-only memory), 하드 디스크, 또는 임의의 다른 유형의 메모리 저장 디바이스를 포함할 수 있다. 이동식 메모리(132)는 SIM(subscriber identity module) 카드, 메모리 스틱, SD(secure digital) 메모리 카드 등을 포함할 수 있다. 다른 실시예들에서, 프로세서(118)는 WTRU(102) 상에, 예컨대, 서버 또는 홈 컴퓨터(도시되지 않음) 상에 물리적으로 위치하지 않은 메모리로부터의 정보에 액세스하고 그에 데이터를 저장할 수 있다.
프로세서(118)는 전원(134)으로부터 전력을 받을 수 있고, WTRU(102) 내의 다른 컴포넌트들에 전력을 분배하고/하거나 전력을 제어하도록 구성될 수 있다. 전원(134)은 WTRU(102)에 전력을 공급하기 위한 임의의 적합한 디바이스일 수 있다. 예를 들어, 전원(134)은 하나 이상의 건전지 배터리(예컨대, 니켈 카드뮴(NiCd), 니켈 아연(NiZn), 니켈 금속 수소화물(NiMH), 리튬 이온(Li 이온) 등), 태양 전지, 연료 전지 등을 포함할 수 있다.
프로세서(118)는 또한 WTRU(102)의 현재 위치에 관한 위치 정보(예를 들면, 경도 및 위도)를 제공하도록 구성될 수 있는 GPS 칩세트(136)에 결합될 수 있다. GPS 칩세트(136)로부터의 정보 외에도 또는 그 대신에, WTRU(102)는 기지국(예를 들면, 기지국들(114a, 114b))으로부터 에어 인터페이스(116)를 통해 위치 정보를 수신할 수 있고/있거나 신호들이 2 개 이상의 인근 기지국으로부터 수신되는 타이밍에 기초하여 그의 위치를 결정할 수 있다. WTRU(102)가 실시예와 부합한 채로 있으면서 임의의 적합한 위치 결정 방법에 의해 위치 정보를 취득할 수 있음이 이해될 것이다.
프로세서(118)는, 추가적인 특징들, 기능성 및/또는 유선 또는 무선 연결성을 제공하는 하나 이상의 소프트웨어 및/또는 하드웨어 모듈을 포함할 수 있는, 다른 주변기기들(138)에 더 결합될 수 있다. 예를 들어, 주변기기들(138)은 가속도계, e-나침반(e-compass), 위성 트랜시버, (사진 및/또는 비디오를 위한) 디지털 카메라, USB(universal serial bus) 포트, 진동 디바이스, 텔레비전 트랜시버, 핸즈프리 헤드셋, 블루투스® 모듈, FM(frequency modulated) 라디오 유닛, 디지털 음악 플레이어, 미디어 플레이어, 비디오 게임 플레이어 모듈, 인터넷 브라우저, 가상 현실(VR) 및/또는 증강 현실(AR) 디바이스, 활동 추적기(activity tracker) 등을 포함할 수 있다. 주변기기들(138)은 하나 이상의 센서를 포함할 수 있고, 센서들은 자이로스코프, 가속도계, 홀 효과 센서, 자력계, 배향 센서, 근접 센서, 온도 센서, 시간 센서; 지오로케이션 센서; 고도계, 광 센서, 터치 센서, 자력계, 기압계, 제스처 센서, 생체측정 센서, 및/또는 습도 센서 중 하나 이상일 수 있다.
WTRU(102)는 (예를 들면, (예를 들면, 전송을 위한) UL 및 (예를 들면, 수신을 위한) 다운링크 둘 모두에 대한 특정 서브프레임들과 연관된)) 신호들의 일부 또는 전부의 전송 및 수신이 동시발생적(concurrent)이고/이거나 동시적(simultaneous)일 수 있는 전이중 무선(full duplex radio)을 포함할 수 있다. 전이중 무선은 하드웨어(예를 들면, 초크(choke)) 또는 프로세서(예컨대, 별개의 프로세서(도시되지 않음) 또는 프로세서(118))를 통한 신호 프로세싱 중 어느 하나를 통한 자기 간섭(self-interference)을 감소시키고/시키거나 실질적으로 제거하기 위한 간섭 관리 유닛을 포함할 수 있다. 실시예에서, WTRU(102)는 (예를 들면, (예를 들면, 전송을 위한) UL 또는 (예를 들면, 수신을 위한) 다운링크 중 어느 하나에 대한 특정의 서브프레임들과 연관된) 신호들의 일부 또는 전부의 전송 및 수신이 이루어지는 반이중 무선(half-duplex radio)을 포함할 수 있다.
도 13c는 일 실시예에 따른 RAN(104) 및 CN(106)을 예시하는 시스템 다이어그램이다. 위에서 언급된 바와 같이, RAN(104)은 에어 인터페이스(116)를 통해 WTRU들(102a, 102b, 102c)과 통신하기 위해 E-UTRA 무선 기술을 이용할 수 있다. RAN(104)은 또한 CN(106)과 통신할 수 있다.
RAN(104)은 eNode-B들(160a, 160b, 160c)을 포함할 수 있지만, RAN(104)이 실시예와 부합한 채로 있으면서 임의의 수의 eNode-B들을 포함할 수 있다는 것이 이해될 것이다. eNode-B들(160a, 160b, 160c)은 각각 에어 인터페이스(116)를 통해 WTRU들(102a, 102b, 102c)과 통신하기 위한 하나 이상의 트랜시버를 포함할 수 있다. 일 실시예에서, eNode-B들(160a, 160b, 160c)은 MIMO 기술을 구현할 수 있다. 따라서, 예를 들어, eNode-B(160a)는 WTRU(102a)로 무선 신호들을 전송하고/하거나 그로부터 무선 신호들을 수신하기 위해 다수의 안테나들을 사용할 수 있다.
eNode-B들(160a, 160b, 160c) 각각은 특정 셀(도시되지 않음)과 연관될 수 있고, 무선 자원 관리 결정, 핸드오버 결정, UL 및/또는 DL에서의 사용자들의 스케줄링 등을 처리하도록 구성될 수 있다. 도 13c에 도시된 바와 같이, eNode-B들(160a, 160b, 160c)은 X2 인터페이스를 통해 서로 통신할 수 있다.
도 13c에 도시된 CN(106)은 MME(mobility management gateway)(162), SGW(serving gateway)(164), 및 PGW(packet data network (PDN) gateway)(166)를 포함할 수 있다. 전술한 요소들 각각이 CN(106)의 일부로서 묘사되어 있지만, 이러한 요소들 중 임의의 것이 CN 운영자 이외의 엔티티에 의해 소유 및/또는 운영될 수 있다는 것이 이해될 것이다.
MME(162)는 S1 인터페이스를 통해 RAN(104) 내의 eNode-B들(162a, 162b, 162c) 각각에 연결될 수 있고, 제어 노드로서 역할할 수 있다. 예를 들어, MME(162)는 WTRU들(102a, 102b, 102c)의 사용자들을 인증하는 것, 베어러 활성화/비활성화, WTRU들(102a, 102b, 102c)의 초기 접속(initial attach) 동안 특정 서빙 게이트웨이를 선택하는 것 등을 담당할 수 있다. MME(162)는 RAN(104)과, GSM 또는 WCDMA와 같은, 다른 무선 기술들을 이용하는 다른 RAN들(도시되지 않음) 간에 전환하기 위한 제어 평면 기능(control plane function)을 제공할 수 있다.
SGW(164)는 S1 인터페이스를 통해 RAN(104) 내의 eNode-B들(160a, 160b, 160c) 각각에 연결될 수 있다. SGW(164)는 일반적으로 WTRU들(102a, 102b, 102c)로의/로부터의 사용자 데이터 패킷들을 라우팅 및 포워딩할 수 있다. SGW(164)는, eNode B 간 핸드오버(inter-eNode B handover) 동안 사용자 평면을 앵커링(anchoring)하는 것, WTRU들(102a, 102b, 102c)에 대해 DL 데이터가 이용 가능할 때 페이징(paging)을 트리거하는 것, WTRU들(102a, 102b, 102c)의 콘텍스트들을 관리하고 저장하는 것 등과 같은, 다른 기능들을 수행할 수 있다.
SGW(164)는, WTRU들(102a, 102b, 102c)과 IP 가능 디바이스들(IP-enabled devices) 사이의 통신을 용이하게 하기 위해, 인터넷(110)과 같은, 패킷 교환 네트워크들에 대한 액세스를 WTRU들(102a, 102b, 102c)에 제공할 수 있는 PGW(166)에 연결될 수 있다.
CN(106)은 다른 네트워크들과의 통신을 용이하게 할 수 있다. 예를 들어, CN(106)은, WTRU들(102a, 102b, 102c)과 전통적인 지상선(land-line) 통신 디바이스들 사이의 통신을 용이하게 하기 위해, PSTN(108)과 같은, 회선 교환 네트워크들에 대한 액세스를 WTRU들(102a, 102b, 102c)에 제공할 수 있다. 예를 들어, CN(106)은 CN(106)과 PSTN(108) 사이의 인터페이스로서 역할하는 IP 게이트웨이(예를 들면, IMS(IP multimedia subsystem) 서버)를 포함할 수 있거나 그와 통신할 수 있다. 추가적으로, CN(106)은, 다른 서비스 제공자들에 의해 소유 및/또는 운영되는 다른 유선 및/또는 무선 네트워크들을 포함할 수 있는, 다른 네트워크들(112)에 대한 액세스를 WTRU들(102a, 102b, 102c)에 제공할 수 있다.
비록 WTRU가 도 13a 내지 도 13d에서 무선 단말로서 기술되어 있지만, 특정 대표적인 실시예들에서 그러한 단말이 통신 네트워크와의 유선 통신 인터페이스들을 (예를 들면, 일시적으로 또는 영구적으로) 사용할 수 있는 것이 고려된다.
대표적인 실시예들에서, 다른 네트워크(112)는 WLAN일 수 있다.
인프라스트럭처 BSS(Basic Service Set) 모드에 있는 WLAN은 BSS에 대한 AP(Access Point) 및 AP와 연관된 하나 이상의 STA(station)을 가질 수 있다. AP는 BSS 내부로 그리고/또는 BSS 외부로 트래픽을 운반하는 DS(Distribution System) 또는 다른 유형의 유선/무선 네트워크에 대한 액세스 또는 인터페이스를 가질 수 있다. BSS 외부로부터 발신되는 STA들에 대한 트래픽은 AP를 통해 도착할 수 있고, STA들에 전달될 수 있다. STA들로부터 BSS 외부의 목적지들로 발신되는 트래픽은 각자의 목적지들에 전달되도록 AP로 송신될 수 있다. 예를 들어, 소스 STA이 트래픽을 AP로 송신할 수 있고 AP가 트래픽을 목적지 STA에 전달할 수 있는 경우, BSS 내의 STA들 사이의 트래픽은 AP를 통해 송신될 수 있다. BSS 내의 STA들 사이의 트래픽은 피어 투 피어 트래픽(peer-to-peer traffic)으로 간주 및/또는 지칭될 수 있다. 피어 투 피어 트래픽은 DLS(direct link setup)를 사용하여 소스 STA과 목적지 STA 사이에서(예를 들면, 이들 사이에서 직접) 송신될 수 있다. 특정 대표적인 실시예들에서, DLS는 802.11e DLS 또는 802.11z TDLS(tunneled DLS)를 사용할 수 있다. IBSS(Independent BSS) 모드를 사용하는 WLAN은 AP를 갖지 않을 수 있으며, IBSS 내의 또는 IBSS를 사용하는 STA들(예를 들면, STA들 전부)은 서로 직접 통신할 수 있다. IBSS 통신 모드는 때때로 본 명세서에서 "애드혹(ad-hoc)" 통신 모드라고 지칭될 수 있다.
802.11ac 인프라스트럭처 동작 모드 또는 유사한 동작 모드를 사용할 때, AP는, 프라이머리 채널(primary channel)과 같은, 고정 채널을 통해 비콘을 전송할 수 있다. 프라이머리 채널은 고정 폭(예를 들면, 20 MHz 폭의 대역폭)일 수 있거나 시그널링을 통해 동적으로 설정된 폭일 수 있다. 프라이머리 채널은 BSS의 동작 채널일 수 있고 AP와의 연결을 확립하기 위해 STA들에 의해 사용될 수 있다. 특정 대표적인 실시예들에서, CSMA/CA(Carrier Sense Multiple Access with Collision Avoidance)는, 예를 들어, 802.11 시스템들에서 구현될 수 있다. CSMA/CA의 경우, AP를 포함한, STA들(예를 들면, 모든 STA)이 프라이머리 채널을 감지할 수 있다. 프라이머리 채널이 특정 STA에 의해 비지인 것으로 감지/검출되고/되거나 결정되는 경우, 그 특정 STA은 백오프(back off)할 수 있다. 하나의 STA(예를 들면, 단지 하나의 스테이션)은 주어진 BSS에서 임의의 주어진 때에 전송할 수 있다.
HT(High Throughput) STA들은, 예를 들어, 40 MHz 폭의 채널을 형성하기 위해 프라이머리 20 MHz 채널과 인접 또는 비인접 20 MHz 채널의 결합(combination)을 통해, 통신을 위해 40 MHz 폭의 채널을 사용할 수 있다.
VHT(Very High Throughput) STA들은 20 MHz, 40 MHz, 80 MHz, 및/또는 160 MHz 폭의 채널들을 지원할 수 있다. 40 MHz, 및/또는 80 MHz 채널들은 연속적인 20 MHz 채널들을 결합시키는 것에 의해 형성될 수 있다. 160 MHz 채널은 8 개의 연속적인 20 MHz 채널을 결합시키는 것에 의해, 또는 80+80 구성이라고 지칭될 수 있는, 2 개의 비연속적인 80 MHz 채널을 결합시키는 것에 의해 형성될 수 있다. 80+80 구성의 경우, 데이터는, 채널 인코딩 이후에, 데이터를 2 개의 스트림으로 분할할 수 있는 세그먼트 파서(segment parser)를 통과할 수 있다. IFFT(Inverse Fast Fourier Transform) 프로세싱 및 시간 도메인 프로세싱이 각각의 스트림에 대해 개별적으로 행해질 수 있다. 스트림들은 2 개의 80 MHz 채널 상에 매핑될 수 있고, 데이터는 전송 STA(transmitting STA)에 의해 전송될 수 있다. 수신 STA(receiving STA)의 수신기에서, 80+80 구성에 대한 위에서 기술된 동작이 반대로 될 수 있고, 결합된 데이터가 MAC(Medium Access Control)으로 송신될 수 있다.
서브 1 GHz(Sub 1 GHz) 동작 모드는 802.11af 및 802.11ah에 의해 지원된다. 채널 동작 대역폭, 및 캐리어는 802.11n 및 802.11ac에서 사용되는 것에 비해 802.11af 및 802.11ah에서 감소된다. 802.11af는 TVWS(TV White Space) 스펙트럼에서의 5 MHz, 10 MHz, 및 20 MHz 대역폭들을 지원하며, 802.11ah는 비TVWS 스펙트럼(non-TVWS spectrum)을 사용하여 1 MHz, 2 MHz, 4 MHz, 8 MHz, 및 16 MHz 대역폭들을 지원한다. 대표적인 실시예에 따르면, 802.11ah는, 매크로 커버리지 영역에서의 MTC 디바이스들과 같은, 미터 유형 제어/머신 유형 통신(Meter Type Control/Machine-Type Communications)을 지원할 수 있다. MTC 디바이스들은 특정 능력, 예를 들어, 특정 및/또는 제한된 대역폭들에 대한 지원(예를 들면, 이들에 대한 지원만)을 포함한 제한된 능력을 가질 수 있다. MTC 디바이스들은 (예를 들면, 매우 긴 배터리 수명을 유지하기 위해) 임계치 초과의 배터리 수명을 갖는 배터리를 포함할 수 있다.
802.11n, 802.11ac, 802.11af, 및 802.11ah와 같은, 다수의 채널들 및 채널 대역폭들을 지원할 수 있는 WLAN 시스템들은 프라이머리 채널로서 지정될 수 있는 채널을 포함할 수 있다. 프라이머리 채널은 BSS 내의 모든 STA들에 의해 지원되는 최대 공통 동작 대역폭(largest common operating bandwidth)과 동일한 대역폭을 가질 수 있다. 프라이머리 채널의 대역폭은 최소 대역폭 동작 모드(smallest bandwidth operating mode)를 지원하는, BSS에서 동작하는 모든 STA들 중의, STA에 의해 설정 및/또는 제한될 수 있다. 802.11ah의 예에서, BSS 내의 AP 및 다른 STA들이 2 MHz, 4 MHz, 8 MHz, 16 MHz, 및/또는 다른 채널 대역폭 동작 모드들을 지원하더라도, 프라이머리 채널은 1 MHz 모드를 지원하는(예를 들면, 1 MHz 모드만을 지원하는) STA들(예를 들면, MTC 유형 디바이스들)에 대해 1 MHz 폭일 수 있다. 캐리어 감지 및/또는 NAV(Network Allocation Vector) 설정은 프라이머리 채널의 상태에 의존할 수 있다. 예를 들어, (1 MHz 동작 모드만을 지원하는) STA이 AP로 전송하는 것으로 인해, 프라이머리 채널이 비지인 경우, 대부분의 주파수 대역들이 유휴인 채로 있고 이용 가능할 수 있더라도 이용 가능한 주파수 대역들 전체가 비지인 것으로 간주될 수 있다.
미국에서는, 802.11ah에 의해 사용될 수 있는 이용 가능한 주파수 대역들이 902 MHz 내지 928 MHz이다. 한국에서는, 이용 가능한 주파수 대역들이 917.5 MHz 내지 923.5 MHz이다. 일본에서는, 이용 가능한 주파수 대역들이 916.5 MHz 내지 927.5 MHz이다. 802.11ah에 대해 이용 가능한 총 대역폭은 국가 코드에 따라 6 MHz 내지 26 MHz이다.
도 13d는 일 실시예에 따른 RAN(113) 및 CN(115)의 시스템 다이어그램이다. 위에서 언급된 바와 같이, RAN(113)은 에어 인터페이스(116)를 통해 WTRU들(102a, 102b, 및 102c)과 통신하기 위해 NR 무선 기술을 이용할 수 있다. RAN(113)은 또한 CN(115)과 통신할 수 있다.
RAN(113)은 gNB들(180a, 180b, 180c)을 포함할 수 있지만, RAN(113)이 실시예와 부합한 채로 있으면서 임의의 수의 gNB들을 포함할 수 있다는 것이 이해될 것이다. gNB들(180a, 180b, 180c)은 각각 에어 인터페이스(116)를 통해 WTRU들(102a, 102b, 102c)과 통신하기 위한 하나 이상의 트랜시버를 포함할 수 있다. 일 실시예에서, gNB들(180a, 180b, 180c)은 MIMO 기술을 구현할 수 있다. 예를 들어, gNB들(180a, 108b)은 gNB들(180a, 180b, 180c)로 신호들을 전송하고/하거나 그들로부터 신호들을 수신하기 위해 빔포밍을 활용할 수 있다. 따라서, 예를 들어, gNB(180a)는 WTRU(102a)로 무선 신호들을 전송하고/하거나 그로부터 무선 신호들을 수신하기 위해 다수의 안테나들을 사용할 수 있다. 일 실시예에서, gNB들(180a, 180b, 180c)은 캐리어 집성(carrier aggregation) 기술을 구현할 수 있다. 예를 들어, gNB(180a)는 다수의 컴포넌트 캐리어들을 WTRU(102a)(도시되지 않음)로 전송할 수 있다. 이러한 컴포넌트 캐리어들의 서브세트는 비면허 스펙트럼 상에 있을 수 있는 반면, 나머지 컴포넌트 캐리어들은 면허 스펙트럼 상에 있을 수 있다. 일 실시예에서, gNB들(180a, 180b, 180c)은 CoMP(Coordinated Multi-Point) 기술을 구현할 수 있다. 예를 들어, WTRU(102a)는 gNB(180a) 및 gNB(180b)(및/또는 gNB(180c))로부터 협력 전송들(coordinated transmissions)을 수신할 수 있다.
WTRU들(102a, 102b, 102c)은 확장 가능한 뉴머롤로지(scalable numerology)와 연관된 전송들을 사용하여 gNB들(180a, 180b, 180c)과 통신할 수 있다. 예를 들어, 상이한 전송들, 상이한 셀들, 및/또는 무선 전송 스펙트럼의 상이한 부분들에 대해 OFDM 심벌 간격 및/또는 OFDM 서브캐리어 간격이 달라질 수 있다. WTRU들(102a, 102b, 102c)은 (예를 들면, 다양한 수의 OFDM 심벌들을 포함하고/하거나 다양한 절대 시간 길이들을 지속하는) 다양한 또는 확장 가능한 길이들의 서브프레임 또는 전송 시간 간격들(TTI들)을 사용하여 gNB들(180a, 180b, 180c)과 통신할 수 있다.
gNB들(180a, 180b, 180c)은 독립형 구성(standalone configuration) 및/또는 비독립형 구성(non-standalone configuration)으로 WTRU들(102a, 102b, 102c)과 통신하도록 구성될 수 있다. 독립형 구성에서, WTRU들(102a, 102b, 102c)은 (예를 들면, eNode-B들(160a, 160b, 160c)과 같은) 다른 RAN들에도 액세스하는 일 없이 gNB들(180a, 180b, 180c)과 통신할 수 있다. 독립형 구성에서, WTRU들(102a, 102b, 102c)은 gNB들(180a, 180b, 180c) 중 하나 이상을 이동성 앵커 포인트(mobility anchor point)로서 활용할 수 있다. 독립형 구성에서, WTRU들(102a, 102b, 102c)은 비면허 대역에서의 신호들을 사용하여 gNB들(180a, 180b, 180c)과 통신할 수 있다. 비독립형 구성에서, WTRU들(102a, 102b, 102c)은 eNode-B들(160a, 160b, 160c)과 같은 다른 RAN과도 통신하고/그에 연결하는 동안 gNB들(180a, 180b, 180c)과 통신하고/그에 연결할 수 있다. 예를 들어, WTRU들(102a, 102b, 102c)은 하나 이상의 gNB(180a, 180b, 180c) 및 하나 이상의 eNodeB(160a, 160b, 160c)와 실질적으로 동시에 통신하기 위해 DC 원리들을 구현할 수 있다. 비독립형 구성에서, eNode-B들(160a, 160b, 160c)은 WTRU들(102a, 102b, 102c)에 대한 이동성 앵커로서 역할할 수 있으며, gNB들(180a, 180b, 180c)은 WTRU들(102a, 102b, 102c)을 서빙하기 위한 추가적인 커버리지 및/또는 처리량을 제공할 수 있다.
gNB들(180a, 180b, 180c) 각각은 특정 셀(도시되지 않음)과 연관될 수 있으며, 무선 자원 관리 결정, 핸드오버 결정, UL 및/또는 DL에서의 사용자들의 스케줄링, 네트워크 슬라이싱의 지원, 이중 연결성, NR과 E-UTRA 사이의 연동(interworking), UPF(User Plane Function)(184a, 184b)를 향한 사용자 평면 데이터의 라우팅, AMF(Access and Mobility Management Function)(182a, 182b)를 향한 제어 평면 정보의 라우팅 등을 처리하도록 구성될 수 있다. 도 13d에 도시된 바와 같이, gNB들(180a, 180b, 180c)은 Xn 인터페이스를 통해 서로 통신할 수 있다.
도 13d에 도시된 CN(115)은 적어도 하나의 AMF(182a, 182b), 적어도 하나의 UPF(184a, 184b), 적어도 하나의 SMF(Session Management Function)(183a, 183b), 및 어쩌면 DN(Data Network)(185a, 185b)을 포함할 수 있다. 전술한 요소들 각각이 CN(115)의 일부로서 묘사되어 있지만, 이러한 요소들 중 임의의 것이 CN 운영자 이외의 엔티티에 의해 소유 및/또는 운영될 수 있다는 것이 이해될 것이다.
AMF(182a, 182b)는 N2 인터페이스를 통해 RAN(113) 내의 gNB들(180a, 180b, 180c) 중 하나 이상에 연결될 수 있고, 제어 노드로서 역할할 수 있다. 예를 들어, AMF(182a, 182b)는 WTRU들(102a, 102b, 102c)의 사용자들을 인증하는 것, 네트워크 슬라이싱(예를 들면, 상이한 요구사항들을 갖는 상이한 PDU 세션들을 처리하는 것)에 대한 지원, 특정 SMF(183a, 183b)를 선택하는 것, 등록 영역(registration area)의 관리, NAS 시그널링의 종단(termination), 이동성 관리 등을 담당할 수 있다. 네트워크 슬라이싱은 WTRU들(102a, 102b, 102c)에 의해 활용되는 서비스 유형들에 기초하여 WTRU들(102a, 102b, 102c)에 대한 CN 지원을 맞춤화하기 위해 AMF(182a, 182b)에 의해 사용될 수 있다. 예를 들어, URLLC(ultra-reliable low latency) 액세스에 의존하는 서비스, eMBB(enhanced massive mobile broadband) 액세스에 의존하는 서비스, MTC(machine type communication) 액세스를 위한 서비스 등과 같은 상이한 사용 사례들에 대해 상이한 네트워크 슬라이스들이 확립될 수 있다. AMF(162)는 RAN(113)과, LTE, LTE-A, LTE-A Pro, 및/또는 WiFi와 같은 비-3GPP 액세스 기술들과 같은, 다른 무선 기술들을 이용하는 다른 RAN들(도시되지 않음) 간에 전환하기 위한 제어 평면 기능을 제공할 수 있다.
SMF(183a, 183b)는 N11 인터페이스를 통해 CN(115) 내의 AMF(182a, 182b)에 연결될 수 있다. SMF(183a, 183b)는 N4 인터페이스를 통해 CN(115) 내의 UPF(184a, 184b)에도 연결될 수 있다. SMF(183a, 183b)는 UPF(184a, 184b)를 선택 및 제어하며 UPF(184a, 184b)를 통한 트래픽의 라우팅을 구성할 수 있다. SMF(183a, 183b)는, UE IP 어드레스를 관리 및 할당하는 것, PDU 세션들을 관리하는 것, 정책 시행 및 QoS를 제어하는 것, 다운링크 데이터 통지들을 제공하는 것 등과 같은, 다른 기능들을 수행할 수 있다. PDU 세션 유형은 IP 기반, 비-IP 기반, 이더넷 기반 등일 수 있다.
UPF(184a, 184b)는, WTRU들(102a, 102b, 102c)과 IP 가능 디바이스들 사이의 통신을 용이하게 하기 위해, 인터넷(110)과 같은, 패킷 교환 네트워크들에 대한 액세스를 WTRU들(102a, 102b, 102c)에 제공할 수 있는, N3 인터페이스를 통해 RAN(113) 내의 gNB들(180a, 180b, 180c) 중 하나 이상에 연결될 수 있다. UPF(184, 184b)는, 패킷들을 라우팅 및 포워딩하는 것, 사용자 평면 정책들을 시행하는 것, 멀티호밍 기반(multi-homed) PDU 세션들을 지원하는 것, 사용자 평면 QoS를 처리하는 것, 다운링크 패킷들을 버퍼링하는 것, 이동성 앵커링을 제공하는 것 등과 같은, 다른 기능들을 수행할 수 있다.
CN(115)은 다른 네트워크들과의 통신을 용이하게 할 수 있다. 예를 들어, CN(115)은 CN(115)과 PSTN(108) 사이의 인터페이스로서 역할하는 IP 게이트웨이(예컨대, IMS(IP multimedia subsystem) 서버)를 포함할 수 있거나 그와 통신할 수 있다. 추가적으로, CN(115)은, 다른 서비스 제공자들에 의해 소유 및/또는 운영되는 다른 유선 및/또는 무선 네트워크들을 포함할 수 있는, 다른 네트워크들(112)에 대한 액세스를 WTRU들(102a, 102b, 102c)에 제공할 수 있다. 일 실시예에서, WTRU들(102a, 102b, 102c)은 UPF(184a, 184b)에 대한 N3 인터페이스 및 UPF(184a, 184b)와 DN(185a, 185b) 사이의 N6 인터페이스를 경유하여 UPF(184a, 184b)를 통해 로컬 데이터 네트워크(DN)(185a, 185b)에 연결될 수 있다.
도 13a 내지 도 13d, 및 도 13a 내지 도 13d의 대응하는 설명을 고려하여, WTRU(102a 내지 120d), 기지국(114a 및 114b), eNode-B(160a 내지 160c), MME(162), SGW(164), PGW(166), gNB(180a 내지 180c), AMF(182a 및 182b), UPF(184a 및 184b), SMF(183a 및 183b), DN(185a 및 185b), 및/또는 본 명세서에서 기술된 임의의 다른 디바이스(들) 중 하나 이상에 관해 본 명세서에서 기술된 기능들 중 하나 이상, 또는 전부는 하나 이상의 에뮬레이션 디바이스(도시되지 않음)에 의해 수행될 수 있다. 에뮬레이션 디바이스들은 본 명세서에서 기술된 기능들 중 하나 이상, 또는 전부를 에뮬레이션하도록 구성된 하나 이상의 디바이스일 수 있다. 예를 들어, 에뮬레이션 디바이스들은 다른 디바이스들을 테스트하는 데 그리고/또는 네트워크 및/또는 WTRU 기능들을 시뮬레이션하는 데 사용될 수 있다.
에뮬레이션 디바이스들은 랩 환경(lab environment)에 및/또는 운영자 네트워크 환경에 있는 다른 디바이스들의 하나 이상의 테스트를 구현하도록 설계될 수 있다. 예를 들어, 하나 이상의 에뮬레이션 디바이스는 통신 네트워크 내의 다른 디바이스들을 테스트하기 위해 유선 및/또는 무선 통신 네트워크의 일부로서 전체적으로 또는 부분적으로 구현 및/또는 배포되어 있으면서 하나 이상의 또는 모든 기능들을 수행할 수 있다. 하나 이상의 에뮬레이션 디바이스는 유선 및/또는 무선 통신 네트워크의 일부로서 일시적으로 구현/배포되어 있으면서 하나 이상의, 또는 모든 기능들을 수행할 수 있다. 에뮬레이션 디바이스는 오버 디 에어 무선 통신(over-the-air wireless communications)을 사용하여 테스트 및/또는 테스트를 수행하는 것을 목적으로 다른 디바이스에 직접 결합될 수 있다.
하나 이상의 에뮬레이션 디바이스는 유선 및/또는 무선 통신 네트워크의 일부로서 구현/배포되어 있지 않으면서 하나 이상의 기능 - 모든 기능들을 포함함 - 을 수행할 수 있다. 예를 들어, 에뮬레이션 디바이스들은 하나 이상의 컴포넌트의 테스트를 구현하기 위해 테스트 연구실 및/또는 비배포된(예를 들면, 테스트) 유선 및/또는 무선 통신 네트워크에서의 테스트 시나리오에서 활용될 수 있다. 하나 이상의 에뮬레이션 디바이스는 테스트 장비일 수 있다. (예를 들면, 하나 이상의 안테나를 포함할 수 있는) RF 회로부를 통한 직접 RF 결합 및/또는 무선 통신은 데이터를 전송 및/또는 수신하기 위해 에뮬레이션 디바이스들에 의해 사용될 수 있다.
본 명세서에 기술된 프로세스들 및/또는 기술들은 컴퓨터 및/또는 프로세서에 의해 실행하기 위한 컴퓨터 판독 가능 매체에 포함된 컴퓨터 프로그램, 소프트웨어, 및/또는 펌웨어로 구현될 수 있다. 컴퓨터 판독 가능 매체의 예는 (유선 및/또는 무선 연결들을 통해 전송되는) 전자 신호들 및 컴퓨터 판독 가능 저장 매체를 포함하지만, 이에 제한되지 않는다. 컴퓨터 판독 가능 저장 매체의 예는 ROM(read only memory), RAM(random access memory), 레지스터(register), 캐시 메모리, 반도체 메모리 디바이스, 내부 하드 디스크 및 이동식 디스크와 같은, 그러나 이에 제한되지 않는 자기 매체, 자기 광학 매체, 및/또는 CD-ROM 디스크, 및/또는 DVD(digital versatile disk)와 같은 광학 매체를 포함하지만, 이에 제한되지 않는다. 소프트웨어와 연관된 프로세서는 WTRU, 단말, 기지국, RNC, 및/또는 임의의 호스트 컴퓨터에서 사용하기 위한 무선 주파수 트랜시버를 구현하는 데 사용될 수 있다.

Claims (13)

  1. 비디오 코딩 디바이스로서,
    MMVD(merge motion vector difference) 모드가 코딩 유닛의 인터 예측을 생성하는 데 사용되는지 여부를 나타내는 MMVD 모드 표시를 수신하고;
    상기 MMVD 모드 표시가 MMVD 모드가 상기 코딩 유닛의 상기 인터 예측을 생성하는 데 사용되지 않는다는 것을 나타낼 때, 상기 코딩 유닛에 대해 CIIP(combined inter merge/intra prediction)가 적용되는지 여부를 나타내는 CIIP 표시를 수신하고;
    상기 MMVD 모드 표시 또는 상기 CIIP 표시 중 하나 이상에 기초하여, 상기 코딩 유닛에 대해 삼각형 병합 모드를 사용할지 여부를 결정하도록
    구성된 프로세서를 포함하는, 비디오 코딩 디바이스.
  2. 제1항에 있어서, 상기 프로세서는 또한, 상기 CIIP 표시가 상기 코딩 유닛에 대해 CIIP가 적용된다는 것을 나타낸다는 조건 하에서, 상기 코딩 유닛에 대해 상기 삼각형 병합 모드를 디스에이블시키도록 구성되는 것인, 비디오 코딩 디바이스.
  3. 제1항에 있어서, 상기 프로세서는 또한, 상기 MMVD 모드 표시가 MMVD 모드가 상기 인터 예측을 생성하는 데 사용된다는 것을 나타낸다는 조건 하에서, 상기 코딩 유닛에 대해 상기 삼각형 병합 모드를 디스에이블시키도록 구성되는 것인, 비디오 코딩 디바이스.
  4. 제1항에 있어서, 상기 프로세서는 또한, 상기 CIIP 표시가 상기 코딩 유닛에 대해 CIIP가 적용되지 않는다는 것을 나타내고 상기 MMVD 모드 표시가 MMVD 모드가 상기 인터 예측을 생성하는 데 사용되지 않는다는 것을 나타낸다는 조건 하에서, 상기 코딩 유닛에 대해 상기 삼각형 병합 모드를 인에이블시키도록 구성되는 것인, 비디오 코딩 디바이스.
  5. 제4항에 있어서, 상기 삼각형 병합 모드는 삼각형 병합 플래그를 수신하지 않고 상기 코딩 유닛에 대해 인에이블되는 것인, 비디오 코딩 디바이스.
  6. 제1항에 있어서, 상기 MMVD 모드 표시가 상기 코딩 유닛에 대해 MMVD 모드가 사용된다는 것을 나타낼 때 상기 CIIP 표시가 수신되지 않는 것인, 비디오 코딩 디바이스.
  7. 제1항에 있어서, 상기 MMVD 모드 표시는 코딩 유닛별로 수신되는 것인, 비디오 코딩 디바이스.
  8. 방법으로서,
    MMVD(merge motion vector difference) 모드가 코딩 유닛의 인터 예측을 생성하는 데 사용되는지 여부를 나타내는 MMVD 모드 표시를 수신하는 단계;
    상기 MMVD 모드 표시가 MMVD 모드가 상기 코딩 유닛의 상기 인터 예측을 생성하는 데 사용되지 않는다는 것을 나타낼 때, 상기 코딩 유닛에 대해 CIIP(combined inter merge/intra prediction)가 적용되는지 여부를 나타내는 CIIP 표시를 수신하는 단계; 및
    상기 MMVD 모드 표시 또는 상기 CIIP 표시 중 하나 이상에 기초하여, 상기 코딩 유닛에 대해 삼각형 병합 모드를 사용할지 여부를 결정하는 단계
    를 포함하는, 방법.
  9. 제8항에 있어서, 상기 CIIP 표시가 상기 코딩 유닛에 대해 CIIP가 적용된다는 것을 나타낸다는 조건 하에서, 상기 코딩 유닛에 대해 상기 삼각형 병합 모드를 디스에이블시키는 단계를 더 포함하는, 방법.
  10. 제8항에 있어서, 상기 MMVD 모드 표시가 MMVD 모드가 상기 인터 예측을 생성하는 데 사용된다는 것을 나타낸다는 조건 하에서, 상기 코딩 유닛에 대해 상기 삼각형 병합 모드를 디스에이블시키는 단계를 더 포함하는, 방법.
  11. 제8항에 있어서, 상기 CIIP 표시가 상기 코딩 유닛에 대해 CIIP가 적용되지 않는다는 것을 나타내고 상기 MMVD 모드 표시가 MMVD 모드가 상기 인터 예측을 생성하는 데 사용되지 않는다는 것을 나타낸다는 조건 하에서, 상기 코딩 유닛에 대해 상기 삼각형 병합 모드를 인에이블시키는 단계를 더 포함하는, 방법.
  12. 제11항에 있어서, 상기 삼각형 병합 모드는 삼각형 병합 플래그를 수신하지 않고 상기 코딩 유닛에 대해 인에이블되는 것인, 방법.
  13. 제8항에 있어서, 상기 MMVD 모드 표시가 상기 코딩 유닛에 대해 MMVD 모드가 사용된다는 것을 나타낼 때 상기 CIIP 표시가 수신되지 않는 것인, 방법.
KR1020217019990A 2018-12-31 2019-12-20 인터 및 인트라 결합 예측 KR20210118070A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862786653P 2018-12-31 2018-12-31
US62/786,653 2018-12-31
PCT/US2019/068008 WO2020142279A1 (en) 2018-12-31 2019-12-20 Combined inter and intra prediction

Publications (1)

Publication Number Publication Date
KR20210118070A true KR20210118070A (ko) 2021-09-29

Family

ID=69374365

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217019990A KR20210118070A (ko) 2018-12-31 2019-12-20 인터 및 인트라 결합 예측

Country Status (9)

Country Link
US (1) US20220070441A1 (ko)
EP (1) EP3906672A1 (ko)
JP (1) JP2022516094A (ko)
KR (1) KR20210118070A (ko)
CN (1) CN113228634A (ko)
AU (1) AU2019419454A1 (ko)
MX (1) MX2021007785A (ko)
TW (1) TWI842802B (ko)
WO (1) WO2020142279A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023055193A1 (ko) * 2021-10-01 2023-04-06 현대자동차주식회사 결합된 인트라/인터 예측 모드 또는 기하학적 분할 모드에 움직임 벡터 차분을 사용한 머지 모드를 적용하는 비디오 부호화/복호화 방법 및 장치

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12088809B2 (en) * 2018-12-28 2024-09-10 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium in which bitstream is stored
EP3937488A3 (en) * 2019-01-09 2022-04-13 Beijing Dajia Internet Information Technology Co., Ltd. System and method for improving combined inter and intra prediction
WO2021015195A1 (ja) * 2019-07-24 2021-01-28 シャープ株式会社 画像復号装置、画像符号化装置、および画像復号方法
EP4162688A1 (en) * 2020-06-03 2023-04-12 Nokia Technologies Oy A method, an apparatus and a computer program product for video encoding and video decoding
CN114007067B (zh) * 2020-07-28 2023-05-23 北京达佳互联信息技术有限公司 对视频信号进行解码的方法、设备和介质
US20220417511A1 (en) * 2021-06-27 2022-12-29 Alibaba Singapore Holding Private Limited Methods and systems for performing combined inter and intra prediction
EP4258662A1 (en) * 2022-04-07 2023-10-11 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for dimd edge detection adjustment, and encoder/decoder including the same
WO2024153079A1 (en) * 2023-01-16 2024-07-25 Mediatek Inc. Video coding method and apparatus of chroma prediction

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147332A (ja) * 2011-01-13 2012-08-02 Sony Corp 符号化装置および符号化方法、並びに復号装置および復号方法
CN105934948B (zh) * 2013-12-13 2019-04-02 高通股份有限公司 解码和编码视频数据的方法和装置及计算机可读存储介质
KR102539009B1 (ko) * 2015-06-08 2023-05-31 브이아이디 스케일, 인크. 스크린 콘텐츠 코딩을 위한 인트라 블록 카피 모드
US10715827B2 (en) * 2017-01-06 2020-07-14 Mediatek Inc. Multi-hypotheses merge mode
CN113678434B (zh) * 2018-11-14 2024-06-28 腾讯美国有限责任公司 视频编解码的方法和装置
US20200162737A1 (en) * 2018-11-16 2020-05-21 Qualcomm Incorporated Position-dependent intra-inter prediction combination in video coding
US10917636B2 (en) * 2018-12-03 2021-02-09 Tencent America LLC Method and apparatus for video coding
US11122272B2 (en) * 2018-12-26 2021-09-14 Mediatek Inc. Triangle prediction with applied-block settings and motion storage settings

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023055193A1 (ko) * 2021-10-01 2023-04-06 현대자동차주식회사 결합된 인트라/인터 예측 모드 또는 기하학적 분할 모드에 움직임 벡터 차분을 사용한 머지 모드를 적용하는 비디오 부호화/복호화 방법 및 장치

Also Published As

Publication number Publication date
EP3906672A1 (en) 2021-11-10
AU2019419454A1 (en) 2021-07-15
US20220070441A1 (en) 2022-03-03
CN113228634A (zh) 2021-08-06
WO2020142279A1 (en) 2020-07-09
TW202038607A (zh) 2020-10-16
MX2021007785A (es) 2021-08-24
JP2022516094A (ja) 2022-02-24
TWI842802B (zh) 2024-05-21

Similar Documents

Publication Publication Date Title
KR102653715B1 (ko) 양방향 광학 흐름에 기반한 모션 보상 예측
US11575933B2 (en) Bi-directional optical flow method with simplified gradient derivation
JP7398442B2 (ja) ビデオコーディングのための双予測
US12095998B2 (en) Symmetric motion vector difference coding
KR20210118070A (ko) 인터 및 인트라 결합 예측
US11991384B2 (en) Adaptive control point selection for affine motion model based video coding
WO2019006363A1 (en) LOCAL LIGHTING COMPENSATION USING GENERALIZED BI-PREDICTION
JP2023130415A (ja) オプティカルフローを用いたインター予測リファインメントのためのシステム、装置、および方法
US20240089427A1 (en) History-based motion vector prediction
US20220116656A1 (en) Improved intra planar prediction using merge mode motion vector candidates
US11943467B2 (en) Affine motion estimation for affine model-based video coding
RU2817790C2 (ru) Улучшенное внутрипланарное прогнозирование с применением кандидатов векторов движения в режиме объединения

Legal Events

Date Code Title Description
A201 Request for examination