KR20220116006A - 랩-어라운드 모션 보상을 수행하기 위한 방법들 - Google Patents

랩-어라운드 모션 보상을 수행하기 위한 방법들 Download PDF

Info

Publication number
KR20220116006A
KR20220116006A KR1020227024204A KR20227024204A KR20220116006A KR 20220116006 A KR20220116006 A KR 20220116006A KR 1020227024204 A KR1020227024204 A KR 1020227024204A KR 20227024204 A KR20227024204 A KR 20227024204A KR 20220116006 A KR20220116006 A KR 20220116006A
Authority
KR
South Korea
Prior art keywords
motion compensation
wrap
picture
around motion
around
Prior art date
Application number
KR1020227024204A
Other languages
English (en)
Inventor
지에 첸
얀 예
루-링 랴오
지안콩 루오
Original Assignee
알리바바 그룹 홀딩 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알리바바 그룹 홀딩 리미티드 filed Critical 알리바바 그룹 홀딩 리미티드
Publication of KR20220116006A publication Critical patent/KR20220116006A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시내용은 랩-어라운드 모션 보상을 수행하기 위한 방법들을 제공한다. 방법은, 제1 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 제2 랩-어라운드 모션 보상 플래그는 화상과 연관됨 ― ; 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계; 제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 단계 ― 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ; 및 제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 랩-어라운드 모션 보상을 수행하는 단계를 포함할 수 있다.

Description

랩-어라운드 모션 보상을 수행하기 위한 방법들
본 개시내용은 2019년 12월 17일에 출원된 미국 가특허 출원 번호 제62/949,396호에 대한 우선권 및 우선권의 이익을 주장한다. 가출원은 그 전체가 인용에 의해 본원에 포함된다.
본 개시내용은 일반적으로 비디오 프로세싱에 관한 것으로, 보다 구체적으로 랩-어라운드 모션 보상(wrap-around motion compensation)을 수행하기 위한 방법들 및 시스템들에 관한 것이다.
비디오는 시각적 정보를 캡처하는 정적 화상들(또는 "프레임들")의 세트이다. 저장 메모리 및 송신 대역폭을 감소시키기 위해, 비디오는 저장 또는 송신 전에 압축되고 디스플레이 전에 압축해제될 수 있다. 압축 프로세스는 일반적으로 인코딩으로서 지칭되고 압축해제 프로세스는 일반적으로 디코딩으로서 지칭된다. 가장 일반적으로 예측, 변환, 양자화, 엔트로피 코딩 및 인-루프 필터링(in-loop filtering)에 기초하는 표준화된 비디오 코딩 기술들을 사용하는 다양한 비디오 코딩 포맷들이 있다. 특정 비디오 코딩 포맷들을 지정하는 비디오 코딩 표준들 이를테면, 고효율 비디오 코딩(High Efficiency Video Coding)(예컨대, HEVC/H.265) 표준, 다용도 비디오 코딩(Versatile Video Coding)(예컨대, VVC/H.266) 표준, 및 AVS 표준들이 표준화 기관들에 의해 개발되었다. 점점 더 많은 진보된 비디오 코딩 기술들이 비디오 표준들에서 채택됨에 따라, 새로운 비디오 코딩 표준들의 코딩 효율은 점점 더 높아진다.
본 개시내용의 실시예들은 모션 보상을 수행하기 위한 방법을 제공한다. 방법은, 제1 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 제1 랩-어라운드 모션 보상 플래그는 화상과 연관됨 ― ; 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계; 제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 단계 ― 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ; 및 제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 랩-어라운드 모션 보상을 수행하는 단계를 포함한다.
본 개시내용의 실시예들은 추가로, 모션 보상을 수행하기 위한 시스템을 제공한다. 시스템은, 명령들의 세트를 저장하는 메모리; 및 프로세서를 포함하고, 프로세서는, 명령들의 세트를 실행하여, 시스템으로 하여금, 제1 랩-어라운드 모션 보상 플래그를 수신하는 것 ― 제1 랩-어라운드 모션 보상 플래그는 화상과 연관됨 ― ; 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 것; 제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 것 ― 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ; 그리고 제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 랩-어라운드 모션 보상을 수행하는 것을 수행하게 하도록 구성된다.
본 개시내용의 실시예들은 추가로, 명령들의 세트를 저장하는 비-일시적 컴퓨터 판독 가능 매체를 제공하며, 명령들의 세트는 장치로 하여금 모션 보상을 수행하기 위한 방법을 개시하게 하도록 장치의 하나 이상의 프로세서들에 의해 실행 가능하고, 방법은, 제1 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 제1 랩-어라운드 모션 보상 플래그는 화상과 연관됨 ― ; 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계; 제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 단계 ― 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ; 및 제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 랩-어라운드 모션 보상을 수행하는 단계를 포함한다.
본 개시내용의 실시예들 및 다양한 양상들이 하기 상세한 설명 및 첨부 도면들에서 예시된다. 도면들에 보여지는 다양한 특징들은 실척대로 그려진 것은 아니다.
도 1은 본 개시내용의 일부 실시예들에 따른 예시적인 비디오 시퀀스의 구조들을 도시한다.
도 2a는 본 개시내용의 일부 실시예들에 따른 예시적인 인코딩 프로세스의 개략도를 도시한다.
도 2b는 본 개시내용의 일부 실시예에 따른 다른 예시적인 인코딩 프로세스의 개략도를 도시한다.
도 3a는 본 개시내용의 일부 실시예들에 따른 예시적인 디코딩 프로세스의 개략도를 도시한다.
도 3b는 본 개시내용의 일부 실시예들에 따른 다른 예시적인 디코딩 프로세스의 개략도를 도시한다.
도 4는 본 개시내용의 일부 실시예들에 따라, 비디오를 인코딩 또는 디코딩하기 위한 예시적인 장치의 블록도를 도시한다.
도 5a는 본 개시내용의 일부 실시예들에 따라, 재구성된 정방형 투영들을 생성하기 위한 예시적인 블렌딩 동작의 개략도를 도시한다.
도 5b는 본 개시내용의 일부 실시예들에 따라, 재구성된 정방형 투영들을 생성하기 위한 예시적인 크로핑 동작의 개략도를 도시한다.
도 6a는 본 개시내용의 일부 실시예들에 따라, 정방형 투영들에 대한 예시적인 수평 랩-어라운드 모션 보상 프로세스의 개략도를 도시한다.
도 6b는 본 개시내용의 일부 실시예들에 따라, 패딩된 정방형 투영들에 대한 예시적인 수평 랩-어라운드 모션 보상 프로세스의 개략도를 도시한다.
도 7은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 신택스를 도시한다.
도 8은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 시맨틱을 도시한다.
도 9는 본 개시내용의 일부 실시예들에 따라, 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 신택스를 도시한다.
도 10은 본 개시내용의 일부 실시예들에 따라, 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 시맨틱을 도시한다.
도 11은 본 개시내용의 일부 실시예들에 따라, 최대 화상 폭을 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 시맨틱을 도시한다.
도 12는 본 개시내용의 일부 실시예들에 따라, 변수들 "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"의 예시적인 유도들을 도시한다.
도 13은 본 개시내용의 일부 실시예들에 따라, 모션 보상에 대해 사용되는 샘플 포지션의 예시적인 유도들을 도시한다.
도 14는 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 모션 보상 오프셋을 갖는 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 신택스를 도시한다.
도 15는 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 모션 보상 오프셋을 갖는 랩-어라운드 모션 보상을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다.
도 16은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 모션 보상 오프셋 없이 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 신택스를 도시한다.
도 17은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 모션 보상 오프셋을 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 화상 파라미터 세트의 신택스를 도시한다.
도 18은 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 모션 보상 오프셋을 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다.
도 19는 본 개시내용의 일부 실시예들에 따라, 변수들 "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"의 예시적인 유도들을 도시한다.
도 20은 본 개시내용의 일부 실시예들에 따라, 시퀀스 파라미터 세트에서 랩-어라운드 모션 보상 오프셋 없이 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 신택스를 도시한다.
도 21은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 제어 플래그를 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 화상 파라미터 세트의 신택스를 도시한다.
도 22는 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 제어 플래그를 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다.
도 23은 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 제어 플래그를 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다.
도 24는 본 개시내용의 일부 실시예들에 따라 변수 "PicRefWraparoundOffset"의 예시적인 유도를 도시한다.
도 25는 본 개시내용의 일부 실시예들에 따라, 화상 크기에 대한 제약을 갖는 개선된 랩-어라운드 모션 보상을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다.
도 26은 본 개시내용의 일부 실시예들에 따라, 변수들 "pic_width_max_in_luma_samples", "CtbSizeY" 및 "MinCbSizeY"에 부과된 제약들을 갖는 개선된 랩-어라운드 모션 보상을 위한 예시적인 시퀀스 파라미터 세트의 시맨틱을 도시한다.
도 27은 본 개시내용의 일부 실시예들에 따라, 변수 "pic_width_in_luma_samples"에 부과된 제약들을 갖는 개선된 랩-어라운드 모션 보상을 위한 예시적인 화상 파라미터 세트의 시맨틱을 도시한다.
도 28은 본 개시내용의 일부 실시예들에 따라, 모션 보상들을 수행하기 위한 예시적인 방법의 흐름도를 도시한다.
도 29는 본 개시내용의 일부 실시예들에 따라, 시퀀스 랩-어라운드 모션 보상 오프셋에 대해 제약된 범위로 모션 보상들을 수행하기 위한 예시적인 방법의 흐름도를 도시한다.
도 30은 본 개시내용의 일부 실시예들에 따라, 시퀀스 랩-어라운드 모션 보상 오프셋과 연관된 화상으로 모션 보상들을 수행하기 위한 예시적인 방법의 흐름도를 도시한다.
도 31은 본 개시내용의 일부 실시예들에 따라, 제약된 최대 화상 크기로 모션 보상들을 수행하기 위한 예시적인 방법의 흐름도를 도시한다.
이제 예시적인 실시예들이 상세히 참조될 것이며, 그의 예들은 첨부 도면들에 예시된다. 하기 설명은 달리 표현되지 않는 한 상이한 도면들에서 동일한 번호들은 동일하거나 유사한 요소들을 나타내는 첨부 도면들을 참조한다. 예시적인 실시예들의 하기 설명에서 기술된 구현들은 본 개시내용에 부합하는 모든 구현들을 표현하는 것은 아니다. 대신, 이들은 단지 첨부된 청구항들에서 인용되는 바와 같은 본 개시내용과 관련된 양상들에 부합하는 장치들 및 방법들의 예들일 뿐이다. 본 개시내용의 특정 양상들은 아래에서 더 상세히 설명된다. 참조로 포함된 용어들 및/또는 정의들과 상충하는 경우, 본원에 제공된 용어들 및 정의들에 따른다.
ITU-T 비디오 코딩 전문가 그룹(ITU-T VCEG)과 ISO/IEC 동화상 전문가 그룹(ISO/IEC MPEG)의 공동 비디오 전문가들 팀(JVET)은 현재 다용도 비디오 코딩(Versatile Video Coding; VVC/H.266) 표준을 개발하고 있다. VVC 표준은 그의 선행 표준인 고효율 비디오 코딩(HEVC/H.265) 표준의 압축 효율을 배가(doubling)시키는 것을 목표로 한다. 즉, VVC의 목표는 절반의 대역폭을 사용하여 HEVC/H.265와 동일한 주관적 품질을 달성하는 것이다.
절반의 대역폭을 사용하여 HEVC/H.265와 동일한 주관적 품질을 달성하기 위해, 공동 비디오 전문가들 팀("JVET")은 공동 탐구 모델(Joint Explosion Model; "JEM") 참조 소프트웨어를 사용하여 HEVC를 뛰어넘은 기술들을 개발하고 있다. 코딩 기술들이 JEM에 통합됨에 따라, JEM은 HEVC보다 실질적으로 더 높은 코딩 성능을 달성했다 또한, VCEG 및 MPEG는 HEVC을 뛰어넘는 차세대 비디오 압축 표준의 개발을 공식적으로 시작했다.
VVC 표준은 최근에 개발되었으며 더 나은 압축 성능을 제공하는 더 많은 코딩 기술들을 계속 포함하고 있다. VVC는 HEVC, H.264/AVC, MPEG2, H.263 등과 같은 최신 비디오 압축 표준들에 사용된 것과 동일한 하이브리드 비디오 코딩 시스템에 기초한다.
비디오는 시각적 정보를 저장하기 위해 시간적 시퀀스로 배열된 정적 화상들(또는 프레임들)의 세트이다. 비디오 캡처 디바이스(예컨대, 카메라)가 시간적 시퀀스로 이러한 화상들을 캡처하고 저장하기 위해 사용될 수 있으며, 비디오 재생 디바이스(예컨대, 텔레비전, 컴퓨터, 스마트폰, 태블릿 컴퓨터, 비디오 플레이어 또는 디스플레이 기능이 갖는 임의의 최종-사용자 단말)가 이러한 화상들을 시간적 시퀀스로 디스플레이하는데 사용될 수 있다. 또한, 일부 애플리케이션들에서, 비디오 캡처 디바이스는 감시, 회의 또는 라이브 방송과 같이, 캡처된 비디오를 실시간으로 비디오 재생 디바이스(예컨대, 모니터가 있는 컴퓨터)로 송신할 수 있다.
이러한 애플리케이션들에 필요한 저장 공간 및 송신 대역폭을 감소시키기 위해, 비디오는 압축될 수 있다. 예컨대, 비디오는 저장 및 송신 전에 압축되고 디스플레이 전에 압축 해제될 수 있다. 압축 및 압축해제는 프로세서(예컨대, 일반 컴퓨터의 프로세서) 또는 특수 하드웨어에 의해 실행되는 소프트웨어에 의해 구현될 수 있다. 압축을 위한 모듈 또는 회로는 일반적으로 "인코더"로서 지칭되고, 압축해제를 위한 모듈 또는 회로는 일반적으로 "디코더"로서 지칭된다. 인코더 및 디코더는 집합적으로 "코덱"으로서 지칭될 수 있다. 인코더 및 디코더는 다양한 적합한 하드웨어, 소프트웨어 또는 이들의 조합 중 임의의 것으로서 구현될 수 있다. 예컨대, 인코더 및 디코더의 하드웨어 구현은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들("DSP들"), 주문형 집적 회로들("ASIC들"), 필드-프로그래밍 가능 게이트 어레이들("FPGA들"), 이산 로직, 또는 이들의 임의의 조합과 같은 회로를 포함할 수 있다. 인코더 및 디코더의 소프트웨어 구현은 프로그램 코드들, 컴퓨터 실행-가능 명령들, 펌웨어, 또는 컴퓨터-판독 가능 매체에 고정된 임의의 적합한 컴퓨터-구현 알고리즘 또는 프로세스를 포함할 수 있다. 비디오 압축 및 압축해제는 MPEG-1, MPEG-2, MPEG-4, H.26x 시리즈들 등과 같은 다양한 알고리즘들 또는 표준들에 의해 구현될 수 있다. 일부 애플리케이션들에서, 코덱은 제1 코딩 표준으로부터의 비디오를 압축해제하고 제2 코딩 표준을 사용하여 압축해제된 비디오를 재-압축할 수 있으며, 이 경우 코덱은 "트랜스코더"로서 지칭될 수 있다.
비디오 인코딩 프로세스는 화상을 재구성하는 데 사용될 수 있는 유용한 정보를 식별 및 유지할 수 있다. 비디오 인코딩 프로세스에서 묵살된 정보를 완전히 복원할 수 없는 경우, 인코딩 프로세스를 "손실성(lossy)"으로서 지칭될 수 있다. 그렇지 않으면, 이는 "무손실성(lossless)"으로서 지칭될 수 있다. 대부분의 인코딩 프로세스들은 손실성이며, 이는 필요한 저장 공간 및 송신 대역폭을 감소시키기 위한 절충안(tradeoff)이다.
다수의 경우들에서, 인코딩되는 화상("현재 화상"으로서 지칭됨)의 유용한 정보는 참조 화상(예컨대, 이전에 인코딩 및 재구성된 화상)에 대한 변경들을 포함할 수 있다. 이러한 변경들은 포지션 변경들, 광도 변경들 또는 픽셀들의 컬러 변경들을 포함할 수 있다. 오브젝트를 표현하는 픽셀들의 그룹의 포지션 변경들은 참조 화상과 현재 화상 사이의 오브젝트의 모션을 반영할 수 있다.
다른 화상을 참조 없이 코딩된 화상(즉, 이는 자체 참조 화상임)은 "I-화상"으로서 지칭된다. 참조 화상으로서 이전 화상을 사용하여 코딩된 화상은 "P-화상"으로서 지칭된다. 참조 화상들로서 이전 화상 및 미래 화상 둘 모두를 사용하여 코딩된 화상(즉, 참조가 "양방향성"임)은 "B-화상"으로서 지칭된다.
도 1은 본 개시내용의 일부 실시예들에 따른 예시적인 비디오 시퀀스의 구조들을 도시한다. 도 1에 도시된 바와 같이, 비디오 시퀀스(100)는 라이브 비디오 또는 캡처 및 보관된 비디오일 수 있다. 비디오(100)는 실-생활 비디오, 컴퓨터-생성 비디오(예컨대, 컴퓨터 게임 비디오), 또는 이들의 조합(예컨대, 증강-현실 효과들을 갖는 실-생활 비디오)일 수 있다. 비디오 시퀀스(100)는 비디오 캡처 디바이스(예컨대, 카메라), 이전에 캡처된 비디오를 포함하는 비디오 아카이브(예컨대, 저장 디바이스에 저장된 비디오 파일), 또는 비디오 콘텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스(예컨대, 비디오 브로드캐스트 트랜시버)로부터 입력될 수 있다.
도 1에 도시된 바와 같이, 비디오 시퀀스(100)는, 화상들(102, 104, 106, 108)을 포함하여, 타임라인을 따라 시간적으로 배열된 일련의 화상들을 포함할 수 있다. 화상들(102-106)은 연속적이며, 화상들(106 및 108) 사이에 더 많은 화상들이 있다. 도 1에서, 화상(102)은, 그 참조 화상이 화상(102) 자체인 I-화상이다. 화상(104)은 그 참조 화상이 화살표에 의해 표시된 바와 같이 화상(102)인 P-화상이다. 화상(106)은 그 참조 화상들이 화살표들에 의해 표시된 바와 같이 화상들(104 및 108)인 B-화상이다. 일부 실시예들에서, 화상(예컨대, 화상 104)의 참조 화상은 화상 바로 앞이나 뒤에 있지 않을 수 있다. 예컨대, 화상(104)의 참조 화상은 화상(102) 앞의 화상일 수 있다. 화상들(102-106)의 참조 화상들은 단지 예들일 뿐이고, 본 개시내용은 도 1에 도시된 예시들로 참조 화상들의 실시예들을 제한하지 않는다는 것이 주의되어야 한다.
통상적으로, 비디오 코덱들은 이러한 작업들의 계산 복잡성으로 인해 한 번에 전체 화상을 인코딩 또는 디코딩하지 않는다. 오히려, 이들은 화상을 기본 세그먼트들로 분할하고, 세그먼트별로 화상을 인코딩 또는 디코딩할 수 있다. 이러한 기본 세그먼트들은 본 개시내용에서 기본 프로세싱 유닛들(basic processing unit; "BPU들")로서 지칭된다. 예컨대, 도 1의 구조(110)는 비디오 시퀀스(100)의 화상(예컨대, 화상들(102-108) 중 임의의 것)의 예시적인 구조를 도시한다. 구조(110)에서, 화상은 4×4 기본 프로세싱 유닛들로 분할되고, 그 경계들은 파선들로서 도시된다. 일부 실시예들에서, 기본 프로세싱 유닛들은 일부 비디오 코딩 표준들(예컨대, MPEG 패밀리, H.261, H.263, 또는 H.264/AVC)에서 "매크로블록들"로서, 또는 일부 다른 비디오 코딩 표준들(예컨대, H.265/HEVC 또는 H.266/VVC)에서 "코딩 트리 유닛들 "(coding tree units; "CTU들")로서 지칭될 수 있다. 기본 프로세싱 유닛들은 화상에서 가변 크기들 이를테면, 128×128, 64×64, 32×32, 16×16, 4×8, 16×32와 또는 임의의 자의적 형상 및 픽셀 크기들을 가질 수 있다. 기본 프로세싱 유닛들의 크기들 및 형상들은 세부사항의 레벨들 및 코딩 효율의 균형에 기초한 화상이 기본 프로세싱 유닛에서 유지되도록 선택될 수 있다.
기본 프로세싱 유닛들은 컴퓨터 메모리에(예컨대, 비디오 프레임 버퍼에) 저장된 상이한 유형들의 비디오 데이터의 그룹을 포함할 수 있는 로직 유닛들일 수 있다. 예컨대, 컬러 화상의 기본 프로세싱 유닛은 무채색 밝기 정보를 표현하는 루마 성분(Y), 컬러 정보를 표현하는 하나 이상의 크로마 성분들(예컨대, Cb 및 Cr) 및 연관된 신택스 요소들을 포함할 수 있으며, 여기에서 루마 및 크로마 성분들은 기본 프로세싱 유닛과 동일한 크기를 가질 수 있다. 루마 및 크로마 성분들은 일부 비디오 코딩 표준들(예컨대, H.265/HEVC 또는 H.266/VVC)에서 "코딩 트리 블록들(CTB들)"로서 지칭될 수 있다. 기본 프로세싱 유닛에 대해 수행된 모든 동작은 그의 루마 및 크로마 성분들 각각에 대해 반복적으로 수행될 수 있다.
비디오 코딩은 여러 동작 스테이지들을 가지며, 그의 예들이 도 2a 및 도 2b 및 도 3a 및 도 3b에 도시된다. 각각의 스테이지에 대해, 기본 프로세싱 유닛들의 크기는 여전히 프로세싱하기에 너무 클 수 있고, 이에 따라 본 개시내용에서 "기본 프로세싱 서브-유닛들"로서 지칭되는 세그먼트들로 추가로 분할될 수 있다. 일부 실시예들에서, 기본 프로세싱 서브-유닛들은 일부 비디오 코딩 표준들(예컨대, MPEG 패밀리, H.261, H.263, 또는 H.264/AVC)에서 "블록들"로서, 또는 일부 다른 비디오 코딩 표준들(예컨대, H.265/HEVC 또는 H.266/VVC)에서 "코딩 유닛들 "(coding tree units; "CU들")로서 지칭될 수 있다. 기본 프로세싱 서브-유닛은 기본 프로세싱 유닛과 동일하거나 더 작은 크기를 가질 수 있다. 기본 프로세싱 유닛들과 유사하게, 기본 프로세싱 서브-유닛들은 또한 로직 유닛들이며, 이들은 컴퓨터 메모리(예컨대, 비디오 프레임 버퍼)에 저장된 상이한 유형들의 비디오 데이터(예컨대, Y, Cb, Cr 및 연관된 신택스 요소들)의 그룹을 포함할 수 있다. 기본 프로세싱 서브-유닛에 대해 수행된 모든 동작은 그의 루마 및 크로마 성분들 각각에 대해 반복적으로 수행될 수 있다. 이러한 분할은 프로세싱 요구들에 의존하여 추가 레벨들로 수행될 수 있다는 것이 주의되어야 한다. 또한, 상이한 스테이지들은 상이한 방식들을 사용하여 기본 프로세싱 유닛들을 분할할 수 있다는 것이 주의되어야 한다.
예컨대, 모드 결정 스테이지(그 예가 도 2b에 도시됨)에서, 인코더는 기본 프로세싱 유닛에 대해 어느 예측 모드(예컨대, 화상-내(intra-picture) 예측 또는 화상-간(inter-picture) 예측)를 사용할지를 결정할 수 있으며, 이 기본 프로세싱 유닛은 그러한 결정을 내리기에 너무 클 수 있다. 인코더는 기본 프로세싱 유닛을 여러 기본 프로세싱 서브-유닛들(예컨대, H.265/HEVC 또는 H.266/VVC에서와 같은 CU들)로 분할하고, 개별 기본 프로세싱 서브-유닛 각각에 대한 예측 유형을 결정할 수 있다.
다른 예를 들면, 예측 스테이지(그 예가 도 2a 및 도 2b에 도시됨)에서, 인코더가 기본 프로세싱 서브-유닛들(예컨대, CU들)의 레벨에서 예측 동작을 수행할 수 있다. 그러나, 일부 경우들에서, 기본 프로세싱 서브-유닛은 여전히 프로세싱하기에 너무 클 수 있다. 인코더는 기본 프로세싱 서브-유닛을 더 작은 세그먼트들(예컨대, H.265/HEVC 또는 H.266/VVC에서 "예측 블록들" 또는 "PB들"로서 지칭됨)로 추가로 분할할 수 있으며, 그 레벨에서 예측 동작이 수행될 수 있다.
다른 예를 들면, 변환 스테이지(그 예는 도 2a 및 도 2b에 도시됨)에서, 인코더는 잔차 기본 프로세싱 서브-유닛들(예컨대, CU들)에 대해 변환 동작을 수행할 수 있다. 그러나, 일부 경우들에서, 기본 프로세싱 서브-유닛은 여전히 프로세싱하기에 너무 클 수 있다. 인코더는 기본 프로세싱 서브-유닛을 더 작은 세그먼트들(예컨대, H.265/HEVC 또는 H.266/VVC에서 "변환 블록들" 또는 "TB들"로서 지칭됨)로 추가로 분할할 수 있으며, 그 레벨에서 변환 동작이 수행될 수 있다. 동일한 기본 프로세싱 서브-유닛의 분할 방식들은 예측 스테이지 및 변환 스테이지에서 상이할 수 있다는 것이 주의되어야 한다. 예컨대, H.265/HEVC 또는 H.266/VVC에서, 동일한 CU의 예측 블록들 및 변환 블록들은 상이한 크기들 및 개수들을 가질 수 있다.
도 1의 구조(110)에서, 기본 프로세싱 유닛(112)은 3×3 기본 프로세싱 서브-유닛들로 추가로 분할되며, 그 경계들은 점선들로서 도시된다. 동일한 화상의 상이한 기본 프로세싱 유닛들은 상이한 방식들의 기본 프로세싱 서브-유닛들로 분할될 수 있다.
일부 구현들에서, 비디오 인코딩 및 디코딩에 대한 병렬 프로세싱 및 오류 복원 능력을 제공하기 위해, 화상은 프로세싱을 위한 구역들로 분할될 수 있어서, 화상의 구역에 대해, 인코딩 또는 디코딩 프로세스가 화상의 임의의 다른 구역으로부터의 정보에 의존하지 않을 수 있다. 즉, 화상의 각각의 구역은 독립적으로 프로세싱될 수 있다. 이렇게 함으로써, 코덱은 화상의 상이한 구역들을 병렬로 프로세싱하고, 이에 따라 코딩 효율성을 증가시킬 수 있다. 또한, 프로세싱 시에 구역의 데이터가 손상되거나 네트워크 송신 시에 손실될 때, 코덱은 손상되거나 손실된 데이터를 복원하지 않고 동일한 화상의 다른 구역을 올바르게 인코딩 또는 디코딩할 수 있고, 이에 따라 오류 복원 능력을 제공한다. 일부 비디오 코딩 표준들에서, 화상은 상이한 유형들의 구역들로 분할될 수 있다. 예컨대, H.265/HEVC 및 H.266/VVC는 두 가지 유형들의 구역들: "슬라이스들" 및 "타일들"을 제공한다. 비디오 시퀀스(100)의 상이한 화상들은 화상을 구역들로 분할하기 위한 상이한 파티셔닝 방식들을 가질 수 있다는 것이 또한 주의되어야 한다.
예컨대, 도 1에서, 구조(110)는 3개의 구역들(114, 116 및 118)로 분할되고, 그 경계들은 구조(110) 내부에 실선들로서 도시된다. 구역(114)은 4개의 기본 프로세싱 유닛들을 포함한다. 구역들(116 및 118) 각각은 6개의 기본 프로세싱 유닛들을 포함한다. 도 1의 구조(110)의 기본 프로세싱 유닛들, 기본 프로세싱 서브-유닛들 및 구역들은 단지 예들일 뿐이며, 본 개시내용이 그의 실시예들을 제한하지 않는다는 것이 주의되어야 한다.
도 2a는 본 개시내용의 일부 실시예들에 따른 예시적인 인코딩 프로세스의 개략도를 도시한다. 예컨대, 도 2a에 도시된 인코딩 프로세스(200A)는 인코더에 의해 수행될 수 있다. 도 2a에 도시된 바와 같이, 인코더는 프로세스(200A)에 따라 비디오 시퀀스(202)를 비디오 비트스트림(228)으로 인코딩할 수 있다. 도 1의 비디오 시퀀스(100)와 유사하게, 비디오 시퀀스(202)는 시간적 순서로 배열된 화상들의 세트("오리지널 화상들"로서 지칭됨)를 포함할 수 있다. 도 1의 구조(110)와 유사하게, 비디오 시퀀스(202)의 각각의 오리지널 화상은 인코더에 의해, 기본 프로세싱 유닛들, 기본 프로세싱 서브-유닛들, 또는 프로세싱을 위한 구역들로 분할될 수 있다. 일부 실시예들에서, 인코더는 비디오 시퀀스(202)의 각각의 오리지널 화상에 대한 기본 프로세싱 유닛들의 레벨에서 프로세스(200A)를 수행할 수 있다. 예컨대, 인코더는 프로세스(200A)를 반복적인 방식으로 수행할 수 있고, 여기서 인코더는 프로세스(200A)의 한 번의 반복에서 기본 프로세싱 유닛을 인코딩할 수 있다. 일부 실시예들에서, 인코더는 비디오 시퀀스(202)의 각각의 오리지널 화상의 구역들(예컨대, 구역들(114 내지 118))에 대해 병렬로 프로세스(200A)를 수행할 수 있다.
도 2a에서, 인코더는 비디오 시퀀스(202)의 오리지널 화상의 기본 프로세싱 유닛("오리지널 BPU"로서 지칭됨)을 예측 스테이지(204)로 공급하여 예측 데이터(206) 및 예측된 BPU(208)를 생성할 수 있다. 인코더는 오리지널 BPU로부터 예측된 BPU(208)를 감산하여 잔차 BPU(210)를 생성할 수 있다. 인코더는 잔차 BPU(210)를 변환 스테이지(212) 및 양자화 스테이지(214)로 공급하여 양자화된 변환 계수들(216)을 생성할 수 있다. 인코더는 예측 데이터(206) 및 양자화된 변환 계수들(216)을 이진 코딩 스테이지(226)로 공급하여 비디오 비트스트림(228)을 생성할 수 있다. 성분들(202, 204, 206, 208, 210, 212, 214, 216, 226 및 228)은 "순방향 경로"로서 지칭될 수 있다. 프로세스(200A) 동안, 양자화 스테이지(214) 이후에, 인코더는 양자화된 변환 계수들(216)을 역양자화 스테이지(218) 및 역변환 스테이지(220)로 공급하여 재구성된 잔차 BPU(222)를 생성할 수 있다. 인코더는 재구성된 잔차 BPU(222)를 예측된 BPU(208)에 추가하여 예측 참조(224)를 생성할 수 있으며, 이는 프로세스(200A)의 다음 반복을 위해 예측 스테이지(204)에서 사용된다. 프로세스(200A)의 성분들(218, 220, 222 및 224)은 "재구성 경로"로서 지칭될 수 있다. 재구성 경로는 인코더 및 디코더 둘 모두가 예측을 위해 동일한 참조 데이터를 사용하도록 보장하는 데 사용될 수 있다.
인코더는 (순방향 경로에서) 오리지널 화상의 각각의 오리지널 BPU를 인코딩하고 (재구성 경로에서) 오리지널 화상의 다음 오리지널 BPU를 인코딩하기 위한 예측된 참조(224)를 생성하기 위해 프로세스(200A)를 반복적으로 수행할 수 있다. 오리지널 화상의 모든 오리지널 BPU들을 인코딩한 후, 인코더는 비디오 시퀀스(202) 내 다음 화상을 인코딩하는 것으로 진행할 수 있다.
프로세스(200A)를 참조하면, 인코더는 비디오 캡처 디바이스(예컨대, 카메라)에 의해 생성된 비디오 시퀀스(202)를 수신할 수 있다. 본원에서 사용되는 "수신"이란 용어는 수신, 입력, 취득, 리트리브(retrieve), 획득, 판독, 액세스 또는 데이터를 입력하기 위한 임의의 방식의 임의의 액션을 지칭할 수 있다.
예측 스테이지(204)에서, 현재 반복에서 인코더는 오리지널 BPU 및 예측 참조(224)를 수신하고 예측 동작을 수행하여 예측 데이터(206) 및 예측된 BPU(208)를 생성할 수 있다. 예측 참조(224)는 프로세스(200A)의 이전 반복의 재구성 경로로부터 생성될 수 있다. 예측 스테이지(204)의 목적은, 예측 참조(224) 및 예측 데이터(206)로부터의 예측된 BPU(208)로서 오리지널 BPU를 재구성하는데 사용될 수 있는 예측 데이터(206)를 추출함으로써 정보 중복성을 감소시키는 것이다.
이상적으로, 예측된 BPU(208)는 오리지널 BPU와 동일할 수 있다. 그러나, 비-이상적 예측 및 재구성 동작들로 인해, 예측된 BPU(208)는 일반적으로 오리지널 BPU와 약간 상이하다. 그러한 차이들을 레코딩하기 위해, 예측된 BPU(208)를 생성한 후, 인코더는 오리지널 BPU로부터 이 차이를 감산하여 잔차 BPU(210)를 생성할 수 있다. 예컨대, 인코더는 예측된 BPU(208)의 픽셀들의 값들(예컨대, 회색조 값들 또는 RGB 값들)을 오리지널 BPU의 대응하는 픽셀들의 값들로부터 감산할 수 있다. 잔차 BPU(210)의 각각의 픽셀은 예측된 BPU(208)와 오리지널 BPU의 대응하는 픽셀들 사이의 이러한 감산의 결과로서 잔차 값을 가질 수 있다. 오리지널 BPU와 비교하여, 예측 데이터(206) 및 잔차 BPU(210)는 더 적은 비트들을 가질 수 있지만, 현저한 품질 악화 없이 오리지널 BPU를 재구성하는 데 사용될 수 있다. 따라서, 오리지널 BPU가 압축된다.
잔차 BPU(210)를 추가로 압축하기 위해, 변환 스테이지(212)에서, 인코더는 잔차 BPU(210)를 2-차원 "기본 패턴들"의 세트로 분해함으로써 그의 공간적 중복성을 감소시킬 수 있으며, 각각의 기본 패턴은 "변환 계수"와 연관된다. 기본 패턴들은 동일한 크기(예컨대, 잔차 BPU(210)의 크기)를 가질 수 있다. 각각의 기본 패턴은 잔차 BPU(210)의 변동 주파수(예컨대, 밝기 변동 주파수) 성분을 표현할 수 있다. 기본 패턴들 중 어느 것도 임의의 다른 기본 패턴들의 임의의 조합들(예컨대, 선형 조합들)로부터 재생될 수 없다. 즉, 분해는 잔차 BPU(210)의 변동들을 주파수 도메인으로 분해할 수 있다. 이러한 분해는 함수의 이산 푸리에 변환과 유사하며, 여기서 기본 패턴이 이산 푸리에 변환의 기본 함수들(예컨대, 삼각 함수들)과 유사하고, 변환 계수들은 기본 함수들과 연관된 계수들과 유사하다.
상이한 변환 알고리즘들은 상이한 기본 패턴들을 사용할 수 있다. 예컨대, 이산 코사인 변환, 이산 사인 변환 등과 같은 다양한 변환 알고리즘들이 변환 스테이지(212)에서 사용될 수 있다. 변환 스테이지(212)에서의 변환은 가역적이다. 즉, 인코더는 변환의 역동작("역변환"으로서 지칭됨)에 의해 잔차 BPU(210)를 복구할 수 있다. 예컨대, 잔차 BPU(210)의 픽셀을 복구하기 위해, 역변환은 기본 패턴들의 대응하는 픽셀들의 값들을 개개의 연관된 계수들로 곱하고 그 결과들을 더하여 가중합을 생성하는 것일 수 있다. 비디오 코딩 표준의 경우, 인코더 및 디코더 둘 모두는 동일한 변환 알고리즘(따라서 동일한 기본 패턴들)을 사용할 수 있다. 따라서, 인코더는, 인코더로부터 기본 패턴들을 수신하지 않고 디코더가 잔차 BPU(210)를 재구성할 수 있는, 변환 계수들만을 레코딩할 수 있다. 잔차 BPU(210)와 비교하여, 변환 계수들은 더 적은 비트들을 가질 수 있지만, 현저한 품질 악화 없이 잔차 BPU(210)를 재구성하는 데 사용될 수 있다. 따라서, 잔차 BPU(210)는 추가로 압축된다.
인코더는 양자화 스테이지(214)에서 변환 계수들을 추가로 압축할 수 있다. 변환 프로세스에서, 상이한 기본 패턴들은 상이한 변동 주파수들(예컨대, 밝기 변동 주파수들)을 표현할 수 있다. 인간의 눈들은 보통 저-주파수 변동을 더 잘 인식하기 때문에, 인코더는 디코딩 시에 현저한 품질 악화를 야기함 없이 고-주파수 변동에 관한 정보를 묵살할 수 있다. 예컨대, 양자화 스테이지(214)에서, 인코더는 각각의 변환 계수를 정수 값("양자화 파라미터"로서 지칭됨)으로 나누고 몫을 가장 가까운 정수로 반올림함으로써 양자화된 변환 계수들(216)을 생성할 수 있다. 이러한 동작 후에, 고-주파수 기본 패턴들의 일부 변환 계수들은 0으로 컨버팅될 수 있고, 저-주파수 기본 패턴들의 변환 계수들은 더 작은 정수들로 컨버팅될 수 있다. 인코더는 0-값 양자화된 변환 계수들(216) ― 이에 의해 변환 계수들이 추가로 압축됨 ― 을 묵살할 수 있다. 양자화 프로세스는 또한 가역적이며, 여기서 양자화된 변환 계수들(216)은 양자화의 역동작("역양자화"로서 지칭됨)에서 변환 계수들로 재구성될 수 있다.
인코더가 반올림 동작에서 이러한 나눗셈들의 나머지들을 묵살하기 때문에, 양자화 스테이지(214)는 손실성일 수 있다. 통상적으로, 양자화 스테이지(214)는 프로세스(200A)에서 가장 많은 정보 손실에 기여할 수 있다. 정보 손실이 클수록, 양자화된 변환 계수들(216)이 필요로 할 수 있는 비트들이 더 적다. 정보 손실의 상이한 레벨들을 획득하기 위해, 인코더는 양자화 파라미터의 상이한 값들 또는 양자화 프로세스의 임의의 다른 파라미터를 사용할 수 있다.
이진 코딩 스테이지(226)에서, 인코더는 예컨대, 엔트로피 코딩, 가변 길이 코딩, 산술 코딩, 호프만(Huffman) 코딩, 맥락-적응 이진 산술 코딩, 또는 임의의 다른 무손실성 또는 손실성 압축 알고리즘과 같은 이진 코딩 기술을 사용하여 예측 데이터(206) 및 양자화된 변환 계수들(216)을 인코딩할 수 있다. 일부 실시예들에서, 예측 데이터(206) 및 양자화된 변환 계수들(216) 외에도, 인코더는 예컨대, 예측 스테이지(204)에서 사용되는 예측 모드, 예측 동작의 파라미터, 변환 스테이지(212)에서의 변환 유형, 양자화 프로세스의 파라미터들(예컨대, 양자화 파라미터들), 인코더 제어 파라미터(예컨대, 비트레이트 제어 파라미터) 등과 같은 다른 정보를 이진 코딩 스테이지(226)에서 인코딩할 수 있다. 인코더는 이진 코딩 스테이지(226)의 출력 데이터를 사용하여 비디오 비트스트림(228)을 생성할 수 있다. 일부 실시예들에서, 비디오 비트스트림(228)은 추가로 네트워크 송신을 위해 패킷화될 수 있다.
프로세스(200A)의 재구성 경로를 참조하면, 역양자화 스테이지(218)에서, 인코더는 양자화된 변환 계수들(216)에 대해 역양자화를 수행하여 재구성된 변환 계수들을 생성할 수 있다. 역변환 스테이지(220)에서, 인코더는 재구성된 변환 계수들에 기초하여 재구성된 잔차 BPU(222)를 생성할 수 있다. 인코더는 재구성된 잔차 BPU(222)를 예측된 BPU(208)에 추가하여 프로세스(200A)의 다음 반복에서 사용될 예측 참조(224)를 생성할 수 있다.
프로세스(200A)의 다른 변동들이 비디오 시퀀스(202)를 인코딩하는 데 사용될 수 있다는 것이 주의되어야 한다. 일부 실시예들에서, 프로세스(200A)의 스테이지들은 인코더에 의해 상이한 순서들로 수행될 수 있다. 일부 실시예들에서, 프로세스(200A)의 하나 이상의 스테이지들은 단일 스테이지로 결합될 수 있다. 일부 실시예들에서, 프로세스(200A)의 단일 스테이지는 다수의 스테이지들로 분할될 수 있다. 예컨대, 변환 스테이지(212) 및 양자화 스테이지(214)는 단일 스테이지로 결합될 수 있다. 일부 실시예들에서, 프로세스(200A)는 부가적인 스테이지들을 포함할 수 있다. 일부 실시예들에서, 프로세스(200A)는 도 2a의 하나 이상의 스테이지들을 생략할 수 있다.
도 2b는 본 개시내용의 일부 실시예들에 따른 다른 예시적인 인코딩 프로세스의 개략도를 도시한다. 도 2b에 도시된 바와 같이, 프로세스(200B)는 프로세스(200A)로부터 수정될 수 있다. 예컨대, 프로세스(200B)는 하이브리드 비디오 코딩 표준(예컨대, H.26x 시리즈들)에 부합하는 인코더에 의해 사용될 수 있다. 프로세스(200A)와 비교하여, 프로세스(200B)의 순방향 경로는 부가적으로 모드 결정 스테이지(230)를 포함하고 예측 스테이지(204)를 공간적 예측 스테이지(2042) 및 시간적 예측 스테이지(2044)로 분할한다. 프로세스(200B)의 재구성 경로는 부가적으로 루프 필터 스테이지(232) 및 버퍼(234)를 포함한다.
일반적으로, 예측 기술들은 두 가지 유형들: 공간적 예측과 시간적 예측으로 카테고리화될 수 있다. 공간적 예측(예컨대, 화상-내 예측 또는 "인트라 예측(intra prediction)")은 현재 BPU를 예측하기 위해 동일한 화상 내 하나 이상의 이미 코딩된 이웃 BPU들로부터의 픽셀들을 사용할 수 있다. 즉, 공간적 예측에서의 예측 참조(224)는 이웃 BPU들을 포함할 수 있다. 공간적 예측은 화상의 고유한 공간 중복성을 감소시킬 수 있다. 시간적 예측(예컨대, 화상-간 예측 또는 "인터 예측(inter prediction")은 현재 BPU를 예측하기 위해 하나 이상의 이미 코딩된 화상들로부터의 구역들을 사용할 수 있다. 즉, 시간적 예측에서의 예측 참조(224)는 코딩된 화상들을 포함할 수 있다. 시간적 예측은 화상들의 고유한 시간 중복성을 감소시킬 수 있다.
프로세스(200B)를 참조하면, 순방향 경로에서, 인코더는 공간적 예측 스테이지(2042) 및 시간적 예측 스테이지(2044)에서 예측 동작을 수행한다. 예컨대, 공간적 예측 스테이지(2042)에서, 인코더는 인트라 예측을 수행할 수 있다. 인코딩되는 화상의 오리지널 BPU에 대해, 예측 참조(224)는 동일한 화상에서 (순방향 경로에서) 인코딩되고 (재구성된 경로에서) 재구성된 하나 이상의 이웃 BPU들을 포함할 수 있다. 인코더는 이웃 BPU들을 외삽함으로써 예측된 BPU(208)를 생성할 수 있다. 외삽 기술들은, 예컨대, 선형 외삽 또는 내삽, 다항식 외삽 또는 내삽 등을 포함할 수 있다. 일부 실시예들에서, 인코더는 이를테면, 예측된 BPU(208)의 각각의 픽셀에 대한 대응하는 픽셀들의 값들을 외삽함으로써, 픽셀 레벨에서 외삽을 수행할 수 있다. 외삽에 대해 사용되는 이웃 BPU들은 오리지널 BPU에 대해, 다양한 방향들로부터 이를테면, 수직 방향(예컨대, 오리지널 BPU의 상단), 수평 방향(예컨대, 오리지널 BPU의 좌측으로), 대각선 방향(예컨대, 오리지널 BPU의 좌측-아래로, 우측-아래로, 좌측-위로 또는 우측-위로) 또는 사용된 비디오 코딩 표준에 정의된 임의의 방향으로 로케이팅될 수 있다. 인트라 예측을 위해, 예측 데이터(206)는, 예컨대, 사용된 이웃 BPU들의 로케이션들(예컨대, 좌표들), 사용된 이웃 BPU들의 크기들, 외삽의 파라미터들, 오리지널 BPU에 대한 사용된 이웃 BPU들의 방향 등을 포함할 수 있다.
다른 예를 들면, 시간적 예측 스테이지(2044)에서, 인코더는 인터 예측을 수행할 수 있다. 현재 화상의 오리지널 BPU에 대해, 예측 참조(224)는 (순방향 경로에서) 인코딩되고 (재구성된 경로에서) 재구성된 하나 이상의 화상들("참조 화상들 "로서 지칭됨)을 포함할 수 있다. 일부 실시예들에서, 참조 화상은 BPU별로 인코딩 및 재구성될 수 있다. 예컨대, 인코더는 재구성된 잔차 BPU(222)를 예측된 BPU(208)에 추가하여 재구성된 BPU를 생성할 수 있다. 동일한 화상의 모든 재구성된 BPU들이 생성될 때, 인코더는 참조 화상으로서 재구성된 화상을 생성할 수 있다. 인코더는 참조 화상의 범위("검색 창"으로 지칭됨)에서 매칭 구역을 검색하기 위해 "모션 추정(motion estimation)"의 동작을 수행할 수 있다. 참조 화상에서 검색 창의 로케이션은 현재 화상에서 오리지널 BPU의 로케이션에 기초하여 결정될 수 있다. 예컨대, 검색 창은 참조 화상에서 현재 화상의 오리지널 BPU와 동일한 좌표들을 갖는 로케이션에 중심을 둘 수 있고 미리 결정된 거리만큼 확장될 수 있다. 인코더가 검색 창에서 오리지널 BPU와 유사한 구역을 (예컨대, PRA(pel-recursive algorithm) , 블록-매칭 알고리즘 등을 사용함으로써) 식별할 때, 인코더는 그러한 구역을 매칭 구역으로서 결정할 수 있다. 매칭 구역은 오리지널 BPU와 상이한 디멘션들(예컨대, 더 작거나, 동일하거나, 더 크거나, 상이한 형상)을 가질 수 있다. 참조 화상 및 현재 화상은 (예컨대, 도 1에 도시된 바와 같이) 타임라인에서 시간적으로 분리되기 때문에, 시간이 지남에 따라 매칭 구역이 오리지널 BPU의 로케이션으로 "이동한다"고 간주될 수 있다. 인코더는 "모션 벡터"로서 이러한 모션의 방향 및 거리를 레코딩할 수 있다. (예컨대, 도 1의 화상(106)과 같이) 다수의 참조 화상들이 사용될 때, 인코더는 매칭 구역을 검색하고 각각의 참조 화상에 대한 연관된 자신의 모션 벡터를 결정할 수 있다. 일부 실시예들에서, 인코더는 개개의 매칭 참조 화상들의 매칭 구역들의 픽셀 값들에 가중치들을 할당할 수 있다.
모션 추정은, 예컨대, 병진운동들, 회전들, 주밍(zooming) 등과 같은 다양한 유형들의 모션들을 식별하는 데 사용될 수 있다. 인터 예측에 대해, 예측 데이터(206)는, 예컨대, 매칭 구역의 로케이션들(예컨대, 좌표들), 매칭 구역과 연관된 모션 벡터들, 참조 화상들의 수, 참조 화상들과 연관된 가중치들 등을 포함할 수 있다.
예측된 BPU(208)를 생성하기 위해, 인코더는 "모션 보상"의 동작을 수행할 수 있다. 모션 보상은 예측 데이터(206)(예컨대, 모션 벡터) 및 예측 참조(224)에 기초하여 예측된 BPU(208)를 재구성하는데 사용될 수 있다. 예컨대, 인코더는, 인코더가 현재 화상의 오리지널 BPU를 예측할 수 있는 모션 벡터에 따라 참조 화상의 매칭 구역을 이동시킬 수 있다. (예컨대, 도 1의 화상(106)과 같이) 다수의 참조 화상들이 사용될 때, 인코더는 매칭 구역들의 평균 픽셀 값들 및 개개의 모션 벡터들에 따라 참조 화상들의 매칭 구역들을 이동시킬 수 있다. 일부 실시예들에서, 인코더가 개개의 매칭 참조 화상들의 매칭 구역들의 픽셀 값들에 가중치들을 할당한 경우, 인코더는 이동된 매칭 구역들의 픽셀 값들의 가중합을 추가할 수 있다.
일부 실시예들에서, 인터 예측은 단방향성 또는 양방향성일 수 있다. 단방향 인터 예측들은 현재 화상에 대해 동일한 시간 방향으로 하나 이상의 참조 화상들을 사용할 수 있다. 예컨대, 도 1의 화상(104)은 참조 화상(즉, 화상(102))이 화상(104)에 선행하는 단방향 인터 예측 화상이다. 양방향 인터 예측들은 현재 화상에 대해 양쪽 시간 방향들에서 하나 이상의 참조 화상들을 사용할 수 있다. 예컨대, 도 1의 화상(106)은 참조 화상들(즉, 화상들(104 및 108))이 화상(104)에 대해 양쪽 시간 방향들에 있는 양방향 인터 예측 화상이다.
여전히 프로세스(200B)의 순방향 경로를 참조하면, 공간적 예측 스테이지(2042) 및 시간적 예측 스테이지(2044) 이후에, 모드 판단 스테이지(230)에서, 인코더는 프로세스(200B)의 현재 반복에 대해 예측 모드(예컨대, 인트라 예측 또는 인터 예측 중 하나)를 선택할 수 있다. 예컨대, 인코더는 레이트-왜곡 최적화 기술을 수행할 수 있는데, 여기에서 인코더는 후보 예측 모드의 비트레이트 및 후보 예측 모드 하의 재구성된 참조 화상의 왜곡에 의존하여 비용 함수의 값을 최소화하도록 예측 모드를 선택할 수 있다. 선택된 예측 모드에 의존하여, 인코더는 대응하는 예측된 BPU(208) 및 예측된 데이터(206)를 생성할 수 있다.
프로세스(200B)의 재구성 경로에서, 순방향 경로에서 인트라 예측 모드가 선택된 경우, 예측 참조(224)(예컨대, 현재 화상에서 인코딩 및 재구성된 현재 BPU)를 생성한 후, 인코더는 추후 사용을 위해(예컨대, 현재 화상의 다음 BPU의 외삽을 위해) 예측 참조(224)를 공간적 예측 스테이지(2042)로 직접 공급할 수 있다. 순방향 경로에서 인터 예측 모드가 선택된 경우, 예측 참조(224)(예컨대, 모든 BPU들이 인코딩 및 재구성된 현재 화상)를 생성한 후, 인코더는 예측 참조(224)를 루프 필터 스테이지(232)로 공급할 수 있으며, 여기에서 인코더는 예측 참조(224)에 루프 필터를 적용하여 인터 예측에 의해 도입된 왜곡(예컨대, 블로킹 아티팩트들(blocking artifacts))을 감소시키거나 제거할 수 있다. 인코더는 루프 필터 스테이지(232)에서, 예컨대, 디블로킹(deblocking), 샘플 적응적 오프셋들, 적응적 루프 필터들 등과 같은 다양한 루프 필터 기술들을 적용할 수 있다. 루프-필터링된 참조 화상은 후 사용을 위해(예컨대, 비디오 시퀀스(202)의 미래 화상에 대한 인터-예측 참조 화상으로서 사용되도록) 버퍼(234)(또는 "디코딩된 화상 버퍼")에 저장될 수 있다. 인코더는 시간적 예측 스테이지(2044)에서 사용되도록 버퍼(234)에 하나 이상의 참조 화상들을 저장할 수 있다. 일부 실시예들에서, 인코더는 양자화된 변환 계수들(216), 예측 데이터(206) 및 다른 정보와 함께, 이진 코딩 스테이지(226)에서 루프 필터의 파라미터들(예컨대, 루프 필터 강도)을 인코딩할 수 있다.
도 3a는 본 개시내용의 일부 실시예들에 따른 예시적인 디코딩 프로세스의 개략도를 도시한다. 도 3a에 도시된 바와 같이, 프로세스(300A)는 도 2a의 압축 프로세스(200A)에 대응하는 압축해제 프로세스일 수 있다. 일부 실시예들에서, 프로세스(300A)는 프로세스(200A)의 재구성 경로와 유사할 수 있다. 디코더는 프로세스(300A)에 따라 비디오 비트스트림(228)을 비디오 스트림(304)으로 디코딩할 수 있다. 비디오 스트림(304)은 비디오 시퀀스(202)와 매우 유사할 수 있다. 그러나, 압축 및 압축해제 프로세스(예컨대, 도 2a 및 도 2b의 양자화 스테이지(214))에서의 정보 손실로 인해, 보통, 비디오 스트림(304)은 비디오 시퀀스와 동일하지 않다. 도 2a 및 도 2b의 프로세스들(200A 및 200B)과 유사하게, 디코더는 비디오 비트스트림(228)에 인코딩된 각각의 화상에 대해 기본 프로세싱 유닛들(BPU들)의 레벨에서 프로세스(300A)를 수행할 수 있다. 예컨대, 디코더는 프로세스(300A)를 반복적인 방식으로 수행할 수 있고, 여기서 디코더는 프로세스(300A)의 한 번의 반복에서 기본 프로세싱 유닛을 디코딩할 수 있다. 일부 실시예들에서, 디코더는 비디오 비트스트림(228)에 인코딩된 각각의 화상의 구역들(예컨대, 구역들(114-118))에 대해 병렬로 프로세스(300A)를 수행할 수 있다.
도 3a에서, 디코더는 인코딩된 화상의 기본 프로세싱 유닛("인코딩된 BPU"로서 지칭됨)과 연관된 비디오 비트스트림(228)의 부분을 이진 디코딩 스테이지(302)로 공급할 수 있다. 이진 디코딩 스테이지(302)에서, 디코더는 이 부분을 예측 데이터(206) 및 양자화된 변환 계수들(216)로 디코딩할 수 있다. 디코더는 양자화된 변환 계수들(216)을 역양자화 스테이지(218) 및 역변환 스테이지(220)로 공급하여 재구성된 잔차 BPU(222)를 생성할 수 있다. 디코더는 예측 데이터(206)를 예측 스테이지(204)로 공급하여 예측된 BPU(208)를 생성할 수 있다. 디코더는 재구성된 잔차 BPU(222)를 예측된 BPU(208)에 추가하여 예측된 참조(224)를 생성할 수 있다. 일부 실시예들에서, 예측된 참조(224)는 버퍼(예컨대, 컴퓨터 메모리의 디코딩된 화상 버퍼)에 저장될 수 있다. 디코더는 프로세스(300A)의 다음 반복에서 예측 동작을 수행하기 위해 예측된 참조(224)를 예측 스테이지(204)로 공급할 수 있다.
디코더는 인코딩된 화상의 각각의 인코딩된 BPU를 디코딩하고 인코딩된 화상의 다음 인코딩된 BPU를 인코딩하기 위한 예측된 참조(224)를 생성하기 위해 프로세스(300A)를 반복적으로 수행할 수 있다. 인코딩된 화상의 모든 인코딩된 BPU들을 디코딩한 후, 디코더는 디스플레이를 위해 화상을 비디오 스트림(304)으로 출력하고 비디오 비트스트림(228)에서 다음 인코딩된 화상을 디코딩하도록 진행할 수 있다.
이진 디코딩 스테이지(302)에서, 디코더는 인코더에 의해 사용되는 이진 코딩 기술(예컨대, 엔트로피 코딩, 가변 길이 코딩, 산술 코딩, 호프만 코딩, 맥락-적응 이진 산술 코딩, 또는 임의의 다른 무손실 압축 알고리즘)의 역 동작을 수행할 수 있다. 일부 실시예들에서, 예측 데이터(206) 및 양자화된 변환 계수들(216) 외에도, 디코더는, 예컨대, 예측 모드, 예측 동작의 파라미터들, 변환 유형, 양자화 프로세스의 파라미터들(예컨대, 양자화 파라미터들), 인코더 제어 파라미터(예컨대, 비트레이트 제어 파라미터) 등과 같은 다른 정보를 이진 디코딩 스테이지(302)에서 디코딩할 수 있다. 일부 실시예들에서, 비디오 비트스트림(228)이 네트워크를 통해 패킷들에서 송신되는 경우, 디코더는 비디오 비트스트림(228)을 이진 디코딩 스테이지(302)로 공급하기 전에 패킷해제(depacketize)할 수 있다.
도 3b는 본 개시내용의 일부 실시예들에 따른 다른 예시적인 디코딩 프로세스의 개략도를 도시한다. 도 3b에 도시된 바와 같이, 프로세스(300B)는 프로세스(300A)로부터 수정될 수 있다. 예컨대, 프로세스(300B)는 하이브리드 비디오 코딩 표준(예컨대, H.26x 시리즈들)에 부합하는 디코더에 의해 사용될 수 있다. 프로세스(300A)와 비교하여, 프로세스(300B)는 부가적으로 예측 스테이지(204)를 공간적 예측 스테이지(2042) 및 시간적 예측 스테이지(2044)로 분할하고, 루프 필터 스테이지(232) 및 버퍼(234)를 부가적으로 포함한다.
프로세스(300B)에서, 디코딩 되고있는 인코딩된 화상("현재 화상"으로서 지칭됨)의 인코딩된 기본 프로세싱 유닛("현재 BPU"로서 지칭됨)에 대해, 디코더에 의해 이진 디코딩 스테이지(302)로부터 디코딩된 예측 데이터(206)는, 인코더에 의해 현재 BPU를 인코딩하기 위해 어떤 예측 모드가 사용되었는지에 의존하여, 다양한 유형들의 데이터를 포함할 수 있다. 예컨대, 현재 BPU를 인코딩하기 위해 인코더에 의해 인트라 예측이 사용된 경우, 예측 데이터(206)는 인트라 예측을 표시하는 예측 모드 표시자(예컨대, 플래그 값), 인트라 예측 동작의 파라미터들 등을 포함할 수 있다. 인트라 예측 동작의 파라미터들은, 예컨대, 참조로서 사용되는 하나 이상의 이웃 BPU들의 로케이션들(예컨대, 좌표들), 이웃 BPU들의 크기들, 외삽의 파라미터들, 오리지널 BPU에 대한 이웃 BPU들의 방향 등을 포함할 수 있다. 다른 예를 들면, 현재 BPU를 인코딩하기 위해 인코더에 의해 인터 예측이 사용된 경우, 예측 데이터(206)는 인터 예측을 표시하는 예측 모드 표시자(예컨대, 플래그 값), 인터 예측 동작의 파라미터들 등을 포함할 수 있다. 인터 예측 동작의 파라미터들은, 예컨대, 현재 BPU와 연관된 참조 화상들의 수, 참조 화상들과 각자 연관된 가중치들, 개개의 참조 화상들 내 하나 이상의 매칭 구역들의 로케이션들(예컨대, 좌표들), 매칭 구역들과 각자 연관된 하나 이상의 모션 벡터들 등을 포함할 수 있다.
예측 모드 표시자에 기초하여, 디코더는 공간적 예측 스테이지(2042)에서 공간적 예측(예컨대, 인트라 예측)을 수행할지 또는 시간적 예측 스테이지(2044)에서 시간적 예측(예컨대, 인터 예측)을 수행할지를 결정할 수 있다. 그러한 공간적 예측 또는 시간적 예측을 수행하는 것에 대한 세부사항들은 도 2b에서 설명되며 이후에 반복되지 않을 것이다. 그러한 공간적 예측 또는 시간적 예측을 수행한 후, 디코더는 예측된 BPU(208)를 생성할 수 있다. 도 3a에 설명된 바와 같이, 디코더는 예측된 BPU(208) 및 재구성된 잔차 BPU(222)를 더하여 예측 참조(224)를 생성할 수 있다.
프로세스(300B)에서, 디코더는 프로세스(300B)의 다음 반복에서 예측 동작을 수행하기 위해 예측된 참조(224)를 공간적 예측 스테이지(2042) 또는 시간적 예측 스테이지(2044)에 공급할 수 있다. 예컨대, 현재 BPU가 공간적 예측 스테이지(2042)에서 인트라 예측을 사용하여 디코딩되는 경우, 예측 참조(224)(예컨대, 디코딩된 현재 BPU)를 생성한 후에, 디코더는 추후 사용을 위해(예컨대, 현재 화상의 다음 BPU의 외삽을 위해) 예측 참조(224)를 공간적 예측 스테이지(2042)로 직접 공급할 수 있다. 현재 BPU가 시간적 예측 스테이지(2044)에서 인터 예측을 사용하여 디코딩되는 경우, 예측 참조(224)(예컨대, 모든 BPU들이 디코딩된 참조 화상)를 생성한 후, 인코더는 예측 참조(224)를 루프 필터 스테이지(232)로 공급하여 왜곡(예컨대, 블로킹 아티팩트들)을 감소시키거나 제거할 수 있다. 디코더는 도 2b에 설명된 바와 같은 방식으로 루프 필터를 예측 참조(224)에 적용할 수 있다. 루프-필터링된 참조 화상은 추후 사용을 위해(예컨대, 비디오 비트스트림(228)의 미래 인코딩된 화상에 대한 인터-예측 참조 화상으로서 사용되도록) 버퍼(234)(예컨대, 컴퓨터 메모리의 디코딩된 화상 버퍼)에 저장될 수 있다. 디코더는 시간적 예측 스테이지(2044)에서 사용되도록 버퍼(234)에 하나 이상의 참조 화상들을 저장할 수 있다. 일부 실시예들에서, 현재 BPU를 인코딩하기 위해 인터 예측이 사용되었음을 예측 데이터(206)의 예측 모드 표시자가 표시할 때, 예측 데이터는 루프 필터의 파라미터들(예컨대, 루프 필터 강도)을 더 포함할 수 있다.
도 4는 본 개시내용의 일부 실시예들에 따라, 비디오를 인코딩 또는 디코딩하기 위한 예시적인 장치의 블록도를 도시한다. 도 4에 도시된 바와 같이, 장치(400)는 프로세서(402)를 포함할 수 있다. 프로세서(402)가 본원에 설명된 명령들을 실행할 때, 장치(400)는 비디오 인코딩 또는 디코딩을 위한 특수 기계가 될 수 있다. 프로세서(402)는 정보를 조작하거나 프로세싱할 수 있는 임의의 유형의 회로일 수 있다. 예컨대, 프로세서(402)는 중앙 처리 장치(또는 "CPU"), 그래픽 프로세싱 장치(또는 "GPU"), 뉴럴 프로세싱 장치("NPU"), 마이크로제어기 유닛("MCU"), 광학 프로세서, 프로그래밍 가능 로직 제어기, 마이크로제어기, 마이크로프로세서, 디지털 신호 프로세서, 지적 재산(IP) 코어, 프로그래밍 가능 로직 어레이(PLA), 프로그래밍 가능 어레이 로직(PAL), 일반 어레이 로직(GAL), 복합 프로그래밍 가능 로직 디바이스(CPLD), 필드-프로그래밍 가능 게이트 어레이(FPGA), 시스템 온 시스템(SoC), 주문형 집적 회로(ASIC) 등의 임의의 수의 임의의 조합을 포함할 수 있다. 일부 실시예들에서, 프로세서(402)는 또한 단일 로직 구성요소로서 그룹화된 프로세서들의 세트일 수 있다. 예컨대, 도 4에 도시된 바와 같이, 프로세서(402)는 프로세서(402a), 프로세서(402b) 및 프로세서(402n)를 포함하는 다수의 프로세서들을 포함할 수 있다.
장치(400)는 또한 데이터(예컨대, 명령들의 세트, 컴퓨터 코드들, 중간 데이터 등)를 저장하도록 구성된 메모리(404)를 포함할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 저장된 데이터는 프로그램 명령들(예컨대, 프로세스들(200A, 200B, 300A 또는 300B)의 스테이지들을 구현하기 위한 프로그램 명령들) 및 프로세싱을 위한 데이터(예컨대, 비디오 시퀀스(202), 비디오 비트스트림(228) 또는 비디오 스트림(304))를 포함할 수 있다. 프로세서(402)는 (예컨대, 버스(410)를 통해) 프로그램 명령들 및 프로세싱을 위한 데이터에 액세스할 수 있고, 프로그램 명령들을 실행하여 프로세싱을 위한 데이터에 대한 동작 또는 조작을 수행할 수 있다. 메모리(404)는 고속 랜덤-액세스 저장 디바이스 또는 비-휘발성 저장 디바이스를 포함할 수 있다. 일부 실시예들에서, 메모리(404)는 랜덤-액세스 메모리(RAM), 판독-전용 메모리(ROM), 광학 디스크, 자기 디스크, 하드 드라이브, 솔리드-스테이트 드라이브, 플래시 드라이브, 보안 디지털(SD) 카드, 메모리 스틱, 콤팩트 플래시(CF) 카드 등의 임의의 수의 임의의 조합을 포함할 수 있다. 메모리(404)는 또한 단일의 로직 구성요소로서 그룹화된 메모리들의 그룹(도 4에 도시되지 않음)일 수 있다.
버스(410)는 내부 버스(예컨대, CPU-메모리 버스), 외부 버스(예컨대, 범용 직렬 버스 포트, 주변 구성요소 인터커넥트 익스프레스 포트) 등과 같이, 장치(400) 내부의 구성요소들 사이에서 데이터를 전달하는 통신 디바이스일 수 있다.
모호함을 야기함 없이 설명의 용이함을 위해, 프로세서(402) 및 다른 데이터 프로세싱 회로들은 본 개시내용에서 "데이터 프로세싱 회로"로서 집합적으로 지칭된다. 데이터 프로세싱 회로는 전체적으로 하드웨어로서 구현되거나 소프트웨어, 하드웨어 또는 펌웨어의 조합으로서 구현될 수 있다. 또한, 데이터 프로세싱 회로는 단일 독립 모듈일 수 있거나 장치(400)의 임의의 다른 구성요소에 전체적으로 또는 부분적으로 결합될 수 있다.
장치(400)는 네트워크(예컨대, 인터넷, 인트라넷, 로컬 영역 네트워크, 모바일 통신 네트워크 등)와의 유선 또는 무선 통신을 제공하기 위한 네트워크 인터페이스(406)를 더 포함할 수 있다. 일부 실시예들에서, 네트워크 인터페이스(406)는 네트워크 인터페이스 제어기(NIC), 라디오 주파수(RF) 모듈, 트랜스폰더, 트랜시버, 모뎀, 라우터, 게이트웨이, 유선 네트워크 어댑터, 무선 네트워크 어댑터, 블루투스 어댑터, 적외선 어댑터, 근거리 통신("NFC") 어댑터, 셀룰러 네트워크 칩 등의 임의의 수의 임의의 조합을 포함할 수 있다.
일부 실시예들에서, 장치(400)는 하나 이상의 주변 디바이스들에 대한 연결을 제공하기 위해 주변 인터페이스(408)를 더 포함할 수 있다. 도 4에 도시된 바와 같이, 주변 디바이스는 커서 제어 디바이스(예컨대, 마우스, 터치패드 또는 터치스크린), 키보드, 디스플레이(예컨대, 음극선관 디스플레이, 액정 디스플레이, 또는 발광 다이오드 디스플레이), 비디오 입력 디바이스(예컨대, 비디오 아카이브에 통신 가능하게 커플링된 입력 인터페이스 또는 카메라) 등을 포함할 수 있지만, 이에 제한되지 않는다.
비디오 코덱들(예컨대, 코덱 수행 프로세스(200A, 200B, 300A 또는 300B))은 장치(400)에서 임의의 소프트웨어 또는 하드웨어 모듈의 임의의 조합으로서 구현될 수 있다는 것이 주의되어야 한다. 예컨대, 프로세스(200A, 200B, 300A 또는 300B)의 일부 또는 모든 스테이지들은 장치(400)의 하나 이상의 소프트웨어 모듈들 이를테면, 메모리(404) 내에 로딩될 수 있는 프로그램 명령들로서 구현될 수 있다. 다른 예를 들면, 프로세스(200A, 200B, 300A 또는 300B)의 일부 또는 모든 스테이지들은, 장치(400)의 하나 이상의 하드웨어 모듈들 이를테면, 특수 데이터 프로세싱 회로(예컨대, FPGA, ASIC, NPU 등)로서 구현될 수 있다.
양자화 및 역양자화 기능 블록들(예컨대, 도 2a 또는 도 2b의 양자화(214) 및 역양자화(218), 도 3a 또는 도 3b의 역양자화(218))에서, 예측 잔차들에 적용되는 양자화(및 역양자화)의 양을 결정하기 위하여 양자화 파라미터(QP)가 사용된다. 화상 또는 슬라이스의 코딩에 대해 사용되는 초기 QP 값들은, 예컨대, 화상 파라미터 세트(Picture Parameter Set; PPS)의 init_qp_minus26 신택스 요소를 사용하여 그리고 슬라이스 헤더의 slice_qp_delta 신택스 요소를 사용하여 고레벨에서 시그널링될 수 있다. 또한, QP 값들은 양자화 그룹들의 입도(granulity)에서 전송된 델타 QP 값들을 사용하여 각각의 CU에 대한 로컬 레벨에서 적응될 수 있다.
정방형 투영(Equirectangular projection; "ERP") 포맷은 360도 비디오들 및 이미지들을 표현하는 데 사용되는 일반적인 투영 포맷이다. 투영은 자오선들을 일정한 간격의 수직 직선들에 매핑하고 위도의 원들을 일정한 간격의 수평 직선들에 매핑한다. 맵 상의 이미지 픽셀의 포지션과 구(sphere) 상의 그의 대응하는 지리적 로케이션 간의 특히 단순한 관계로 인해, ERP는 360도 비디오들 및 이미지들에 대해 사용되는 가장 일반적인 투영들 중 하나이다.
JVET에 의해 출력된 투영 포맷 변환 및 비디오 품질 메트릭들의 알고리즘 설명은 ERP와 구 간의 도입 및 좌표 변환을 제공한다. 2D-3D 좌표 변환에 대해, 샘플링 포지션 (m, n)이 주어지면, (u, v)는 다음 수학식에 기초하여 계산될 수 있다.
Figure pct00001
수학식 (1)
Figure pct00002
수학식 (2)
그 후, 구의 경도 및 위도(Φ, θ)는 다음 수학식들에 기초하여 (u, v)로부터 계산될 수 있다:
Figure pct00003
수학식 (3)
Figure pct00004
수학식 (4)
좌표들(X, Y, Z)은 다음 수학식들에 기초하여 계산될 수 있다:
Figure pct00005
수학식 (5)
Figure pct00006
수학식 (6)
Figure pct00007
수학식 (7)
(X, Y, Z)로부터 시작하는 3D-2D 좌표 변환에 대해, (Φ, θ)는 다음 수학식들에 기초하여 계산될 수 있다. 그 후 (u, v)는 다음 수학식들에 기초하여 계산된다. 마지막으로 (m, n)은 다음 수학식들에 기초하여 계산될 수 있다.
Figure pct00008
수학식 (8)
Figure pct00009
수학식 (9)
ERP 화상의 좌측 및 우측 경계들을 포함하는 재구성된 뷰포트들에서 이음매 아티팩트들을 감소시키기 위해, ERP 화상의 좌측 및 우측 각각 상에 샘플들을 패딩함으로써 패딩된 정방형 투영(padded equirectangular projection; "PERP")이라 불리는 새로운 포맷이 제공된다.
PERP가 360도 비디오들을 표현하는 데 사용될 때, PERP 화상이 인코딩된다. 디코딩 후, 재구성된 PERP는 복제된 샘플들을 블렌딩하거나 패딩된 영역들을 크로핑함으로써 재구성된 ERP로 다시 변환된다.
도 5a는 본 개시내용의 일부 실시예들에 따라, 재구성된 정방형 투영들을 생성하기 위한 예시적인 블렌딩 동작의 개략도를 도시한다. 달리 언급되지 않으면, "recPERP"는 포스트-프로세싱 이전 재구성된 PERP를 나타내는데 사용되고 "recERP"는 포스트-프로세싱 후 재구성된 ERP를 나타내는데 사용된다. 도 5a에 도시된 바와 같이, recPERP의 복제된 샘플들은 거리-기반 가중화된 평균화 연산(distance-based weighted averaging operation)을 적용함으로써 블렌딩될 수 있다. 예컨대, 구역 A는 구역 A1을 구역 A2와 블렌딩함으로써 생성할 수 있고, 구역 B는 구역 B1을 구역 B2와 블렌딩함으로써 생성된다.
다음 설명에서, 패딩되지 않은 recERP의 폭 및 높이는 각각 "W" 및 "H"로서 표시된다. 좌측 및 우측 패딩 폭들은 각각 "PL" 및 "PR"로서 표시된다. 전체 패딩 폭은 PL 및 PR의 합일 수 있는 "Pw"로서 표시된다. 일부 실시예들에서, recPERP는 블렌딩 동작들을 통해 recERP로 변환될 수 있다. 예컨대, A의 샘플 recERP(j, i) ― 여기서 i = [0, PR-1] 및 j = [0, H - 1]임 ― 에 대해, recERP(j, i)는 다음 수학식들에 따라 결정될 수 있다:
Figure pct00010
, 여기서 w는 PL/Pw 내지 1임 수학식 (10)
Figure pct00011
수학식 (11)
일부 실시예들에서, B의 샘플 recERP(j, i) ― 여기서 i = [W ― PL, W - 1] 및 j = [0, H - 1]임 ― 에 대해, recERP(j, i)는 다음 수학식들에 따라 생성될 수 있다:
Figure pct00012
, 여기서 k는 0 내지 PL/Pw임 수학식 (12)
Figure pct00013
수학식 (13)
도 5b는 본 개시내용의 일부 실시예들에 따라, 재구성된 정방형 투영들을 생성하기 위한 예시적인 크로핑 동작의 개략도를 도시한다. 도 5b에 도시된 바와 같이, 크로핑 프로세스 동안, recPERP의 패딩된 샘플들은 recERP를 획득하기 위해 직접 폐기될 수 있다. 예컨대, 패딩된 샘플들 B1 및 A2는 폐기될 수 있고 패딩된 영역 A는 A1과 동일한 반면, 패딩된 영역 B는 B2와 동일하다.
일부 실시예들에서, 수평 랩-어라운드 모션 보상은 ERP의 코딩 성능을 개선하기 위해 사용될 수 있다. 예컨대, 수평 랩-어라운드 모션 보상은 ERP 포맷 또는 PERP 포맷에서 재구성된 360도 비디오의 시각적 품질을 개선하도록 설계된 360-특정 코딩 도구로서 VVC 표준에서 사용될 수 있다. 종래의 모션 보상에서, 모션 벡터가 참조 화상의 화상 경계들 너머의 샘플들을 참조할 때, 대응하는 화상 경계 상의 가장 가까운 이웃들로부터 복사함으로써 경계외 샘플(out-of-bounds sample)들의 값들을 유도하도록 반복적 패딩이 적용된다. 360도 비디오에 대해, 이 반복적 패딩 방법은 적합하지 않으며 재구성된 뷰포트 비디오에서 "이음매 아티팩트들"이라 불리는 시각적 아티팩트들을 야기할 수 있다. 360도 비디오가 구 상에서 캡처되고 본질적으로 어떠한 "경계"도 없기 때문에, 투영된 도메인에서 참조 화상의 경계들을 벗어난 참조 샘플들은 구 도메인에서 이웃 샘플들로부터 획득될 수 있다. 일반적인 투영 포맷에 대해, 2D-3D 및 3D-2D 좌표 변환뿐만 아니라 프랙셔널 샘플 포지션들에 대한 샘플 보간이 포함되기 때문에, 구 도메인에서 대응하는 이웃 샘플들을 유도하는 것은 어려울 수 있다. 이 문제는, 좌측 화상 경계 외부의 구형 이웃들이 우측 화상 경계 내부의 샘플들로부터 획득될 수 있고 그 반대의 경우도 마찬가지이므로, ERP 또는 PERP 투영 포맷의 좌측 및 우측 경계들에 대해 해결될 수 있다. ERP 또는 PERP 투영 포맷의 광범위한 사용, 및 상대적인 구현 용이성을 고려하면, ERP 또는 PERP 투영 포맷으로 코딩된 360도 비디오의 시각적 품질을 개선하기 위해 수평 랩-어라운드 모션 보상이 VVC에 채택되었다.
도 6a는 본 개시내용의 일부 실시예들에 따라, 정방형 투영들에 대한 예시적인 수평 랩-어라운드 모션 보상 프로세스의 개략도를 도시한다. 도 6a에 도시된 바와 같이, 참조 블록의 일부가 투영된 도메인에서 참조 화상의 좌측(또는 우측) 경계 외부에 있을 때, 반복적 패딩 대신에, "경계 외(out-of-boundary)" 부분은 참조 화상 내에서, 투영된 도메인의 우측(또는 좌측) 경계를 향해 로케이팅되는 대응하는 구형 이웃들로부터 취해질 수 있다. 일부 실시예들에서, 반복적 패딩은 최상부 및 최하부 화상 경계들에 대해서만 사용된다.
도 6b는 본 개시내용의 일부 실시예들에 따라, 패딩된 정방형 투영들에 대한 예시적인 수평 랩-어라운드 모션 보상 프로세스의 개략도를 도시한다. 도 6b에 도시된 바와 같이, 수평 랩-어라운드 모션 보상은 360도 비디오 코딩에서 종종 사용되는 비-규범적 패딩 방법과 결합될 수 있다. 일부 실시예들에서, 이는 랩-어라운드 모션 보상 오프셋 ― 이는 패딩 이전의 ERP 화상 폭으로 세팅될 수 있음 ― 을 표시하기 위해 고레벨 신택스 요소를 시그널링함으로써 달성된다. 이 신택스는 수평 랩-어라운드의 포지션을 상응하게 조정하는데 사용될 수 있다. 일부 실시예들에서, 이 신택스는 좌측 또는 우측 화상 경계들에 대한 특정 양의 패딩에 의해 영향을 받지 않는다. 결과적으로, 이 신택스는 ERP 화상의 비대칭 패딩을 자연스럽게 지원할 수 있다. ERP 화상의 비대칭 패딩에서, 좌측 및 우측 패딩들은 상이하다. 일부 실시예들에서, 랩-어라운드 모션 보상은 다음 수학식에 따라 결정될 수 있다:
Figure pct00014
수학식 (14)
여기서 오프셋은 비트스트림에서 시그널링된 랩-어라운드 모션 보상 오프셋일 수 있고, picW는 인코딩 이전 패딩 영역을 포함하는 화상 폭일 수 있고, posx는 현재 블록 포지션 및 모션 벡터에 의해 결정되는 참조 포지션일 수 있고, 수학식 posx_wrap의 출력은 실제 참조 포지션일 수 있으며, 여기서 참조 블록은 랩-어라운드 모션 보상으로부터 나온다. 랩-어라운드 모션 보상 오프셋의 시그널링 오버헤드를 절감하기 위해, 이는 최소 루마 코딩 블록 단위로 있을 수 있고, 이에 따라 오프셋은
Figure pct00015
로 대체될 수 있으며, 여기서 offsetw는 비트스트림에서 시그널링되는 최소 루마 코딩 블록 단위의 랩-어라운드 모션 보상 오프셋이고 MinCbSizeY는 최소 루마 코딩 블록의 크기이다. 대조적으로, 전통적인 모션 보상에서, 참조 블록이 있는 실제 참조 포지션은 0 내지 picW-1 내에서 posx를 클리핑함으로써 직접 유도될 수 있다.
수평 랩-어라운드 모션 보상은 참조 샘플들이 참조 화상의 좌측 및 우측 경계들 외부에 있을 때 모션 보상에 대해 보다 의미 있는 정보를 제공할 수 있다. 360도 비디오 공통 테스트 조건들 하에서, 이 도구는 레이트-왜곡 관점뿐만 아니라 재구성된 360도 비디오의 감소된 이음매 아티팩트들 및 주관적 품질 관점에서도 압축 성능을 개선할 수 있다. 수평 랩-어라운드 모션 보상은 또한 조정된 동등-영역 투영(adjusted equal-area projection)과 같이 수평 방향으로 일정한 샘플링 밀도를 갖는 다른 단일 면 투영 포맷들에 대해 사용될 수 있다.
일부 실시예들에서, 랩-어라운드 모션 보상 오프셋에 대한 제약이 부과된다. 오프셋의 값은 (CtbSizeY / MinCbSizeY + 2) 내지 (pic_width_in_luma_samples / MinCbSizeY)의 범위로부터 유도될 수 있다. 여기서, 변수 "CtbSizeY"는 코딩 트리 블록("CTB")의 루마 크기를 지칭하고, 변수 "MinCbSizeY"는 루마 코딩 블록의 최소 크기를 지칭하고, 변수 "pic_width_in_luma_samples"는 루마 샘플의 화상 폭을 지칭하여, 실제 애플리케이션에서는 불필요하지만 하드웨어 구현에 대한 부담을 도입하는 반복되는 래핑 어라운드(repeated wrapping around)를 회피한다.
도 7은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 신택스를 도시한다. 도 5에 도시된 바와 같이, VVC(예컨대, VVC 드래프트 7)에서, 랩-어라운드 모션 보상을 위해, 인에이블 플래그 "sps_ref_wraparound_enabled_flag" 및 오프셋 "sps_ref_wraparound_offset_minus1"이 시퀀스 파라미터 세트("PPS")에서 시그널링될 수 있다.
도 8은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 시맨틱을 도시한다. 도 8에 도시된 시맨틱은 도 7에 도시된 신택스에 대응할 수 있다는 것이 인지된다. 도 8에 도시된 바와 같이, 일부 실시예들에서, "sps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 인터 예측에 적용되는지를 표시할 수 있다. 예컨대, 1의 값은 수평 랩-어라운드 모션 보상이 적용됨을 표시할 수 있고, 0의 값은 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다. 일부 실시예들에서, (CtbSizeY / MinCbSizeY + 1)의 값이 (pic_width_in_luma_samples / MinCbSizeY - 1)보다 클 때, sps_ref_wraparound_enabled_flag의 값은 0과 동일하며, 여기서 "pic_width_in_luma_samples"는 임의의 PPS에서 "pic_width_in_luma_samples"의 값이며, 이는 SPS를 참조한다.
일부 실시예들에서, 도 8에 도시된 바와 같이, "sps_ref_wraparound_offset_minus1"에 1을 더한 것은 "MinCbSizeY" 루마 샘플들의 단위로 수평 랩-어라운드 포지션을 컴퓨팅하는 데 사용되는 오프셋을 표시할 수 있다. 일부 실시예들에서, ref_wraparound_offset_minus1의 값은 (CtbSizeY / MinCbSizeY) + 1 내지 (pic_width_in_luma_samples / MinCbSizeY) - 1의 범위(해당 값들을 포함함)에 있으며, 여기서 pic_width_in_luma_samples는 임의의 PPS에서 pic_width_in_luma_samples의 값이며, 이는 SPS를 참조한다.
도 7에 도시된 신택스 및 도 8에 도시된 시맨틱과 관련하여 다수의 이슈들이 있다. 특히, "sps_ref_wraparound_enabled_flag" 및 "sps_ref_wraparound_offset_minus1"은 SPS에서 시그널링되는 신택스 요소들이지만, PPS 상에서 시그널링되는 모든 "pic_width_in_luma_samples"에 의존하는 순응성 제약(conformance constraint)이 있다. SPS는 PPS보다 상위 레벨 신택스이고 일반적으로 상위 레벨 신택스는 하위 레벨 신택스를 참조해서는 안 되기 때문에, 모든 연관된 PPS의 신택스 요소들에 의해 SPS 신택스 요소 값의 값에 제약을 가하는 것은 문제가 될 수 있다. 더욱이, 일부 실시예들에서, 랩-어라운드 모션 보상은 시퀀스 레벨에서 제어되지만, 화상 크기의 변화는 VVC 드래프트(예컨대, VVC 드래프트 7)에서 허용된다. 동시에 "sps_ref_wraparound_enabled_flag"는 SPS를 참조하는 시퀀스의 모든 화상들의 폭이 제약 조건을 만족시킬 때에만 참(true)일 수 있다. 따라서, 단 하나의 프레임이 크기 조건을 충족시키지 못하는 경우에도 랩-어라운드 모션 보상은 사용될 수 없으며, 이는 전체 시퀀스에 대한 랩-어라운드 모션 보상의 이점이 하나의 프레임으로 인해 상실될 수 있음을 의미한다.
또한, 일부 실시예들에서, "sps_ref_wraparound_offset_minus1"의 범위는 (CtbSizeY / MinCbSizeY) + 1 내지 (pic_width_in_luma_samples / MinCbSizeY) - 1이다. 따라서 sps_ref_wraparound_offset_minus1에 대한 비트스트림에서 시그널링되는 가장 작은 값은 (CtbSizeY / MinCbSizeY) + 1이며, 이는 0 값이 아닐 수 있다. 일반적으로, 큰 값들은 작은 값들보다 시그널링 시에 더 많은 비트들을 사용한다. 결과적으로, 값 범위가 0으로부터 시작하지 않는 신택스 요소를 시그널링하는 것은 효율적이지 않다.
본 개시내용의 실시예들은 위에서 논의된 이슈들을 해결하기 위한 개선된 방법들을 제공한다. 도 9는 본 개시내용의 일부 실시예들에 따라, 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 신택스를 도시한다. 일부 실시예들에서, 랩-어라운드 모션 보상("MC") 오프셋의 시그널링 오버헤드가 절감될 수 있다. 랩-어라운드 모션 보상 오프셋에 대해 전용되는 비트들을 절감하기 위해, 랩-어라운드 모션 보상 오프셋이 시그널링되기 전에, 랩-어라운드 모션 보상 오프셋으로부터 (CtbSizeY / MinCbSizeY) + 2가 감산될 수 있다. 결과적으로, 이 신택스 요소의 가장 작은 값은 0일 수 있다.
도 10은 본 개시내용의 일부 실시예들에 따라, 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 시맨틱을 도시한다. 도 10에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시된다. 도 10에 도시된 시맨틱은 도 9에 도시된 신택스에 대응할 수 있다는 것이 인지된다.
일부 실시예들에서, 도 10에 도시된 바와 같이, "sps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 인터 예측에 적용되는지를 표시할 수 있다. 예컨대, 1의 값은 수평 랩-어라운드 모션 보상이 적용됨을 표시할 수 있고, 0의 값은 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다. 일부 실시예들에서, (CtbSizeY / MinCbSizeY + 1)의 값이 (pic_width_in_luma_samples / MinCbSizeY - 1)보다 클 때, "sps_ref_wraparound_enabled_flag"의 값은 0과 동일하다.
일부 실시예들에서, 도 10에 도시된 바와 같이, "sps_ref_wraparound_offset"에 (CtbSizeY / MinCbSizeY) + 2를 더한 것은 "MinCbSizeY" 루마 샘플들의 단위로 수평 랩-어라운드 포지션을 컴퓨팅하는 데 사용되는 오프셋을 표시할 수 있다. "sps_ref_wraparound_offset"의 값은 0 내지 (pic_width_in_luma_samples / MinCbSizeY) ― (CtbSizeY / MinCbSizeY) ― 2의 범위(해당 값들을 포함함)에 있을 수 있으며, 여기서 pic_width_in_luma_samples는 임의의 PPS에서 pic_width_in_luma_samples의 값이며, 이는 SPS를 참조한다.
위에서 언급된 바와 같이, 종래의 설계가 갖는 다른 이슈는 비디오 시퀀스 내 하나의 화상이 순응성 요건을 위반하는 디멘션을 갖는 경우에도, 비디오 시퀀스 내 모든 화상들에 대해 랩-어라운드 MC가 디스에이블된다는 것이다. 일부 실시예들에서, 신택스 요소 값에 대한 제약이 제거된다. 랩-어라운드 모션 보상의 제어 플래그 sps_ref_wraparound_enabled_flag는 먼저 SPS에서 시그널링된다. 일부 실시예들에서, sps_ref_wraparound_enabled_flag가 참인 경우, 오프셋 값 sps_ref_wraparound_offset_minus1이 시그널링된다.
도 11은 본 개시내용의 일부 실시예들에 따라, 최대 화상 폭을 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 시맨틱을 도시한다. 도 11에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 시맨틱은 취소선(strikethrough)으로 추가로 도시된다.
일부 실시예들에서, 도 11에 도시된 바와 같이, "sps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 인터 예측에 적용되는지를 표시할 수 있다. 예컨대, 1의 값은 수평 랩-어라운드 모션 보상이 인터 예측에서 적용될 수 있음을 표시할 수 있고, 0의 값은 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다.
일부 실시예들에서, 도 11에 도시된 바와 같이, "sps_ref_wraparound_offset_minus1"에 1을 더한 것은 "MinCbSizeY" 루마 샘플들의 단위로 수평 랩-어라운드 포지션을 컴퓨팅하는 데 사용되는 오프셋의 최대 값을 표시할 수 있다. 일부 실시예들에서, "sps_ref_wraparound_offset_minus1"의 값은 (CtbSizeY / MinCbSizeY) + 1 내지 (pic_width_max_in_luma_samples / MinCbSizeY) - 1의 범위(해당 값들을 포함함)에 있다.
일부 실시예들에서, "pic_width_max_in_luma_samples"는 SPS를 참조하는 각각의 디코딩된 화상의 최대 폭(루마 샘플들 단위)이다.
일부 실시예들에서, 시퀀스의 각각의 화상에 대해, 2개의 변수들 "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"이 정의될 수 있다. 도 12는 본 개시내용의 일부 실시예들에 따라, 변수들 "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"의 예시적인 유도들을 도시한다. 도 12에 도시된 바와 같이, "pic_width_in_luma_samples"는 "pic_width_in_luma_samples"가 시그널링되는 PPS를 참조하는 화상의 폭을 지칭할 수 있다.
일부 실시예들에서, 도 12에 도시된 바와 같이, 변수 "PicRefWraparoundEnableFlag"는 랩-어라운드 MC가 현재 화상에 대해 인에이블될 수 있는지를 결정하기 위해 사용될 수 있다. 예컨대, 현재 화상에 대해 랩-어라운드 MC가 인에이블될 수 있음을 "PicRefWrapraoundEnableFlag"의 값이 표시하는 경우, 오프셋 "PicRefWraparoundOffset"이 모션 보상 프로세스에서 사용될 것이다.
도 13은 본 개시내용의 일부 실시예들에 따라, 모션 보상에 대해 사용되는 샘플 포지션의 예시적인 유도들을 도시한다. 도 13에 도시된 바와 같이, 샘플 포지션(xInti, yInti)은 랩-어라운드 전의 샘플 포지션을 지칭하며, 샘플 포지션(xInti, yInti)이 결정될 수 있다. 일부 실시예들에서, 변수 "picW"는 변수 "pic_width_in_luma_samples"와 동일하다. 일부 실시예들에서, 함수들 "ClipH" 및 "Clip3"은 도 13에 도시된 수학식들에 따라 실행될 수 있다.
일부 실시예들에서, 랩-어라운드 모션 보상 제어 플래그는 여전히 SPS에서 시그널링될 수 있지만, 랩-어라운드 모션 보상 오프셋은 SPS 대신에 PPS에서 시그널링된다. 도 14는 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 모션 보상 오프셋을 갖는 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 신택스를 도시한다. 도 14에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 신택스는 취소선으로 추가로 도시된다. 일부 실시예들에서, 도 14에 도시된 바와 같이, "sps_ref_wraparound_enabled_flag"는 SPS에서 시그널링되고, "pps_ref_wraparound_offset_minus1"은 PPS에서 시그널링된다.
도 15는 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 모션 보상 오프셋을 갖는 랩-어라운드 모션 보상을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다. 도 15에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 시맨틱은 취소선으로 추가로 도시된다. 도 15에 도시된 시맨틱은 도 14에 도시된 신택스에 대응할 수 있다는 것이 인지된다.
일부 실시예들에서, 도 15에 도시된 바와 같이, "sps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 인터 예측에 적용되는지를 표시할 수 있다. 예컨대, 1의 값은 수평 랩-어라운드 모션 보상이 적용됨을 표시할 수 있고, 0의 값은 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다.
일부 실시예들에서, 도 15에 도시된 바와 같이, "pps_ref_wraparound_offset_minus1"에 1을 더한 것은 "MinCbSizeY" 루마 샘플들의 단위로 수평 랩-어라운드 포지션을 컴퓨팅하는 데 사용되는 오프셋을 표시할 수 있다. 일부 실시예들에서, "sps_ref_wraparound_enabled_flag"가 0과 동일하거나 (CtbSizeY / MinCbSizeY + 1)의 값이 (pic_width_in_luma_samples / MinCbSizeY - 1)보다 클 때, "pps_ref_wraparound_offset_minus1"은 0과 동일하다. 그렇지 않으면, "pps_ref_wraparound_offset_minus1"의 값은 (CtbSizeY / MinCbSizeY) + 1 내지 (pic_width_in_luma_samples / MinCbSizeY) - 1의 범위(해당 값들을 포함함)에 있다.
일부 실시예들에서, 시퀀스의 각각의 화상에 대해, 2개의 변수들 "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"이 정의될 수 있다. 일부 실시예들에서, "PicRefWraparoundEnableFlag"는 도 12에 도시된 바와 같이 결정될 수 있다. 일부 실시예들에서, "PicRefWraparoundOffset"은 "pps_ref_wraparound_offset_minus1"에 1을 더한 것으로서 결정될 수 있다.
일부 실시예들에서, 디코딩 프로세스 동안, "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"은 랩-어라운드 모션 보상을 위해 사용될 수 있다. 예컨대, 모션 보상에 대해 사용되는 샘플 포지션(xInti, yInti)은 도 13에 도시된 방식들로 유도될 수 있다. 도 13에 도시된 바와 같이, 일부 실시예들에서, 변수 "picW"는 "pic_width_in_luma_samples"와 동일할 수 있다.
일부 실시예들에서, 랩-어라운드 모션 보상 제어 플래그는 여전히 시그널링될 수 있지만, 랩-어라운드 모션 보상 오프셋은 SPS 대신에 PPS에서 시그널링된다. 더욱이, "pps_ref_wraparound_offset"은 또한 PPS를 참조하는 화상에 대한 랩-어라운드 모션 보상의 사용을 표시할 수 있다. 도 16은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 모션 보상 오프셋 없이 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 신택스를 도시한다. 도 16에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 신택스는 취소선으로 추가로 도시된다. 도 14에 도시된 바와 같이, "sps_ref_wraparound_enabled_flag"는 SPS에서 시그널링될 수 있다.
도 17은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 모션 보상 오프셋을 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 화상 파라미터 세트의 신택스를 도시한다. 도 17에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시된다. 도 17에 도시된 PPS는 도 16에 도시된 SPS에 대응할 수 있다는 것이 인지된다. 도 17에 도시된 바와 같이, "pps_ref_wraparound_offset"은 PPS에서 시그널링될 수 있다. 일부 실시예들에서, PPS에서 시그널링된"pps_ref_wraparound_offset"은 또한 PPS를 참조하는 화상에 대한 랩-어라운드 모션 보상의 사용을 표시할 수 있다. 즉, 인코더는 pps_ref_wraparound_offset을 특별한 값으로 세팅함으로써 PPS 레벨에서 랩-어라운드 모션 보상을 디스에이블할 수 있다.
도 18은 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 모션 보상 오프셋을 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다. 도 18에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 시맨틱은 취소선으로 추가로 도시된다. 도 18에 도시된 시맨틱은 도 16 및 도 17에 도시된 신택스에 대응할 수 있다는 것이 인지된다.
일부 실시예들에서, 도 18에 도시된 바와 같이, "sps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 인터 예측에 적용되는지를 표시할 수 있다. 예컨대, 1의 값은 수평 랩-어라운드 모션 보상이 인터 예측에서 적용될 수 있음을 표시할 수 있고, 0의 값은 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다.
일부 실시예들에서, 도 18에 도시된 바와 같이, "pps_ref_wraparound_offset"에 1을 더한 것은 MinCbSizeY 루마 샘플 단위로 수평 랩-어라운드 포지션을 컴퓨팅하는데 사용되는 오프셋의 값을 표시할 수 있다. 예컨대, "pps_ref_wraparound_offset"이 0과 동일할 때, 랩-어라운드 모션 보상이 디스에이블된다. "sps_ref_wraparound_enabled_flag"가 0과 동일하거나 (CtbSizeY / MinCbSizeY + 1)의 값이 (pic_width_in_luma_samples / MinCbSizeY - 1)보다 클 때, "pps_ref_wraparound_offset"은 0과 동일하다. 그렇지 않으면"pps_ref_wraparound_offset"의 값은 (CtbSizeY / MinCbSizeY) + 1 내지 (pic_width_in_luma_samples / MinCbSizeY) - 1의 범위(해당 값들을 포함함)에 있다.
일부 실시예들에서, 시퀀스의 각각의 화상에 대해, 2개의 변수들 "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"이 정의될 수 있다. 도 19는 본 개시내용의 일부 실시예들에 따라, 변수들 "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"의 예시적인 유도들을 도시한다.
일부 실시예들에서, 디코딩 프로세스 동안, "PicRefWraparoundEnableFlag" 및 "PicRefWraparoundOffset"은 랩-어라운드 모션 보상을 위해 사용될 수 있다. 예컨대, 모션 보상에 대해 사용되는 샘플 포지션(xInti, yInti)은 도 11에 도시된 방식들로 유도될 수 있다. 도 11에 도시된 바와 같이, 일부 실시예들에서, 변수 "picW"는 "pic_width_in_luma_samples"와 동일할 수 있다.
일부 실시예들에서, 신택스가 변경된다. 랩-어라운드 모션 보상 제어 플래그는 여전히 SPS에서 시그널링될 수 있지만 랩-어라운드 모션 보상 오프셋은 SPS 대신에 PPS에서 시그널링된다. 게다가, PPS 레벨 랩-어라운드 모션 보상 제어 플래그가 또한 시그널링될 수 있다. 도 20은 본 개시내용의 일부 실시예들에 따라, 시퀀스 파라미터 세트에서 랩-어라운드 모션 보상 오프셋 없이 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트의 신택스를 도시한다. 도 20에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 신택스는 취소선으로 추가로 도시된다. 도 20에 도시된 바와 같이, "sps_ref_wraparound_enabled_flag"는 SPS에서 시그널링될 수 있다.
도 21은 본 개시내용의 일부 실시예들에 따라, 랩-어라운드 제어 플래그를 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 화상 파라미터 세트의 신택스를 도시한다. 도 21에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시된다. 도 21에 도시된 바와 같이, "pps_ref_wraparound_enabled_flag"는 PPS에서 시그널링될 수 있다. 일부 실시예들에서, "pps_ref_wraparound_enabled_flag"가 참인 경우(예컨대, 값이 1과 동일한 경우), "pps_ref_wraparound_offset"이 시그널링될 수 있다.
도 22는 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 제어 플래그를 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다. 도 22에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 시맨틱은 취소선으로 추가로 도시된다. 도 22에 도시된 시맨틱은 도 20 및 도 21에 도시된 신택스에 대응할 수 있다는 것이 인지된다.
일부 실시예들에서, 도 22에 도시된 바와 같이, "sps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 인터 예측에 적용되는지를 표시할 수 있다. 예컨대, 1의 값은 수평 랩-어라운드 모션 보상이 인터 예측에서 적용될 수 있음을 표시할 수 있고, 0의 값은 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다.
일부 실시예들에서, 도 22에 도시된 바와 같이, 1과 동일한 "pps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 인터 예측에 적용됨을 표시할 수 있다. 0과 동일한 "pps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다. 일부 실시예들에서, "sps_ref_wraparound_enabled_flag"가 0과 동일하거나 (CtbSizeY / MinCbSizeY + 1)의 값이 (pic_width_in_luma_samples / MinCbSizeY - 1)보다 클 때, "pps_ref_wraparound_enabled_flag"는 0과 동일하다.
일부 실시예들에서, 도 22에 도시된 바와 같이 시퀀스 파라미터 세트 및 화상 파라미터 세트에 대한 대안적인 시맨틱이 존재한다. 도 23은 본 개시내용의 일부 실시예들에 따라, 화상 파라미터 세트에서 랩-어라운드 제어 플래그를 갖는 개선된 랩-어라운드 모션 보상들을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다. 도 23에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 시맨틱은 취소선으로 추가로 도시된다. 도 23에 도시된 시맨틱은 도 20 및 도 21에 도시된 신택스에 대응할 수 있다는 것이 인지된다.
일부 실시예들에서, 도 23에 도시된 바와 같이, 1과 동일한 "pps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 인터 예측에 적용됨을 표시할 수 있다. 0과 동일한 "pps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다. 일부 실시예들에서, "sps_ref_wraparound_enabled_flag"가 0과 동일하거나 (CtbSizeY / MinCbSizeY + 1)의 값이 (pic_width_in_luma_samples / MinCbSizeY - 1)보다 클 때, "pps_ref_wraparound_enabled_flag"는 0이다. 그렇지 않으면"pps_ref_wraparound_enabled_flag"는 1과 동일하다.
일부 실시예들에서, 도 23에 도시된 바와 같이, "pps_ref_wraparound_offset"에 (CtbSizeY / MinCbSizeY) + 2를 더한 것은 MinCbSizeY 루마 샘플 단위로 수평 랩-어라운드 포지션을 컴퓨팅하는 데 사용되는 오프셋의 값을 지정할 수 있다. 일부 실시예들에서, 존재하는 경우, "pps_ref_wraparound_offset"의 값은 0 내지 (pic_width_in_luma_samples / MinCbSizeY) ― (CtbSizeY / MinCbSizeY) ― 2의 범위(해당 값들을 포함함)에 있을 수 있다.
일부 실시예들에서, 시퀀스의 각각의 화상에 대해, 변수 "PicRefWraparoundOffset"가 정의될 수 있다. 예컨대, "PicRefWraparoundOffset"은 pps_ref_wraparound_offset_minus1 + 1로서 유도될 수 있다.
일부 실시예들에서, 디코딩 프로세스 동안, 변수들 "pps_ref_wraparound_enabled_flag" 및 "PicRefWraparoundOffset"이 랩-어라운드 모션 보상을 위해 사용될 수 있다. 도 24는 본 개시내용의 일부 실시예들에 따라 변수 "PicRefWraparoundOffset"의 예시적인 유도를 도시한다. 도 24에 도시된 바와 같이, 변수 "PicRefWraparoundOffset"은 변수들 "pps_ref_wraparound_offset", "CtbSizeY", 및 "MinCbSizeY"에 따라 유도될 수 있다. 일부 실시예들에서, 변수 "PicRefWraparoundOffset"은 또한 도 13에 도시된 샘플 포지션과 유사하게, 모션 보상에 대해 사용되는 샘플 포지션(xInti, yInti)을 결정하는 데 사용될 수 있다. 도 13에 도시된 바와 같이, 변수 "picW"는 "pic_width_in_luma_samples"와 동일할 수 있다.
일부 실시예들에서, "sps_ref_wraparound_enabled_flag"는 제거될 수 있고, "pps_ref_wraparound_enabled_flag" 및 "pps_ref_wraparound_offset"은 유지될 수 있다.
일부 실시예들에서, "sps_ref_wraparound_enabled_flag" 및 "sps_ref_wraparound_offset_minus1"의 값 범위들에 관한 제약이 제거될 수 있고, SPS 및 PPS에서 시그널링되는 화상 크기의 값 범위에 관한 제약이 추가될 수 있다. 또한, 어떠한 신택스 변경들도 없을 수 있다. 도 25는 본 개시내용의 일부 실시예들에 따라, 화상 크기에 대한 제약을 갖는 개선된 랩-어라운드 모션 보상을 위한 예시적인 시퀀스 파라미터 세트 및 화상 파라미터 세트의 시맨틱을 도시한다. 도 25에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 시맨틱은 취소선으로 추가로 도시된다.
일부 실시예들에서, 도 25에 도시된 바와 같이, "pic_width_max_in_luma_samples"는 SPS를 참조하는 각각의 디코딩된 화상의 최대 폭을 루마 샘플들 단위로 표시할 수 있다. 일부 실시예들에서, "pic_width_max_in_luma_samples"는 0과 동일하지 않을 수 있고 max(8, MinCbSizeY)의 정수배일 수 있다.
일부 실시예들에서, 도 25에 도시된 바와 같이, "pic_height_max_in_luma_samples"는 SPS를 참조하는 각각의 디코딩된 화상의 최대 높이를 루마 샘플 단위로 표시할 수 있다. 일부 실시예들에서, "pic_height_max_in_luma_samples"는 0과 동일하지 않을 수 있고 max(8, MinCbSizeY)의 정수배일 수 있다.
일부 실시예들에서, 도 25에 도시된 바와 같이, 1과 동일한 "sps_ref_wraparound_enabled_flag"는, 수평 랩-어라운드 모션 보상이 인터 예측에 적용됨을 표시할 수 있고, 0과 동일한 "sps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 적용되지 않음을 표시할 수 있다.
일부 실시예들에서, "sps_ref_wraparound_offset_minus1"에 1을 더한 것은 "MinCbSizeY" 루마 샘플들의 단위로 수평 랩-어라운드 포지션을 컴퓨팅하는 데 사용되는 오프셋을 표시할 수 있다. 일부 실시예들에서, "sps_ref_wraparound_offset_minus1"의 값은 (CtbSizeY / MinCbSizeY) + 1 이상이다.
일부 실시예들에서, "pic_width_max_in_luma_samples", "CtbSizeY" 및 "MinCbSizeY"에 대해 제약이 부과될 수 있다. 도 26은 본 개시내용의 일부 실시예들에 따라, 변수들 "pic_width_max_in_luma_samples", "CtbSizeY" 및 "MinCbSizeY"에 부과된 제약들을 갖는 개선된 랩-어라운드 모션 보상을 위한 예시적인 시퀀스 파라미터 세트의 시맨틱을 도시한다. 도 26에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 시맨틱은 취소선으로 추가로 도시된다.
일부 실시예들에서, PPS에서 시그널링되는 "pic_width_in_luma_samples"에 대해 제약이 부과될 수 있다. 도 27은 본 개시내용의 일부 실시예들에 따라, 변수 "pic_width_in_luma_samples"에 부과된 제약들을 갖는 개선된 랩-어라운드 모션 보상을 위한 예시적인 화상 파라미터 세트의 시맨틱을 도시한다. 도 27에 도시된 바와 같이, 이전 VVC로부터의 변화들은 이탤릭체로 도시되고 제안된 삭제된 시맨틱은 취소선으로 추가로 도시된다.
일부 실시예들에서, 도 9 내지 도 11에 도시된 방법들은 도 11 내지 도 27에 도시된 방법들 중 임의의 것과 결합될 수 있다. 랩-어라운드 모션 보상 오프셋이 시그널링되기 전에 랩-어라운드 모션 보상 오프셋으로부터 지정된 값을 감산하여(예컨대, 도 9 및 도 10에 도시된 방법) 시그널링 비용을 감소시키기 때문에, 방법들이 결합될 때, 비트스트림에서 시그널링된 랩-어라운드 모션 보상 오프셋의 범위 제약이 또한 변경될 수 있다. 예컨대, 동일한 지정된 값이 상한 및 하한 둘 모두로부터 감산될 수 있다. 더욱이, 감산 후, 하한이 0인 경우, 이는 제거될 수 있는데, 그 이유는 비트스트림에서 시그널링된 오프셋이 VVC 표준(예컨대, VVC 드래프트 7)에서 음이 아닌 값이라는 것이 보장되기 때문이다.
본 개시내용의 실시예들은 모션 보상들을 수행하기 위한 추가 방법들이다. 도 28은 본 개시내용의 일부 실시예들에 따라, 모션 보상들을 수행하기 위한 예시적인 방법의 흐름도를 도시한다. 도 28에 도시된 방법(28000)은 도 9 및 도 10에 도시된 신택스 및 시맨틱에 따라 실행될 수 있다는 것이 인지된다.
단계(S28010)에서, 화상들의 시퀀스가 수신된다. 시퀀스는 시퀀스 랩-어라운드 모션 보상 플래그 및 시퀀스 랩-어라운드 모션 보상 오프셋과 연관된다. 시퀀스 모션 보상 랩-어라운드 모션 보상 오프셋에 대한 최소 값은 0이다. 예컨대, 도 9에 도시된 바와 같이, 랩-어라운드 모션 보상 오프셋에 대해 전용되는 비트들을 절감하기 위해, 랩-어라운드 모션 보상 오프셋이 시그널링되기 전에 랩-어라운드 모션 보상 오프셋으로부터 (CtbSizeY / MinCbSizeY) + 2가 감산될 수 있다. 결과적으로, 이 신택스 요소의 가장 작은 값은 0일 수 있다.
단계(S28020)에서, 시퀀스 랩-어라운드 모션 보상 플래그가 인에이블되는지가 결정된다.
단계(S28030)에서, 시퀀스 랩-어라운드 모션 보상 플래그가 인에이블되는 것에 대한 응답으로, 시퀀스 랩-어라운드 모션 보상 오프셋에 따라 화상들의 시퀀스 내 화상에 대해 랩-어라운드 모션 보상이 수행된다. 일부 실시예들에서, 모션 보상은 VVC 표준에 따라 수행된다.
본 개시내용의 실시예들은 시퀀스 랩-어라운드 모션 보상 오프셋에 대해 제약된 범위로 모션 보상을 수행하기 위한 추가 방법들이다. 도 29는 본 개시내용의 일부 실시예들에 따라, 시퀀스 랩-어라운드 모션 보상 오프셋에 대해 제약된 범위로 모션 보상들을 수행하기 위한 예시적인 방법의 흐름도를 도시한다. 도 29에 도시된 방법(29000)은 도 11에 도시된 시맨틱에 따라 실행될 수 있다는 것이 인지된다.
단계(S29010)에서, 화상들의 시퀀스가 수신된다. 시퀀스는 시퀀스 랩-어라운드 모션 보상 플래그 및 시퀀스 랩-어라운드 모션 보상 오프셋과 연관된다. 시퀀스 랩-어라운드 모션 보상 오프셋에 대한 범위는 화상들의 시퀀스 내 화상의 최대 폭에 따라 제약을 받는다. 예컨대, 도 11에 도시된 바와 같이, "pic_width_max_in_luma_samples"는 SPS를 참조하는 각각의 디코딩된 화상의 최대 폭을 루마 샘플 단위로 표현할 수 있다. "sps_ref_wraparound_offset_minus1"의 값은 (CtbSizeY / MinCbSizeY) + 1 내지 (pic_width_max_in_luma_samples / MinCbSizeY) - 1의 범위(해당 값들을 포함함)에 있을 수 있다.
단계(S29020)에서, 시퀀스 랩-어라운드 모션 보상 플래그가 인에이블되는지가 결정된다.
단계(S29030)에서, 시퀀스 랩-어라운드 모션 보상 플래그가 인에이블되는 것에 대한 응답으로, 시퀀스 랩-어라운드 모션 보상 오프셋에 따라 화상들의 시퀀스 내 화상에 대해 랩-어라운드 모션 보상이 수행된다. 일부 실시예들에서, 모션 보상은 VVC 표준에 따라 수행된다. 일부 실시예들에서, 랩-어라운드 모션 보상은 화상들의 시퀀스 내 복수의 화상들에 대해 수행될 수 있고, 복수의 화상들은 상이한 크기들을 가질 수 있다. 일부 실시예들에서, 화상에 대한 랩-어라운드 모션 보상은, 화상 랩-어라운드 인에이블 플래그가 인에이블되는 것에 대한 응답으로 시퀀스 랩-어라운드 모션 보상 오프셋에 따라 수행된다. 화상 랩-어라운드 인에이블 플래그는 시퀀스 랩-어라운드 모션 보상 플래그에 따라 결정될 수 있다. 예컨대, 도 12에 도시된 바와 같이, 화상 랩-어라운드 인에이블 플래그는 변수 "sps_ref_wraparound_enabled_flag"를 포함하는 수학식으로부터 결정될 수 있다.
본 개시내용의 실시예들은 시퀀스 랩-어라운드 모션 보상 오프셋과 연관된 화상으로 모션 보상들을 수행하기 위한 추가 방법들이다. 도 30은 본 개시내용의 일부 실시예들에 따라, 시퀀스 랩-어라운드 모션 보상 오프셋과 연관된 화상으로 모션 보상들을 수행하기 위한 예시적인 방법의 흐름도를 도시한다. 도 30에 도시된 방법(30000)은 도 14 및 도 15에 도시된 신택스 및 시맨틱에 따라 실행될 수 있다는 것이 인지된다.
단계(S30010)에서, 화상들의 시퀀스가 수신된다. 시퀀스는 시퀀스 랩-어라운드 모션 보상 플래그와 연관되고, 시퀀스 내 화상은 화상 랩-어라운드 모션 보상 오프셋과 연관된다. 예컨대, 도 14에 도시된 바와 같이, 새로운 변수 "pps_ref_wraparound_offset"은 화상 파라미터 세트에 포함될 수 있다.
단계(S30020)에서, 시퀀스 랩-어라운드 모션 보상 플래그가 인에이블되는지가 결정된다.
단계(S30030)에서, 시퀀스 랩-어라운드 모션 보상 플래그가 인에이블되는 것에 대한 응답으로, 시퀀스 랩-어라운드 모션 보상 오프셋에 따라 화상들의 시퀀스 내 화상에 대해 랩-어라운드 모션 보상이 수행된다. 일부 실시예들에서, 모션 보상은 VVC 표준에 따라 수행된다. 일부 실시예들에서, 랩-어라운드 모션 보상은 화상들의 시퀀스 내 복수의 화상들에 대해 수행될 수 있고, 복수의 화상들은 상이한 크기들을 가질 수 있다.
일부 실시예들에서, 화상에 대한 랩-어라운드 모션 보상은, 화상 랩-어라운드 인에이블 플래그가 인에이블되는 것에 대한 응답으로 시퀀스 랩-어라운드 모션 보상 오프셋에 따라 수행된다. 화상 랩-어라운드 인에이블 플래그는 시퀀스 랩-어라운드 모션 보상 플래그에 따라 결정될 수 있다. 예컨대, 도 12에 도시된 바와 같이, 화상 랩-어라운드 인에이블 플래그는 변수 "sps_ref_wraparound_enabled_flag"를 포함하는 수학식으로부터 결정될 수 있다. 일부 실시예들에서, 화상 랩-어라운드 모션 보상 오프셋의 최소 값은 0이다. 예컨대, 도 18에 도시된 바와 같이, 변수 "pps_ref_wraparound_offset"에 대한 최소 값은 0일 수 있다.
일부 실시예들에서, 화상은 화상 랩-어라운드 모션 보상 플래그와 연관된다. 화상 랩-어라운드 모션 보상 플래그가 인에이블되는 것에 대한 응답으로, 랩-어라운드 모션 보상은 화상 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 수행될 수 있다. 예컨대, 도 21에 도시된 바와 같이 새로운 변수 "pps_ref_wraparound_enabled_flag"가 화상 파라미터 세트에 추가될 수 있다. 도 22에 도시된 바와 같이, 변수 "pps_ref_wraparound_enabled_flag"는 수평 랩-어라운드 모션 보상이 화상 레벨로 적용될지를 표시할 수 있다. 일부 실시예들에서, 화상 랩-어라운드 모션 보상 플래그가 인에이블되는 것에 대한 응답으로, 화상 랩-어라운드 모션 보상 오프셋이 시그널링될 수 있다.
본 개시내용의 실시예들은 제한된 최대 크기의 화상으로 모션 보상을 수행하기 위한 추가 방법들이다. 도 31은 본 개시내용의 일부 실시예들에 따라, 제약된 최대 화상 크기로 모션 보상들을 수행하기 위한 예시적인 방법의 흐름도를 도시한다. 도 31에 도시된 방법(31000)은 도 25에 도시된 시맨틱에 따라 실행될 수 있다는 것이 인지된다.
단계(S31010)에서, 화상들의 시퀀스가 수신된다. 시퀀스는 시퀀스 랩-어라운드 모션 보상 플래그와 연관되고, 시퀀스 내 화상은 화상 랩-어라운드 모션 보상 오프셋과 연관된다.
단계(S31020)에서, 시퀀스 랩-어라운드 모션 보상 플래그가 인에이블되는지가 결정된다.
단계(S31030)에서, 시퀀스 랩-어라운드 모션 보상 플래그가 인에이블되는 것에 대한 응답으로, 시퀀스 랩-어라운드 모션 보상 오프셋에 따라 화상들의 시퀀스 내 화상에 대해 랩-어라운드 모션 보상이 수행된다. 화상의 최대 크기는 시퀀스 랩-어라운드 모션 보상 오프셋에 따라 최소 값으로 제약을 받는다. 예컨대, 도 26에 도시된 바와 같이, "sps_ref_wraparound_offset_minus1"을 포함하는 수학식들에 따라 최대 화상 폭이 결정될 수 있다. 일부 실시예들에서, 모션 보상은 VVC 표준에 따라 수행된다. 일부 실시예들에서, 랩-어라운드 모션 보상은 화상들의 시퀀스 내 복수의 화상들에 대해 수행될 수 있고, 복수의 화상들은 상이한 크기들을 가질 수 있다. 일부 실시예들에서, 화상의 크기는 시퀀스 랩-어라운드 모션 보상 오프셋에 따라 최소 값으로 제약을 받는다. 예컨대, 도 27에 도시된 바와 같이, "sps_ref_wraparound_offset_minus1"을 포함하는 수학식들에 따라 화상 폭이 결정될 수 있다.
일부 실시예들에서, 명령들을 포함하는 비-일시적 컴퓨터-판독 가능 저장 매체가 또한 제공되고, 명령들은 위에서 설명된 방법들을 수행하기 위한 디바이스(이를테면, 개시된 인코더 및 디코더)에 의해 실행될 수 있다. 비-일시적 매체들의 일반적인 형태들은, 예컨대, 플로피 디스크, 플렉서블 디스크, 하드 디스크, 솔리드 스테이트 드라이브, 자기 테이프 또는 임의의 다른 자기 데이터 저장 매체, CD-ROM, 임의의 다른 광학 데이터 저장 매체, 구멍들의 패턴들을 갖는 임의의 물리적 매체, RAM, PROM 및 EPROM, FLASH-EPROM 또는 임의의 다른 플래시 메모리, NVRAM, 캐시, 레지스터, 임의의 다른 메모리 칩 또는 카트리지 및 이의 네트워킹된 버전들을 포함한다. 디바이스는 하나 이상의 프로세서들(CPU들), 입력/출력 인터페이스, 네트워크 인터페이스 및/또는 메모리를 포함할 수 있다.
본원에서 "제1" 및 "제2"와 같은 관계 용어들은 엔티티 또는 동작을 다른 엔티티 또는 동작으로부터 구별하기 위해서만 사용되며, 이러한 엔티티들 또는 동작들 사이의 임의의 실제 관계 또는 시퀀스를 요구하거나 암시하지 않는다는 것이 주의되어야 한다. 또한, "포함하는(comprising)", "갖는(having)", "함유하는(containing)" 및 "포함하는(including)"이라는 단어들 및 다른 유사한 형태들은 의미가 동등하고 이러한 단어들 중 임의의 것을 뒤따르는 아이템 또는 아이템들이 그러한 아이템 또는 아이템들의 총망랑하는 목록을 의미하거나 나열된 아이템 또는 아이템들만으로 제한되는 것을 의미하지 않는다는 점에서 개방형(open ended)인 것으로 의도된다.
본원에서 사용되는 바와 같이, 달리 구체적으로 언급되지 않는 한, 용어"또는"은 실행 불가능한 경우를 제외하고 모든 가능한 조합들을 포괄한다. 예컨대, 데이터베이스가 A 또는 B를 포함할 수 있다고 언급되는 경우, 구체적으로 달리 언급되거나 실행 불가능하지 않다면, 데이터베이스는 A 또는 B 또는 A 및 B를 포함할 수 있다. 제2의 예로서, 데이터베이스가 A, B 또는 C를 포함할 수 있다고 언급되는 경우, 구체적으로 달리 언급되거나 실행 불가능하지 않다면, 데이터베이스는 A 또는 B 또는 C 또는 A와 B 또는 A와 C 또는 B와 C 또는 A와 B와 C를 포함할 수 있다.
위에서 설명된 실시예들은 하드웨어, 또는 소프트웨어(프로그램 코드들) 또는 하드웨어 및 소프트웨어의 조합에 의해 구현될 수 있다는 것이 인지된다. 소프트웨어에 의해 구현되는 경우, 이는 위에서 설명된 컴퓨터-판독 가능 매체들에 저장될 수 있다. 프로세서에 의해 실행될 때, 소프트웨어는 개시된 방법들을 수행할 수 있다. 본 개시내용에서 설명된 컴퓨팅 유닛들 및 다른 기능 유닛들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합에 의해 구현될 수 있다. 당업자는 또한 위에서 설명된 모듈들/유닛들 중 다수가 하나의 모듈/유닛으로서 결합될 수 있고, 위에서 설명된 모듈들/유닛들 각각은 복수의 서브-모듈들/서브-유닛들로 추가로 분할될 수 있다는 것을 이해할 것이다.
전술한 명세서에서, 실시예들은 구현마다 변동될 수 있는 수많은 특정 세부사항들을 참조하여 설명되었다. 설명된 실시예들의 특정 적응들 및 수정들이 이루어질 수 있다. 다른 실시예들은 본원에서 개시된 발명의 실시 및 명세서를 고려하여 당업자들에게 명백해질 수 있다. 본 명세서 및 예들은 단지 예시적인 것으로서만 고려되며, 본 발명의 실제 범위 및 사상은 다음의 청구항들에 의해 표시되는 것으로 의도된다. 또한 도면들에 도시된 단계들의 시퀀스는 단지 예시를 위한 것으로 의도되며 단계들의 임의의 특정 시퀀스로 제한되는 것으로 의도되지 않는다. 따라서, 당업자들은 이러한 단계들이 동일한 방법을 구현하면서 상이한 순서로 수행될 수 있다는 것을 인지할 수 있다.
실시예들은 다음 조항(clauses)을 사용하여 추가로 설명될 수 있다:
1. 모션 보상을 수행하기 위한 방법으로서,
제1 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 제1 랩-어라운드 모션 보상 플래그는 화상과 연관됨 ― ;
제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계;
제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 단계 ― 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ; 및
제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 모션 보상을 수행하는 단계를 포함하는, 모션 보상을 수행하기 위한 방법.
2. 조항 1에 있어서,
제2 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 제1 랩-어라운드 모션 보상 플래그는 제1 랩-어라운드 모션 보상 플래그와 연관된 화상을 포함하는 화상들의 세트와 연관됨 ― ;
제2 랩-어라운드 모션 보상 플래그가 디스에이블되는지를 결정하는 단계; 및
제2 랩-어라운드 모션 보상 플래그가 디스에이블된다는 결정에 대한 응답으로, 제1 랩-어라운드 모션 보상 플래그가 또한 디스에이블된다고 결정하는 단계를 더 포함하는, 모션 보상을 수행하기 위한 방법.
3. 조항 2에 있어서,
제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계는,
제1 랩-어라운드 모션 보상 플래그와 연관된 화상의 화상 폭을 결정하는 단계; 및
화상 폭에 기초하여 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계를 더 포함하는, 모션 보상을 수행하기 위한 방법.
4. 조항 3에 있어서,
최소 코딩 블록 단위의 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 화상의 화상 폭에서 1을 뺀 것보다 큰지를 결정하는 단계; 및
최소 코딩 블록 단위의 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 화상의 화상 폭에서 1을 뺀 것보다 크다는 결정에 대한 응답으로, 제1 모션 보상 플래그가 디스에이블된다고 결정하는 단계를 더 포함하는, 모션 보상을 수행하기 위한 방법.
5. 조항 2 내지 조항 4 중 어느 한 조항에 따른 방법에 있어서,
제2 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계; 및
제2 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 화상의 화상 폭이 루마 코딩 트리 블록 크기에 오프셋을 더한 것 이상이라고 결정하는 단계를 더 포함하는, 모션 보상을 수행하기 위한 방법.
6. 제5 조항에 있어서,
제2 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 최소 코딩 블록 단위의 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 화상의 화상 폭에서 1을 뺀 것 이하라고 결정하는 단계를 더 포함하는, 모션 보상을 수행하기 위한 방법.
7. 조항 2 내지 조항 6 중 어느 한 조항에 따른 방법에 있어서,
제2 랩-어라운드 모션 보상 플래그는 시퀀스 파라미터 세트에서 시그널링되고, 제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋은 화상 파라미터 세트에서 시그널링되는, 모션 보상을 수행하기 위한 방법.
8. 조항 1 내지 조항 7 중 어느 한 조항에 따른 방법에 있어서,
모션 보상은 다용도 비디오 코딩(versatile video coding) 표준에 따라 수행되는, 모션 보상을 수행하기 위한 방법.
9. 조항 1 내지 조항 8 중 어느 한 조항에 따른 방법에 있어서,
복수의 화상들에 대해 모션 보상을 수행하는 단계를 더 포함하고, 복수의 화상들은 상이한 크기들을 갖는, 모션 보상을 수행하기 위한 방법.
10. 조항 1 내지 조항 9 중 어느 한 조항에 따른 방법에 있어서,
랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 모션 보상을 수행하는 단계는,
비트스트림으로부터 수신된 랩-어라운드 모션 보상 오프셋에 오프셋을 추가함으로써 제2 랩-어라운드 모션 보상 오프셋을 결정하는 단계; 및
제2 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 모션 보상을 수행하는 단계를 더 포함하는, 모션 보상을 수행하기 위한 방법.
11. 모션 보상을 수행하기 위한 시스템으로서,
명령들의 세트를 저장하는 메모리; 및
프로세서를 포함하고, 프로세서는, 명령들의 세트를 실행하여, 시스템으로 하여금,
제1 랩-어라운드 모션 보상을 수신하는 것 ― 제1 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ;
제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 것;
제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 것 ― 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ; 및
제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 모션 보상을 수행하는 것을 수행하게 하도록 구성되는, 모션 보상을 수행하기 위한 시스템.
12. 조항 11에 따른 시스템에 있어서,
프로세서는 추가로, 명령들의 세트를 실행하여, 시스템으로 하여금,
제2 랩-어라운드 모션 보상 플래그를 수신하는 것 ― 제2 랩-어라운드 모션 보상 플래그는 제1 랩-어라운드 모션 보상 플래그와 연관된 화상을 포함하는 화상들의 세트와 연관됨 ― ;
제2 랩-어라운드 모션 보상 플래그가 디스에이블되는지를 결정하는 것; 그리고
제2 랩-어라운드 모션 보상 플래그가 디스에이블된다는 결정에 대한 응답으로, 제1 랩-어라운드 모션 보상 플래그가 또한 디스에이블된다고 결정하는 것을 수행하게 하도록 구성되는, 모션 보상을 수행하기 위한 시스템.
13. 조항 12에 따른 시스템에 있어서,
프로세서는 추가로, 명령들의 세트를 실행하여, 시스템으로 하여금,
제1 랩-어라운드 모션 보상 플래그와 연관된 화상의 화상 폭을 결정하는 것; 그리고
화상 폭에 기초하여 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 것을 수행하게 하도록 구성되는, 모션 보상을 수행하기 위한 시스템.
14. 조항 13에 따른 시스템에 있어서,
프로세서는 추가로, 명령들의 세트를 실행하여, 시스템으로 하여금,
최소 코딩 블록 단위의 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 화상의 화상 폭에서 1을 뺀 것보다 큰지를 결정하는 것; 그리고
최소 코딩 블록 단위의 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 화상의 화상 폭에서 1을 뺀 것보다 크다는 결정에 대한 응답으로, 제1 모션 보상 플래그가 디스에이블된다고 결정하는 것을 수행하게 하도록 구성되는, 모션 보상을 수행하기 위한 시스템.
15. 조항 12 내지 조항 14 중 어느 한 조항에 따른 방법에 있어서,
프로세서는 추가로, 명령들의 세트를 실행하여, 시스템으로 하여금,
제2 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 것; 그리고
제2 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 화상의 화상 폭이 루마 코딩 트리 블록 크기에 오프셋을 더한 것 이상이라고 결정하는 것을 수행하게 하도록 구성되는, 모션 보상을 수행하기 위한 시스템.
16. 조항 15에 따른 시스템에 있어서,
프로세서는 추가로, 명령들의 세트를 실행하여, 시스템으로 하여금,
제2 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 최소 코딩 블록 단위의 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 화상의 화상 폭에서 1을 뺀 것 이하라고 결정하는 것을 수행하게 하도록 구성되는, 모션 보상을 수행하기 위한 시스템.
17. 조항 12 내지 조항 16 중 어느 한 조항에 따른 방법에 있어서,
제2 랩-어라운드 모션 보상 플래그는 시퀀스 파라미터 세트에서 시그널링되고, 제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋은 화상 파라미터 세트에서 시그널링되는, 모션 보상을 수행하기 위한 시스템.
18. 조항 11 내지 조항 17 중 어느 한 조항에 따른 방법에 있어서,
프로세서는 추가로, 명령들의 세트를 실행하여, 시스템으로 하여금,
복수의 화상들에 대해 모션 보상을 수행하는 것을 수행하게 하도록 구성되고 복수의 화상들은 상이한 크기들을 갖는, 모션 보상을 수행하기 위한 시스템.
19. 조항 11 내지 조항 18 중 어느 한 조항에 따른 방법에 있어서,
프로세서는 추가로, 명령들의 세트를 실행하여, 시스템으로 하여금,
비트스트림으로부터 수신된 랩-어라운드 모션 보상 오프셋에 오프셋을 추가함으로써 제2 랩-어라운드 모션 보상 오프셋을 결정하는 것; 그리고
제2 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 모션 보상을 수행하는 것을 수행하게 하도록 구성되는, 모션 보상을 수행하기 위한 시스템.
20. 명령들의 세트를 저장하는 비-일시적 컴퓨터 판독 가능 매체로서,
명령들의 세트는 장치로 하여금 모션 보상을 수행하기 위한 방법을 개시하게 하도록 장치의 하나 이상의 프로세서들에 의해 실행 가능하고, 이 방법은,
제1 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 제1 랩-어라운드 모션 보상 플래그는 화상들의 세트 내 화상과 연관됨 ― ;
제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계;
제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 단계 ― 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ; 및
제1 랩-어라운드 모션 보상 플래그 및 랩-어라운드 모션 보상 오프셋에 따라 화상에 대해 모션 보상을 수행하는 단계를 포함하는, 비-일시적 컴퓨터 판독 가능 매체.
21. 조항 20에 따른 비-일시적 컴퓨터 판독 가능 매체에 있어서,
명령들의 세트는 컴퓨터 시스템으로 하여금, 추가로
제1 랩-어라운드 모션 보상 플래그와 연관된 화상의 화상 폭을 결정하는 단계; 및
화상 폭에 기초하여 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계를 수행하게 하도록, 컴퓨터 시스템의 적어도 하나의 프로세서에 의해 실행 가능한, 비-일시적 컴퓨터 판독 가능 매체.
도면들 및 명세서에서, 예시적인 실시예들이 개시되어 있다. 그러나, 이들 실시예에 대해 다수의 변동들 및 수정들이 이루어질 수 있다. 이에 따라 특정 용어들이 이용되지만, 그들은 제한의 목적들이 아니라 일반적이고 설명적인 의미로 사용된다.

Claims (20)

  1. 모션 보상을 수행하기 위한 방법으로서,
    제1 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 상기 제1 랩-어라운드 모션 보상 플래그는 화상과 연관됨 ― ;
    상기 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계;
    상기 제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 단계 ― 상기 랩-어라운드 모션 보상 오프셋은 상기 화상과 연관됨 ― ; 및
    상기 제1 랩-어라운드 모션 보상 플래그 및 상기 랩-어라운드 모션 보상 오프셋에 따라 상기 화상에 대해 모션 보상을 수행하는 단계를 포함하는,
    모션 보상을 수행하기 위한 방법.
  2. 제1 항에 있어서,
    제2 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 상기 제1 랩-어라운드 모션 보상 플래그는 상기 제1 랩-어라운드 모션 보상 플래그와 연관된 상기 화상을 포함하는 화상들의 세트와 연관됨 ― ;
    상기 제2 랩-어라운드 모션 보상 플래그가 디스에이블되는지를 결정하는 단계; 및
    상기 제2 랩-어라운드 모션 보상 플래그가 디스에이블된다는 결정에 대한 응답으로, 상기 제1 랩-어라운드 모션 보상 플래그가 또한 디스에이블된다고 결정하는 단계를 더 포함하는,
    모션 보상을 수행하기 위한 방법.
  3. 제2 항에 있어서,
    상기 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계는,
    상기 제1 랩-어라운드 모션 보상 플래그와 연관된 상기 화상의 화상 폭을 결정하는 단계; 및
    상기 화상 폭에 기초하여 상기 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계를 더 포함하는,
    모션 보상을 수행하기 위한 방법.
  4. 제3 항에 있어서,
    최소 루마 코딩 블록 단위의 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 루마 코딩 블록 단위의 상기 화상의 화상 폭에서 1을 뺀 것보다 큰지를 결정하는 단계; 및
    최소 코딩 블록 단위의 상기 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 상기 화상의 화상 폭에서 1을 뺀 것보다 크다는 결정에 대한 응답으로, 상기 제1 모션 보상 플래그가 디스에이블된다고 결정하는 단계를 더 포함하는,
    모션 보상을 수행하기 위한 방법.
  5. 제2 항에 있어서,
    상기 제2 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계; 및
    상기 제2 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 상기 화상의 화상 폭이 루마 코딩 트리 블록 크기에 오프셋을 더한 것 이상이라고 결정하는 단계를 더 포함하는,
    모션 보상을 수행하기 위한 방법.
  6. 제5 항에 있어서,
    상기 제2 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 최소 코딩 블록 단위의 상기 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 상기 화상의 화상 폭에서 1을 뺀 것 이하라고 결정하는 단계를 더 포함하는,
    모션 보상을 수행하기 위한 방법.
  7. 제2 항에 있어서,
    상기 제2 랩-어라운드 모션 보상 플래그는 시퀀스 파라미터 세트에서 시그널링되고, 상기 제1 랩-어라운드 모션 보상 플래그 및 상기 랩-어라운드 모션 보상 오프셋은 화상 파라미터 세트에서 시그널링되는,
    모션 보상을 수행하기 위한 방법.
  8. 제1 항에 있어서,
    상기 모션 보상은 다용도 비디오 코딩(versatile video coding) 표준에 따라 수행되는,
    모션 보상을 수행하기 위한 방법.
  9. 제1 항에 있어서,
    복수의 화상들에 대해 모션 보상을 수행하는 단계를 더 포함하고, 상기 복수의 화상들은 상이한 크기들을 갖는,
    모션 보상을 수행하기 위한 방법.
  10. 제1 항에 있어서,
    상기 랩-어라운드 모션 보상 오프셋에 따라 상기 화상에 대해 모션 보상을 수행하는 단계는,
    상기 비트스트림으로부터 수신된 랩-어라운드 모션 보상 오프셋에 오프셋을 추가함으로써 제2 랩-어라운드 모션 보상 오프셋을 결정하는 단계; 및
    상기 제2 랩-어라운드 모션 보상 오프셋에 따라 상기 화상에 대해 모션 보상을 수행하는 단계를 더 포함하는,
    모션 보상을 수행하기 위한 방법.
  11. 모션 보상을 수행하기 위한 시스템으로서,
    명령들의 세트를 저장하는 메모리; 및
    프로세서를 포함하고, 상기 프로세서는, 상기 명령들의 세트를 실행하여, 상기 시스템으로 하여금,
    제1 랩-어라운드 모션 보상을 수신하는 것 ― 상기 제1 랩-어라운드 모션 보상 오프셋은 화상과 연관됨 ― ;
    상기 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 것;
    상기 제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 것 ― 상기 랩-어라운드 모션 보상 오프셋은 상기 화상과 연관됨 ― ; 그리고
    상기 제1 랩-어라운드 모션 보상 플래그 및 상기 랩-어라운드 모션 보상 오프셋에 따라 상기 화상에 대해 모션 보상을 수행하는 것을 수행하게 하도록 구성되는,
    모션 보상을 수행하기 위한 시스템.
  12. 제11 항에 있어서,
    상기 프로세서는 추가로, 상기 명령들의 세트를 실행하여, 상기 시스템으로 하여금,
    제2 랩-어라운드 모션 보상 플래그를 수신하는 것 ― 상기 제2 랩-어라운드 모션 보상 플래그는 상기 제1 랩-어라운드 모션 보상 플래그와 연관된 상기 화상을 포함하는 화상들의 세트와 연관됨 ― ;
    상기 제2 랩-어라운드 모션 보상 플래그가 디스에이블되는지를 결정하는 것; 그리고
    상기 제2 랩-어라운드 모션 보상 플래그가 디스에이블된다는 결정에 대한 응답으로, 상기 제1 랩-어라운드 모션 보상 플래그가 또한 디스에이블된다고 결정하는 것을 수행하게 하도록 구성되는,
    모션 보상을 수행하기 위한 시스템.
  13. 제12 항에 있어서,
    상기 프로세서는 추가로, 상기 명령들의 세트를 실행하여, 상기 시스템으로 하여금,
    상기 제1 랩-어라운드 모션 보상 플래그와 연관된 상기 화상의 화상 폭을 결정하는 것; 그리고
    상기 화상 폭에 기초하여 상기 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 것을 수행하게 하도록 구성되는,
    모션 보상을 수행하기 위한 시스템.
  14. 제13 항에 있어서,
    상기 프로세서는 추가로, 상기 명령들의 세트를 실행하여, 상기 시스템으로 하여금,
    최소 코딩 블록 단위의 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 상기 화상의 화상 폭에서 1을 뺀 것보다 큰지를 결정하는 것; 그리고
    최소 코딩 블록 단위의 상기 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 상기 화상의 화상 폭에서 1을 뺀 것보다 크다는 결정에 대한 응답으로, 상기 제1 모션 보상 플래그가 디스에이블된다고 결정하는 것을 수행하게 하도록 구성되는,
    모션 보상을 수행하기 위한 시스템.
  15. 제12 항에 있어서,
    상기 프로세서는 추가로, 상기 명령들의 세트를 실행하여, 상기 시스템으로 하여금,
    상기 제2 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 것; 그리고
    상기 제2 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 상기 화상의 화상 폭이 루마 코딩 트리 블록 크기에 오프셋을 더한 것 이상이라고 결정하는 것을 수행하게 하도록 구성되는,
    모션 보상을 수행하기 위한 시스템.
  16. 제15 항에 있어서,
    상기 프로세서는 추가로, 상기 명령들의 세트를 실행하여, 상기 시스템으로 하여금,
    상기 제2 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 최소 코딩 블록 단위의 상기 루마 코딩 트리 블록 크기에 1을 더한 것이 최소 코딩 블록 단위의 상기 화상의 화상 폭에서 1을 뺀 것 이하라고 결정하는 것을 수행하게 하도록 구성되는,
    모션 보상을 수행하기 위한 시스템.
  17. 제12 항에 있어서,
    상기 제2 랩-어라운드 모션 보상 플래그는 시퀀스 파라미터 세트에서 시그널링되고, 상기 제1 랩-어라운드 모션 보상 플래그 및 상기 랩-어라운드 모션 보상 오프셋은 화상 파라미터 세트에서 시그널링되는,
    모션 보상을 수행하기 위한 시스템.
  18. 제11 항에 있어서,
    상기 프로세서는 추가로, 상기 명령들의 세트를 실행하여, 상기 시스템으로 하여금,
    복수의 화상들에 대해 모션 보상을 수행하는 것을 수행하게 하도록 구성되고, 상기 복수의 화상들은 상이한 크기들을 갖는,
    모션 보상을 수행하기 위한 시스템.
  19. 제11 항에 있어서,
    상기 프로세서는 추가로, 상기 명령들의 세트를 실행하여, 상기 시스템으로 하여금,
    상기 비트스트림으로부터 수신된 상기 랩-어라운드 모션 보상 오프셋에 오프셋을 추가함으로써 제2 랩-어라운드 모션 보상 오프셋을 결정하는 것; 그리고
    상기 제2 랩-어라운드 모션 보상 오프셋에 따라 상기 화상에 대해 모션 보상을 수행하는 것을 수행하게 하도록 구성되는,
    모션 보상을 수행하기 위한 시스템.
  20. 명령들의 세트를 저장하는 비-일시적 컴퓨터 판독 가능 매체로서,
    상기 명령들의 세트는 장치로 하여금 모션 보상을 수행하기 위한 방법을 개시하게 하도록 상기 장치의 하나 이상의 프로세서들에 의해 실행 가능하고, 상기 방법은,
    제1 랩-어라운드 모션 보상 플래그를 수신하는 단계 ― 상기 제1 랩-어라운드 모션 보상 플래그는 화상들의 세트 내 화상과 연관됨 ― ;
    상기 제1 랩-어라운드 모션 보상 플래그가 인에이블되는지를 결정하는 단계;
    상기 제1 랩-어라운드 모션 보상 플래그가 인에이블된다는 결정에 대한 응답으로, 랩-어라운드 모션 보상 오프셋을 수신하는 단계 ― 상기 랩-어라운드 모션 보상 오프셋은 상기 화상과 연관됨 ― ; 및
    상기 제1 랩-어라운드 모션 보상 플래그 및 상기 랩-어라운드 모션 보상 오프셋에 따라 상기 화상에 대해 모션 보상을 수행하는 단계를 포함하는,
    비-일시적 컴퓨터 판독 가능 매체.
KR1020227024204A 2019-12-17 2020-12-17 랩-어라운드 모션 보상을 수행하기 위한 방법들 KR20220116006A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962949396P 2019-12-17 2019-12-17
US62/949,396 2019-12-17
PCT/US2020/065515 WO2021127118A1 (en) 2019-12-17 2020-12-17 Methods for performing wrap-around motion compensation

Publications (1)

Publication Number Publication Date
KR20220116006A true KR20220116006A (ko) 2022-08-19

Family

ID=76317613

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227024204A KR20220116006A (ko) 2019-12-17 2020-12-17 랩-어라운드 모션 보상을 수행하기 위한 방법들

Country Status (6)

Country Link
US (3) US11711537B2 (ko)
EP (1) EP4074042A4 (ko)
JP (1) JP2023507259A (ko)
KR (1) KR20220116006A (ko)
CN (1) CN114868393A (ko)
WO (1) WO2021127118A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11425420B2 (en) * 2019-12-27 2022-08-23 Qualcomm Incorporated Wraparound offsets for reference picture resampling in video coding
US11418804B2 (en) * 2019-12-31 2022-08-16 Tencent America LLC Method for wrap around motion compensation with reference picture resampling
WO2021194308A1 (ko) * 2020-03-26 2021-09-30 엘지전자 주식회사 랩-어라운드 움직임 보상에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110194613A1 (en) * 2010-02-11 2011-08-11 Qualcomm Incorporated Video coding with large macroblocks
CN103039073B (zh) * 2010-06-07 2016-09-14 数码士有限公司 编码/解码高分辨率图像的方法和执行该方法的装置
GB201119206D0 (en) 2011-11-07 2011-12-21 Canon Kk Method and device for providing compensation offsets for a set of reconstructed samples of an image
US9282328B2 (en) * 2012-02-10 2016-03-08 Broadcom Corporation Sample adaptive offset (SAO) in accordance with video coding
SG10201710075SA (en) * 2012-05-14 2018-01-30 Luca Rossato Decomposition of residual data during signal encoding, decoding and reconstruction in a tiered hierarchy
KR102432085B1 (ko) * 2015-09-23 2022-08-11 노키아 테크놀로지스 오와이 360도 파노라마 비디오를 코딩하는 방법, 장치 및 컴퓨터 프로그램 제품
US11212438B2 (en) 2018-02-14 2021-12-28 Qualcomm Incorporated Loop filter padding for 360-degree video coding
JP7181395B2 (ja) 2018-07-02 2022-11-30 北京字節跳動網絡技術有限公司 イントラ予測モードを有するルックアップテーブルおよび非隣接ブロックからのイントラモード予測
WO2020056247A1 (en) 2018-09-14 2020-03-19 Vid Scale, Inc. Methods and apparatus for flexible grid regions
TWI822863B (zh) * 2018-09-27 2023-11-21 美商Vid衡器股份有限公司 360度視訊寫碼樣本導出
EP3874757A4 (en) * 2018-11-02 2022-08-24 Sharp Kabushiki Kaisha SYSTEMS AND METHODS FOR REFERENCE OFFSET SIGNALING IN VIDEO CODING
US11252434B2 (en) * 2018-12-31 2022-02-15 Tencent America LLC Method for wrap-around padding for omnidirectional media coding
US11095916B2 (en) * 2019-07-23 2021-08-17 Qualcomm Incorporated Wraparound motion compensation in video coding
US11539939B2 (en) 2019-11-27 2022-12-27 Hfi Innovation Inc. Video processing methods and apparatuses for horizontal wraparound motion compensation in video coding systems
US11425420B2 (en) 2019-12-27 2022-08-23 Qualcomm Incorporated Wraparound offsets for reference picture resampling in video coding
US11368708B2 (en) 2020-01-08 2022-06-21 Tencent America LLC Method for combination of wrap-around offset and reference picture resampling

Also Published As

Publication number Publication date
US11711537B2 (en) 2023-07-25
EP4074042A1 (en) 2022-10-19
US20210185340A1 (en) 2021-06-17
US11956463B2 (en) 2024-04-09
EP4074042A4 (en) 2023-01-25
US20240205447A1 (en) 2024-06-20
JP2023507259A (ja) 2023-02-22
US20230123069A1 (en) 2023-04-20
CN114868393A (zh) 2022-08-05
WO2021127118A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
US11671613B2 (en) Methods for signaling virtual boundaries and wrap-around motion compensation
US11523138B2 (en) Method and apparatus for cross component filtering
WO2021133510A1 (en) Method and apparatus for lossless coding of video data
WO2021055114A1 (en) Method and system for signaling chroma quantization parameter offset
US11956463B2 (en) Methods for performing wrap-around motion compensation
KR20220113808A (ko) 화상들 상에서 점진적 디코딩 리프레시 프로세싱을 수행하기 위한 방법들 및 시스템들
US11785237B2 (en) Methods for signaling video coding data
KR20220110301A (ko) 화상 경계에서 블록 파티셔닝을 위한 방법들 및 장치들
KR20220120628A (ko) 서브화상 파티셔닝 정보를 시그널링하기 위한 방법 및 장치
JP2023519216A (ja) ループフィルタの高レベルシンタックス制御
US20210306623A1 (en) Sign data hiding of video recording
CN116418983B (zh) 用于在调色板模式下对视频数据进行编码的方法和装置
US20240048772A1 (en) METHOD AND APPARATUS FOR PROCESSING VIDEO CONTENT WITH ALF and CCALF
KR20220057620A (ko) 변환-스킵 모드에서 비디오 데이터를 코딩하기 위한 방법 및 장치
US20210368170A1 (en) High level control of pdpc and intra reference sample filtering of video coding
EP4256787A1 (en) Method for using adaptive loop filter and system thereof
KR20220063248A (ko) 병합 후보 목록 구성 방법
US20210306653A1 (en) Methods for signaling residual coding method of transform skip blocks
EP4364413A2 (en) Methods and systems for cross-component adaptive loop filter