KR20210035062A - 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 - Google Patents

영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 Download PDF

Info

Publication number
KR20210035062A
KR20210035062A KR1020200122215A KR20200122215A KR20210035062A KR 20210035062 A KR20210035062 A KR 20210035062A KR 1020200122215 A KR1020200122215 A KR 1020200122215A KR 20200122215 A KR20200122215 A KR 20200122215A KR 20210035062 A KR20210035062 A KR 20210035062A
Authority
KR
South Korea
Prior art keywords
picture
sub
information
subpicture
current
Prior art date
Application number
KR1020200122215A
Other languages
English (en)
Inventor
임웅
방건
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20210035062A publication Critical patent/KR20210035062A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1883Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit relating to sub-band structure, e.g. hierarchical level, directional tree, e.g. low-high [LH], high-low [HL], high-high [HH]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 영상 복호화 방법에 관한 것으로서, 본 발명의 일 실시예에 따른 영상 복호화 방법은 현재 서브 픽처에 대한 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 획득하는 단계 및 상기 서브 픽처 정보를 이용하여 상기 현재 서브 픽처를 복호화하는 단계를 포함하되, 상기 서브 픽처 정보는, 복호화되는 각각의 서브 픽처 별로 획득될 수 있다.

Description

영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 {METHOD AND APPARATUS FOR ENCODING/DECODING IMAGE AND RECORDING MEDIUM FOR STORING BITSTREAM}
본 발명은 영상 부호화/복호화 방법 및 장치에 관한 것으로서, 보다 구체적으로는 서브 픽처 정보의 부호화/복호화 방법에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 더 높은 해상도 및 화질을 갖는 영상에 대한 고효율 영상 부호화(encoding)/복호화(decoding) 기술이 요구된다.
영상 압축 기술로 현재 픽처의 이전 또는 이후 픽처로부터 현재 픽처에 포함된 화소값을 예측하는 화면 간 예측 기술, 현재 픽처 내의 화소 정보를 이용하여 현재 픽처에 포함된 화소값을 예측하는 화면 내 예측 기술, 잔여 신호의 에너지를 압축하기 위한 변환 및 양자화 기술, 출현 빈도가 높은 값에 짧은 부호를 할당하고 출현 빈도가 낮은 값에 긴 부호를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 존재하고 이러한 영상 압축 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장할 수 있다.
본 발명은 부호화/복호화 효율이 향상된 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 서브 픽처 정보 전송하는 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 본 발명에 따른 영상 복호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체를 제공하는 것을 목적으로 한다.
본 개시의 일 실시예에 따른 영상 복호화 방법은, 현재 서브 픽처에 대한 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 획득하는 단계 및 상기 서브 픽처 정보를 이용하여 상기 현재 서브 픽처를 복호화하는 단계를 포함하되, 상기 서브 픽처 정보는, 복호화되는 각각의 서브 픽처 별로 획득될 수 있다.
상기 적어도 하나의 시그널링 레벨은 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 및 슬라이스 헤더(Slice Header) 중 적어도 하나로 결정될 수 있다.
상기 서브 픽처 정보는 상기 서브 픽처에 대한 서브 픽처 아이디(ID)를 포함할 수 있다.
상기 서브 픽처 정보는, 현재 픽처에 포함되는 서브 픽처들이 동일한 크기를 가지는지 여부를 지시하는 정보를 포함할 수 있다.
상기 현재 픽처에 포함되는 서브 픽처들이 동일한 크기를 가지지 않는 경우, 상기 서브 픽처 정보는, 상기 현재 서브 픽처에 대한 위치 정보를 포함하되,
상기 현재 서브 픽처에 대한 위치 정보가 지시하는 위치는, 상기 현재 서브 픽처에 포함되는 최-좌상단 CTU(Coding Tree Unit)의 위치일 수 있다.
상기 현재 픽처에 포함되는 서브 픽처들이 동일한 크기를 가지지 않는 경우, 상기 서브 픽처 정보는, 상기 현재 서브 픽처에 대한 크기 정보를 포함하되, 상기 서브 픽처에 대한 크기 정보는 상기 현재 서브 픽처의 너비 및 높이 정보를 포함할 수 있다.
상기 현재 픽처에 포함되는 서브 픽처들이 모두 동일한 크기를 가지는 경우, 상기 동일한 크기는 기설정될 수 있다.
상기 서브 픽처 아이디는 서로 다른 시그널링 레벨에서 개별적으로 획득될 수 있다.
상기 적어도 하나의 시그널링 레벨이 SPS인 경우, 상기 서브 픽처 정보는, 상기 현재 서브 픽처에 대한 서브 픽처 아이디가 명시적으로 시그널링되는지 여부를 지시하는 정보를 포함할 수 있다.
상기 현재 서브 픽처에 대한 서브 픽처 아이디가 명시적으로 시그널링되는지 여부를 지시하는 정보가, 상기 서브 픽처 아이디가 명시적으로 시그널링됨을 지시하는 경우, 상기 서브 픽처 정보는, 상기 서브 픽처 아이디가 어느 시그널링 레벨에서 시그널링되는지를 지시하는 정보를 포함할 수 있다.
상기 서브 픽처 정보는, 상기 현재 서브 픽처를 픽처로 판단하여 복호화를 수행할지 여부를 지시하는 정보를 포함할 수 있다.
상기 서브 픽처 정보는, 상기 현재 서브 픽처의 경계에 대해 필터링을 적용할지 여부를 지시하는 서브 픽처 필터링 정보를 포함할 수 있다.
본 개시의 일 실시예에 따른 영상 부호화 방법은, 현재 서브 픽처에 대한 서브 픽처 정보를 결정하는 단계 및 상기 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 부호화하는 단계를 포함하되, 상기 서브 픽처 정보는, 부호화되는 각각의 서브 픽처 별로 결정될 수 있다.
상기 적어도 하나의 시그널링 레벨은 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 및 슬라이스 헤더(Slice Header) 중 적어도 하나로 결정될 수 있다.
상기 서브 픽처 정보는 상기 서브 픽처에 대한 서브 픽처 아이디(ID)를 포함할 수 있다.
본 개시의 일 실시예에 따른 영상 복호화 장치에 수신되고 현재 픽처에 포함된 현재 블록을 복원하는데 이용되는 비트스트림을 저장한 컴퓨터 판독가능한 기록매체는 현재 서브 픽처에 대한 서브 픽처 정보를 결정하는 단계 및 상기 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 부호화하는 단계를 포함하되, 상기 서브 픽처 정보는, 부호화되는 각각의 서브 픽처 별로 결정되는 것을 특징으로 하는 영상 부호화 방법에 의해 생성될 수 있다.
상기 적어도 하나의 시그널링 레벨은 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 및 슬라이스 헤더(Slice Header) 중 적어도 하나로 결정될 수 있다.
상기 서브 픽처 정보는 상기 서브 픽처에 대한 서브 픽처 아이디(ID)를 포함할 수 있다.
본 발명에 따르면, 부호화/복호화 효율이 향상된 영상 부호화/복호화 방법 및 장치, 영상 부호화 방법/장치에 의해 생성된 비트스트림을 저장한 기록 매체가 제공될 수 있다.
또한, 본 발명에 따르면, 서브 픽처 정보를 전송하는 영상 부호화/복호화 방법 및 장치, 영상 부호화 방법/장치에 의해 생성된 비트스트림을 저장한 기록 매체가 제공될 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치를 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 영상 부호화 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상 복호화 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 SPS(Sequence Parameter Set)의 비트스트림 구조를 설명하기 위한 도면이다.
도 6은 특정 그리드 인덱스를 바탕으로 서브 픽처 정보를 유도하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 다른 일 실시예에 따른 SPS의 비트스트림 구조를 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 일 실시예에 따른 SPS의 비트스트림 구조를 설명하기 위한 도면이다.
도 9는 본 발명의 또 다른 일 실시예에 따른 SPS의 비트스트림 구조를 설명하기 위한 도면이다.
도 10은 본 발명의 또 다른 일 실시예에 따른 SPS의 비트스트림 구조를 설명하기 위한 도면이다.
도 11은 본 발명의 또 다른 일 실시예에 따른 PPS(Picture Parameter Set)의 비트스트림 구조를 설명하기 위한 도면이다.
도 12는 본 발명의 또 다른 일 실시예에 따른 PPS의 비트스트림 구조를 설명하기 위한 도면이다.
도 13은 본 발명의 또 다른 일 실시예에 따른 슬라이스 헤더의 비트스트림 구조를 설명하기 위한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 상세하게 설명한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 1을 참조하면, 영상 부호화 장치(100)는 영상 분할부(101), 화면 내 예측부(102), 화면 간 예측부(103), 감산부(104), 변환부(105), 양자화부(106), 엔트로피 부호화부(107), 역양자화부(108), 역변환부(109), 가산부(110), 필터부(111) 및 메모리(112)를 포함할 수 있다.
도 1에 나타난 각 구성부들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
영상 분할부(100)는 입력된 영상을 적어도 하나의 블록으로 분할할 수 있다. 이 때, 입력된 영상은 픽처, 슬라이스, 타일, 세그먼트 등 다양한 형태와 크기를 가질 수 있다. 블록은 부호화 단위(CU), 예측 단위(PU) 또는 변환 단위(TU)를 의미할 수 있다. 상기 분할은 쿼드 트리(Quadtree), 바이너리 트리(Binary tree) 및 3분할 트리(ternary tree) 중 적어도 하나에 기반하여 수행될 수 있다. 쿼드 트리는 상위 블록을 너비와 높이가 상위 블록의 절반인 하위 블록으로 사분할하는 방식이다. 바이너리 트리는 상위 블록을 너비 또는 높이 중 어느 하나가 상위 블록의 절반인 하위 블록으로 이분할하는 방식이다. 3분할 트리는 상위 블록을 3개의 하위 블록으로 분할하는 방식이다. 예컨대, 상기 3개의 하위 블록은 상기 상위 블록의 너비 또는 높이를 1:2:1의 비율로 분할함으로써 획득될 수 있다. 전술한 바이너리 트리 기반의 분할을 통해, 블록은 정방형뿐만 아니라 비정방형의 형태를 가질 수 있다.
예측부(102, 103)는 인터 예측을 수행하는 화면 간 예측부(103)와 인트라 예측을 수행하는 화면 내 예측부(102)를 포함할 수 있다. 예측 단위에 대해 인터 예측을 사용할 것인지 또는 인트라 예측을 수행할 것인지를 결정하고, 각 예측 방법에 따른 구체적인 정보(예컨대, 인트라 예측 모드, 모션 벡터, 참조 픽처 등)를 결정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 예측 단위로 결정되고, 예측의 수행은 변환 단위로 수행될 수도 있다.
생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(105)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 모션 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(107)에서 부호화되어 복호화기에 전달될 수 있다. 특정한 부호화 모드를 사용할 경우, 예측부(102, 103)를 통해 예측 블록을 생성하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.
화면 내 예측부(102)는 현재 픽처 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 블록을 생성할 수 있다. 인트라 예측이 수행될 현재 블록의 주변 블록의 예측 모드가 인터 예측인 경우, 인터 예측이 적용된 주변 블록에 포함되는 참조 픽셀을, 인트라 예측이 적용된 주변의 다른 블록 내의 참조 픽셀로 대체될 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를, 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.
인트라 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행 시 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 정보를 예측하기 위해 사용된 인트라 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.
화면 내 예측부(102)는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 필터로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 적응적으로 결정할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.
화면 내 예측부(102)의 참조 화소 보간부는 예측 단위의 인트라 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 분수 단위 위치의 참조 화소를 생성할 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.
화면 간 예측부(103)은, 메모리(112)에 저장된 기 복원된 참조영상과 움직임 정보를 이용하여 예측 블록을 생성한다. 움직임 정보는 예컨대 움직임 벡터, 참조 픽처 인덱스, 리스트 1 예측 플래그, 리스트 0 예측 플래그 등을 포함할 수 있다.
예측부(102, 103)에서 생성된 예측 단위와 예측 단위의 원본 블록 간의 차이값인 잔차값(Residual) 정보를 포함하는 잔차 블록이 생성될 수 있다. 생성된 잔차 블록은 변환부(130)로 입력되어 변환될 수 있다.
화면 간 예측부(103)는 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나의 픽처의 정보를 기초로 예측 블록을 유도할 수 있다. 또한, 현재 픽처 내의 부호화가 완료된 일부 영역의 정보를 기초로, 현재 블록의 예측 블록을 유도할 수도 있다. 본 발명의 일 실시예에 따른 화면 간 예측부(103)는 참조 픽처 보간부, 움직임 예측부, 움직임 보상부를 포함할 수 있다.
참조 픽처 보간부에서는 메모리(112)로부터 참조 픽처 정보를 제공받고 참조 픽처에서 정수 화소 이하의 화소 정보를 생성할 수 있다. 휘도 화소의 경우, 1/4 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 8탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다. 색차 신호의 경우 1/8 화소 단위로 정수 화소 이하의 화소 정보를 생성하기 위해 필터 계수를 달리하는 DCT 기반의 4탭 보간 필터(DCT-based Interpolation Filter)가 사용될 수 있다.
움직임 예측부는 참조 픽처 보간부에 의해 보간된 참조 픽처를 기초로 모션 예측을 수행할 수 있다. 모션 벡터를 산출하기 위한 방법으로 FBMA(Full search-based Block Matching Algorithm), TSS(Three Step Search), NTS(New Three-Step Search Algorithm) 등 다양한 방법이 사용될 수 있다. 모션 벡터는 보간된 화소를 기초로 1/2 또는 1/4 화소 단위의 모션 벡터값을 가질 수 있다. 움직임 예측부에서는 움직임 예측 방법을 다르게 하여 현재 블록의 예측 블록을 예측할 수 있다. 모션 예측 방법으로 스킵(Skip) 방법, 머지(Merge) 방법, AMVP(Advanced Motion Vector Prediction) 방법 등 다양한 방법이 사용될 수 있다.
감산부(104)는, 현재 부호화하려는 블록과 화면 내 예측부(102) 혹은 화면 간 예측부(103)에서 생성된 예측 블록을 감산하여 현재 블록의 잔차 블록을 생성한다.
변환부(105)에서는 잔차 데이터를 포함한 잔차 블록을 DCT, DST, KLT(Karhunen Loeve Transform) 등과 같은 변환 방법을 사용하여 변환시킬 수 있다. 이때 변환 방법은 잔차 블록을 생성하기 위해 사용된 예측 단위의 인트라 예측 모드에 기반하여 결정될 수 있다. 예를 들어, 인트라 예측 모드에 따라, 가로 방향으로는 DCT를 사용하고, 세로 방향으로는 DST를 사용할 수도 있다.
양자화부(106)는 변환부(105)에서 주파수 영역으로 변환된 값들을 양자화할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다. 양자화부(106)에서 산출된 값은 역양자화부(108)와 엔트로피 부호화부(107)에 제공될 수 있다.
상기 변환부(105) 및/또는 양자화부(106)는, 영상 부호화 장치(100)에 선택적으로 포함될 수 있다. 즉, 영상 부호화 장치(100)는, 잔차 블록의 잔차 데이터에 대해 변환 또는 양자화 중 적어도 하나를 수행하거나, 변환 및 양자화를 모두 스킵하여 잔차 블록을 부호화할 수 있다. 영상 부호화 장치(100)에서 변환 또는 양자화 중 어느 하나가 수행되지 않거나, 변환 및 양자화 모두 수행되지 않더라도, 엔트로피 부호화부(107)의 입력으로 들어가는 블록을 통상적으로 변환 블록이라 일컫는다. 엔트로피 부호화부(107)는 입력 데이터를 엔트로피 부호화한다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.
엔트로피 부호화부(107)는 변환 블록의 계수 정보, 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, 예측 단위 정보, 전송 단위 정보, 모션 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다. 변환 블록의 계수들은, 변환 블록 내 서브 블록 단위로, 부호화될 수 있다.
변환 블록의 계수의 부호화를 위하여, 역스캔 순서로 최초의 0이 아닌 계수의 위치를 알리는 신택스 요소(syntax element)인 Last_sig, 서브블록 내에 0이 아닌 계수가 적어도 하나 이상 있는지를 알리는 플래그인 Coded_sub_blk_flag, 0이 아닌 계수인지를 알리는 플래그인 Sig_coeff_flag, 계수의 절대값이 1 보다 큰지를 알리는 플래그인 Abs_greater1_flag, 계수의 절대값이 2 보다 큰지를 알리는 플래그인 Abs_greater2_flag, 계수의 부호를 나타내는 플래그인 Sign_flag 등의 다양한 신택스 요소들이 부호화될 수 있다. 상기 신택스 요소들만으로 부호화되지 않는 계수의 잔여값은 신택스 요소 remaining_coeff를 통해 부호화될 수 있다.
역양자화부(108) 및 역변환부(109)에서는 양자화부(106)에서 양자화된 값들을 역양자화하고 변환부(105)에서 변환된 값들을 역변환한다. 역양자화부(108) 및 역변환부(109)에서 생성된 잔차값(Residual)은 예측부(102, 103)에 포함된 움직임 추정부, 움직임 보상부 및 화면 내 예측부(102)를 통해서 예측된 예측 단위와 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다. 가산부(110)는, 예측부(102, 103)에서 생성된 예측 블록과, 역 변환부(109)를 통해 생성된 잔차 블록을 가산하여 복원 블록을 생성한다.
필터부(111)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다.
디블록킹 필터는 복원된 픽처에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.
오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽처에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.
ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF 필터의 모양 및 필터 계수는 달라질 수 있다. 또한, 적용 대상 블록의 특성에 상관없이 동일한 형태(고정된 형태)의 ALF 필터가 적용될 수도 있다.
메모리(112)는 필터부(111)를 통해 산출된 복원 블록 또는 픽처를 저장할 수 있고, 저장된 복원 블록 또는 픽처는 화면 간 예측을 수행할 때 예측부(102, 103)에 제공될 수 있다.
다음으로, 본 발명의 일 실시예에 따른 영상 복호화 장치를 도면을 참조하여 설명한다. 도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치(200)를 나타낸 블록도이다.
도 2를 참조하면, 영상 복호화 장치(200)는 엔트로피 복호화부(201), 역양자화부(202), 역변환부(203), 가산부(204), 필터부(205), 메모리(206) 및 예측부(207, 208)를 포함할 수 있다.
영상 부호화 장치(100)에 의해 생성된 영상 비트스트림이 영상 복호화 장치(200)로 입력되는 경우, 입력된 비트스트림은 영상 부호화 장치(100)에서 수행된 과정과 반대의 과정에 따라 복호될 수 있다.
엔트로피 복호화부(201)는 영상 부호화 장치(100)의 엔트로피 부호화부(107)에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 예를 들어, 영상 부호화기에서 수행된 방법에 대응하여 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다. 엔트로피 복호화부(201)는, 전술한 바와 같은 신택스 요소들, 즉 Last_sig, Coded_sub_blk_flag, Sig_coeff_flag, Abs_greater1_flag, Abs_greater2_flag, Sign_flag 및 remaining_coeff를 복호화할 수 있다. 또한, 엔트로피 복호화부(201)는 영상 부호화 장치(100)에서 수행된 인트라 예측 및 인터 예측에 관련된 정보를 복호화할 수 있다.
역 양자화부(202)는 양자화된 변환 블록에 역 양자화를 수행하여 변환 블록을 생성한다. 도 1의 역 양자화부(108)와 실질적으로 동일하게 동작한다.
역 변환부(203)은 변환 블록에 역 변환을 수행하여 잔차 블록을 생성한다. 이때, 변환 방법은 예측 방법(인터 또는 인트라 예측), 블록의 크기 및/또는 형태, 인트라 예측 모드 등에 관한 정보를 기반으로 결정될 수 있다. 도 1의 역 변환부(109)와 실질적으로 동일하게 동작한다.
가산부(204)는, 화면 내 예측부(207) 혹은 화면 간 예측부(208)에서 생성된 예측 블록과 역 변환부(203)를 통해 생성된 잔차 블록를 가산하여 복원 블록을 생성한다. 도 1의 가산부(110)와 실질적으로 동일하게 동작한다.
필터부(205)는, 복원된 블록들에 발생하는 여러 종류의 노이즈를 감소시킨다.
필터부(205)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.
영상 부호화 장치(100)로부터 해당 블록 또는 픽처에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 영상 복호화 장치(200)의 디블록킹 필터에서는 영상 부호화 장치(100)에서 제공된 디블록킹 필터 관련 정보를 제공받고 영상 복호화 장치(200)에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다.
오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.
ALF는 영상 부호화 장치(100)로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 적용될 수 있다. 이러한 ALF 정보는 특정한 파라미터 셋에 포함되어 제공될 수 있다. 필터부(205)는 도 1의 필터부(111)와 실질적으로 동일하게 동작한다.
메모리(206)는 가산부(204)에 의해 생성된 복원 블록을 저장한다. 도 1의 메모리(112)와 실질적으로 동일하게 동작한다.
예측부(207, 208)는 엔트로피 복호화부(201)에서 제공된 예측 블록 생성 관련 정보와 메모리(206)에서 제공된 이전에 복호화된 블록 또는 픽처 정보를 기초로 예측 블록을 생성할 수 있다.
예측부(207, 208)는 화면 내 예측부(207) 및 화면 간 예측부(208)를 포함할 수 있다. 별도로 도시되지는 아니하였으나, 예측부(207, 208)는 예측 단위 판별부를 더 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부(201)에서 입력되는 예측 단위 정보, 인트라 예측 방법의 예측 모드 정보, 인터 예측 방법의 모션 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 단위에서 예측 단위를 구분하고, 예측 단위가 인터 예측을 수행하는지 아니면 인트라 예측을 수행하는지 여부를 판별할 수 있다. 화면 간 예측부(208)는 영상 부호화 장치(100)에서 제공된 현재 예측 단위의 인터 예측에 필요한 정보를 이용해 현재 예측 단위가 포함된 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나의 픽처에 포함된 정보를 기초로 현재 예측 단위에 대한 화면 간 예측을 수행할 수 있다. 또는, 현재 예측 단위가 포함된 현재 픽처 내에서 기-복원된 일부 영역의 정보를 기초로 화면 간 예측을 수행할 수도 있다.
화면 간 예측을 수행하기 위해 부호화 단위를 기준으로 해당 부호화 단위에 포함된 예측 단위의 모션 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode) 중 어떠한 방법인지 여부를 판단할 수 있다.
화면 내 예측부(207)는, 현재 부호화하려는 블록 주변에 위치한, 그리고 기 복원된 화소들을 이용하여 예측 블록을 생성한다.
화면 내 예측부(207)는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 필터로써 현재 예측 단위의 예측 모드에 따라 필터의 적용 여부를 적응적으로 결정할 수 있다. 영상 부호화 장치(100)에서 제공된 예측 단위의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.
화면 내 예측부(207)의 참조 화소 보간부는 예측 단위의 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 단위일 경우, 참조 화소를 보간하여 분수 단위 위치의 참조 화소를 생성할 수 있다. 생성된 분수 단위 위치의 참조 화소가 현재 블록 내의 화소의 예측 화소로 이용될 수 있다. 현재 예측 단위의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.
화면 내 예측부(207)는 도 1의 화면 내 예측부(102)와 실질적으로 동일하게 동작한다.
화면 간 예측부(208)는, 메모리(206)에 저장된 참조 픽처, 움직임 정보를 이용하여 화면간 예측 블록을 생성한다. 화면 간 예측부(208)는 도 1의 화면 간 예측부(103)와 실질적으로 동일하게 동작한다.
한편, 이하의 설명에서 아래의 용어들이 정의될 수 있다.
부호화기(Encoder): 부호화(Encoding)를 수행하는 장치를 의미한다. 즉, 부호화 장치를 의미할 수 있다.
복호화기(Decoder): 복호화(Decoding)를 수행하는 장치를 의미한다. 즉, 복호화 장치를 의미할 수 있다.
블록(Block): 샘플(Sample)의 MxN 배열이다. 여기서 M과 N은 양의 정수 값을 의미할 수 있으며, 블록은 흔히 2차원 형태의 샘플 배열을 의미할 수 있다. 블록은 유닛을 의미할 수 있다. 현재 블록은 부호화 시 부호화의 대상이 되는 부호화 대상 블록, 복호화 시 복호화의 대상이 되는 복호화 대상 블록을 의미할 수 있다. 또한, 현재 블록은 부호화 블록, 예측 블록, 잔여 블록, 변환 블록 중 적어도 하나일 수 있다.
샘플(Sample): 블록을 구성하는 기본 단위이다. 비트 깊이 (bit depth, Bd)에 따라 0부터 2Bd - 1까지의 값으로 표현될 수 있다. 본 발명에서 샘플은 화소 또는 픽셀과 같은 의미로 사용될 수 있다. 즉, 샘플, 화소, 픽셀은 서로 같은 의미를 가질 수 있다.
유닛(Unit): 영상 부호화 및 복호화의 단위를 의미할 수 있다. 영상의 부호화 및 복호화에 있어서, 유닛은 하나의 영상을 분할한 영역일 수 있다. 또한, 유닛은 하나의 영상을 세분화된 유닛으로 분할하여 부호화 혹은 복호화 할 때 그 분할된 단위를 의미할 수 있다. 즉, 하나의 영상은 복수의 유닛들로 분할될 수 있다. 영상의 부호화 및 복호화에 있어서, 유닛 별로 기정의된 처리가 수행될 수 있다. 하나의 유닛은 유닛에 비해 더 작은 크기를 갖는 하위 유닛으로 더 분할될 수 있다. 기능에 따라서, 유닛은 블록(Block), 매크로블록(Macroblock), 부호화 트리 유닛(Coding Tree Unit), 부호화 트리 블록(Coding Tree Block), 부호화 유닛(Coding Unit), 부호화 블록(Coding Block), 예측 유닛(Prediction Unit), 예측 블록(Prediction Block), 잔여 유닛(Residual Unit), 잔여 블록(Residual Block), 변환 유닛(Transform Unit), 변환 블록(Transform Block) 등을 의미할 수 있다. 또한, 유닛은 블록과 구분하여 지칭하기 위해 휘도(Luma) 성분 블록과 그에 대응하는 색차(Chroma) 성분 블록 그리고 각 블록에 대한 구문요소를 포함한 것을 의미할 수 있다. 유닛은 다양한 크기와 형태를 가질 수 있으며, 특히 유닛의 형태는 정사각형뿐만 아니라 직사각형, 사다리꼴, 삼각형, 오각형 등 2차원으로 표현될 수 있는 기하학적 도형을 포함할 수 있다. 또한, 유닛 정보는 부호화 유닛, 예측 유닛, 잔여 유닛, 변환 유닛 등을 가리키는 유닛의 타입, 유닛의 크기, 유닛의 깊이, 유닛의 부호화 및 복호화 순서 등 중 적어도 하나 이상을 포함할 수 있다.
부호화 트리 유닛(Coding Tree Unit): 하나의 휘도 성분(Y) 부호화 트리 블록과 관련된 두 색차 성분(Cb, Cr) 부호화 트리 블록들로 구성된다. 또한, 상기 블록들과 각 블록에 대한 구문요소를 포함한 것을 의미할 수도 있다. 각 부호화 트리 유닛은 부호화 유닛, 예측 유닛, 변환 유닛 등의 하위 유닛을 구성하기 위하여 쿼드트리(quad tree), 이진트리(binary tree), 3분할트리(ternary tree) 등 하나 이상의 분할 방식을 이용하여 분할될 수 있다. 입력 영상의 분할처럼 영상의 복/부호화 과정에서 처리 단위가 되는 샘플 블록을 지칭하기 위한 용어로 사용될 수 있다. 여기서, 쿼드트리는 4분할트리(quarternary tree)를 의미할 수 있다.
부호화 블록의 크기가 소정의 범위 내에 속하는 경우에는 쿼드트리로만 분할이 가능할 수 있다. 여기서, 소정의 범위는 쿼드트리만으로 분할이 가능한 부호화 블록의 최대 크기 및 최소 크기 중 적어도 하나로 정의될 수 있다. 쿼드트리 형태의 분할이 허용되는 부호화 블록의 최대/최소 크기를 나타내는 정보는 비트스트림을 통해 시그널링될 수 있고, 해당 정보는 시퀀스, 픽처 파라미터, 타일 그룹, 또는 슬라이스(세그먼트) 중 적어도 하나의 단위로 시그널링될 수 있다. 또는, 부호화 블록의 최대/최소 크기는 부호화기/복호화기에 기-설정된 고정된 크기일 수도 있다. 예를 들어, 부호화 블록의 크기가 256x256 내지 64x64 에 해당하는 경우에는 쿼드트리로만 분할이 가능할 수 있다. 또는 부호화 블록의 크기가 최대 변환 블록의 크기 보다 큰 경우에는 쿼드트리로만 분할이 가능할 수 있다. 이때, 상기 분할되는 블록은 부호화 블록 또는 변환 블록 중 적어도 하나일 수 있다. 이러한 경우에 부호화 블록의 분할을 나타내는 정보(예컨대, split_flag)는 쿼드트리 분할 여부를 나타내는 플래그일 수 있다. 부호화 블록의 크기가 소정의 범위 내에 속하는 경우에는 이진트리 또는 3분할트리로만 분할이 가능할 수 있다. 이 경우, 쿼드트리에 관한 상기 설명은 이진트리 또는 3분할트리에 대해서도 동일하게 적용될 수 있다.
부호화 트리 블록(Coding Tree Block): Y 부호화 트리 블록, Cb 부호화 트리 블록, Cr 부호화 트리 블록 중 어느 하나를 지칭하기 위한 용어로 사용될 수 있다.
주변 블록(Neighbor block): 현재 블록에 인접한 블록을 의미할 수 있다. 현재 블록에 인접한 블록은 현재 블록에 경계가 맞닿은 블록 또는 현재 블록으로부터 소정의 거리 내에 위치한 블록을 의미할 수 있다. 주변 블록은 현재 블록의 꼭지점에 인접한 블록을 의미할 수 있다. 여기에서, 현재 블록의 꼭지점에 인접한 블록이란, 현재 블록에 가로로 인접한 이웃 블록에 세로로 인접한 블록 또는 현재 블록에 세로로 인접한 이웃 블록에 가로로 인접한 블록일 수 있다. 주변 블록은 복원된 주변 블록을 의미할 수도 있다.
복원된 주변 블록(Reconstructed Neighbor Block): 현재 블록 주변에 공간적(Spatial)/시간적(Temporal)으로 이미 부호화 혹은 복호화된 주변 블록을 의미할 수 있다. 이때, 복원된 주변 블록은 복원된 주변 유닛을 의미할 수 있다. 복원된 공간적 주변 블록은 현재 픽처 내의 블록이면서 부호화 및/또는 복호화를 통해 이미 복원된 블록일 수 있다. 복원된 시간적 주변 블록은 참조 영상 내에서 현재 픽처의 현재 블록과 대응하는 위치의 복원된 블록 또는 그 주변 블록일 수 있다.
유닛 깊이(Depth): 유닛이 분할된 정도를 의미할 수 있다. 트리 구조(Tree Structure)에서 가장 상위 노드(Root Node)는 분할되지 않은 최초의 유닛에 대응할 수 있다. 가장 상위 노드는 루트 노드로 칭해질 수 있다. 또한, 가장 상위 노드는 최소의 깊이 값을 가질 수 있다. 이 때, 가장 상위 노드는 레벨(Level) 0의 깊이를 가질 수 있다. 레벨 1의 깊이를 갖는 노드는 최초의 유닛이 한 번 분할됨에 따라 생성된 유닛을 나타낼 수 있다. 레벨 2의 깊이를 갖는 노드는 최초의 유닛이 두 번 분할됨에 따라 생성된 유닛을 나타낼 수 있다. 레벨 n의 깊이를 갖는 노드는 최초의 유닛이 n번 분할됨에 따라 생성된 유닛을 나타낼 수 있다. 리프 노드(Leaf Node)는 가장 하위의 노드일 수 있으며, 더 분할될 수 없는 노드일 수 있다. 리프 노드의 깊이는 최대 레벨일 수 있다. 예를 들면, 최대 레벨의 기정의된 값은 3일 수 있다. 루트 노드는 깊이가 가장 얕고, 리프 노드는 깊이가 가장 깊다고 할 수 있다. 또한, 유닛을 트리 구조로 표현했을 때 유닛이 존재하는 레벨이 유닛 깊이를 의미할 수 있다.
비트스트림(Bitstream): 부호화된 영상 정보를 포함하는 비트의 열을 의미할 수 있다.
파라미터 세트(Parameter Set): 비트스트림 내의 구조 중 헤더(header) 정보에 해당한다. 비디오 파라미터 세트(video parameter set), 시퀀스 파라미터 세트(sequence parameter set), 픽처 파라미터 세트(picture parameter set), 적응 파라미터 세트(adaptation parameter set) 중 적어도 하나가 파라미터 세트에 포함될 수 있다. 또한, 파라미터 세트는 타일 그룹(tile group) 헤더, 슬라이스(slice) 헤더 및 타일(tile) 헤더 정보를 포함할 수도 있다. 또한, 상기 타일 그룹은 여러 타일을 포함하는 그룹을 의미할 수 있으며, 슬라이스와 동일한 의미일 수 있다.
적응 파라미터 세트는 서로 다른 픽처, 서브픽처, 슬라이스, 타일 그룹, 타일, 혹은 브릭에서 참조하여 공유될 수 있는 파라미터 세트를 의미할 수 있다. 또한, 픽처 내 서브픽처, 슬라이스, 타일 그룹, 타일, 혹은 브릭에서는 서로 다른 적응 파라미터 세트를 참조하여, 적응 파라미터 세트 내 정보를 사용할 수 있다.
또한, 적응 파라미터 세트는 픽처 내 서브픽처, 슬라이스, 타일 그룹, 타일, 혹은 브릭에서는 서로 다른 적응 파라미터 세트의 식별자를 사용하여 서로 다른 적응 파라미터 세트를 참조할 수 있다.
또한, 적응 파라미터 세트는 서브픽처 내 슬라이스, 타일 그룹, 타일, 혹은 브릭에서는 서로 다른 적응 파라미터 세트의 식별자를 사용하여 서로 다른 적응 파라미터 세트를 참조할 수 있다.
또한, 적응 파라미터 세트는 슬라이스 내 타일, 혹은 브릭에서는 서로 다른 적응 파라미터 세트의 식별자를 사용하여 서로 다른 적응 파라미터 세트를 참조할 수 있다.
또한, 적응 파라미터 세트는 타일 내 브릭에서는 서로 다른 적응 파라미터 세트의 식별자를 사용하여 서로 다른 적응 파라미터 세트를 참조할 수 있다.
상기 서브픽처의 파라미터 세트 혹은 헤더에 적응 파라미터 세트 식별자에 대한 정보를 포함하여, 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트를 서브픽처에서 사용할 수 있다.
상기 타일의 파라미터 세트 혹은 헤더에 적응 파라미터 세트 식별자에 대한 정보를 포함하여, 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트를 타일에서 사용할 수 있다.
상기 브릭의 헤더에 적응 파라미터 세트 식별자에 대한 정보를 포함하여, 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트를 브릭에서 사용할 수 있다.
상기 픽처는 하나 이상의 타일 행과 하나 이상의 타일 열로 분할될 수 있다.
상기 서브픽처는 픽처 내에서 하나 이상의 타일 행과 하나 이상의 타일 열로 분할될 수 있다. 상기 서브픽처는 픽처 내에서 직사각형/정사각형 형태를 가지는 영역이며, 하나 이상의 CTU를 포함할 수 있다. 또한, 하나의 서브픽처 내에는 적어도 하나 이상의 타일/브릭/슬라이스가 포함될 수 있다.
상기 타일은 픽처 내에서 직사각형/정사각형 형태를 가지는 영역이며, 하나 이상의 CTU를 포함할 수 있다. 또한, 타일은 하나 이상의 브릭으로 분할될 수 있다.
상기 브릭은 타일 내에서 하나 이상의 CTU 행을 의미할 수 있다. 타일은 하나 이상의 브릭으로 분할될 수 있고, 각 브릭은 적어도 하나 이상의 CTU 행을 가질 수 있다. 2개 이상으로 분할되지 않는 타일도 브릭을 의미할 수 있다.
상기 슬라이스는 픽처 내에서 하나 이상의 타일을 포함할 수 있고, 타일 내 하나 이상의 브릭을 포함할 수 있다.
이하, 본 발명의 몇몇 실시예에 따른 서브 픽처 정보를 전송하는 방법에 대해서 자세히 설명한다.
도 3은 본 발명의 일 실시예에 따른 영상 복호화 방법을 설명하기 위한 도면이다.
도 3을 참고하면, 본 발명의 일 실시예에 따른 영상 복호화 방법은, 현재 서브 픽처에 대한 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 획득하는 단계(S310) 및 상기 서브 픽처 정보를 이용하여 상기 현재 서브 픽처를 복호화하는 단계(S320)를 포함할 수 있다.
이때, 서브 픽처 정보는, 복호화되는 각각의 서브 픽처 별로 획득될 수 있으며, 적어도 하나의 시그널링 레벨은 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 및 슬라이스 헤더(Slice Header) 중 적어도 하나로 결정될 수 있다.
도 4는 본 발명의 일 실시예에 따른 영상 부호화 방법을 설명하기 위한 도면이다.
도 4를 참고하면, 본 발명의 일 실시예에 따른 영상 부호화 방법은, 현재 서브 픽처에 대한 서브 픽처 정보를 결정하는 단계(S410) 및 상기 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 부호화하는 단계(S420)를 포함할 수 있다.
이때, 서브 픽처 정보는, 부호화되는 각각의 서브 픽처 별로 결정될 수 있으며, 적어도 하나의 시그널링 레벨은 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 및 슬라이스 헤더(Slice Header) 중 적어도 하나로 결정될 수 있다.
이하, 도 3 및 도 4의 각 구성에 적용될 수 있는 구체적인 실시예에 대해 자세히 설명한다.
본 발명의 일 실시예에 따르면, 서브 픽처 정보는, SPS(Sequence Parameter Set)을 통해 전송될 수 있다.
이하의 설명에서, 서브 픽처는 픽처를 구성하는 단위로서 하나 또는 하나 이상의 슬라이스로 구성되는 직사각형 영역을 의미할 수 있다.
본 발명의 일 실시예에 따르면, 4 x N개의 화소 샘플 단위로 정의되는 그리드(grid)가 정의될 수 있다. 각각의 그리드는 그리드 인덱스 정보를 포함할 수 있으며, 동일 그리드 인덱스를 가지는 그리드들의 집합으로 하나의 서브 픽처가 정의될 수 있다.
일 예로, 서브 픽처 정보는, 각 서브 픽처를 하나의 픽처로 판단하여 부호화/복호화할지 여부를 지시하는 정보를 포함할 수 있다. 예컨대, 각 서브 픽처를 하나의 픽처로 판단하여 부호화/복호화할지 여부를 지시하는 정보는 구문 요소 subpic_treated_as_pic_flag 또는 sps_subpic_treated_as_pic_flag로 정의될 수 있다. 예컨대, sps_subpic_treated_as_pic_flag[i]는 i 번째 서브 픽처의 부호화/복호화 시, 해당 i 번째 서브 픽처를 픽처로 판단하여 부호화/복호화를 수행할지 여부를 지시하는 구문 요소 일 수 있다.
다른 예로, 서브 픽처 정보는, 각 서브 픽처의 경계에 대해 필터링을 적용할지 여부를 지시하는 서브 픽처 필터링 정보를 포함할 수 있다. 예컨대, 서브 픽처 필터링 정보는 구문 요소 loop_filter_across_subpic_enabled_flag 또는 sps_loop_filter_across_subpic_enabled_flag로 정의될 수 있다. 예컨대, sps_loop_filter_across_subpic_enabled_flag[i]는 i 번째 서브 픽처의 경계에 대해 필터링이 수행될지 여부를 지시하는 구문 요소 일 수 있다.
한편, 제 1 서브 픽처 및 제 2 서브 픽처가 존재하고, 제 1 서브 픽처의 인덱스가 제 2 서브 픽처의 인덱스보다 작은 경우, 제 1 서브 픽처에 대한 부호화/복호화는 제 2 서브 픽처에 대한 부호화/복호화보다 먼저 수행될 수 있다.
도 5는 본 발명의 일 실시예에 따른 SPS(Sequence Parameter Set)의 비트스트림 구조를 설명하기 위한 도면이다.
구문 요소 pic_width_max_in_luma_samples 또는 sps_pic_width_max_in_luma_samples 및 pic_height_max_in_luma_samples 또는 sps_pic_height_max_in_luma_samples는 부호화/복호화되는 현재 픽처의 최대 너비 및 높이를 지시하는 구문 요소일 수 있다.
구문 요소 subpics_present_flag 또는 sps_subpic_info_present_flag는, 서브 픽처 정보가 SPS 단위에서 부호화/복호화될지 여부를 지시하는 구문 요소일 수 있다.
한편, 입력되는 비트스트림이 서브-비트스트림에 의해 생성된 비트스트림이고, 서브 비트스트림이 서브 픽처에 대한 것일 경우, subpics_present_flag 또는 sps_subpic_info_present_flag는 언제나 서브 픽처 정보가 부호화/복호화됨을 지시할 수 있다.
구문 요소 max_subpic_minus1은 현재 픽처에 포함될 수 있는 최대 서브 픽처의 개수에서 1을 뺀 값을 지시할 수 있다. 예컨대, max_subpic_minus1는 0에서 254 사이의 값을 가질 수 있다.
구문 요소 sps_num_subpics_minus1은 현재 픽처에 포함된 서브 픽처의 개수를 지시할 수 있다. 이하의 설명에서 max_subpic_minus1의 시그널링은 sps_num_subpics_minus1의 시그널링으로 대체될 수 있다.
구문 요소 subpic_grid_col_width_minus1 및 subpic_grid_row_height_minus1는 서브 픽처의 행 및 열을 구성하는 그리드의 크기를 지시하는 구문 요소 일 수 있다. 그리드 너비 및 높이에 포함되는 샘플 수는 subpic_grid_col_width_minus1 + 1 및 subpic_grid_row_height_minus1 + 1에 각각 4를 곱한 값일 수 있다.
예컨대, 서브 픽처의 열에 포함되는 그리드의 수는 다음의 수학식 1에 따라 유도될 수 있다.
[수학식 1]
NumSubPicGridCols = (pic_width_max_in_luma_samples + subpic_grid_col_width_minus1 * 4 + 3) / (subpic_grid_col_width_minus1 * 4 + 4)
또한, 예컨대, 서브 픽처의 행에 포함되는 그리드의 수는 다음의 수학식 2에 따라 유도될 수 있다.
[수학식 2]
NumSubPicGridRows = (pic_height_max_in_luma_samples + subpic_grid_row_height_minus1 * 4 + 3) / (subpic_grid_row_height_minus1 * 4 + 4)
구문 요소 subpic_grid_idx는 그리드 인덱스를 지시하는 구문 요소 일 수 있다. 상술한바와 같이, 동일 그리드 인덱스를 가지는 그리드들이 하나의 서브 픽처를 구성할 수 있다.
구문 요소 NumSubPics는 현재 픽처에 포함되는 서브 픽처의 총 개수를 의미할 수 있다.
도 6은 특정 그리드 인덱스를 바탕으로 서브 픽처 정보를 유도하는 방법을 설명하기 위한 도면이다.
subpic_grid_idx[i][j]의 그리드 인덱스를 가지는 서브 픽처의 서브 픽처 정보는 도 6에 따라 유도될 수 있다. 예컨대, 도 6에 따라 현재 서브 픽처의 최상단 그리드 행(SubPicTop), 서브 픽처의 최좌측 그리드 열(SubPicLeft), 서브 픽처의 행에 포함되는 그리드의 개수(SubPicWidth), 서브 픽처의 열에 포함되는 그리드의 개수(SubPicHeight), 전체 서브 픽처의 개수(NumSubPics)가 결정될 수 있다.
구문 요소 log2_ctu_size_minus5 또는 sps_log2_ctu_size_minus5는 CTU 크기에 로그 값을 취한 값에서 5를 뺀 값을 의미하는, CTU(Coding Tree Unit) 크기 정보일 수 있다.
도 5를 참조하면, SPS를 통해 시그널링되는 subpics_present_flag의 값이 1인 경우에 한해, 서브 픽처 정보인, max_subpics_minus1, subpic_grid_col_width_minus1, subpic_grid_row_height_minus1, subpic_grid_idx[ i ][ j ], subpic_treated_as_pic_flag[ i ], loop_filter_across_subpic_enabled_flag[ i ] 중 적어도 하나가 부호화/복호화될 수 있다.
본 발명의 다른 일 실시예에 따르면, 서브 픽처는 CTU 단위로 시그널링될 수 있다.
도 5의 실시예에서 서브 픽처 정보를 그리드 단위로 시그널링하는 이유는, 서브 픽처 정보가 CTU 크기 정보보다 먼저 시그널링되기 때문일 수 있다. 본 발명의 다른 실시예에 따르면, CTU 크기 정보가 서브 픽처 정보보다 먼저 시그널링될 수 있으며, 서브 픽처 정보가 CTU 단위를 기반으로 시그널링될 수 있다.
본 발명의 다른 일 실시예에 따르면, 서브 픽처를 구분하기 위한 서브 픽처 아이디(ID)가 정의될 수 있다. 이하의 설명에서 서브 픽처 아이디와 서브 픽처 인덱스는 동일한 의미로 사용될 수 있다. 도 5와 같이 서브 픽처를 그리드 인덱스를 이용하여 시그널링하는 경우, 그리드로 분할된 영역을 합쳐 하나의 서브 픽처가 결정되므로, 서브 픽처 자체를 지시하는 서브 픽처 아이디가 정의될 수 없는 문제점이 발생할 수 있다. 서브 픽처 아이디를 이용하여, 서브 픽처 정보를 시그널링하는 경우, SPS를 참조하는 모든 레벨에서 서브 픽처의 분할 정보 및 각 서브 픽처 아이디가 통일되므로, 영상 부호화/복호화 효율이 증대될 수 있다.
예컨대, SPS보다 하위 시그널링 레벨인 PPS(Picture Parameter), 슬라이스 헤더 등에서 다양하게 분할되는 영역들에 대해 동일하게 적용될 수 있는 서브 픽처 아이디가 각 시그널링 레벨 별로 시그널링될 수 있다.
도 7은 본 발명의 다른 일 실시예에 따른 SPS의 비트스트림 구조를 설명하기 위한 도면이다.
본 발명의 다른 일 실시예에 따르면, 서브 픽처 정보를 전송함에 있어, CTU 단위로 서브 픽처 정보가 전송될 수 있다. 또는, CTU 단위에 따른 너비 및/또는 높이에 1/n 또는 n을 곱한 단위를 기반으로 서브 픽처 정보가 시그널링될 수 있다. 예컨대, n은 1, 2, 4, 8, 16, 32, 64 또는 그 이상의 양의 정수일 수 있다. 예컨대, 서브 픽처 정보는 서브 픽처 아이디를 포함할 수 있으며, 서브 픽처 아이디는 구문 요소 subpic_id 또는 sps_subpic_id로 정의될 수 있다.
도 7을 참고하면, CTU 크기 정보는 서브 픽처 정보보다 먼저 시그널링될 수 있다.
한편, 구문 요소 log2_ctu_size_minus5가 명시적으로 시그널링될 수 있고, 영상 부호화/복호화 장치에서 기-설정된 값으로 결정될 수도 있다. 예컨대, 기-설정된 값은 영상 부호화/복호화 장치에서 허용되는 CTU 크기의 최소값 혹은 최대값 중 하나일 수 있다.
픽처 내 가로 및 세로 방향으로 존재하는 CTU의 수인 NumCtuRows 및 NumCtuCols는 log2_ctu_size_minus5, pic_width_max_in_luma_samples, 및 pic_height_max_in_luma_samples 중 적어도 하나를 사용하여 계산될 수 있다.
본 실시예에 따르면, 동일한 서브 픽처 아이디를 가지는 CTU는 동일한 서브 픽처에 포함될 수 있다. 한편, 일부 영역에 대해서는 서브 픽처 아이디가 영상 부호화/복호화 장치에 의해 시그널링 없이 유도될 수 있다. subpic_id가 max_subpics_minus1 또는 sps_num_subpics_minus1과 동일한 값으로 시그널링되는 경우, 해당 CTU 단위 이후에 부호화/복호화되는 CTU 중 적어도 하나에 대해서는 subpic_id가 시그널링되지 않을 수 있다. 예컨대, 해당 CTU 단위 이후에 부호화/복호화되는 CTU의 subpic_id는 max_subpics_minus1와 동일한 값으로 유도될 수 있다.
한편, subpic_id의 이진 길이는 Ceil( Log2( max_subpics_minus1 + 1 ) )로 결정될 수 있다.
도 7의 SPS 비트스트림은 도 5과 비교 시, CTU 크기 정보의 시그널링 순서가 서브 픽처 정보에 비해 선행하는 점, subpic_grid_col_width_minus1 및 subpic_grid_row_height_minus1의 시그널링이 수행되지 않는 점, subpic_grid_idx가 subpic_id로 변경된 점 및/또는 subpic_id가 CTU 단위로 시그널링되는 점에 있어 차이가 있을 수 있다. 즉, 본 발명의 다른 일 실시예에 따르면, CTU 단위로 결정되는 subpic_id에 의해 서브 픽처 정보가 시그널링될 수 있다.
도 7에 기재되어 있는 구문 요소 중, 도 5에도 기재되어 있는 구문 요소들은 도 5와 관련된 내용에서 설명한 동작과 동일하게 동작할 수 있는바, 구체적인 설명은 생략한다.
도 8은 본 발명의 또 다른 일 실시예에 따른 SPS의 비트스트림 구조를 설명하기 위한 도면이다.
본 발명의 다른 일 실시예에 따르면, 서브 픽처 정보를 전송함에 있어, CTU 그룹 단위로 서브 픽처 정보가 전송될 수 있다. CTU 그룹은 기설정된 하나 이상 개수의 CTU 집합을 의미할 수 있다. 예컨대, 서브 픽처 정보는 서브 픽처 아이디를 포함할 수 있다.
구문 요소 subpic_ctu_group_col_minus1 및 subpic_ctu_group_row_minus1는 서브 픽처의 행 및 열에 포함되는 서브 픽처 그룹의 개수에서 1을 뺀 값을 지시하는 구문 요소 일 수 있다.
일 예로, subpic_ctu_group_col_minus1 및 subpic_ctu_group_row_minus1는 둘 중 하나만이 시그널링될 수 있다. 다른 예로, subpic_ctu_group_col_minus1 및 subpic_ctu_group_row_minus1 중 적어도 하나는 max_subpics_minus1에 기초하여 결정되거나, max_subpics_minus1에 기초하여 시그널링 여부가 결정될 수 있다. 또 다른 예로, subpic_ctu_group_col_minus1 및 subpic_ctu_group_row_minus1 중 하나는 다른 하나에 기초하여 결정되거나, 다른 하나에 의해 시그널링 여부가 결정될 수 있다.
픽처 내 가로 및 세로 방향으로 존재하는 CTU의 수인 NumCtuRows 및 NumCtuCols는 log2_ctu_size_minus5, pic_width_max_in_luma_samples, pic_height_max_in_luma_samples, subpic_ctu_group_col_minus1 및 subpic_ctu_group_row_minus1 중 적어도 하나를 사용하여 계산될 수 있다.
본 실시예에 따르면, 동일한 서브 픽처 아이디를 가지는 CTU 그룹은 동일한 서브 픽처에 포함될 수 있다.
전송된 subpic_id에 기초하여 서브 픽처마다 reference wraparound offset이 지정되고, 움직임 보정이 별도로 수행될 수 있다. 예컨대, 서브 픽처 reference wraparound의 수행 가능 여부를 지시하는 구문 요소 subpic_ref_wraparound_enabled_flag 및/또는 서브 픽처 reference wraparound offset을 지시하는 구문 요소 subpic_ref_wraparound_offset_minus1이 정의될 수 있다. subpic_ref_wraparound_enabled_flag 및 subpic_ref_wraparound_offset_minus1 중 적어도 하나는 reference wraparound 정보로 정의될 수 있다.
도 8의 SPS 비트스트림은 도 7과 비교 시, subpic_id가 CTU 그룹 단위로 전송되는 점, CTU 그룹을 정의하는 구문 요소가 시그널링되는 점 및/또는 reference wraparound 정보가 전송되는 점에 있어 차이가 있을 수 있다.
도 8에 기재되어 있는 구문 요소 중, 도 5 및/또는 도 7에도 기재되어 있는 구문 요소들은 도 5 및/또는 도 7과 관련된 내용에서 설명한 동작과 동일하게 동작할 수 있는바, 구체적인 설명은 생략한다.
도 9는 본 발명의 또 다른 일 실시예에 따른 SPS의 비트스트림 구조를 설명하기 위한 도면이다.
본 발명의 또 다른 실시예에 따르면, 픽처에 포함되는 서브 픽처가 동일한 크기로 분할되는지 여부를 지시하는 정보가 정의될 수 있다.
픽처에 포함되는 서브 픽처가 동일한 크기로 분할되는지 여부를 지시하는 정보는 구문 요소 uniform_subpic_spacing_flag, uniform_subpic_flag 또는 sps_subpic_same_size_flag로 정의될 수 있다.
일 예로, uniform_subpic_spacing_flag 또는 sps_subpic_same_size_flag 가 0일 경우, 픽처의 행 및 열에 포함되는 서브 픽처의 수는 각각 구문 요소 num_subpic_rows_minus1 및 num_subpic_columns_minus1을 통해 시그널링되고, 픽처의 행 및 열에 포함되는 서브 픽처의 너비 및 높이는 각각 구문 요소 subpic_column_width_minus1 또는 sps_subpic_width_minus1 및 subpic_row_height_minus1 또는 sps_subpic_height_minus1을 통해 시그널링될 수 있다. 즉, 구문 요소 subpic_column_width_minus1 또는 sps_subpic_width_minus1는 현재 서브 픽처의 너비를 지시하는 구문 요소일 수 있고, 구문 요소 subpic_row_height_minus1 또는 sps_subpic_height_minus1는 현재 서브 픽처의 높이를 지시하는 구문 요소 일 수 있다.
반면, uniform_subpic_spacing_flag 또는 sps_subpic_same_size_flag가 1일 경우, 서브 픽처의 너비 및 높이는 subpic_cols_width_minus1 및 subpic_rows_height_minus1를 통해 시그널링 되는 값 중 하나로 결정될 수 있다.
다른 예로, sps_subpic_same_size_flag가 1일 경우, 픽처의 행 및 열에 포함되는 서브 픽처의 너비 및 높이는 sps_subpic_width_minus1[0] 및 sps_subpic_height_minus1[0]로 결정될 수 있다.
이때, num_subpic_columns_minus1 및 num_subpic_rows_minus1는 각각 0에서 PicWidthInCtbsY - 1 및 0에서 PicHeightInCtbsY - 1의 값 중 하나의 값을 가질 수 있다. 한편, num_subpic_columns_minus1 및/또는 num_subpic_rows_minus1가 시그널링되지 않는 경우, num_subpic_columns_minus1 및/또는 num_subpic_rows_minus1은 0으로 결정될 수 있다.
또한, subpic_cols_width_minus1 및 subpic_rows_height_minus는 각각 0에서 PicWidthInCtbsY - 1 및 0에서 PicHeightInCtbsY - 1의 값 중 하나의 값을 가질 수 있다. 한편, subpic_cols_width_minus1 및/또는 subpic_rows_height_minus가 시그널링되지 않는 경우, num_subpic_columns_minus1 및/또는 num_subpic_rows_minus1는 각각 PicWidthInCtbsY - 1 및/또는 PicHeightInCtbsY - 1로 결정될 수 있다.
이때, uniform_subpic_spacing_flag가 1인 경우, 픽처에 포함되는 서브 픽처의 총 개수(NumSubpicsInPic)는 픽처의 너비 및 높이, num_subpic_columns_minus1(또는, subpic_ctu_group_col_minus1), num_subpic_rows_minus1 (또는, subpic_ctu_group_row_minus1) 및 log2_ctu_size_minus5 중 적어도 하나를 기반으로 결정될 수 있다.
반면, uniform_subpic_spacing_flag가 0인 경우, 픽처에 포함되는 서브 픽처의 총 개수(NumSubpicsInPic)는 num_subpic_columns_minus1(또는, subpic_ctu_group_col_minus1) 및 subpic_ctu_group_row_minus1(또는, num_subpic_rows_minus1) 중 적어도 하나를 기반으로 결정될 수 있다.
한편, uniform_subpic_flag이 별도로 시그널링되지 않는 경우, 그 값은 1로 설정될 수 있다.
한편, 각각의 구문 요소는 CTU 개수 단위로 시그널링될 수 있다.
본 발명의 또 다른 실시예에 따르면, 서브 픽처 아이디가 명시적으로 시그널링되는지 여부를 지시하는 정보가 정의될 수 있다.
일 예로, 서브 픽처 아이디가 명시적으로 시그널링되는지 여부를 지시하는 정보는 구문 요소 explicit_subpic_id_flag, sps_subpic_id_mapping_explicitly_signalled_flag로 정의될 수 있다.
예컨대, explicit_subpic_id_flag가 0인 경우, 서브 픽처 아이디는 별도 시그널링되지 않을 수 있다. 이 경우, 각 서브 픽처들의 서브 픽처 아이디는 raster-scan order에 따라 0부터 1씩 증가되는 값으로 결정될 수 있다. 예컨대, subpic_id는 아래의 수학식 3에 기초하여 결정될 수 있다.
[수학식 3]
for( i = 0; i < NumSubpicsInPic; i++ )
subpic_id[ i ] = i
반면, explicit_subpic_id_flag가 1인 경우, 각 서브 픽처 아이디는 raster-scan order에 따라 명시적으로 시그널링될 수 있다.
한편, 서브 픽처 아이디 할당 순서는, raster-scan order에 한정되지 않으며, vertical scan, horizontal scan, diagonal scan, z scan order 중 적어도 하나일 수 있다. 영상 부호화/복호화 장치는 복수의 스캔 타입을 정의할 수 있으며, 이 중 어느 하나를 선택적으로 이용할 수 있다. 예컨대, 스캔 타입의 선택은, 시그널링되는 정보에 기초하여 수행될 수도 있고, 부호화 파라미터에 기초하여 수행될 수도 있다. 예를 들어, 부호화 파라미터는, 우선도 정보, 서브 픽처의 크기, 위치, 픽처 포맷 중 적어도 하나를 포함할 수 있다.
다른 예로, 서브 픽처 아이디가 명시적으로 SPS에서 시그널링되는지 여부를 지시하는 구문 요소 sps_subpic_id_mapping_present_flag가 정의될 수 있다. 예컨대, sps_subpic_id_mapping_present_flag는 explicit_subpic_id_flag, 또는 sps_subpic_id_mapping_explicitly_signalled_flag가 1인 경우에 한해 시그널링될 수 있다. sps_subpic_id_mapping_present_flag가 1인 경우, 서브 픽처 아이디는 SPS에서 시그널링될 수 있으며, sps_subpic_id_mapping_present_flag가 0인 경우, 서브 픽처 아이디는 SPS가 아닌 다른 레벨에서 시그널링될 수 있다. 예컨대, sps_subpic_id_mapping_present_flagrk 0인 경우, 서브 픽처 아이디는 PPS에서 시그널링될 수 있다.
도 9에 기재되어 있는 구문 요소 중, 도 5, 도 7 및/또는 도 8에도 기재되어 있는 구문 요소들은 도 5, 도 7 및/또는 도 8 과 관련된 내용에서 설명한 동작과 동일하게 동작할 수 있는바, 구체적인 설명은 생략한다.
도 10은 본 발명의 또 다른 일 실시예에 따른 SPS의 비트스트림 구조를 설명하기 위한 도면이다.
본 발명의 또 다른 일 실시예에 따르면, 서브 픽처 정보를 전송함에 있어, 서브 픽처 단위로 서브 픽처 아이디가 전송될 수 있으며, 서브 픽처 내 CTU 정보를 기반으로, 서브 픽처 아이디를 제외한 몇몇 서브 픽처 정보가 전송될 수 있다
일 예로, 현재 서브 픽처의 위치는 현재 서브 픽처에 포함된 최-좌상단 CTU의 위치를 이용하여 서브 픽처 별로 유도될 수 있다. 예컨대, 현재 서브 픽처에 포함된 최-좌상단 CTU의 x 좌표 및 y 좌표를 지시하는 구문 요소 sps_subpic_ctu_top_left_x 및 sps_subpic_ctu_top_left_y의 시그널링을 통해 현재 서브 픽처의 위치가 결정될 수 있다.
다른 예로, 현재 서브 픽처의 크기는 서브 픽처 별로 시그널링 되는 정보를 이용하여 유도될 수 있다. 예컨대, 현재 서브 픽처의 너비 및 높이를 지시하는 구문 요소 sps_subpic_width_minus1 및 sps_subpic_height_minus1의 시그널링을 통해 현재 서브 픽처의 크기가 결정될 수 있다.
구문 요소 sps_subpic_ctu_top_left_x, sps_subpic_ctu_top_left_y, sps_subpic_width_minus1 및 sps_subpic_height_minus1를 제외한 구문 요소의 시그널링은 도 5 및/또는 도 7 내지 도 9를 통해 설명한 예시가 적용될 수 있는바 여기서는 설명을 생략하도록 한다.
도 11은 본 발명의 또 다른 일 실시예에 따른 PPS(Picture Parameter Set)의 비트스트림 구조를 설명하기 위한 도면이다.
본 발명의 또 다른 실시예에 따르면, 서브 픽처 정보는 PPS를 통해 타일 단위로 시그널링될 수 있다.
일 예로, PPS를 통해 현재 픽처에 대한 타일 정보를 전송함에 있어, 현재 PPS가 참조하는 SPS에 의해 시그널링되는 서브 픽처 정보를 참조하여 현재 픽처의 타일 분할 정보의 전체 또는 일부가 유도될 수 있다. PPS를 통해 시그널링되는 서브 픽처 정보는, 픽처를 구성하는 서브 픽처의 개수, 크기, 위치, subpics_present_flag(또는, sps_subpic_info_present_flag), sps_subpic_id_mapping_present_flag 중 적어도 하나를 포함할 수 있다.
PPS를 통해 시그널링된 subpics_present_flag가 1인 경우, SPS에서 전송된 서브 픽처 분할 정보를 참조하여, 타일을 분할할지 여부를 지시하는 구문 요소 subpic_derivation_flag가 시그널링될 수 있다.
일 예로, 시그널링된 subpic_derivation_flag가 1인 경우, SPS를 통해 전송된 서브 픽처 정보를 바탕으로 결정된 서브 픽처 분할 형태와 동일한 형태로 현재 타일이 분할될 수 있다.
또한, 시그널링되는 subpic_derivation_flag가 1인 경우, 서브 픽처 분할 형태와 동일한 형태로 타일이 분할된 뒤 수행되는 추가적인 타일 분할에 대한 정보를 시그널링 할지 여부를 결정하기 위해, 구문 요소 additional_tile_spacing_flag가 시그널링될 수 있다.
일 예로, additional_tile_spacing_flag가 0인 경우, 별도의 타일 분할 정보가 전송되지 않고 서브 픽처 분할 형태와 동일한 형태의 타일 분할을 수행할 수 있다.
반면, additional_tile_spacing_flag가 1인 경우에는 서브 픽처 분할 형태와 동일한 형태의 타일 분할이 수행될 수 있고, 추가적인 타일 분할에 대한 정보를 전송하여 추가적인 타일 분할이 수행될 수 있다.
다른 예로, 현재 서브 픽처는, 이전 서브 픽처의 타일 분할 정보를 이용하여 유도될 수 있다. 이때, 이전 서브 픽처의 타일 분할 정보를 재사용할지 여부를 지시하는 정보가 시그널링될 수 있다. 또 다른 예로, 서브 픽처 별로 상이한 타일 분할 정보가 정의되거나, 복수의 서브 픽처가 하나의 동일한 타일 분할 정보를 공유할 수도 있다.
도 11을 참고하면, 타일 단위로 서브 픽처 아이디가 시그널링될 수 있다. 이때의 서브 픽처 아이디는 SPS에서 시그널링된 서브 픽처 아이디에 대응되는 값으로 결정될 수 있다. 예컨대, PPS에서 시그널링되는 타일 단위 서브 픽처 아이디는 구문 요소 corresponding_subpic_id로 결정될 수 있으며, corresponding_subpic_id[i]는 SPS에서 시그널링되는 subpic_id[i]와 동일한 값으로 결정될 수 있다. 이때의 i는 i번째 타일을 지시할 수 있다.
도 12는 본 발명의 또 다른 일 실시예에 따른 PPS의 비트스트림 구조를 설명하기 위한 도면이다.
본 발명의 또 다른 실시예에 따르면, 서브 픽처 정보는 PPS를 통해 브릭 단위로 시그널링될 수 있다.
도 12를 참고하면, 브릭 단위로 서브 픽처 아이디가 시그널링될 수 있다. 이때의 서브 픽처 아이디는 SPS에서 시그널링된 서브 픽처 아이디에 대응되는 값으로 결정될 수 있다. 예컨대, PPS에서 시그널링되는 브릭 단위 서브 픽처 아이디는 구문 요소 corresponding_subpic_id로 결정될 수 있으며, corresponding_subpic_id[i]는 SPS에서 시그널링되는 subpic_id[i]와 동일한 값으로 결정될 수 있다. 이때의 i는 i번째 타일을 지시할 수 있다.
다른 예로, PPS에서 시그널링되는 서브 픽처 아이디는 SPS에서 전송되는 서브 픽처 아이디 값에 의존하지 않고 별도로 시그널링될 수 있다. 예컨대, 구문 요소 pps_subpic_id_mapping_present_flag는 서브 픽처 아이디가 PPS에서 시그널링되는지 여부를 지시하는 구문 요소일 수 있다. pps_subpic_id_mapping_present_flag가 1인 경우, 서브 픽처 아이디는 PPS에서 시그널링될 수 있다. 상술한 sps_subpic_id_mapping_explicitly_signalled_flag가 0이거나 sps_subpic_id_mapping_present_flag가 1인 경우, pps_subpic_id_mapping_present_flag는 0으로 결정될 수 있다. 한편, PPS에서 시그널링되는 서브 픽처 아이디는 구문 요소 pps_subpic_id로 정의될 수 있다.
도 13은 본 발명의 또 다른 일 실시예에 따른 슬라이스 헤더의 비트스트림 구조를 설명하기 위한 도면이다.
본 발명의 또 다른 실시예에 따르면, 서브 픽처 정보는 슬라이스 헤더를 통해 시그널링될 수 있다.
도 13을 참고하면, 서브 픽처 아이디는 슬라이스 헤더에서 시그널링될 수 있다. 이때의 서브 픽처 아이디는 SPS 또는 PPS에서 시그널링된 서브 픽처 아이디에 대응되는 값으로 결정될 수 있다. 예컨대, 슬라이스 헤더에서 시그널링되는 서브 픽처 아이디는 구문 요소 corresponding_subpic_id로 결정될 수 있으며, corresponding_subpic_id[i]는 SPS 또는 PPS에서 시그널링되는 subpic_id[i]와 동일한 값으로 결정될 수 있다.
다른 예로, 슬라이스 헤더에서 시그널링되는 서브 픽처 아이디는 SPS 또는 PPS에서 전송되는 서브 픽처 아이디 값에 의존하지 않고 별도로 시그널링될 수 있다. 예컨대, sps_subpic_info_present_flag에 따라 슬라이스 헤더에서 서브 픽처 아이디가 시그널링될지 여부가 결정될 수 있다. 한편, 서브 픽처 아이디에서 시그널링되는 서브 픽처 아이디는 구문 요소 sh_subpic_id로 정의될 수 있다.
즉, 서브 픽처 아이디는 서로 다른 레벨에서 시그널링되는 서브 픽처 아이디 값에 의존성 없이 개별적으로 시그널링될 수 있다. 즉, 서브 픽처 아이디는 SPS, PPS 및/또는 슬라이스 헤더에서 개별적으로 시그널링될 수 있다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (18)

  1. 영상 복호화 방법에 있어서,
    현재 서브 픽처에 대한 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 획득하는 단계; 및
    상기 서브 픽처 정보를 이용하여 상기 현재 서브 픽처를 복호화하는 단계를 포함하되,
    상기 서브 픽처 정보는, 복호화되는 각각의 서브 픽처 별로 획득되는 것을 특징으로 하는, 영상 복호화 방법.
  2. 제 1항에 있어서,
    상기 적어도 하나의 시그널링 레벨은 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 및 슬라이스 헤더(Slice Header) 중 적어도 하나로 결정되는 것을 특징으로 하는, 영상 복호화 방법.
  3. 제 2항에 있어서,
    상기 서브 픽처 정보는 상기 서브 픽처에 대한 서브 픽처 아이디(ID)를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
  4. 제 2항에 있어서,
    상기 서브 픽처 정보는, 현재 픽처에 포함되는 서브 픽처들이 동일한 크기를 가지는지 여부를 지시하는 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
  5. 제 4항에 있어서,
    상기 현재 픽처에 포함되는 서브 픽처들이 동일한 크기를 가지지 않는 경우,
    상기 서브 픽처 정보는, 상기 현재 서브 픽처에 대한 위치 정보를 포함하되,
    상기 현재 서브 픽처에 대한 위치 정보가 지시하는 위치는, 상기 현재 서브 픽처에 포함되는 최-좌상단 CTU(Coding Tree Unit)의 위치인 것을 특징으로 하는, 영상 복호화 방법.
  6. 제 4항에 있어서,
    상기 현재 픽처에 포함되는 서브 픽처들이 동일한 크기를 가지지 않는 경우,
    상기 서브 픽처 정보는, 상기 현재 서브 픽처에 대한 크기 정보를 포함하되,
    상기 서브 픽처에 대한 크기 정보는 상기 현재 서브 픽처의 너비 및 높이 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
  7. 제 6항에 있어서,
    상기 현재 픽처에 포함되는 서브 픽처들이 모두 동일한 크기를 가지는 경우,
    상기 동일한 크기는 기설정되는 것을 특징으로 하는, 영상 복호화 방법.
  8. 제 3항에 있어서,
    상기 서브 픽처 아이디는 서로 다른 시그널링 레벨에서 개별적으로 획득되는 것을 특징으로 하는, 영상 복호화 방법.
  9. 제 2항에 있어서,
    상기 적어도 하나의 시그널링 레벨이 SPS인 경우,
    상기 서브 픽처 정보는, 상기 현재 서브 픽처에 대한 서브 픽처 아이디가 명시적으로 시그널링되는지 여부를 지시하는 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
  10. 제 9항에 있어서,
    상기 현재 서브 픽처에 대한 서브 픽처 아이디가 명시적으로 시그널링되는지 여부를 지시하는 정보가, 상기 서브 픽처 아이디가 명시적으로 시그널링됨을 지시하는 경우,
    상기 서브 픽처 정보는, 상기 서브 픽처 아이디가 어느 시그널링 레벨에서 시그널링되는지를 지시하는 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
  11. 제 2항에 있어서,
    상기 서브 픽처 정보는, 상기 현재 서브 픽처를 픽처로 판단하여 복호화를 수행할지 여부를 지시하는 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
  12. 제 2항에 있어서,
    상기 서브 픽처 정보는, 상기 현재 서브 픽처의 경계에 대해 필터링을 적용할지 여부를 지시하는 서브 픽처 필터링 정보를 포함하는 것을 특징으로 하는, 영상 복호화 방법.
  13. 영상 부호화 방법에 있어서,
    현재 서브 픽처에 대한 서브 픽처 정보를 결정하는 단계; 및
    상기 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 부호화하는 단계를 포함하되,
    상기 서브 픽처 정보는, 부호화되는 각각의 서브 픽처 별로 결정되는 것을 특징으로 하는, 영상 부호화 방법.
  14. 제 13항에 있어서,
    상기 적어도 하나의 시그널링 레벨은 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 및 슬라이스 헤더(Slice Header) 중 적어도 하나로 결정되는 것을 특징으로 하는, 영상 부호화 방법.
  15. 제 14항에 있어서,
    상기 서브 픽처 정보는 상기 서브 픽처에 대한 서브 픽처 아이디(ID)를 포함하는 것을 특징으로 하는, 영상 부호화 방법.
  16. 영상 복호화 장치에 수신되고 현재 픽처에 포함된 현재 블록을 복원하는데 이용되는 비트스트림을 저장한 컴퓨터 판독가능한 기록매체에 있어서,
    현재 서브 픽처에 대한 서브 픽처 정보를 결정하는 단계; 및
    상기 서브 픽처 정보를 적어도 하나의 시그널링 레벨을 통해 부호화하는 단계를 포함하되,
    상기 서브 픽처 정보는, 부호화되는 각각의 서브 픽처 별로 결정되는 것을 특징으로 하는 영상 부호화 방법에 의해 생성된 비트스트림을 저장하는 컴퓨터 판독 가능한 기록 매체.
  17. 제 16항에 있어서,
    상기 적어도 하나의 시그널링 레벨은 SPS(Sequence Parameter Set), PPS(Picture Parameter Set) 및 슬라이스 헤더(Slice Header) 중 적어도 하나로 결정되는 것을 특징으로 하는, 컴퓨터 판독 가능한 기록 매체.
  18. 제 17항에 있어서,
    상기 서브 픽처 정보는 상기 서브 픽처에 대한 서브 픽처 아이디(ID)를 포함하는 것을 특징으로 하는, 컴퓨터 판독 가능한 기록 매체.
KR1020200122215A 2019-09-23 2020-09-22 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 KR20210035062A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020190116800 2019-09-23
KR20190116800 2019-09-23
KR1020190118875 2019-09-26
KR20190118875 2019-09-26

Publications (1)

Publication Number Publication Date
KR20210035062A true KR20210035062A (ko) 2021-03-31

Family

ID=75165910

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200122215A KR20210035062A (ko) 2019-09-23 2020-09-22 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Country Status (5)

Country Link
US (1) US20220224932A1 (ko)
KR (1) KR20210035062A (ko)
CN (1) CN113994690A (ko)
MX (1) MX2021014687A (ko)
WO (1) WO2021060801A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7400114B2 (ja) * 2020-02-24 2023-12-18 バイトダンス インコーポレイテッド ビデオコーディングでのピクチャレベルスライスインデックスの使用
US11683528B2 (en) * 2020-05-11 2023-06-20 Qualcomm Incorporated Sub-picture extraction and constraints in video coding

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10244246B2 (en) * 2012-02-02 2019-03-26 Texas Instruments Incorporated Sub-pictures for pixel rate balancing on multi-core platforms
KR102047492B1 (ko) * 2012-03-12 2019-11-22 삼성전자주식회사 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
US8989508B2 (en) * 2012-09-28 2015-03-24 Sharp Kabushiki Kaisha Electronic device for signaling a sub-picture buffer parameter
US9374585B2 (en) * 2012-12-19 2016-06-21 Qualcomm Incorporated Low-delay buffering model in video coding
US20160134879A1 (en) * 2013-04-05 2016-05-12 Samsung Electronics Co., Ltd. Multi-layer video coding method and device, and multi-layer video decoding method and device
CN113557744A (zh) * 2019-03-11 2021-10-26 华为技术有限公司 视频译码中的分块级滤波
HUE061642T2 (hu) * 2019-09-17 2023-07-28 Huawei Tech Co Ltd Jelzõ alkép azonosítók az alkép alapú videokódolásban

Also Published As

Publication number Publication date
CN113994690A (zh) 2022-01-28
MX2021014687A (es) 2022-01-11
WO2021060801A1 (ko) 2021-04-01
US20220224932A1 (en) 2022-07-14

Similar Documents

Publication Publication Date Title
US11973960B2 (en) Method and apparatus for encoding/decoding video signal
US20220014770A1 (en) Method and apparatus for processing video signal
KR102424419B1 (ko) 비디오 신호 처리 방법 및 장치
US20230362369A1 (en) Image encoding/decoding method and apparatus, and recording medium storing bitstream
KR20180061046A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US11659174B2 (en) Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein
TW202341742A (zh) 圖像編碼方法及圖像解碼方法
US11190769B2 (en) Method and apparatus for coding image using adaptation parameter set
KR20170007069A (ko) 파노라믹 비디오의 왜곡보정 방법 및 장치
KR20180031615A (ko) 비디오 신호 처리 방법 및 장치
US11496737B2 (en) Image encoding/decoding method and apparatus, and recording medium storing bitstream
WO2020186056A1 (en) Reconstruction of blocks of video data using block size restriction
US20220345703A1 (en) Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein
KR101468078B1 (ko) 화면 내 예측 방법 및 장치
KR102378803B1 (ko) 비디오 신호의 복호화 방법 및 이의 장치
KR20210065063A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20200087088A (ko) 영상 부호화/복호화 방법 및 장치
KR20210035062A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US20240098262A1 (en) Method and apparatus for encoding/decoding an image based on in-loop filter
KR20220019731A (ko) 비디오 부호화/복호화 방법 및 장치
KR20150048637A (ko) 색 성분 간 예측 방법 및 장치
CN113841399A (zh) 图像编码/解码方法和设备
KR20210082092A (ko) 영상 부호화/복호화 방법 및 장치
KR102410326B1 (ko) 영상 부호화/복호화 방법 및 장치
KR20220040451A (ko) 비디오 신호의 복호화 방법 및 이의 장치