KR20230055488A - A method and an apparatus for processing high resolution videos - Google Patents
A method and an apparatus for processing high resolution videos Download PDFInfo
- Publication number
- KR20230055488A KR20230055488A KR1020210138926A KR20210138926A KR20230055488A KR 20230055488 A KR20230055488 A KR 20230055488A KR 1020210138926 A KR1020210138926 A KR 1020210138926A KR 20210138926 A KR20210138926 A KR 20210138926A KR 20230055488 A KR20230055488 A KR 20230055488A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- subpicture
- picture
- resolution
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000012545 processing Methods 0.000 title description 12
- 230000011664 signaling Effects 0.000 claims abstract description 25
- 230000008859 change Effects 0.000 claims description 13
- 238000012952 Resampling Methods 0.000 claims description 3
- 238000013139 quantization Methods 0.000 description 98
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 30
- 230000000875 corresponding effect Effects 0.000 description 28
- 230000008569 process Effects 0.000 description 27
- 238000001914 filtration Methods 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 21
- 230000009466 transformation Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 230000003044 adaptive effect Effects 0.000 description 12
- 238000012805 post-processing Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
Abstract
Description
본 발명은 영상 처리 방법 및 그 장치에 관한 것이다. 보다 구체적으로, 본 발명은 고해상도 영상의 처리 방법 및 그 장치에 관한 것이다.The present invention relates to an image processing method and an apparatus therefor. More specifically, the present invention relates to a method and apparatus for processing a high-resolution image.
최근 디지털 영상 처리와 컴퓨터 그래픽 기술이 발전함에 따라, 현실 세계를 재현하고 이를 실감나게 경험하도록 하는 가상현실(VIRTUAL REALITY, VR) 기술에 관한 연구가 활발히 진행되고 있다.As digital image processing and computer graphics technology have recently developed, research on virtual reality (VR) technology that reproduces the real world and allows a realistic experience is being actively conducted.
특히, HMD(Head Mounted Display)와 같은 최근의 VR 시스템은, 사용자의 양안에 3차원 입체 영상을 제공할 수 있을 뿐만 아니라, 그 시점을 전방위로 트래킹할 수 있기에, 360도 회전 시청 가능한 실감나는 가상현실(VR) 영상 컨텐츠를 제공할 수 있다는 점에서 많은 관심을 받고 있다.In particular, recent VR systems such as HMD (Head Mounted Display) can not only provide a 3D stereoscopic image to both eyes of the user, but also track the viewpoint in all directions, providing realistic virtual reality that can be viewed 360 degrees. It is receiving a lot of attention in that it can provide reality (VR) video content.
그러나, 360 VR 컨텐츠는 시간 및 양안 영상이 공간적으로 복합 동기화된 동시 전방위의 다시점 영상 정보로 구성되기 때문에, 영상의 제작 및 전송에 있어서, 모든 시점의 양안 공간에 대해 동기화된 2개의 대형 영상을 부호화하여 압축 및 전달하게 된다. 이는 복잡도 및 대역폭 부담을 가중시키며, 특히 복호화 장치에서는 사용자 시점을 벗어나 실제로 시청되지 않는 영역에 대하여도 복호화가 이루어짐으로써 불필요한 프로세스가 낭비되는 문제점이 있다.However, since 360 VR content is composed of simultaneous omnidirectional multi-view image information in which temporal and binocular images are spatially and compositely synchronized, two large images synchronized with respect to the binocular space of all viewpoints must be used in the production and transmission of images. It is encoded, compressed, and transmitted. This increases the complexity and bandwidth burden, and in particular, in the decoding apparatus, decoding is performed even for an area that is not actually viewed outside the user's point of view, so that unnecessary processes are wasted.
이에 따라, 영상의 전송 데이터량과 복잡도를 감소시키고, 대역폭 및 복호화 장치의 배터리 소모 측면에서도 효율적인 부호화 방법이 요구된다.Accordingly, there is a need for an encoding method that reduces the transmission data amount and complexity of an image and is efficient in terms of bandwidth and battery consumption of a decoding device.
이를 해결하기 위해, 최근에는 사용자의 시선이 머무르는 위치를 뷰포트(VIEWPORT)로 설정하고, 이에 기초한 적응적 해상도를 처리하는 기술 등이 대두되고 있다.In order to solve this problem, recently, a technique of setting a location where a user's gaze stays as a viewport and processing an adaptive resolution based thereon has emerged.
동영상 압축 국제 표준 중 하나인 H.265/HEVC 기술은 주로 360 영상을 타일 분할 기법을 사용하여 압축 및 복원하고 있으며, 타일은 HEVC 기술 중 화면 분할 기법 중 하나로서, 뷰포트에 따라 일부 타일을 비트레이트에 따라 고-비트레이트로 복원하고, 일부 타일은 저-비트레이트로 부호화하여 전체 데이터 량을 감소시킬 수 있다.H.265/HEVC technology, one of the international standards for video compression, mainly compresses and restores 360 video using a tile division technique. It is possible to reconstruct with a high bitrate according to , and to reduce the total amount of data by encoding some tiles with a low bitrate.
그러나, 타일 분할 방식은 가변 비트 레이트를 지원할 수 는 있으나, 실제 영상들은 다양한 방식으로 각 카메라를 통해 취득한 영상을 하나의 대형 영상으로 매핑하여 구성되어 있기 때문에, 8K 이상의 영상 해상도를 압축하기에는 효율적이지 않은 문제점이 있다.However, although the tile division method can support a variable bit rate, since actual images are configured by mapping images obtained through each camera in various ways into one large image, it is not efficient to compress an image resolution of 8K or higher. There is a problem.
본 발명은 상기한 바와 같은 문제점을 해결하기 위한 것으로, 영상 해상도의 가변 압축을 통해 영상의 전송 데이터량과 대역폭 및 처리연산을 효율적으로 감소시킬 수 있는 고해상도 영상의 처리 방법 및 그 장치를 제공하는 데 그 목적이 있다.The present invention is to solve the above problems, to provide a high-resolution video processing method and apparatus capable of efficiently reducing the amount of transmission data, bandwidth and processing operations of an image through variable compression of the image resolution. It has a purpose.
상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 영상 복호화 방법은, 영상 정보를 포함하는 비트스트림을 수신하는 단계; 상기 비트스트림으로부터, 서브 픽처 시그널링 정보를 복호화하는 단계; 상기 서브 픽처 시그널링 정보로부터, 서브 픽처별 해상도 조절 정보를 식별하는 단계; 상기 서브 픽처별 해상도 조절 정보를 이용하여, 하나 이상의 서브 픽처를 복호화하는 단계; 및 상기 복호화된 서브 픽처를 이용한 복원 영상을 재구성하는 단계를 포함한다.An image decoding method according to an embodiment of the present invention for solving the above problems includes receiving a bitstream including image information; decoding subpicture signaling information from the bitstream; identifying resolution adjustment information for each subpicture from the subpicture signaling information; decoding one or more subpictures using the resolution adjustment information for each subpicture; and reconstructing a restored image using the decoded subpicture.
또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 영상 부호화 방법은, 영상 부호화 방법에 있어서, 원본 영상을 서브 픽처로 분할하는 단계; 상기 분할된 서브 픽처별 부호화 해상도를 결정하는 단계; 상기 서브 픽처별 부호화 해상도에 따라, 원본 영상을 부호화하는 단계; 상기 서브 픽처별 해상도 조절 정보를 포함하는 상기 서브 픽처 시그널링 정보를 생성하는 단계; 및 부호화된 영상 및 상기 서브 픽처 시그널링 정보를 포함하는 비트스트림을 구성하는 단계를 포함한다.In addition, an image encoding method according to an embodiment of the present invention for solving the above problems includes dividing an original image into subpictures; determining a coding resolution for each divided sub-picture; encoding an original image according to the encoding resolution for each sub-picture; generating the subpicture signaling information including resolution adjustment information for each subpicture; and constructing a bitstream including an encoded image and the subpicture signaling information.
본 발명의 실시 예에 따르면, 원본 영상을 서브 픽처로 분할하고, 상기 분할된 서브 픽처별 부호화 해상도에 따른 서브 픽처별 해상도 조절 정보를 포함하는 서브 픽처 시그널링 정보를 생성하여, 비트스트림을 구성할 수 있으며, 이를 이용한 시그널링 및 복호화를 처리할 수 있다.According to an embodiment of the present invention, a bitstream may be configured by dividing an original video into subpictures and generating subpicture signaling information including resolution adjustment information for each subpicture according to a coding resolution for each divided subpicture. and can process signaling and decoding using it.
이에 따라, 본 발명은 영상 해상도의 가변 압축을 통해 영상의 전송 데이터량과 대역폭 및 처리연산을 효율적으로 감소시킬 수 있는 고해상도 영상의 처리 방법 및 그 장치를 제공할 수 있다.Accordingly, the present invention can provide a high-resolution image processing method and apparatus capable of efficiently reducing the amount of transmission data, bandwidth, and processing operations of an image through variable compression of the image resolution.
도 1은 본 발명의 일실시예에 따른 영상 부호화 장치의 구성을 나타내는 블록도이다.
도 2는 영상 부호화 장치에서 인터 예측을 수행하는 방법에 대한 일실시예를 설명하기 위한 블록도이다.
도 3은 본 발명의 일실시예에 따른 영상 복호화 장치의 구성을 나타내는 블록도이다.
도 4는 영상 복호화 장치에서 인터 예측을 수행하는 방법에 대한 일실시예를 설명하기 위한 블록도이다.
도 5는 본 발명의 실시 예에 따른 영상 부호화 장치의 동작을 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시 예에 따른 영상 복호화 장치의 동작을 설명하기 위한 흐름도이다.
도 7은 본 발명의 실시 예에 따른 서브 픽처별 해상도가 조절된 경우와 원본 영상의 비교도이다.
도 8은 본 발명의 실시 예에 따른 서브 픽처별 해상도 조절과 GOP 단위 관계를 나타내는 예시도이다.
도 9는 본 발명의 실시 예에 따른 서브 픽처별 해상도 조절과 NAL 패킷 구조 관계를 나타내는 예시도이다.
도 10은 본 발명의 실시 예에 따른 서브 픽처별 해상도 조절에 따른 타일 개수의 감축을 설명하기 위한 도면이다.1 is a block diagram showing the configuration of an image encoding apparatus according to an embodiment of the present invention.
2 is a block diagram for explaining an embodiment of a method of performing inter prediction in an image encoding apparatus.
3 is a block diagram showing the configuration of a video decoding apparatus according to an embodiment of the present invention.
4 is a block diagram for explaining an embodiment of a method of performing inter prediction in a video decoding apparatus.
5 is a flowchart illustrating an operation of an image encoding apparatus according to an embodiment of the present invention.
6 is a flowchart illustrating an operation of a video decoding apparatus according to an embodiment of the present invention.
7 is a comparison diagram between an original image and a case where the resolution of each subpicture is adjusted according to an embodiment of the present invention.
8 is an exemplary diagram illustrating a relationship between resolution adjustment of each sub-picture and GOP units according to an embodiment of the present invention.
9 is an exemplary diagram illustrating a relationship between resolution adjustment for each subpicture and a NAL packet structure according to an embodiment of the present invention.
10 is a diagram for explaining a reduction in the number of tiles according to resolution adjustment of each subpicture according to an embodiment of the present invention.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described concretely with reference to drawings. In describing the embodiments of the present specification, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present specification, the detailed description thereof will be omitted.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. It is understood that when a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. In addition, the description of "including" a specific configuration in the present invention does not exclude configurations other than the corresponding configuration, and means that additional configurations may be included in the practice of the present invention or the scope of the technical spirit of the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, components appearing in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or a single software component unit. That is, each component is listed and included as each component for convenience of explanation, and at least two components of each component can be combined to form a single component, or one component can be divided into a plurality of components to perform a function, and each of these components can be divided into a plurality of components. Integrated embodiments and separated embodiments of components are also included in the scope of the present invention as long as they do not depart from the essence of the present invention.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components may be optional components for improving performance rather than essential components that perform essential functions in the present invention. The present invention can be implemented by including only components essential to implement the essence of the present invention, excluding components used for performance improvement, and a structure including only essential components excluding optional components used for performance improvement. Also included in the scope of the present invention.
도 1은 본 발명의 일실시예에 따른 영상 부호화 장치의 구성을 블록도로 도시한 것으로, 영상 부호화 장치(10)는 픽처 분할부(110), 변환부(120), 양자화부(130), 스캐닝부(131), 엔트로피 부호화부(140), 인트라 예측부(150), 인터 예측부(160), 역양자화부(135), 역변환부(125), 후처리부(170), 픽처 저장부(180), 감산부(190) 및 가산부(195)를 포함한다.1 is a block diagram showing the configuration of an image encoding apparatus according to an embodiment of the present invention. The
도 1을 참조하면, 픽처 분할부(110)는 입력되는 비디오 신호를 분석하여 픽처를 코딩 유닛으로 분할하여 예측 모드를 결정하고, 상기 코딩 유닛별로 예측 유닛의 크기를 결정한다.Referring to FIG. 1 , the
또한, 픽처 분할부(110)는 부호화할 예측 유닛을 예측 모드(또는 예측 방법)에 따라 인트라 예측부(150) 또는 인터 예측부(160)로 보낸다. 또한, 픽처 분할부(110)는 부호화할 예측 유닛을 감산부(190)로 보낸다.Also, the
여기서, 영상의 픽처(picture)는 복수의 타일 또는 슬라이스로 구성되고, 타일 또는 슬라이스는 픽처를 분할하는 기본 단위인 복수의 코딩 트리 유닛(Coding Tree Unit: CTU)들로 분할될 수 있다.Here, a picture of an image is composed of a plurality of tiles or slices, and the tiles or slices may be divided into a plurality of Coding Tree Units (CTUs), which are basic units for dividing a picture.
또한, 본 발명의 실시 예에 따른 복수의 타일 또는 슬라이스들은 하나 이상의 타일 또는 슬라이스 그룹을 구성할 수 있으며, 이러한 그룹은 픽처를 직사각형 영역으로 분할하는 서브 픽처를 구성할 수 있다.Also, a plurality of tiles or slices according to an embodiment of the present invention may constitute one or more tile or slice groups, and such groups may constitute subpictures dividing a picture into rectangular regions.
그리고, 상기 코딩 트리 유닛은 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)이 수행되는 기본 단위인 하나 또는 2 이상의 코딩 유닛(Coding Unit: CU)들로 분할될 수 있다.Also, the coding tree unit may be divided into one or more coding units (CUs), which are basic units in which inter prediction or intra prediction is performed.
코딩 유닛(CU)은 예측이 수행되는 기본 단위인 하나 또는 그 이상의 예측 유닛(Prediction unit: PU)들로 분할될 수 있다.A coding unit (CU) may be divided into one or more prediction units (PUs), which are basic units in which prediction is performed.
이 경우, 부호화 장치(10)는 상기 분할된 코딩 유닛(CU)들 각각에 대해 인터 예측과 인트라 예측 중 어느 하나를 예측 방법으로 결정하나, 각각의 예측 유닛(PU)에 대해 서로 다르게 예측 블록을 생성할 수 있다.In this case, the
한편, 코딩 유닛(CU)은 잔차 블록(residual block)에 대한 변환이 수행되는 기본 단위인 하나 또는 2 이상의 변환 유닛(Transform Unit: TU)들로 분할될 수 있다.Meanwhile, a coding unit (CU) may be divided into one or two or more transform units (TUs), which are basic units in which transformation of a residual block is performed.
이 경우, 픽처 분할부(110)는 상기와 같이 분할된 블록 단위(예를 들어, 예측 유닛(PU) 또는 변환 유닛(TU))로 영상 데이터를 감산부(190)에 전달할 수 있다.In this case, the
예를 들어, 최대 256x256 픽셀 크기를 가지는 코딩 트리 유닛(CTU)는 쿼드 트리(quad tree) 구조로 분할되어, 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들로 분할될 수 있다.For example, a coding tree unit (CTU) having a maximum size of 256x256 pixels may be divided into four coding units (CUs) having a square shape by dividing into a quad tree structure.
상기 정사각형의 형태를 가지는 4개의 코딩 유닛(CU)들은 각각 쿼드 트리 구조로 재 분할될 수 있으며, 상기와 같이 쿼드 트리 구조로 분할되는 코딩 유닛(CU)의 깊이(Depth)는 0부터 3 중 어느 하나의 정수 값을 가질 수 있다.Each of the four coding units (CUs) having the shape of a square may be subdivided into a quad tree structure, and the depth (Depth) of the coding units (CUs) split into the quad tree structure as described above is any one of 0 to 3. It can have a single integer value.
코딩 유닛(CU)은 예측 모드에 따라 하나 또는 2 이상의 예측 유닛(PU)들로 분할될 수 있다.A coding unit (CU) may be divided into one or two or more prediction units (PUs) according to a prediction mode.
또한, 코딩 유닛(CU)는 쿼드 트리(quad tree) 또는 바이너리 트리(binary tree)구조로 분할되어, 정사각형 또는 직사각형의 형태를 가지는 변환 유닛(TU)들로 분할될 수 있다.In addition, the coding unit (CU) may be divided into a quad tree or binary tree structure and divided into transform units (TUs) having a square or rectangular shape.
또한, 보다 정밀하고 효율적인 부호화 및 복호화를 위하여, 본 발명의 실시 예에 따른 부호화 장치(10)는 쿼드 트리 및 이진(바이너리) 트리 분할에 의해, 특정 방향 길이가 길게 분할된 코딩 유닛의 가장자리 영역 등을 용이하게 분할하게 할 수 있는 삼진 트리(ternary tree) 또는 삼중 트리(triple tree) 구조로 코딩 유닛을 분할할 수도 있다.In addition, for more accurate and efficient encoding and decoding, the
한편, 상기 정사각형 또는 직사각형의 형태를 가지는 변환 유닛(TU)들은 각각 쿼드 트리 또는 바이너리 트리 구조로 재 분할될 수 있으며, 쿼드 트리 또는 바이너리 트리 구조로 분할되는 변환 유닛(TU)의 깊이(Depth)는 0부터 3 중 어느 하나의 정수 값을 가질 수 있다.Meanwhile, each of the transform units (TUs) having a square or rectangular shape may be re-divided into a quad tree or binary tree structure, and the depth of the transform unit (TU) divided into the quad tree or binary tree structure is It can have an integer value from 0 to 3.
여기서, 코딩 유닛(CU)이 인터 예측 모드인 경우, 해당 코딩 유닛(CU)으로부터 분할된 예측 유닛(PU)와 변환 유닛(TU)은 서로 독립적인 분할 구조를 가질 수 있다.Here, when the coding unit (CU) is in the inter prediction mode, the prediction unit (PU) and the transform unit (TU) divided from the corresponding coding unit (CU) may have a partition structure independent of each other.
코딩 유닛(CU)이 인트라 예측 모드인 경우, 해당 코딩 유닛(CU)으로부터 분할된 변환 유닛(TU)은 예측 유닛(PU)의 크기보다 클 수 없다.When a coding unit (CU) is in intra prediction mode, a transform unit (TU) divided from the corresponding coding unit (CU) cannot be larger than the size of the prediction unit (PU).
또한, 상기와 같이 분할되는 변환 유닛(TU)은 최대 64x64 픽셀 크기를 가질 수 있다.In addition, the transform unit (TU) divided as described above may have a maximum size of 64x64 pixels.
변환부(120)는 입력된 예측 유닛(PU)의 원본 블록과 인트라 예측부(150) 또는 인터 예측부(160)에서 생성된 예측 블록 사이의 잔차 신호인 잔차 블록을 변환하며, 상기 변환은 변환 유닛(TU)을 기본 단위로 하여 수행될 수 있다.The
상기 변환 과정에서 예측 모드(intra or inter)에 따라 서로 다른 변환 매트릭스가 결정될 수 있으며, 인트라 예측의 잔차 신호는 인트라 예측 모드에 따라 방향성을 가지므로 인트라 예측 모드에 따라 적응적으로 변환 매트릭스가 결정될 수 있다.In the transformation process, different transformation matrices may be determined according to the prediction mode (intra or inter), and since the residual signal of intra prediction has a direction according to the intra prediction mode, the transformation matrix may be adaptively determined according to the intra prediction mode. there is.
변환 단위는 2개(수평, 수직)의 1차원 변환 매트릭스에 의해 변환될 수 있으며, 예를 들어 인터 예측의 경우에는 미리 결정된 1개 또는 2개의 변환 매트릭스가 결정될 수 있다.A transformation unit may be transformed by two (horizontal and vertical) one-dimensional transformation matrices, and for example, in the case of inter prediction, one or two predetermined transformation matrices may be determined.
한편, 인트라 예측의 경우, 인트라 예측 모드가 수평인 경우에는 잔차 블록이 수직방향으로의 방향성을 가질 확률이 높아지므로, 수직방향으로는 DCT 기반의 정수 매트릭스를 적용하고, 수평방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를 적용한다. 인트라 예측 모드가 수직인 경우에는 수직방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를, 수평 방향으로는 DCT 기반의 정수 매트릭스를 적용할 수 있다.On the other hand, in the case of intra prediction, if the intra prediction mode is horizontal, since the probability that the residual block has a vertical direction increases, a DCT-based integer matrix is applied in the vertical direction, and a DST-based or DST-based integer matrix is applied in the horizontal direction. Apply KLT-based integer matrix. When the intra prediction mode is vertical, a DST-based or KLT-based integer matrix may be applied in the vertical direction, and a DCT-based integer matrix may be applied in the horizontal direction.
또한, DC 모드의 경우에는 양방향 모두 DCT 기반 정수 매트릭스를 적용할 수 있다.In addition, in the case of the DC mode, a DCT-based integer matrix can be applied to both directions.
그리고, 인트라 예측의 경우, 변환 유닛(TU)의 크기에 기초하여 변환 매트릭스가 적응적으로 결정될 수도 있다.And, in the case of intra prediction, a transform matrix may be adaptively determined based on the size of a transform unit (TU).
양자화부(130)는 상기 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위한 양자화 스텝 사이즈를 결정하며, 양자화 스텝 사이즈는 미리 정해진 크기 이상의 양자화 유닛별로 결정될 수 있다.The
양자화 유닛의 크기는 8x8 또는 16x16일 수 있으며, 양자화부(130)는 양자화 스텝 사이즈 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 변환 블록의 계수들을 양자화한다.The size of the quantization unit may be 8x8 or 16x16, and the
또한, 양자화부(130)는 현재 양자화 유닛의 양자화 스텝 사이즈 예측자로서 현재 양자화 유닛에 인접한 양자화 유닛의 양자화 스텝 사이즈를 이용할 수 있다.Also, the
양자화부(130)는 현재 양자화 유닛의 좌측 양자화 유닛, 상측 양자화 유닛, 좌상측 양자화 유닛 순서로 검색하여 1개 또는 2개의 유효한 양자화 스텝 사이즈를 이용하여 현재 양자화 유닛의 양자화 스텝 사이즈 예측자를 생성할 수 있다.The
예를 들어, 양자화부(130)는 상기 순서로 검색된 유효한 첫번째 양자화 스텝 사이즈를 양자화 스텝 사이즈 예측자로 결정하거나, 상기 순서로 검색된 유효한 2개의 양자화 스텝 사이즈의 평균값을 양자화 스텝 사이즈 예측자로 결정하거나, 또는 1개의 양자화 스텝 사이즈만이 유효한 경우에는 이를 양자화 스텝 사이즈 예측자로 결정할 수 있다.For example, the
상기 양자화 스텝 사이즈 예측자가 결정되면, 양자화부(130)는 현재 양자화 유닛의 양자화 스텝 사이즈와 양자화 스텝 사이즈 예측자 사이의 차분값을 엔트로피 부호화부(140)로 전송한다.When the quantization step size predictor is determined, the
한편, 현재 코딩 유닛의 좌측 코딩 유닛, 상측 코딩 유닛, 좌상측 코딩 유닛 모두가 존재하지 않거나. 또는 최대 코딩 유닛 내의 부호화 순서 상으로 이전에 존재하는 코딩 유닛이 존재할 수 있다.Meanwhile, all of the left coding unit, the above coding unit, and the top left coding unit of the current coding unit do not exist. Alternatively, a coding unit previously present in the coding order within the largest coding unit may exist.
따라서, 현재 코딩 유닛에 인접한 양자화 유닛들과 상기 최대 코딩 유닛 내에서는 부호화 순서상 바로 이전의 양자화 유닛의 양자화 스텝 사이즈가 후보자가 될 수 있다.Therefore, in quantization units adjacent to the current coding unit and the maximum coding unit, a quantization step size of a quantization unit immediately preceding in coding order may be a candidate.
이 경우, 1) 현재 코딩 유닛의 좌측 양자화 유닛, 2) 현재 코딩 유닛의 상측 양자화 유닛, 3) 현재 코딩 유닛의 좌상측 양자화 유닛, 4) 부호화 순서상 바로 이전의 양자화 유닛 순서로 우선순위가 설정될 수 있다. 상기 순서는 바뀔 수 있고, 상기 좌상측 양자화 유닛은 생략될 수도 있다.In this case, priorities are set in the order of 1) the left quantization unit of the current coding unit, 2) the upper quantization unit of the current coding unit, 3) the upper left quantization unit of the current coding unit, and 4) the immediately previous quantization unit in the coding order. It can be. The order may be reversed, and the upper left quantization unit may be omitted.
한편, 상기와 같이 양자화된 변환 블록은 역양자화부(135)와 스캐닝부(131)로 전달된다.Meanwhile, the quantized transform block as described above is transmitted to the
스캐닝부(131)는 양자화된 변환 블록의 계수들을 스캐닝하여 1차원의 양자화 계수들로 변환하며, 이 경우 양자화 후의 변환 블록의 계수 분포가 인트라 예측 모드에 의존적일 수 있으므로 스캐닝 방식은 인트라 예측 모드에 따라 결정될 수 있다.The
또한, 계수 스캐닝 방식은 변환 단위의 크기에 따라 달리 결정될 수도 있고, 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있으며, 이 경우 양자화 계수들의 스캔 순서는 역방향으로 스캔될 수 있다.In addition, the coefficient scanning method may be determined differently according to the size of the transform unit, and the scan pattern may be changed according to the directional intra prediction mode. In this case, the scan order of quantization coefficients may be scanned in the reverse direction.
상기 양자화된 계수들이 복수의 서브셋(sub-set)들로 분할된 경우, 각각의 서브셋 내의 양자화 계수들에 동일한 스캔 패턴이 적용될 수 있으며, 서브셋 간의 스캔 패턴은 지그재그 스캔 또는 대각선 스캔이 적용될 수 있다.When the quantized coefficients are divided into a plurality of subsets, the same scan pattern may be applied to the quantization coefficients in each subset, and zigzag scan or diagonal scan may be applied to the scan pattern between the subsets.
한편, 상기 스캔 패턴은 DC를 포함하는 메인 서브셋으로부터 순방향으로 잔여 서브셋들로 스캔하는 것이 바람직하나, 그 역방향도 가능하다.Meanwhile, the scan pattern is preferably scanned from the main subset including DC to the remaining subsets in a forward direction, but the reverse direction is also possible.
또한, 서브셋 내의 양자화된 계수들의 스캔 패턴과 동일하게 서브셋 간의 스캔 패턴을 설정할 수도 있으며, 서브셋 간의 스캔 패턴은 인트라 예측 모드에 따라 결정될 수 있다.Also, a scan pattern between subsets may be set identically to a scan pattern of quantized coefficients within the subset, and the scan pattern between subsets may be determined according to an intra prediction mode.
한편, 부호화 장치(10)는 상기 변환 유닛(PU) 내에서 0이 아닌 마지막 양자화 계수의 위치 및 각 서브셋 내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보를 비트스트림에 포함시켜 복호화 장치(20)로 전송할 수 있다.On the other hand, the
역양자화부(135)는 상기와 같이 양자화된 양자화 계수를 역양자화하며, 역변환부(125)는 변환 유닛(TU) 단위로 역변환을 수행하여 상기 역양자화된 변환 계수를 공간 영역의 잔차 블록으로 복원할 수 있다.The
가산기(195)는 상기 역변환부(125)에 의해 복원된 잔차 블록과 인트라 예측부(150) 또는 인터 예측부(160)로부터의 수신된 예측 블록을 합하여 복원 블록을 생성할 수 있다.The
또한, 후처리부(170)는 복원된 픽처에 발생하는 블록킹 효과를 제거하기 위한 디블록킹(deblocking) 필터링 과정, 화소 단위로 원본 영상과의 차이 값을 보완하기 위한 샘플 적응적 오프셋(Sample Adaptive Offset : SAO) 적용 과정 및 코딩 유닛으로 원본 영상과의 차이 값을 보완하기 위한 적응적 루프 필터링(Adaptive Loof Filtering : ALF) 과정 등의 후처리를 수행할 수 있다.In addition, the
디블록킹 필터링 과정은 미리 정해진 크기 이상의 크기를 갖는 예측 유닛(PU) 또는 변환 유닛(TU)의 경계에 적용될 수 있다.The deblocking filtering process may be applied to a boundary of a prediction unit (PU) or a transform unit (TU) having a size greater than or equal to a predetermined size.
예를 들어, 디블록킹 필터링 과정은, 필터링할 경계(boundary)를 결정하는 단계, 상기 경계에 적용할 경계 필터링 강도(bounary filtering strength)를 결정하는 단계, 디블록킹 필터의 적용 여부를 결정하는 단계, 상기 디블록킹 필터를 적용할 것으로 결정된 경우, 상기 경계에 적용할 필터를 선택하는 단계를 포함할 수 있다.For example, the deblocking filtering process may include determining a boundary to be filtered, determining a boundary filtering strength to be applied to the boundary, determining whether to apply a deblocking filter, When it is determined to apply the deblocking filter, selecting a filter to be applied to the boundary may be included.
한편, 상기 디블록킹 필터의 적용 여부는 i) 상기 경계 필터링 강도가 0보다 큰지 여부 및 ii) 상기 필터링할 경계에 인접한 2개의 블록(P 블록, Q블록) 경계 부분에서의 화소값들이 변화 정도를 나타내는 값이 양자화 파라미터에 의해 결정되는 제1 기준값보다 작은지 여부에 의해 결정될 수 있다.On the other hand, whether or not the deblocking filter is applied depends on i) whether the boundary filtering strength is greater than 0 and ii) the degree of change in pixel values at the boundary of two blocks (P block, Q block) adjacent to the boundary to be filtered. It may be determined by whether the indicated value is smaller than the first reference value determined by the quantization parameter.
상기 필터는 적어도 2개 이상인 것이 바람직하다. 블록 경계에 위치한 2개의 화소들간의 차이값의 절대값이 제2 기준값보다 크거나 같은 경우에는 상대적으로 약한 필터링을 수행하는 필터를 선택한다.It is preferable that the said filter is at least two or more. When the absolute value of the difference between two pixels located at the block boundary is greater than or equal to the second reference value, a filter that performs relatively weak filtering is selected.
상기 제2 기준값은 상기 양자화 파라미터 및 상기 경계 필터링 강도에 의해 결정된다.The second reference value is determined by the quantization parameter and the boundary filtering strength.
또한, 샘플 적응적 오프셋(SAO) 적용 과정은 디블록킹 필터가 적용된 영상 내의 화소와 원본 화소 간의 차이값(distortion)을 감소시키기 위한 것으로, 픽처 또는 슬라이스 단위로 샘플 적응적 오프셋(SAO) 적용 과정을 수행할지 여부가 결정될 수 있다.In addition, the sample adaptive offset (SAO) application process is to reduce the distortion between pixels in the image to which the deblocking filter is applied and original pixels, and the sample adaptive offset (SAO) application process is performed in units of pictures or slices. It can be decided whether or not to do so.
픽처 또는 슬라이스는 복수의 오프셋 영역들로 분할될 수 있고, 각 오프셋 영역별로 오프셋 타입이 결정될 수 있으며, 상기 오프셋 타입은 미리 정해진 개수(예를 들어, 4개)의 에지 오프셋 타입과 2개의 밴드 오프셋 타입을 포함할 수 있다.A picture or slice may be divided into a plurality of offset regions, and an offset type may be determined for each offset region, and the offset type may include a predetermined number (eg, 4) of edge offset types and two band offsets. Can contain types.
예를 들어, 오프셋 타입이 에지 오프셋 타입일 경우, 각 화소가 속하는 에지 타입을 결정하여 이에 대응하는 오프셋을 적용하며, 상기 에지 타입은 현재 화소와 인접하는 2개의 화소값의 분포를 기준으로 결정될 수 있다.For example, if the offset type is an edge offset type, an edge type to which each pixel belongs is determined and a corresponding offset is applied, and the edge type may be determined based on a distribution of values of two pixels adjacent to the current pixel. there is.
적응적 루프 필터링(ALF) 과정은 디블록킹 필터링 과정 또는 적응적 오프셋 적용 과정을 거친 복원된 영상과 원본 영상을 비교한 값을 기초로 필터링을 수행할 수 있다.The adaptive loop filtering (ALF) process may perform filtering based on a value obtained by comparing a reconstructed image that has undergone a deblocking filtering process or an adaptive offset application process with an original video.
픽처 저장부(180)는 후처리된 영상 데이터를 후처리부(170)로부터 입력받아 픽처(picture) 단위로 영상을 복원하여 저장하며, 픽처는 프레임 단위의 영상이거나 필드 단위의 영상일 수 있다.The
인터 예측부(160)는 픽처 저장부(180)에 저장된 적어도 하나 이상의 참조 픽처를 이용하여 움직임 추정을 수행하고, 참조 픽처를 나타내는 참조 픽처 인덱스 및 움직임 벡터를 결정할 수 있다.The
이 경우, 결정된 참조 픽처 인덱스 및 움직임 벡터에 따라, 픽처 저장부(180)에 저장된 다수의 참조 픽처들 중 움직임 추정에 이용된 참조 픽처로부터, 부호화하고자 하는 예측 유닛에 대응하는 예측 블록이 추출될 수 있다.In this case, a prediction block corresponding to a prediction unit to be encoded may be extracted from a reference picture used for motion estimation among a plurality of reference pictures stored in the
인트라 예측부(150)는 현재 예측 유닛이 포함되는 픽처 내부의 재구성된 화소값을 이용하여 인트라 예측 부호화를 수행할 수 있다.The
인트라 예측부(150)는 예측 부호화할 현재 예측 유닛을 입력받아 현재 블록의 크기에 따라 미리 설정된 개수의 인트라 예측 모드 중에 하나를 선택하여 인트라 예측을 수행할 수 있다.The
인트라 예측부(150)는 인트라 예측 블록을 생성하기 위해 참조 화소를 적응적으로 필터링하며, 참조 화소가 이용 가능하지 않은 경우 이용 가능한 참조 화소들을 이용하여 참조 화소들을 생성할 수 있다.The
엔트로피 부호화부(140)는 양자화부(130)에 의해 양자화된 양자화 계수, 인트라 예측부(150)로부터 수신된 인트라 예측 정보, 인터 예측부(160)로부터 수신된 움직임 정보 등을 엔트로피 부호화할 수 있다.The
도 2는 부호화 장치(10)에서 인터 예측을 수행하는 구성에 대한 일실시예를 블록도로 도시한 것으로, 도시된 인터 예측 부호화기는 움직임 정보 결정부(161), 움직임 정보 부호화 모드 결정부(162), 움직임 정보 부호화부(163), 예측 블록 생성부(164), 잔차 블록 생성부(165), 잔차 블록 부호화부(166) 및 멀티플렉서(167)를 포함하여 구성될 수 있다.FIG. 2 is a block diagram showing an embodiment of a configuration for performing inter prediction in the
도 2를 참조하면, 움직임 정보 결정부(161)는 현재 블록의 움직임 정보를 결정하며, 움직임 정보는 참조 픽처 인덱스와 움직임 벡터를 포함하고, 참조 픽처 인덱스는 이전에 부호화되어 복원된 픽처 중 어느 하나를 나타낼 수 있다.Referring to FIG. 2 , the motion
현재 블록이 단방향 인터 예측 부호화되는 경우에는 리스트 0(L0)에 속하는 참조 픽처들 중의 어느 하나를 나타내며, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0(L0)의 참조 픽처들 중 하나를 나타내는 참조 픽처 인덱스와 리스트 1(L1)의 참조 픽처들 중의 하나를 나타내는 참조 픽처 인덱스를 포함할 수 있다.A reference picture indicating one of the reference pictures belonging to list 0 (L0) when the current block is unidirectional inter-prediction coded, and indicating one of the reference pictures of list 0 (L0) when the current block is bi-directional predictive coded. index and a reference picture index indicating one of the reference pictures of List 1 (L1).
또한, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0과 리스트 1을 결합하여 생성된 복합 리스트(LC)의 참조 픽처들 중의 1개 또는 2개의 픽처를 나타내는 인덱스를 포함할 수 있다.In addition, when the current block is bi-directionally predicted-coded, it may include an index indicating one or two pictures among reference pictures of a composite list (LC) generated by combining list 0 and
움직임 벡터는 각각의 참조 픽처 인덱스가 나타내는 픽처 내의 예측 블록의 위치를 나타내며, 상기 움직임 벡터는 화소 단위(정수 단위) 또는 서브 화소 단위일 수 있다.A motion vector represents a position of a prediction block within a picture indicated by each reference picture index, and the motion vector may be in a pixel unit (integer unit) or a sub-pixel unit.
예를 들어, 상기 움직임 벡터는 1/2, 1/4, 1/8 또는 1/16 화소의 정밀도를 가질 수 있으며, 움직임 벡터가 정수단위가 아닐 경우 예측 블록은 정수 단위의 화소들로부터 생성될 수 있다.For example, the motion vector may have a precision of 1/2, 1/4, 1/8, or 1/16 pixels, and if the motion vector is not an integer unit, a prediction block may be generated from pixels in integer units. can
움직임 정보 부호화 모드 결정부(162)는 현재 블록의 움직임 정보에 대한 부호화 모드를 결정할 수 있으며, 부호화 모드는 스킵 모드, 머지 모드 및 AMVP 모드 중 어느 하나로 예시될 수 있다.The motion information encoding
스킵 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 스킵 후보자가 존재하고, 잔차 신호가 0인 경우에 적용되며, 상기 스킵 모드는 예측 유닛(PU)인 현재 블록이 코딩 유닛(CU)과 크기가 같을 때 적용될 수 있다.The skip mode is applied when there is a skip candidate having the same motion information as that of the current block and the residual signal is 0. can be applied when is equal to
머지 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 머지 후보자가 존재할 때 적용되며, 상기 머지 모드는 현재 블록이 코딩 유닛(CU)과 크기가 다르거나, 크기가 같을 경우에는 잔차 신호가 존재하는 경우에 적용된다. 한편, 머지 후보자와 스킵 후보자는 동일할 수 있다.The merge mode is applied when there is a merge candidate having the same motion information as the motion information of the current block. applies in case Meanwhile, the merge candidate and the skip candidate may be the same.
AMVP 모드는 스킵 모드 및 머지 모드가 적용되지 않을 때 적용되며, 현재 블록의 움직임 벡터와 가장 유사한 움직임 벡터를 갖는 AMVP 후보자를 AMVP 예측자로 선택할 수 있다.The AMVP mode is applied when the skip mode and merge mode are not applied, and an AMVP candidate having a motion vector most similar to that of the current block may be selected as an AMVP predictor.
다만, 상기 부호화 모드는 상기 예시된 방법 이외의 프로세스로서, 보다 세분화된 움직임 보상 예측 부호화 모드를 적응적으로 포함할 수 있다. 적응적으로 결정되는 움직임 보상 예측 모드는 전술한 AMVP 모드 및 머지 모드, 스킵 모드 뿐만 아니라, 현재 새로운 움직임 보상 예측 모드로 제안되어 있는 FRUC(FRAME RATE UP-CONVERSION) 모드, BIO(BI-DIRECTIONAL OPTICAL FLOW) 모드, AMP(AFFINE MOTION PREDICTION)모드, OBMC(OVERLAPPED BLOCK MOTION COMPENSATION) 모드, DMVR(DECODER-SIDE MOTION VECTOR REFINEMENT) 모드, ATMVP(Alternative temporal motion vector prediction) 모드, STMVP(Spatial-temporal motion vector prediction) 모드, LIC(Local Illumination Compensation) 모드 중 적어도 하나를 더 포함할 수 있으며, 사전 결정된 조건에 따라 블록 적응적으로 결정될 수 있다.However, the encoding mode may adaptively include a more subdivided motion compensation prediction encoding mode as a process other than the exemplified method. Adaptively determined motion compensation prediction modes include not only the aforementioned AMVP mode, merge mode, and skip mode, but also FRUC (FRAME RATE UP-CONVERSION) mode, which is currently proposed as a new motion compensation prediction mode, and BI-DIRECTIONAL OPTICAL FLOW (BIO) ) mode, AMP (AFFINE MOTION PREDICTION) mode, OBMC (OVERLAPPED BLOCK MOTION COMPENSATION) mode, DMVR (DECODER-SIDE MOTION VECTOR REFINEMENT) mode, ATMVP (Alternative temporal motion vector prediction) mode, STMVP (Spatial-temporal motion vector prediction) At least one of a mode and a local illumination compensation (LIC) mode may be further included, and the block may be adaptively determined according to a predetermined condition.
움직임 정보 부호화부(163)는 움직임 정보 부호화 모드 결정부(162)에 의해 결정된 방식에 따라 움직임 정보를 부호화할 수 있다.The motion
예를 들어, 움직임 정보 부호화부(163)는 움직임 정보 부호화 모드가 스킵 모드 또는 머지 모드일 경우에는 머지 움직임 벡터 부호화 과정을 수행하며, AMVP 모드일 경우에는 AMVP 부호화 과정을 수행할 수 있다.For example, the
예측 블록 생성부(164)는 현재 블록의 움직임 정보를 이용하여 예측 블록을 생성하며, 움직임 벡터가 정수 단위일 경우 참조 픽처 인덱스가 나타내는 픽처 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록을 생성한다.The prediction
한편, 움직임 벡터가 정수 단위가 아닌 경우, 예측 블록 생성부(164)는 참조 픽처 인덱스가 나타내는 픽처 내의 정수 단위 화소들로부터 예측 블록의 화소들을 생성할 수 있다.Meanwhile, when the motion vector is not an integer unit, the
이 경우, 휘도 화소에 대해 8탭의 보간 필터를 사용하여 예측 화소가 생성되며, 색차 화소에 대해서는 4탭 보간 필터를 사용하여 예측 화소가 생성될 수 있다.In this case, a predicted pixel may be generated using an 8-tap interpolation filter for a luminance pixel, and a predicted pixel may be generated using a 4-tap interpolation filter for a chrominance pixel.
잔차 블록 생성부(165)는 현재 블록과 현재 블록의 예측 블록을 이용하여 잔차 블록을 생성하며, 현재 블록의 크기가 2Nx2N인 경우 현재 블록과 현재 블록에 대응하는 2Nx2N 크기의 예측 블록을 이용하여 잔차 블록을 생성할 수 있다.The residual
한편, 예측에 이용되는 현재 블록의 크기가 2NxN 또는 Nx2N인 경우, 2Nx2N을 구성하는 2개의 2NxN 블록 각각에 대한 예측 블록을 구한 후, 상기 2개의 2NxN 예측 블록을 이용하여 2Nx2N 크기의 최종 예측 블록이 생성될 수 있다.Meanwhile, when the size of the current block used for prediction is 2NxN or Nx2N, after obtaining a prediction block for each of two 2NxN blocks constituting 2Nx2N, the final prediction block of size 2Nx2N is obtained by using the two 2NxN prediction blocks. can be created
또한, 상기 2Nx2N 크기의 예측 블록을 이용하여 2Nx2N 크기의 잔차 블록이 생성될 수도 있으며, 2NxN 크기를 가지는 2개의 예측 블록들의 경계 부분의 불연속성을 해소하기 위해 경계 부분의 픽셀들에 대해 오버랩 스무딩이 적용될 수 있다.In addition, a 2Nx2N-sized residual block may be generated using the 2Nx2N-sized prediction block, and overlap smoothing is applied to pixels of the boundary portion in order to resolve the discontinuity of the boundary portion of the two 2NxN-sized prediction blocks. can
잔차 블록 부호화부(166)는 상기 잔차 블록을 하나 이상의 변환 유닛(TU)들로 분할하여, 각각의 변환 유닛(TU)이 변환 부호화, 양자화 및 엔트로피 부호화될 수 있다.The
잔차 블록 부호화부(166)는 인터 예측 방법에 의해 생성된 잔차 블록을 정수기반 변환 매트릭스를 이용하여 변환할 수 있으며, 상기 변환 매트릭스는 정수기반 DCT 매트릭스일 수 있다.The
한편, 잔차 블록 부호화부(166)는 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위해 양자화 매트릭스를 이용하며, 상기 양자화 매트릭스는 양자화 파라미터에 의해 결정될 수 있다.Meanwhile, the
상기 양자화 파라미터는 미리 정해진 크기 이상의 코딩 유닛(CU) 별로 결정되며, 현재 코딩 유닛(CU)이 상기 미리 정해진 크기보다 작은 경우 상기 미리 정해진 크기 내의 코딩 유닛(CU)들 중 부호화 순서상 첫번째 코딩 유닛(CU)의 양자화 파라미터만을 부호화하고 나머지 코딩 유닛(CU)의 양자화 파라미터는 상기 파라미터와 동일하므로 부호화하지 않을 수 있다.The quantization parameter is determined for each coding unit (CU) having a predetermined size or more, and when the current coding unit (CU) is smaller than the predetermined size, the first coding unit (CU) among coding units (CUs) within the predetermined size in coding order ( Since only the quantization parameters of the CU) are coded and the quantization parameters of the remaining coding units (CUs) are identical to the above parameters, coding may not be performed.
또한, 상기 양자화 파라미터 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 상기 변환 블록의 계수들이 양자화될 수 있다.Also, the coefficients of the transform block may be quantized using a quantization matrix determined according to the quantization parameter and the prediction mode.
상기 미리 정해진 크기 이상의 코딩 유닛(CU) 별로 결정되는 양자화 파라미터는 현재 코딩 유닛(CU)에 인접한 코딩 유닛(CU)의 양자화 파라미터를 이용하여 예측 부호화될 수 있다.A quantization parameter determined for each coding unit (CU) having a predetermined size or larger may be predicted and coded using a quantization parameter of a coding unit (CU) adjacent to the current coding unit (CU).
현재 코딩 유닛(CU)의 좌측 코딩 유닛(CU), 상측 코딩 유닛(CU) 순서로 검색하여 유효한 1개 또는 2개의 유효한 양자화 파라미터를 이용하여 현재 코딩 유닛(CU)의 양자화 파라미터 예측자를 생성할 수 있다.A quantization parameter predictor of the current coding unit (CU) may be generated using one or two valid quantization parameters by searching in the order of the left coding unit (CU) and the upper coding unit (CU) of the current coding unit (CU). there is.
예를 들어, 상기 순서로 검색된 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있으며, 또한 좌측 코딩 유닛(CU), 부호화 순서상 바로 이전의 코딩 유닛(CU) 순으로 검색하여 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있다.For example, the first effective quantization parameter searched in the above order may be determined as the quantization parameter predictor, and the first valid quantization parameter may be quantized by searching in the order of the left coding unit (CU) and the immediately previous coding unit (CU) in the coding order. It can be determined by the parameter predictor.
양자화된 변환 블록의 계수들은 스캐닝되어 1차원의 양자화 계수들로 변환되며, 스캐닝 방식은 엔트로피 부호화 모드에 따라 다르게 설정될 수 있다.Coefficients of the quantized transform block are scanned and converted into one-dimensional quantization coefficients, and a scanning method may be set differently according to an entropy encoding mode.
예를 들어, CABAC으로 부호화될 경우 인터 예측 부호화된 양자화 계수들은 미리 정해진 하나의 방식(지그재그, 또는 대각선 방향으로의 래스터 스캔)으로 스캐닝될 수 있으며, CAVLC으로 부호화될 경우 상기 방식과 다른 방식으로 스캐닝될 수 있다.For example, in the case of CABAC encoding, inter-prediction coded quantization coefficients may be scanned in one predetermined method (zigzag or raster scan in a diagonal direction), and in case of CAVLC encoding, scanning in a different method from the above method. It can be.
예를 들어, 스캐닝 방식이 인터의 경우에는 지그재그, 인트라의 경우에는 인트라 예측 모드에 따라 결정될 수 있으며, 계수 스캐닝 방식은 변환 단위의 크기에 따라 상이하게 결정될 수도 있다.For example, the scanning method may be determined according to zigzag in the case of inter and the intra prediction mode in the case of intra, and the coefficient scanning method may be determined differently according to the size of the transformation unit.
한편, 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있으며, 양자화 계수들의 스캔 순서는 역방향으로 스캔 될 수 있다.Meanwhile, the scan pattern may vary according to the directional intra prediction mode, and the scan order of quantization coefficients may be reversed.
멀티플렉서(167)는 상기 움직임 정보 부호화부(163)에 의해 부호화된 움직임 정보들과 상기 잔차 블록 부호화부(166)에 의해 부호화된 잔차 신호들을 다중한다.The
상기 움직임 정보는 부호화 모드에 따라 달라질 수 있으며, 예를 들어 스킵 또는 머지일 경우에는 예측자를 나타내는 인덱스만을 포함하고, AMVP일 경우 현재 블록의 참조 픽처 인덱스, 차분 움직임 벡터 및 AMVP 인덱스를 포함할 수 있다.The motion information may vary according to the coding mode. For example, in case of skip or merge, it may include only an index indicating a predictor, and in case of AMVP, it may include a reference picture index of the current block, a differential motion vector, and an AMVP index. .
이하, 도 1에 도시된 인트라 예측부(150)의 동작에 대한 일실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of the operation of the
먼저, 인트라 예측부(150)는 픽처 분할부(110)로부터 예측 모드 정보 및 예측 유닛(PU)의 크기를 수신하며, 예측 유닛(PU)의 인트라 예측 모드를 결정하기 위해 참조 화소를 픽처 저장부(180)로부터 읽어들일 수 있다.First, the
인트라 예측부(150)는 이용 가능하지 않은 참조 화소가 존재하는지 여부를 검토하여 참조 화소 생성 여부를 판단하며, 상기 참조 화소들은 현재 블록의 인트라 예측 모드를 결정하는데 사용될 수 있다.The
현재 블록이 현재 픽처의 상측 경계에 위치하는 경우에는 현재 블록의 상측에 인접한 화소들이 정의되지 않고, 현재 블록이 현재 픽처의 좌측 경계에 위치하는 경우에는 현재 블록의 좌측에 인접한 화소들이 정의되지 않으며, 상기 화소들은 이용 가능한 화소들이 아닌 것으로 판단될 수 있다.When the current block is located on the upper boundary of the current picture, pixels adjacent to the upper side of the current block are not defined, and when the current block is located on the left boundary of the current picture, pixels adjacent to the left of the current block are not defined, The pixels may be determined to be not usable pixels.
또한, 현재 블록이 슬라이스 경계에 위치하여 슬라이스의 상측 또는 좌측에 인접하는 화소들이 먼저 부호화되어 복원되는 화소들이 아닌 경우에도 이용 가능한 화소들이 아닌 것으로 판단될 수 있다.Also, when the current block is located on a slice boundary and pixels adjacent to the upper or left side of the slice are not pixels to be encoded and reconstructed first, it may be determined that they are not usable pixels.
상기와 같이 현재 블록의 좌측 또는 상측에 인접한 화소들이 존재하지 않거나, 미리 부호화되어 복원된 화소들이 존재하지 않는 경우, 이용 가능한 화소들만을 이용하여 현재 블록의 인트라 예측 모드가 결정될 수도 있다.As described above, when pixels adjacent to the left side or above the current block do not exist or pixels that have been previously encoded and reconstructed do not exist, the intra prediction mode of the current block may be determined using only available pixels.
한편, 현재 블록의 이용 가능한 참조 화소들을 이용하여 이용 가능하지 않은 위치의 참조 화소가 생성될 수도 있으며, 예를 들어 상측 블록의 화소들이 이용 가능하지 않은 경우 좌측 화소들의 일부 또는 전부를 이용하여 상측 화소들을 생성할 수 있고, 그 역으로도 가능하다.Meanwhile, a reference pixel at an unavailable location may be generated using available reference pixels of the current block. For example, when pixels of the upper block are not available, some or all of the left pixels may be used to generate the upper pixel. can be created, and vice versa.
즉, 이용 가능하지 않은 위치의 참조 화소로부터 미리 정해진 방향으로 가장 가까운 위치의 이용 가능한 참조 화소를 복사하여 참조 화소가 생성되거나, 미리 정해진 방향에 이용 가능한 참조 화소가 존재하지 않는 경우 반대 방향의 가장 가까운 위치의 이용 가능한 참조 화소를 복사하여 참조 화소가 생성될 수 있다.That is, a reference pixel is generated by copying an available reference pixel at a location closest to a predetermined direction from a reference pixel at an unavailable location, or when there is no reference pixel available in a predetermined direction, the closest available reference pixel in the opposite direction exists. A reference pixel may be created by copying an available reference pixel of a location.
한편, 현재 블록의 상측 또는 좌측 화소들이 존재하는 경우에도 상기 화소들이 속하는 블록의 부호화 모드에 따라 이용 가능하지 않은 참조 화소로 결정될 수 있다.Meanwhile, even when there are pixels above or to the left of the current block, they may be determined as unavailable reference pixels according to the coding mode of the block to which the pixels belong.
예를 들어, 현재 블록의 상측에 인접한 참조 화소가 속하는 블록이 인터 부호화되어 복원된 블록일 경우, 상기 화소들을 이용 가능하지 않은 화소들로 판단할 수 있다.For example, if a block to which a reference pixel adjacent to the upper side of the current block belongs is a block reconstructed by inter-encoding, the pixels may be determined as unavailable pixels.
이 경우, 현재 블록에 인접한 블록이 인트라 부호화되어 복원된 블록에 속하는 화소들을 이용하여 이용 가능한 참조 화소들이 생성될 수 있으며, 부호화 장치(10)가 부호화 모드에 따라 이용 가능한 참조 화소를 판단한다는 정보를 복호화 장치(20)로 전송한다.In this case, a block adjacent to the current block is intra-coded, and usable reference pixels may be generated using pixels belonging to the reconstructed block, and the information that the
인트라 예측부(150)는 상기 참조 화소들을 이용하여 현재 블록의 인트라 예측 모드를 결정하며, 현재 블록에 허용 가능한 인트라 예측 모드의 수는 블록의 크기에 따라 달라질 수 있다.The
인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(비 directional 모드)와 복수개의 방향성 모드들(directional 모드s)로 구성될 수 있다.The intra prediction mode may include at least one non-directional mode (non-directional mode) and a plurality of directional modes (directional modes).
하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. DC 모드 및 플래너모드가 비방향성 모드로 포함되는 경우에는, 현재 블록의 크기에 관계없이 사전 설정된 개수의 인트라 예측 모드가 존재할 수도 있다.One or more non-directional modes may be DC modes and/or planar modes. When the DC mode and the planar mode are included as non-directional modes, a preset number of intra prediction modes may exist regardless of the size of the current block.
플래너 모드의 경우, 현재 블록의 우하측(bottom-right)에 위치하는 적어도 하나의 화소값(또는 상기 화소값의 예측값, 이하 제1 참조값이라 함)과 참조 화소들을 이용하여 현재 블록의 예측 블록이 생성된다.In the planar mode, a prediction block of the current block is formed using at least one pixel value (or a predicted value of the pixel value, hereinafter referred to as a first reference value) located at the bottom-right of the current block and reference pixels. is created
한편, 본 발명의 일실시예에 따른 영상 복호화 장치(20)의 구성은 도 1 내지 도 2를 참조하여 설명한 영상 부호화 장치(10)의 구성으로부터 도출될 수 있으며, 예를 들어 도 1 내지 도 2를 참조하여 설명한 바와 같은 영상 부호화 방법의 과정들을 역으로 수행함으로써 영상을 복호화할 수 있다.Meanwhile, the configuration of the
도 3은 본 발명의 일실시예에 따른 동영상 복호화 장치의 구성을 블록도로 도시한 것으로, 복호화 장치(20)는 엔트로피 복호화부(210), 역양자화/역변환부(220), 가산기(270), 후처리부(250), 픽처 저장부(260), 인트라 예측부(230), 움직임 보상 예측부(240) 및 인트라/인터전환 스위치(280)를 구비한다.3 is a block diagram showing the configuration of a video decoding apparatus according to an embodiment of the present invention. The
엔트로피 복호화부(210)는, 영상 부호화 장치(10)에서 부호화된 비트 스트림을 입력받아 복호화하여 인트라 예측 모드 인덱스, 움직임 정보, 양자화 계수 시퀀스 등으로 분리하며, 복호화된 움직임 정보를 움직임 보상 예측부(240)로 전달한다.The
엔트로피 복호화부(210)는 인트라 예측 모드 인덱스를 인트라 예측부(230)와 역양자화/역변환부(220)로 전달하여, 역양자화 계수 시퀀스를 역양자화/역변환부(220)로 전달한다.The
역양자화/역변환부(220)는 상기 양자화 계수 시퀀스를 2차원 배열의 역양자화 계수로 변환하며, 상기 변환을 위해 복수의 스캐닝 패턴들 중 하나를 선택할 수 있으며 예를 들어 현재 블록의 예측 모드(즉, 인트라 예측 또는 인터 예측)와 인트라 예측 모드에 기초하여 스캐닝 패턴을 선택할 수 있다.The inverse quantization/
역양자화/역변환부(220)는 2차원 배열의 역양자화 계수에 대해 복수의 양자화 매트릭스들 중에서 선택된 양자화 매트릭스를 적용하여 양자화 계수를 복원한다.The inverse quantization/
한편, 복원하고자 하는 현재 블록의 크기에 따라 서로 다른 양자화 매트릭스가 적용되며, 동일 크기의 블록에 대해서도 상기 현재 블록의 예측 모드 및 인트라 예측 모드 중 적어도 하나에 기초하여 양자화 매트릭스가 선택될 수 있다.Meanwhile, different quantization matrices are applied according to the size of a current block to be reconstructed, and a quantization matrix may be selected for blocks of the same size based on at least one of a prediction mode and an intra prediction mode of the current block.
역양자화/역변환부(220)는 상기 복원된 양자화 계수를 역변환하여 잔차 블록을 복원하며, 상기 역변환 과정은 변환 유닛(TU)을 기본 단위로 하여 수행될 수 있다.The inverse quantization/
가산기(270)는 역양자화/역변환부(220)에 의해 복원된 잔차 블록과 인트라 예측부(230) 또는 움직임 보상 예측부(240)에 의해 생성되는 예측 블록을 합하여 영상 블록을 복원한다.The
후처리부(250)는 가산기(270)에 의해 생성된 복원 영상에 후처리를 수행하여, 필터링 등에 의해 양자화 과정에 따른 영상 손실에 기인하는 디블록킹 아티펙트 등을 감소시킬 수 있다.The
픽처 저장부(260)는 후처리부(250)에 의해 필터 후처리가 수행된 로컬 복호 영상을 저장하기 위한 프레임 메모리이다.The
인트라 예측부(230)는 엔트로피 복호화부(210)로부터 수신된 인트라 예측 모드 인덱스에 기초하여 현재 블록의 인트라 예측 모드를 복원하고, 복원된 인트라 예측 모드에 따라 예측 블록을 생성한다.The
움직임 보상 예측부(240)는 움직임 벡터 정보에 기초하여 픽처 저장부(260)에 저장된 픽처로부터 현재 블록에 대한 예측 블록을 생성하며, 소수 정밀도의 움직임 보상이 적용될 경우 선택된 보간 필터를 적용하여 예측 블록을 생성할 수 있다.The motion
인트라/인터 전환 스위치(280)는 부호화 모드에 기초하여 인트라 예측부(230)와 움직임 보상 예측부(240)의 어느 하나에서 생성된 예측 블록을 가산기(270)에 제공할 수 있다.The intra/
도 4는 영상 복호화 장치(20)에서 인터 예측을 수행하는 구성에 대한 일실시예를 블록도로 도시한 것으로, 인터 예측 복호화기는 디멀티플렉서(241), 움직임 정보 부호화 모드 판단부(242), 머지 모드 움직임 정보 복호화부(243), AMVP 모드 움직임 정보 복호화부(244), 선택 모드 움직임 정보 복호화부(248), 예측블록 생성부(245), 잔차 블록 복호화부(246) 및 복원블록 생성부(247)를 포함한다.4 is a block diagram showing an embodiment of a configuration for performing inter prediction in the
도 4를 참조하면, 디-멀티플렉서(241)는 수신된 비트스트림으로부터 현재 부호화된 움직임 정보와 부호화된 잔차 신호들을 역다중화하여, 역다중화된 움직임 정보를 움직임 정보 부호화 모드 판단부(242)로 전송하고, 역다중화된 잔차신호를 잔차블록 복호화부(246)로 전송할 수 있다.Referring to FIG. 4 , the
움직임 정보 부호화 모드 판단부(242)는 현재 블록의 움직임 정보 부호화 모드를 판단하며, 수신된 비트스트림의 skip_flag가 1의 값을 갖는 경우 현재 블록의 움직임 정보 부호화 모드가 스킵 부호화 모드로 부호화된 것으로 판단할 수 있다.The motion information encoding
움직임 정보 부호화 모드 판단부(242)는 수신된 비트스트림의 skip_flag가 0의 값을 갖고, 디-멀티블렉서(241)로부터 수신된 움직임 정보가 머지 인덱스만을 갖는 경우, 현재 블록의 움직임 정보 부호화 모드가 머지 모드로 부호화된 것으로 판단할 수 있다.The motion information encoding
또한, 움직임 정보 부호화 모드 판단부(242)는 수신된 비트스트림의 skip_flag가 0의 값을 갖고, 디멀티블렉서(241)로부터 수신된 움직임 정보가 참조 픽처 인덱스와 차분 움직임 벡터와 AMVP인덱스를 갖는 경우, 현재 블록의 움직임 정보 부호화 모드가 AMVP 모드로 부호화된 것으로 판단할 수 있다.In addition, the motion information coding
머지 모드 움직임 정보 복호화부(243)는 움직임 정보 부호화 모드 판단부(242)가 현재 블록의 움직임 정보 부호화 모드를 스킵 또는 머지 모드로 판단한 경우에 활성화되며, AMVP 모드 움직임 정보 복호화부(244)는 움직임 정보 부호화 모드 판단부(242)가 현재 블록의 움직임 정보 부호화 모드를 AMVP 모드로 판단한 경우에 활성화될 수 있다.The merge mode motion
선택 모드 움직임 정보 복호화부(248)는 전술한 AMVP 모드, 머지 모드, 스킵 모드를 제외한 다른 움직임 보상 예측 모드 중 선택된 예측 모드로 움직임 정보를 복호화 처리할 수 있다. 선택 예측 모드는 AMVP 모드 대비 더 정밀한 움직임 예측 모드를 포함할 수 있으며, 미리 결정된 조건(예를 들어, 블록 크기 및 블록 분할 정보, 시그널링 정보 존재, 블록 위치 등)에 따라 블록 적응적으로 결정될 수 있다. 선택 예측 모드는 예를 들어, FRUC(FRAME RATE UP-CONVERSION) 모드, BIO(BI-DIRECTIONAL OPTICAL FLOW) 모드, AMP(AFFINE MOTION PREDICTION)모드, OBMC(OVERLAPPED BLOCK MOTION COMPENSATION) 모드, DMVR(DECODER-SIDE MOTION VECTOR REFINEMENT) 모드, ATMVP(Alternative temporal motion vector prediction) 모드, STMVP(Spatial-temporal motion vector prediction) 모드, LIC(Local Illumination Compensation) 모드 중 적어도 하나를 포함할 수 있다.The selected mode motion
예측블록 생성부(245)는 머지 모드 움직임 정보 복호화부(243) 또는 AMVP 모드 움직임 정보 복호화부(244)에 의해 복원된 움직임 정보를 이용하여 현재 블록의 예측 블록을 생성한다.The prediction
움직임 벡터가 정수 단위일 경우, 참조 픽처 인덱스가 나타내는 픽처 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록이 생성될 수 있다.When the motion vector is an integer unit, a prediction block of the current block may be generated by copying a block corresponding to a position indicated by the motion vector in a picture indicated by a reference picture index.
한편, 움직임 벡터가 정수 단위가 아닐 경우, 참조 픽처 인덱스가 나타내는 픽처 내의 정수 단위 화소들로부터 예측 블록의 화소들이 생성되며, 이 경우 휘도 화소의 경우에는 8탭의 보간 필터를 사용하고 색차 화소의 경우 4탭 보간 필터를 사용하여 예측 화소가 생성될 수 있다.On the other hand, if the motion vector is not an integer unit, pixels of a prediction block are generated from pixels of an integer unit within a picture indicated by a reference picture index. In this case, an 8-tap interpolation filter is used for luminance pixels and chrominance pixels A prediction pixel may be generated using a 4-tap interpolation filter.
잔차 블록 복호화부(246)는 잔차 신호를 엔트로피 복호화하고, 엔트로피 복호화된 계수들을 역스캐닝하여 2차원의 양자화된 계수 블록을 생성하며, 역스캐닝 방식은 엔트로피 복호화 방식에 따라 달라질 수 있다.The
예를 들어, CABAC 기반으로 복호화된 경우 대각선 방향의 래스터 역스캔 방식으로, CAVLC 기반으로 복호화된 경우에는 지그재그 역스캔 방식으로 상기 역스캐닝 방식이 적용될 수 있다. 또한, 예측 블록의 크기에 따라 상기 역스캐닝 방식이 상이하게 결정될 수도 있다.For example, the inverse scanning method may be applied as a raster inverse scan method in a diagonal direction in case of CABAC-based decoding, and as a zigzag inverse scan method in case of CAVLC-based decoding. Also, the inverse scanning method may be determined differently according to the size of the prediction block.
잔차블록 복호화부(246)는 상기와 같이 생성된 계수블록을 역양자화 매트릭스를 이용하여 역양자화하며, 상기 양자화 매트릭스를 유도하기 위해 양자화 파리미터를 복원할 수 있다. 여기서, 양자화 스텝 사이즈는 미리 정해진 크기 이상의 코딩 유닛별로 복원될 수 있다.The
잔차블록 복호화부(260)는 상기 역양자화된 계수 블록을 역변환하여 잔차블록을 복원한다.The
복원블록 생성부(270)는 상기 예측블록 생성부(250)에 의해 생성된 예측 블록과 상기 잔차블록 복호화부(260)에 의하여 생성된 잔차 블록을 더하여 복원 블록을 생성한다.The
이하, 현재 블록을 인트라 예측을 통해 복원하는 과정에 대한 일실시예를 도 7을 다시 참조하여 설명한다.Hereinafter, an embodiment of a process of reconstructing a current block through intra prediction will be described with reference to FIG. 7 again.
먼저, 수신된 비트스트림으로부터 현재 블록의 인트라 예측 모드가 복호화되며, 그를 위해 엔트로피 복호화부(210)는 복수의 인트라 예측 모드 테이블들 중 하나를 참조하여 현재 블록의 제1 인트라 예측 모드 인덱스를 복원할 수 있다.First, the intra prediction mode of the current block is decoded from the received bitstream, and for this, the
상기 복수의 인트라 예측 모드 테이블들 부호화 장치(10)와 복호화 장치(20)가 공유하는 테이블로서, 현재 블록에 인접한 복수 블록들에 대한 인트라 예측 모드의 분포에 따라 선택된 어느 하나의 테이블이 적용될 수 있다.As a table shared by the
예를 들어, 현재 블록의 좌측 블록의 인트라 예측 모드와 현재 블록의 상측 블록의 인트라 예측 모드가 동일하면 제1 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원하고, 동일하지 않으면 제2 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원할 수 있다.For example, if the intra prediction mode of the left block of the current block and the intra prediction mode of the upper block of the current block are the same, the first intra prediction mode index of the current block is restored by applying the first intra prediction mode table, and the first intra prediction mode index of the current block is restored. Otherwise, the first intra prediction mode index of the current block may be restored by applying the second intra prediction mode table.
또 다른 예로써, 현재 블록의 상측 블록과 좌측 블록의 인트라 예측 모드가 모두 방향성 예측 모드(directional intra prediction 모드)일 경우, 상기 상측 블록의 인트라 예측 모드의 방향과 상기 좌측 블록의 인트라 예측 모드의 방향이 소정 각도 이내이면 제 1 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원하고, 소정 각도를 벗어나면 제2 인트라 예측 모드 테이블을 적용하여 현재 블록의 제 1 인트라 예측 모드 인덱스를 복원할 수도 있다.As another example, when the intra prediction modes of the upper block and the left block of the current block are both directional intra prediction modes, the direction of the intra prediction mode of the upper block and the direction of the intra prediction mode of the left block If the angle is within the predetermined angle, the first intra prediction mode index of the current block is restored by applying the first intra prediction mode table, and if the angle is out of the predetermined angle, the first intra prediction mode index of the current block is restored by applying the second intra prediction mode table. can also be restored.
엔트로피 복호화부(210)는 복원된 현재 블록의 제1 인트라 예측 모드 인덱스를 인트라 예측부(230)로 전송한다.The
제1 인트라 예측 모드를 인덱스를 수신한 인트라 예측부(230)는, 상기 인덱스가 최소값을 가질 경우(즉, 0일 경우), 현재 블록의 최대 가능 모드를 현재 블록의 인트라 예측 모드로 결정할 수 있다.Upon receiving the index of the first intra prediction mode, the
한편, 인트라 예측부(230)는, 상기 인덱스가 0 이외의 값을 가질 경우, 현재 블록의 최대 가능 모드가 나타내는 인덱스와 상기 제1 인트라 예측 모드 인덱스를 비교하고, 비교 결과 상기 제1 인트라 예측 모드 인덱스가 상기 현재 블록의 최대 가능 모드가 나타내는 인덱스보다 작지 않으면 상기 제1 인트라 예측 모드 인덱스에 1을 더한 제2 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정하고, 그렇지 않으면 상기 제1 인트라 예측 모드 인덱스에 대응하는 인트라 예측 모드를 현재 블록의 인트라 예측 모드로 결정할 수 있다.Meanwhile, when the index has a value other than 0, the
현재 블록에 허용 가능한 인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(비 directional 모드)와 복수 개의 방향성 모드들(directional 모드s)로 구성될 수 있다.The intra prediction modes allowable for the current block may include at least one non-directional mode (non-directional mode) and a plurality of directional modes (directional modes).
하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. 또한, DC 모드와 플래너 모드 중 어느 하나가 적응적으로 상기 허용 가능한 인트라 예측 모드 셋에 포함될 수 있다.One or more non-directional modes may be DC modes and/or planar modes. Also, any one of a DC mode and a planner mode may be adaptively included in the set of allowable intra prediction modes.
이를 위해, 픽처 헤더 또는 슬라이스 헤더에 상기 허용 가능한 인트라 예측 모드 셋에 포함되는 비방향성 모드를 특정하는 정보가 포함될 수 있다.To this end, information specifying a non-directional mode included in the set of allowable intra prediction modes may be included in a picture header or slice header.
다음으로, 인트라 예측부(230)는 인트라 예측 블록을 생성하기 위해, 참조 화소들을 픽처 저장부(260)로터 읽어들이고, 이용 가능하지 않은 참조 화소가 존재하는지 여부를 판단한다.Next, the
상기 판단은 현재 블록의 복호된 인트라 예측 모드를 적용하여 인트라 예측 블록을 생성하는데 이용되는 참조 화소들의 존재 여부에 따라 행해질 수도 있다.The determination may be made according to whether reference pixels used to generate an intra-prediction block by applying the decoded intra-prediction mode of the current block exist.
다음으로, 인트라 예측부(230)는 참조 화소를 생성할 필요가 있을 경우에는 미리 복원된 이용 가능한 참조 화소들을 이용하여 이용 가능하지 않은 위치의 참조 화소들을 생성할 수 있다.Next, when it is necessary to generate a reference pixel, the
이용 가능하지 않은 참조 화소에 대한 정의 및 참조 화소의 생성 방법은 도 1에 따른 인트라 예측부(150)에서의 동작과 동일할 수 있으나, 현재 블록의 복호화된 인트라 예측 모드에 따라 인트라 예측 블록을 생성하는데 이용되는 참조 화소들이 선택적으로 복원될 수도 있다.The definition of an unavailable reference pixel and the method of generating the reference pixel may be the same as the operation of the
또한, 인트라 예측부(230)는 예측 블록을 생성하기 위해 참조 화소들에 필터를 적용할지 여부를 판단하며, 즉 현재 블록의 인트라 예측 블록을 생성하기 위하여 참조 화소들에 대해 필터링을 적용할지 여부를 상기 복호된 인트라 예측 모드 및 현재 예측 블록의 크기에 기초하여 결정할 수 있다.In addition, the
블록킹 아티펙트의 문제는 블록의 크기가 커질수록 커지므로, 블록의 크기가 커질수록 참조 화소를 필터링하는 예측모드의 수를 증가시킬 수 있으나, 블록이 소정 크기보다 커지는 경우 평탄한 영역으로 볼 수 있으므로 복잡도 감소를 위해 참조 화소를 필터링하지 않을 수도 있다.Since the problem of blocking artifacts increases as the size of the block increases, the number of prediction modes for filtering reference pixels can be increased as the size of the block increases. For this, the reference pixel may not be filtered.
상기 참조 화소에 필터 적용이 필요하다고 판단된 경우, 인트라 예측부(230)는 필터를 이용하여 상기 참조 화소들을 필터링한다.When it is determined that a filter needs to be applied to the reference pixel, the
상기한 참조 화소들 간의 단차의 차이 정도에 따라 적어도 2개 이상의 필터를 적응적으로 적용할 수도 있다. 상기 필터의 필터계수는 대칭적인 것이 바람직하다.At least two or more filters may be adaptively applied according to the level of difference between the reference pixels. The filter coefficient of the filter is preferably symmetrical.
또한, 상기한 2개 이상의 필터가 현재 블록의 크기에 따라 적응적으로 적용될 수도 있으며, 필터를 적용할 경우 크기가 작은 블록에 대해서는 대역폭이 좁은 필터가, 크기가 큰 블록들에 대해서는 대역폭이 넓은 필터가 적용될 수도 있다.In addition, the above two or more filters may be adaptively applied according to the size of the current block. When applying the filter, a filter with a narrow bandwidth is used for small blocks and a filter with a wide bandwidth is used for large blocks. may be applied.
DC 모드의 경우에는 참조 화소들의 평균값으로 예측 블록이 생성되므로 필터를 적용할 필요가 없으며, 상이 수직 방향으로 연관성(correlation)이 있는 수직 모드에서는 참조 화소에 필터를 적용할 필요가 없고, 영상이 수평 방향으로 연관성이 있는 수평 모드에서도 참조 화소에 필터를 적용할 필요가 없을 수 있다.In the case of DC mode, a prediction block is generated with the average value of reference pixels, so there is no need to apply a filter. It may not be necessary to apply a filter to a reference pixel even in a horizontal mode in which direction is correlated.
이와 같이, 필터링의 적용 여부는 현재 블록의 인트라 예측 모드와도 연관성이 있으므로, 현재 블록의 인트라 예측 모드 및 예측 블록의 크기에 기초하여 참조 화소를 적응적으로 필터링할 수 있다.In this way, since whether filtering is applied is also related to the intra prediction mode of the current block, the reference pixel may be adaptively filtered based on the intra prediction mode of the current block and the size of the prediction block.
다음으로, 인트라 예측부(230)는 상기 복원된 인트라 예측 모드에 따라 참조 화소 또는 필터링된 참조 화소들을 이용하여 예측 블록을 생성하며, 상기 예측 블록의 생성은 부호화 장치(10)에서의 동작과 동일할 수 있으므로, 그에 대한 상세한 설명은 생략하기로 한다.Next, the
인트라 예측부(230)는 상기 생성된 예측 블록을 필터링할지 여부를 판단하며, 상기 필터링 여부는 슬라이스 헤더 또는 부호화 유닛 헤더에 포함된 정보를 이용하거나 또는 현재 블록의 인트라 예측 모드에 따라 결정될 수 있다.The
상기 생성된 예측 블록을 필터링할 것으로 판단할 경우, 인트라 예측부(230)는 현재 블록에 인접한 이용 가능한 참조 화소들을 이용하여 생성된 예측 블록의 특정 위치의 화소를 필터링하여 새로운 화소를 생성할 수 있다.When it is determined that the generated prediction block is to be filtered, the
예를 들어, DC 모드에서는 예측 화소들 중 참조 화소들과 접하는 예측 화소는 상기 예측 화소와 접하는 참조 화소를 이용하여 필터링 될 수 있다.For example, in the DC mode, among prediction pixels, prediction pixels that come into contact with reference pixels may be filtered using the reference pixels that come into contact with the prediction pixels.
따라서, 예측 화소의 위치에 따라 1개 또는 2개의 참조 화소를 이용하여 예측 화소가 필터링되며, DC 모드에서의 예측 화소의 필터링은 모든 크기의 예측 블록에 적용할 수 있다.Therefore, prediction pixels are filtered using one or two reference pixels according to the position of the prediction pixels, and prediction pixel filtering in the DC mode can be applied to prediction blocks of all sizes.
한편, 수직 모드에서는 예측 블록의 예측 화소들 중 좌측 참조 화소와 접하는 예측 화소들은 상기 예측블록을 생성하는데 이용되는 상측 화소 이외의 참조 화소들을 이용하여 변경될 수 있다.Meanwhile, in the vertical mode, among prediction pixels of a prediction block, prediction pixels adjacent to a left reference pixel may be changed using reference pixels other than an upper pixel used to generate the prediction block.
마찬가지로, 수평 모드에서는 생성된 예측 화소들 중 상측 참조 화소와 접하는 예측 화소들은 상기 예측블록을 생성하는데 이용되는 좌측 화소 이외의 참조 화소들을 이용하여 변경될 수 있다.Similarly, in the horizontal mode, among generated prediction pixels, prediction pixels contacting an upper reference pixel may be changed using reference pixels other than the left pixel used to generate the prediction block.
이와 같은 방식으로 복원된 현재 블록의 예측 블록과 복호화한 현재 블록의 잔차 블록을 이용하여 현재 블록이 복원될 수 있다.The current block may be reconstructed using the predicted block of the current block reconstructed in this way and the residual block of the current block decoded.
도 5는 본 발명의 실시 예에 따른 영상 부호화 장치의 동작을 설명하기 위한 흐름도이다.5 is a flowchart illustrating an operation of an image encoding apparatus according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 실시 예에 따른 영상 부호화 장치(10)는, 서브 픽처별 부호화 해상도를 최적화된 값으로 결정하여, 가변적으로 부호화 처리할 수 있으며, 부호화 정보는 복호화 장치(20)로 시그널링되어 효율적인 복호화가 처리되도록 한다.Referring to FIG. 5 , the
이를 위한 본 발명의 실시 예에 따르면, 픽처 분할부(110)는 픽처를 분할함에 있어서, 다른 분할 단위와는 독립적으로 부호화 및 복호화될 수 있는 서브 픽처분할 구조와, 각 서브 픽처별 해상도를 결정하고, 이에 대응하는 적응적 해상도 정보를 포함하는 시그널링 정보를 구성할 수 있다.According to an embodiment of the present invention for this purpose, in dividing a picture, the
나아가, 본 발명의 실시 예에 따른 픽처 분할부(110)는 360도 영상과 같은 초고해상도 영상의 배치 등에 따라 각각의 서브 픽처로 상기 픽처를 분할할 수 있으며, 각 서브 픽처들에 대응하는 구성 정보를 부호화하여 복호화 장치(20)로 전달함으로써, 서브 픽처에 포함된 타일들의 독립적 처리를 가능하게 한다. 여기서, 서브 픽처는 픽처를 분할하여 형성되며, 타일 또는 슬라이스로 구성가능한 하나 이상의 직사각형 영역을 나타낼 수 있다. 따라서 본 발명의 실시 예에 따른 분할 영역이 주로 서브 픽처라는 명칭으로서 설명되고 있으나, 이는 픽처를 분할하는 직사각형 영역이며, 상기 서브 픽처들을 포함하는 서브 픽처 세트에 대한 구성 정보의 시그널링에 따라, 각 서브 픽처의 독립적 처리가 결정될 수 있다.Furthermore, the
여기서, 독립이란 인트라 예측, 인터 예측, 변환, 양자화, 엔트로피, 및 필터를 포함한 부호화 및 복호화 과정들이 분할된 서브 픽처들과는 무관하게 독립된 픽처로서의 처리가 수행될 수 있는 것을 의미할 수 있다. 다만, 각 서브 픽처에 대하여 모든 부호화 및 복호화 과정들이 완전히 독립적으로 수행되는 것을 의미하는 것은 아닐 수 있으며, 인터 예측 또는 인루프 필터 시에 선택적으로 다른 서브 픽처의 정보를 이용하여 현재 서브 픽처가 부호화 및 복호화될 수도 있다.Here, independence may mean that encoding and decoding processes including intra prediction, inter prediction, transform, quantization, entropy, and filter can be processed as an independent picture regardless of divided subpictures. However, this may not mean that all encoding and decoding processes are completely independently performed for each subpicture, and the current subpicture is encoded and decoded by selectively using information of other subpictures during inter prediction or in-loop filtering. may be decrypted.
이에 따라, 도 5를 참조하면, 본 발명의 실시 예에 따른 부호화 장치(10)는, 원본 영상을 서브 픽처로 분할하고(S101), 전송 효율을 극대화할 수 있는 서브 픽처별 부호화 해상도를 결정한다(S103).Accordingly, referring to FIG. 5 , the
그리고, 본 발명의 실시 예에 따른 부호화 장치(10)는, 서브 픽처별 부호화 해상도에 따라 원본 영상을 부호화 처리한다(S105).Then, the
이후, 본 발명의 실시 예에 따른 부호화 장치(10)는, 해상도 조절 정보를 포함하는 서브 픽처 시그널링 정보를 생성한다(S107).Then, the
그리고, 본 발명의 실시 예에 따른 부호화 장치(10)는, 부호화된 영상 및 서브 픽처 시그널링 정보를 포함하는 비트스트림을 구성한다(S109).And, the
한편, 도 6을 참조하면, 본 발명의 실시 예에 따른 복호화 장치(20)는, 부호화 장치(10)로부터 수신된 비트스트림으로부터(S201), 해상도 조절 정보를 포함하는 서브 픽처 시그널링를 정보 획득한다(S203).Meanwhile, referring to FIG. 6 , the
이후, 복호화 장치(20)는, 서브 픽처 시그널링 정보에 기초한 서로 다른 해상도의 서브 픽처 복호화를 처리한다(S205).Thereafter, the
그리고, 복호화 장치(20)는, 복호화된 서브 픽처들을 이용한 복원 영상의 재구성을 처리한다(S207).Then, the
도 7은 본 발명의 실시 예에 따른 서브 픽처별 해상도가 조절된 경우와 원본 영상의 비교도이다.7 is a comparison diagram between an original image and a case where the resolution of each subpicture is adjusted according to an embodiment of the present invention.
보다 구체적으로, 도 7을 참조하면, 본 발명의 실시 예에 따른 부호화 장치(10)는, 고해상도 영상을 부호화 할 때, 사용자 시선이 머무르는 중요 영역과, 그 이외의 영역을 상대적으로 다른 해상도로 압축하여, 영상을 스트리밍 및 복원하게 할 수 있다.More specifically, referring to FIG. 7 , when encoding a high-resolution video, the
특히, HEVC와 같은 종래기술은 기존의 고해상도 영상을 효율적으로 압축하기 위해 영역 (타일) 별 비트율(bit-rates)을 달리하여 압축하는 방식을 제안하고 있으나, 이는 데이터의 압축율을 크게 증가시키지 못하며, 해상도를 가변하는 것과는 상이한 방식인 바, 본 발명의 실시 예에 따른 부호화 장치(10)는, 서브 픽처별 해상도 가변에 따른 고해상도 영상의 압축 처리를 제공할 수 있다.In particular, prior art such as HEVC proposes a method of compressing existing high-resolution images by varying bit-rates for each region (tile) in order to efficiently compress them, but this does not significantly increase the data compression rate. Since this method is different from changing the resolution, the
고해상도 영상의 주요 특징은 큰 해상도로 인해 처리해야 할 데이터 량이 방대하다는 것과 사용자가 큰 해상도를 한 번에 전체 다 보기보다는 특정 제한된 영역만을 집중적으로 볼 수 있다는 것이다. 즉, 시선의 중심 영역 외 나머지 부위에 대해서는 시각적 민감도가 떨어진다. 이에 따라 본 발명의 실시 예에 따른 부호화 장치(10)는, 상기 두 가지 특징을 활용하여 고해상도 영상을 부호화하는 방법을 제공할 수 있다.The main characteristics of high-resolution images are that the amount of data to be processed is enormous due to the large resolution and that the user can focus on a specific limited area rather than viewing the entire large resolution at once. That is, the visual sensitivity is lowered for the rest of the region other than the central region of the gaze. Accordingly, the
나아가, 본 발명의 실시 예에 따른 부호화 장치(10) 및 복호화 장치(20)는, 고해상도 영상의 대표 분야인 VR (virtual reality) 용 영상인 360도 영상 처리를 수행할 수 있으나, 본 발명은 VR, 360도 영상 등에 한정하지 않고, 일반 2차원 고해상도 영상에 대해서도 적용될 수 있다.Furthermore, the
특히, 고해상도 영상을 부호화하는 기술로, H.266/VVC 국제 표준 기술이 최근 제정되었으며, 본 발명의 실시 예 또한 부호화 및 복호화 과정에 있어서 국제 표준 기술들이 일부 차용될 수 있다. 다만, 본 발명의 실시 예에 따른 픽처 분할부(110)는, 현재의 H.266/VVC에서는 지원하지 못하는 서브 픽처별 부호화 해상도 가변 기능을 지원함으로써, 개선된 부호화 및 복호화 효율을 가져올 수 있다.In particular, as a technology for encoding high-resolution video, H.266/VVC international standard technology has been recently enacted, and an embodiment of the present invention may also partially borrow international standard technologies in encoding and decoding processes. However, the
전술한 바와 같이, VVC 표준에서도 서브 픽처는 다른 컨텐츠와의 합성을 위한 독립적 영역 구분으로 정의될 수 있으며, 완전히 독립된 한 장의 이미지로 취급하여 부호화/복호화 할 수 있는 영역을 나타낼 수 있다. As described above, even in the VVC standard, a subpicture can be defined as an independent area division for compositing with other content, and can be treated as a completely independent image to indicate an area that can be coded/decoded.
도 7에 도시된 바와 같은 본 발명의 실시예에서, 부호화 장치(10)는, 360 영상(cube map 포맷, A)의 6개 면(face)을 각각의 서브 픽처로 구분할 수 있다.In the embodiment of the present invention as shown in FIG. 7 , the
도 7을 참조하면, 원본 영상의 해상도는 1920x1152로 설정되고, 한 면(face )(sub-picture)의 해상도(resolution)를 640x576으로 설정하였으며, CTU (coding tree unit)의 크기는 64x64이며, 도 7의 1/2 해상도(resolution)의 sub-picture의 크기는 320x288로 설정될 수 있다. 상기 설정은 설명을 위한 것으로, 본 발명이 숫자로 한정되는 것은 아니다. 예컨대, CTU 크기는 header 정보로써 별도로 시그널링 될 수 있다.Referring to FIG. 7, the resolution of the original video is set to 1920x1152, the resolution of one side (sub-picture) is set to 640x576, and the size of the coding tree unit (CTU) is 64x64. The size of a sub-picture with a resolution of 1/2 of 7 may be set to 320x288. The above settings are for explanation, and the present invention is not limited to numbers. For example, the CTU size may be separately signaled as header information.
그리고, 도 7(B)에 도시된 바와 같이, 본 발명의 실시 예에 따른 부호화 장치(10)는, 본 발명에서는 한 장의 원본 영상을 여러 개의 서브 픽처로 구분한 후, 각 서브 픽처 별로 다른 해상도(resolution)로 부호화할 수 있다.And, as shown in FIG. 7(B), the
예컨대, 도 7(B)에 도시된 바와 같이, 360 영상의 뷰포트(viewport)가 1번 및 2번 서브 픽처 내 위치한다면, 부호화 장치(10)는 1번 및 2번 서브 픽처는 원래의 해상도(resoluton)으로 부호화하고, 3번 내지 6번 서브 픽처는 원래 (resolution)의 1/2 해당하는 resolution으로 부호화를 처리할 수 있다. 이는, 본 발명에서 서브 픽처를 완전히 독립된 한 장의 이미지로 취급하여, 부호화/복호화 할 수 있기에 가능한 것이며, 이 때, 뷰포트(viewport)의 변화에 따른 서브 픽처 간의 해상도(resolution)의 변화도 적응적으로 가능할 수 있다. For example, as shown in FIG. 7(B), if a viewport of a 360 image is located in
여기서, 서브 픽처 시그널링 정보는 각 서브픽처별 헤더 정보가 예시될 수 있으며, 헤더 정보는 하이 레벨 신택스의 형태로서, 부호화된 영상 비트스트림의 픽처 헤더 정보, 픽처 파라미터 정보, 또는 시퀀스 파라미터 정보에 포함될 수 있다. 또한, 상기 헤더 정보는 하이 레벨 신택스의 또 다른 형태로서, 부호화된 영상 비트스트림의 보충 향상 정보(Supplemental enhancement information, SEI) 메시지에 포함되어 전송될 수도 있다.Here, the subpicture signaling information may be exemplified by header information for each subpicture, and the header information is in the form of a high level syntax and may be included in picture header information, picture parameter information, or sequence parameter information of an encoded video bitstream. there is. In addition, the header information, as another type of high level syntax, may be included in a supplemental enhancement information (SEI) message of an encoded video bitstream and transmitted.
또한, 서브 픽처별 해상도가 조절된 서브 픽처 시그널링 정보는 예를 들어, HEVC, VVC 등에서 정의된 시퀀스 파라미터 세트(SPS, sequence parameter set)에 정의되어 포함될 수 있다. 하기 표 1은 본 발명의 실시 예에 따른 서브 픽처 시그널링 정보가 포함된 시퀀스 파라미터 세트의 신택스 예시도이다.In addition, subpicture signaling information whose resolution is adjusted for each subpicture may be defined and included in a sequence parameter set (SPS) defined in, for example, HEVC, VVC, and the like. Table 1 below is an exemplary syntax diagram of a sequence parameter set including subpicture signaling information according to an embodiment of the present invention.
sps_pic_width_max_in_luma_samples > CtbSizeY )if( i < sps_num_subpics_minus1 &&
sps_pic_width_max_in_luma_samples > CtbSizeY )
sps_pic_height_max_in_luma_samples > CtbSizeY )if( i < sps_num_subpics_minus1 &&
sps_pic_height_max_in_luma_samples > CtbSizeY )
sps_subpic_info_present_flag는, 해당 sequence에 서브 픽처가 있는지를 나타내는 플래그를 나타낼 수 있다. sps_subpic_info_present_flag may indicate a flag indicating whether a subpicture exists in a corresponding sequence.
sps_num_subpics_minus1은, 한 장의 이미지에 존재하는 서브 픽처의 개수에서 1을 뺀 값을 나타낼 수 있다. sps_num_subpics_minus1 may represent a value obtained by subtracting 1 from the number of subpictures present in one image.
sps_independent_subpics_flag는, 모든 서브 픽처가 독립적으로 부호화되었는지를 나타내는 플래그를 나타낼 수 있다 (여기서, inter prediction 및 in-loop filter에 대한 독립성을 의미함) sps_independent_subpics_flag may indicate a flag indicating whether all subpictures are independently coded (here, it means independence for inter prediction and in-loop filter)
sps_subpic_same_size_flag는 모든 서브 픽처가 동일 사이즈임을 알리는 플래그를 나타낼 수 있다. sps_subpic_same_size_flag may indicate a flag indicating that all subpictures are the same size.
sps_subpic_ctu_top_left_x & sps_subpic_ctu_top_left_y는, 한 서브 픽처 내 최좌상단 측에 위치한 CTU의 (x, y) 값을 나타낼 수 있다(가로축의 CTU index 값 및 세로축의 CTU index 값) sps_subpic_ctu_top_left_x & sps_subpic_ctu_top_left_y may indicate the (x, y) value of the CTU located at the top left in one subpicture (CTU index value on the horizontal axis and CTU index value on the vertical axis)
sps_subpic_width_minus1 & sps_subpic_height_minus1은, 한 서브 픽처 내 최좌상단 CTU를 기준으로 해당 서브 픽처의 너비와 높이 값을 나타낼 수 있다(CTU의 개수로 표현) sps_subpic_width_minus1 & sps_subpic_height_minus1 may indicate the width and height values of a subpicture based on the upper leftmost CTU in a subpicture (expressed in the number of CTUs)
sps_subpic_treated_as_pic_flag는, 서브 픽처의 boundary를 픽처 boundary처럼 처리할지를 알리는 플래그이다 (예컨대, inter prediction 시, 서브 픽처 boundary를 픽처 boundary처럼 처리함을 지시) sps_subpic_treated_as_pic_flag is a flag indicating whether to treat subpicture boundaries like picture boundaries (e.g., during inter prediction, instructs to treat subpicture boundaries like picture boundaries)
sps_loop_filter_across_subpic_enabled_flag는 서브 픽처 간 boundary에서 in-loop filter를 실행할지를 알리는 플래그이다. sps_loop_filter_across_subpic_enabled_flag is a flag indicating whether to perform in-loop filtering at the boundary between subpictures.
sps_subpic_id_len_minus1: 서브 픽처 id의 길이를 나타내는 값이다. sps_subpic_id_len_minus1 : A value representing the length of subpicture id.
sps_subpic_id_mapping_explicitly_signalled_flag: 명시적으로 서브 픽처의 id를 전송할지를 알리는 플래그이다. sps_subpic_id_mapping_explicitly_signalled_flag : A flag indicating whether to explicitly transmit the id of a subpicture.
sps_subpic_id_mapping_present_flag는 서브 픽처의 id를 매핑할지를 알리는 플래그이다. sps_subpic_id_mapping_present_flag is a flag indicating whether to map the id of a subpicture.
sps_subpic_id: 서브 픽처의 id를 나타낸다. (서브 픽처의 개수만큼 id 전송) sps_subpic_id : Indicates the id of a subpicture. (transmit id as many as the number of subpictures)
상기한 바와 같은 각 신택스(Syntax)에 대응하여, 도 7(B)에 적용하는 경우, 아래와 같이 각 값이 매핑될 수 있다.Corresponding to each syntax as described above, when applied to FIG. 7(B), each value may be mapped as follows.
이에 따라, 복호화 장치(20)에서는 해당 신택스 정보를 시퀀스 파라미터 세트로부터 획득하고, 서브 픽처의 개수, 매핑 id, 독립적 필터링 여부, 가로 길이, 세로 길이, 독립적 픽처로 처리되는지 여부 등을 확인할 수 있다. 그리고, 복호화 장치(20)는 이러한 SPS(시퀀스 파라미터 세트)상의 서브 픽처 시그널링 정보에 기초하여 개별 서브 픽처들의 위치 및 형태를 식별할 수 있다.Accordingly, the
한편, 본 발명의 실시 예에 따른 가변 해상도 정보는 SPS 내 별도의 플래그 정보 및 픽처 파라미터 세트(PPS)에 포함될 수 있다. 이에 대하여 표 3 및 표 4를 통해 보다 구체적으로 예시하도록 한다. 다른 예시로, 픽처 파라미터 세트(PPS)에 포함된 가변 해상도 정보는 PH(픽처 헤더)에 포함될 수도 있다.Meanwhile, variable resolution information according to an embodiment of the present invention may be included in separate flag information and a picture parameter set (PPS) in the SPS. This will be illustrated in more detail through Tables 3 and 4. As another example, the variable resolution information included in the picture parameter set (PPS) may be included in a picture header (PH).
sps_ref_pic_resampling_enabled_flag: reference 픽처의 resampling을 허용하는 플래그 (adaptive resolution으로 인해, 복호화 대상 픽처와 상응하는 참조 픽처의 resolution이 상이한 경우, 참조 픽처의 resampling이 필요함) sps_ref_pic_resampling_enabled_flag : A flag that allows resampling of the reference picture (due to adaptive resolution, if the resolution of the picture to be decoded and the corresponding reference picture are different, resampling of the reference picture is required)
sps_res_change_in_clvs_allowed_flag: decoded 픽처의 resolution의 변경을 허용하는 플래그 sps_res_change_in_clvs_allowed_flag : Flag allowing change of resolution of decoded picture
sps_pic_width_max_in_luma_samples: decoded 픽처의 원래 resoltution의 width 값 (luma 기준) sps_pic_width_max_in_luma_samples : width value of original resolution of decoded picture (based on luma)
sps_pic_height_max_in_luma_samples: decoded 픽처의 원래 resoltution의 height 값 (luma 기준) sps_pic_height_max_in_luma_samples : height value of original resolution of decoded picture (based on luma)
sps_conformance_window_flag: output 픽처에 대한 크기를 설정함을 알리는 플래그 sps_conformance_window_flag : A flag indicating that the size of the output picture is to be set.
sps_conf_win_left_offset: output 픽처에 대한 좌측 offset 값 sps_conf_win_left_offset : left offset value for output picture
sps_conf_win_right_offset: output 픽처에 대한 우측 offset 값 sps_conf_win_right_offset : right offset value for output picture
sps_conf_win_top_offset: output 픽처에 대한 상측 offset 값 sps_conf_win_top_offset : Top offset value for output picture
sps_conf_win_bottom_offset: output 픽처에 대한 하측 offset 값 sps_conf_win_bottom_offset : Bottom offset value for output picture
여기서, 시퀀스 단위 내에서 출력 픽처에 대한 크기를 설정함을 나타내는 적합성 윈도우 플래그 정보(sps_conformance_window_flag)는 복호화 장치(20) 또는 부호화 장치(10)에서 복원된 픽처와 출력할 픽처 간의 해상도가 상이하여 크롭핑(Cropping)이 필요한지 판단하는 데에 이용될 수 있다. 복호화 장치(20) 또는 부호화 장치(10)는, 적합성 윈도우(conformance window) 플래그 정보를 이용하여, 복원 픽처 버퍼(DPB, decoded picture buffer)로부터 복원된 픽처를 크롭핑 처리하고, 크롭핑된 픽처를 출력 처리할 수 있다. 만약 해당 플래그에 별도의 윈도우 정보 지정이 없는 경우, 복원 픽처와 출력 픽처는 동일한 크기임을 의미할 수 있다.Here, the conformance window flag information (sps_conformance_window_flag) indicating that the size of the output picture is set within the sequence unit is cropped due to a difference in resolution between the picture reconstructed in the
pps_pic_width_in_luma_samples: decoded 픽처/서브 픽처의 resoltution의 width 값 (luma 기준) pps_pic_width_in_luma_samples : width value of resolution of decoded picture/subpicture (based on luma)
pps_pic_height_in_luma_samples: decoded 픽처/서브 픽처의 resoltution의 height 값 (luma 기준) pps_pic_height_in_luma_samples : height value of resolution of decoded picture/sub picture (based on luma)
pps_conformance_window_flag: output 픽처/서브 픽처에 대한 크기를 설정함을 알리는 플래그 pps_conformance_window_flag : A flag indicating that the size of the output picture/subpicture is set.
pps_conf_win_left_offset: output 픽처/서브 픽처에 대한 좌측 offset 값 pps_conf_win_left_offset : left offset value for output picture/sub picture
pps_conf_win_right_offset: output 픽처/서브 픽처에 대한 우측 offset 값 pps_conf_win_right_offset : right offset value for output picture/sub picture
pps_conf_win_top_offset: output 픽처/서브 픽처에 대한 상측 offset 값 pps_conf_win_top_offset : Top offset value for output picture/sub picture
pps_conf_win_bottom_offset: output 픽처/서브 픽처에 대한 하측 offset 값 pps_conf_win_bottom_offset : Bottom offset value for output picture/sub picture
여기서, conformance window는 SPS 내용과 동일하나, picture가 아닌 sub-picture에 대한 정보이다.Here, the conformance window is the same as the SPS content, but is information about a sub-picture rather than a picture.
pps_scaling_window_explicit_signaling_flag: reference 픽처/서브 픽처에 대한 크기를 설정함을 알리는 플래그 pps_scaling_window_explicit_signaling_flag : Flag notifying that the size of the reference picture/sub picture is set
pps_scaling_win_left_offset: reference 픽처/서브 픽처에 대한 좌측 offset 값 pps_scaling_win_left_offset : left offset value for reference picture/sub picture
pps_scaling_win_right_offset: reference 픽처/서브 픽처에 대한 우측 offset 값 pps_scaling_win_right_offset : Right offset value for reference picture/sub picture
pps_scaling_win_top_offset: reference 픽처/서브 픽처에 대한 상측 offset 값 pps_scaling_win_top_offset : Top offset value for reference picture/sub picture
pps_scaling_win_bottom_offset: reference 픽처/서브 픽처에 대한 하측 offset 값 pps_scaling_win_bottom_offset : Lower offset value for reference picture/sub picture
여기서, 픽처 단위 내에서 출력 픽처/서브 픽처에 대한 크기를 설정함을 나타내는 적합성 윈도우 플래그 정보(pps_conformance_window_flag)는 복호화 장치(20) 또는 부호화 장치(10)에서 복원된 픽처/서브 픽처와 출력할 픽처/서브 픽처 간의 해상도가 상이하여 크롭핑(Cropping)이 필요한지 판단하는 데에 이용될 수 있다. 복호화 장치(20) 또는 부호화 장치(10)는, 적합성 윈도우(conformance window) 플래그 정보를 이용하여, 복원 픽처/서브 픽처 버퍼(DPB, decoded picture buffer)로부터 복원된 픽처/서브 픽처를 크롭핑 처리하고, 크롭핑된 픽처/서브 픽처를 출력 처리할 수 있다. 만약 해당 플래그에 별도의 윈도우 정보 지정이 없는 경우, 복원 픽처/서브 픽처와 출력 픽처/서브 픽처는 동일한 크기임을 의미할 수 있다.Here, the conformance window flag information (pps_conformance_window_flag) indicating that the size of an output picture/subpicture is set within a picture unit is a picture/subpicture reconstructed in the
도 8은 본 발명의 실시 예에 따른 (서브) 픽처별 해상도 조절과 GOP 단위 관계를 나타내는 예시도이다.8 is an exemplary diagram illustrating a relationship between resolution adjustment for each (sub) picture and GOP units according to an embodiment of the present invention.
표 4에서 설명한 바와 같이, 부호화 또는 복호화할 스케일링 윈도우(scaling window)의 가로축 및 세로축 크기는, SPS 및 PPS의 서브 픽처 정보 내 특정 서브 픽처(sub-picture)의 가로(width) 및 세로(height) 길이에서 좌우 및 상하 offset 값을 차감하여 획득될 수 있다. 또는, 부호화 또는 복호화할 스케일링 윈도우(scaling window)의 가로축 및 세로축 크기는, PPS 또는 PH의 decoded 서브 픽처 resoltution의 가로(width) 및 세로(height) 길이에서 scaling window의 좌우 및 상하 offset 값을 차감하여 획득될 수 있다.As described in Table 4, the size of the horizontal axis and the vertical axis of the scaling window to be encoded or decoded is the width and height of a specific sub-picture in the sub-picture information of SPS and PPS. It can be obtained by subtracting left and right and top and bottom offset values from the length. Alternatively, the size of the horizontal axis and vertical axis of the scaling window to be encoded or decoded is obtained by subtracting the left and right and top and bottom offset values of the scaling window from the width and height length of the decoded subpicture resolution of PPS or PH. can be obtained
그리고, 부호화 장치(10) 또는 복호화 장치(20)는, 복원된 서브 픽처의 스케일링 윈도우 값과, 이에 대응하는 참조(reference) 서브 픽처의 스케일링 윈도우 값을 비교하여, 스케일 비율(scaling ratio)을 결정할 수 있다.Then, the
예컨대, 부호화 장치(10)는, 하나의 GOP (group of picture) 내에서 영상의 해상도(resolution)을 변경하지 않았다면, 상기 scaling ratio를 "1"로 결정할 수 있다. GOP 단위로 영상의 resolution을 변경하는 경우, 복원 픽처(decoded picture) 와 참조 픽처(reference picture)의 해상도는 동일하게 설정될 수 있다.For example, the
여기서, GOP는 닫힌 형태(closed GOP) 이어야 적용 가능하다, 이는 Closed GOP가 같은 GOP 내에서만 참조 관계가 있도록 설정되어 있기 때문이며, 열린 형태(open GOP)는 다른 GOP 내 픽처도 참조 가능한 구조이어서 적용되지 않는다.Here, the GOP can be applied only when it is in a closed GOP. This is because the Closed GOP is set to have a reference relationship only within the same GOP, and the open GOP is a structure that can refer to pictures in other GOPs, so it is not applied. don't
앞서 설명된 도 7(B)에서의 예시에 대응하는 서브 픽처 정보는, 두 개의 다른 PPS 정보로 구성될 수 있다.Subpicture information corresponding to the example in FIG. 7(B) described above may be composed of two different PPS information.
보다 구체적으로, 서브 픽처 정보는 640x575 크기의 서브 픽처 (1번 및 2번)에 대한 제1 서브 픽처 정보(PPS #1)와 320x288 크기의 서브 픽처 (3번 내지 6번)에 대한 제2 서브 픽처 정보(PPS #2)로 구성될 수 있다. More specifically, the subpicture information includes first subpicture information (PPS #1) for 640x575 subpictures (Nos. 1 and 2) and second subpicture information (Nos. 3 to 6) for 320x288 subpictures. It may be composed of picture information (PPS #2).
도 9는 본 발명의 실시 예에 따른 서브 픽처별 해상도 조절과 NAL 패킷 구조 관계를 나타내는 예시도이다.9 is an exemplary diagram illustrating a relationship between resolution adjustment for each subpicture and a NAL packet structure according to an embodiment of the present invention.
도 9는 제1 서브 픽처 정보(PPS #1)와 제2 서브 픽처 정보(PPS #2)를 포함하는 NAL (network abstraction layer) 패킷의 구조, 시그널링 순서, 및 참조 관계를 도식화하여 설명하고 있다. 1번 및 2번 서브 픽처에 대한 slice NAL 패킷은 PH (picture header)를 거쳐 제1 서브 픽처 정보(PPS #1)을 참조하고, 3번 내지 6번 서브 픽처에 해당하는 slice NAL 패킷도 PH를 통해 제2 서브 픽처 정보(PPS #2)를 참조할 수 있다. 여기서, slice는 독립적인 하나의 NAL (network abstraction layer) bit-stream을 생성하는 데이터 패킹 단위일 수 있으며, 하나의 서브 픽처는 1개 이상의 slice를 포함할 수 있다.9 illustrates and describes the structure, signaling order, and reference relationship of a network abstraction layer (NAL) packet including first subpicture information (PPS #1) and second subpicture information (PPS #2). The slice NAL packets for
다른 예시로, 전술한 PPS의 해상도(resolution, (width, height)) 정보, 적합성 정보(conformance), 스케일링 윈도우(scaling window) 정보는 픽처 헤더(PH)에 포함될 수도 있으며, 이 경우 복호화 장치(20) 또는 부호화 장치(10)는 서브 픽처에 대응하는 슬라이스 단위에 상응하는 픽처 헤더를 참조하도록 헤더 정보를 구성할 수도 있다. 따라서, 복호화 장치(20)는, PPS 또는 PH 와 같은 픽처 레벨의 헤더 정보에 포함된 서브 픽처의 해상도 및 윈도우 정보를 식별하고, 이에 대응하는 서브 픽처의 해상도 및 윈도우 정보를 변경하여, 서브 픽처 영상의 해상도를 적응적으로 변경할 수 있는 것이다.As another example, the above-described resolution (width, height) information, conformance information, and scaling window information of the PPS may be included in the picture header PH, in which case the decoding apparatus 20 ) or the
또 다른 예시로, 서브 픽처의 위치 및 크기 정보만 픽처 레벨 헤더에 포함될 수도 있으며, 이 경우 복호화 장치(20)는, SPS에서 시그널링되는 서브 픽처의 개수, 위치, 또는 크기 정보 중 적어도 하나와, 상기 픽처 레벨 헤더 정보에 기초하여, 서브 픽처의 해상도를 적응적으로 결정할 수 있다.As another example, only subpicture position and size information may be included in the picture level header. In this case, the
하기의 표 5는 전술한 제1 서브 픽처 정보(PPS #1)와 제2 서브 픽처 정보(PPS #2)의 신택스 값들을 예시한 도면이다.Table 5 below is a diagram illustrating syntax values of the aforementioned first sub-picture information (PPS #1) and second sub-picture information (PPS #2).
표 5에 도시된 바와 같이, 현재 도 7(B)에서의 실시예에서는 conformance cropping window에 대한 offset 정보나 scaling window에 대한 offset 정보가 필요치 않다. 또한, GOP 단위로 서브 픽처의 resolution을 변경하면, decoded sub-picture 와 reference sub-picture의 resolution이 동일하고, scaling window도 동일하여, ratio는 "1"로 결정될 수 있다.As shown in Table 5, in the current embodiment of FIG. 7(B), offset information for the conformance cropping window or offset information for the scaling window is not required. Also, if the resolution of a sub-picture is changed in units of GOP, the resolution of the decoded sub-picture and the reference sub-picture are the same, and the scaling window is the same, so the ratio can be determined to be “1”.
만약, 하나의 GOP 내에서 서브 픽처의 resolution을 640x576에서 320x288로 변경하는 경우, 현재 복원 서브 픽처(decoded sub-picture)의 resolution이면서 scaling window는 320x288이 되고, 이미 복원된 참조 서브 픽처(reference sub-picture)의 resolution이면서 scaling window는 640x576이 되어서, scaling ratio가 가로축 및 세로축 모두 "1"이 아닌 2 (또는, 1/2)가 되어, 인터 예측(inter prediction) 시에 scaling ratio가 적용되어 해상도가 축소 또는 확대된 예측 블록을 생성할 수 있게 된다.If the resolution of a sub-picture within one GOP is changed from 640x576 to 320x288, the resolution of the current decoded sub-picture and the scaling window become 320x288, and the already reconstructed reference sub-picture (reference sub-picture) picture) and the scaling window is 640x576, so the scaling ratio is 2 (or 1/2) instead of "1" for both the horizontal axis and the vertical axis. It becomes possible to create a reduced or enlarged prediction block.
또한, 본 발명의 실시 예에 따르면, 영상 포맷의 큐브맵(cube map) 구조 내 면(face)의 크기가 8의 배수 혹은 최소 코딩 블록 크기(minCB)의 배수가 아닌 경우, 적합성 윈도우(conformance window) 정보 또는 스케일링 윈도우(scaling window) 정보에 대응하는 추가적인 offset 정보가 상기 PPS에 더 포함될 수도 있다.In addition, according to an embodiment of the present invention, when the size of a face in a cube map structure of an image format is not a multiple of 8 or a multiple of the minimum coding block size (minCB), a conformance window (conformance window) ) information or additional offset information corresponding to scaling window information may be further included in the PPS.
도 10은 본 발명의 실시 예에 따른 서브 픽처별 해상도 조절에 따른 타일 개수의 감축을 설명하기 위한 도면이다.10 is a diagram for explaining a reduction in the number of tiles according to resolution adjustment for each subpicture according to an embodiment of the present invention.
도 10(A)에 도시된 바와 같이, 기존의 방식은 영상을 타일로 분할하여 bit-rates를 조절하여 부호화하는 것으로, 총 24개의 타일을 부호화해야 한다.As shown in FIG. 10(A), in the conventional method, an image is divided into tiles and encoded by adjusting bit-rates, and a total of 24 tiles must be encoded.
반면, 도 10(B)에 도시된 바와 같이, 본 발명의 실시 예에 따른 방법을 이용하는 경우, 총 12개의 타일만을 부호화 하면 되므로, 타일의 개수 기준으로 대략 2배 가까운 압축 성능이 좋아짐을 직관적으로 확인할 수 있다. On the other hand, as shown in FIG. 10(B), in the case of using the method according to the embodiment of the present invention, only 12 tiles in total need to be coded, so it is intuitive that the compression performance is improved by approximately two times based on the number of tiles. You can check.
이와 같은 구성에 따라, 본 발명의 실시 예에 따른 부호화 장치(10)는, 영상 내 중요한 영역과 그 이외의 영역을 구분할 수 있으며, 뷰포트(VIEWPORT) 등에 대응하는 중요 영역 내지 관심 영역(ROI)에 대해서는 고해상도로 부호화되도록 처리하고, 이외의 영역에 대해서는 저해상도로 부호화되도록 처리함으로써, 압축된 데이터의 양을 최소화시킬 수 있다.According to such a configuration, the
또한, 본 발명의 실시 예에 따른 부호화 장치(10) 및 복호화 장치(20)는, 이러한 서브 픽처 적응적 가변 해상도 부호화를 처리할 수 있도록 하는 시그널링 정보를 사전 설정하고, 이에 대응하는 적응적 해상도 변경 처리를 수행함으로써, 영상을 효율적이고 신속하게 스트리밍하거나, 복원 처리할 수 있도록 하는 프로세스를 제공할 수 있다.In addition, the
상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.The method according to the present invention described above may be produced as a program to be executed on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, and magnetic tape. , floppy disks, and optical data storage devices.
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer-readable recording medium is distributed to computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the technical field to which the present invention belongs.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. Of course, various modifications are possible by those skilled in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
Claims (7)
영상 정보를 포함하는 비트스트림을 수신하는 단계;
상기 비트스트림으로부터, 서브 픽처 시그널링 정보를 복호화하는 단계;
상기 서브 픽처 시그널링 정보로부터, 서브 픽처별 해상도 조절 정보를 식별하는 단계;
상기 서브 픽처별 해상도 조절 정보를 이용하여, 하나 이상의 서브 픽처를 복호화하는 단계; 및
상기 복호화된 서브 픽처를 이용한 복원 영상을 재구성하는 단계를 포함하는
영상 복호화 방법.In the video decoding method,
Receiving a bitstream including image information;
decoding subpicture signaling information from the bitstream;
identifying resolution adjustment information for each subpicture from the subpicture signaling information;
decoding one or more subpictures using the resolution adjustment information for each subpicture; and
Reconstructing a restored image using the decoded subpicture
Video decoding method.
상기 서브 픽처별 해상도 조절 정보를 식별하는 단계는,
상기 비트스트림의 시퀀스 파라미터 세트로부터 상기 서브 픽처를 식별하는 하나 이상의 플래그를 획득하는 단계; 및
상기 식별된 서브 픽처에 대응하는 해상도 변경 정보를 획득하는 단계를 포함하는
영상 복호화 방법.According to claim 1,
The step of identifying the resolution adjustment information for each subpicture,
obtaining one or more flags identifying the subpicture from a sequence parameter set of the bitstream; and
Acquiring resolution change information corresponding to the identified subpicture
Video decoding method.
상기 해상도 변경 정보는, 상기 시퀀스 파라미터 세트에 포함되는 리샘플링 허용 플래그, 해상도 변경 허용 플래그, 원본 해상도 크기 정보 중 적어도 하나를 포함하는
영상 복호화 방법.According to claim 2,
The resolution change information includes at least one of a resampling permission flag, a resolution change permission flag, and original resolution size information included in the sequence parameter set.
Video decoding method.
상기 해상도 변경 정보는, 상기 식별된 서브 픽처에 대응하는 픽처 레벨 헤더 정보에 포함되는 출력 픽처의 해상도 적합성 윈도우 정보를 포함하는
영상 복호화 방법.According to claim 2,
The resolution change information includes resolution compatibility window information of an output picture included in picture level header information corresponding to the identified subpicture.
Video decoding method.
상기 해상도 변경 정보는, 상기 식별된 서브 픽처에 대응하는 픽처 레벨 헤더 정보에 포함되는 복원 픽처의 해상도 스케일링 윈도우 정보를 포함하는
영상 복호화 방법.According to claim 2,
The resolution change information includes resolution scaling window information of a reconstructed picture included in picture level header information corresponding to the identified subpicture.
Video decoding method.
상기 해상도 변경 정보 중 적어도 일부는 NAL(network abstraction layer)의 픽처 파라미터 세트에 포함되고, 상기 적어도 일부에 의해 참조된 픽처 헤더 정보에 기초하여, 상기 해상도 변경 정보가 결정되는
영상 복호화 방법.According to claim 1,
At least some of the resolution change information is included in a picture parameter set of a network abstraction layer (NAL), and the resolution change information is determined based on picture header information referenced by the at least some of the information.
Video decoding method.
원본 영상을 서브 픽처로 분할하는 단계;
상기 분할된 서브 픽처별 부호화 해상도를 결정하는 단계;
상기 서브 픽처별 부호화 해상도에 따라, 원본 영상을 부호화하는 단계;
상기 서브 픽처별 해상도 조절 정보를 포함하는 상기 서브 픽처 시그널링 정보를 생성하는 단계; 및
부호화된 영상 및 상기 서브 픽처 시그널링 정보를 포함하는 비트스트림을 구성하는 단계를 포함하는
영상 부호화 방법.In the video encoding method,
Dividing an original image into sub-pictures;
determining a coding resolution for each divided sub-picture;
encoding an original image according to the encoding resolution for each sub-picture;
generating the subpicture signaling information including resolution adjustment information for each subpicture; and
Constructing a bitstream including an encoded image and the subpicture signaling information
Video encoding method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210138926A KR102648652B1 (en) | 2021-10-19 | 2021-10-19 | A method and an apparatus for processing high resolution videos |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210138926A KR102648652B1 (en) | 2021-10-19 | 2021-10-19 | A method and an apparatus for processing high resolution videos |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230055488A true KR20230055488A (en) | 2023-04-26 |
KR102648652B1 KR102648652B1 (en) | 2024-03-18 |
Family
ID=86099294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210138926A KR102648652B1 (en) | 2021-10-19 | 2021-10-19 | A method and an apparatus for processing high resolution videos |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102648652B1 (en) |
-
2021
- 2021-10-19 KR KR1020210138926A patent/KR102648652B1/en active IP Right Grant
Non-Patent Citations (1)
Title |
---|
JVET, AHG2: Editorial and errata input on VVC draft text, Benjamin Bross, JVET-T0110-v3, 2020. 10. 07.* * |
Also Published As
Publication number | Publication date |
---|---|
KR102648652B1 (en) | 2024-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102014240B1 (en) | A method for seletively decoding a syncronized multi view video by using spatial layout information | |
EP3080987B1 (en) | Signaling of simplified depth coding (sdc) for depth intra-and inter prediction modes in 3d video coding | |
US10306265B2 (en) | Simplification of segment-wise DC coding of large prediction blocks in 3D video coding | |
AU2016201001A1 (en) | Method and Apparatus for Encoding/Decoding Image | |
KR20160058943A (en) | Residual coding for depth intra prediction modes | |
WO2015135169A1 (en) | Constrained depth intra mode coding for 3d video coding | |
WO2015100514A1 (en) | Simplification of delta dc residual coding in 3d video coding | |
JP2022516872A (en) | Video encoders, video decoders, and corresponding methods | |
US20170310993A1 (en) | Movement information compression method and device for 3d video coding | |
WO2015131388A1 (en) | Simplification of depth intra mode coding in 3d video coding | |
KR20220080738A (en) | Image encoding/decoding method, apparatus, and bitstream transmission method using lossless color conversion | |
WO2015042751A1 (en) | Residual coding for depth intra prediction modes | |
CN110870307A (en) | Method and device for processing synchronous image | |
KR20210107090A (en) | Video encoders, video decoders and corresponding methods | |
KR20230113661A (en) | Method and device for image encoding/decoding based on effective transmission of differential quantization parameter | |
EP3059969A1 (en) | Method and apparatus for coding/decoding video comprising multi-view | |
KR20130118250A (en) | Apparatus and method for encdoing and decoding of depth image | |
KR20170065503A (en) | 3D video encoding / decoding method and apparatus | |
KR102648652B1 (en) | A method and an apparatus for processing high resolution videos | |
WO2020008107A1 (en) | A method, an apparatus and a computer program product for video encoding and decoding | |
KR20190022399A (en) | A method for encoding/decoding a virtual reality video | |
KR102312285B1 (en) | A method for seletively decoding a syncronized multi view video by using spatial layout information | |
KR20180028298A (en) | A method for encoding/decoding a syncronized multi view video by using spatial layout information | |
KR20190037817A (en) | A method for encoding/decoding a virtual reality video | |
JP7358502B2 (en) | Video decoding method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |