KR20190005452A - A method and an appratus for processing videos based on syncronized regions - Google Patents

A method and an appratus for processing videos based on syncronized regions Download PDF

Info

Publication number
KR20190005452A
KR20190005452A KR1020170086115A KR20170086115A KR20190005452A KR 20190005452 A KR20190005452 A KR 20190005452A KR 1020170086115 A KR1020170086115 A KR 1020170086115A KR 20170086115 A KR20170086115 A KR 20170086115A KR 20190005452 A KR20190005452 A KR 20190005452A
Authority
KR
South Korea
Prior art keywords
decoding
image
unit
region
information
Prior art date
Application number
KR1020170086115A
Other languages
Korean (ko)
Inventor
임정윤
임화섭
Original Assignee
가온미디어 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가온미디어 주식회사 filed Critical 가온미디어 주식회사
Priority to KR1020170086115A priority Critical patent/KR20190005452A/en
Priority to US16/628,875 priority patent/US20200267385A1/en
Priority to PCT/KR2018/007702 priority patent/WO2019009667A1/en
Priority to CN201880045272.XA priority patent/CN110870307A/en
Publication of KR20190005452A publication Critical patent/KR20190005452A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Provided are an image processing method for effectively encoding/decoding a synchronized multi-view image and an apparatus thereof. To this end, according to an embodiment of the present invention, a decoding method performed by a decoding apparatus includes a step of performing motion prediction decoding for a current block on a current picture composed of a plurality of temporally or spatially synchronized regions. The step of performing motion prediction decoding includes the following steps: deriving a neighboring reference region in response to a region in which the current block is included; obtaining an illuminance compensation parameter of the reference region; and processing illuminance compensation for the current block in which the motion prediction decoding is performed by using the illuminance compensation parameter.

Description

동기화된 리전 기반 영상의 처리 방법 및 그 장치{A METHOD AND AN APPRATUS FOR PROCESSING VIDEOS BASED ON SYNCRONIZED REGIONS}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for synchronized region-

본 발명은 영상 처리 방법 및 그 장치에 관한 것이다. 보다 구체적으로, 본 발명은 동기화된 리전 기반 영상의 처리 방법 및 그 장치에 관한 것이다.The present invention relates to an image processing method and apparatus therefor. More particularly, the present invention relates to a method and apparatus for processing synchronized region-based images.

최근 디지털 영상 처리와 컴퓨터 그래픽 기술이 발전함에 따라, 현실 세계를 재현하고 이를 실감나게 경험하도록 하는 가상현실(VIRTUAL REALITY, VR) 기술에 관한 연구가 활발히 진행되고 있다.Recently, as digital image processing and computer graphics technology are developed, researches on virtual reality (VR) technology, which reproduces the real world and realizes it, is being actively studied.

특히, HMD(Head Mounted Display)와 같은 최근의 VR 시스템은, 사용자의 양안에 3차원 입체 영상을 제공할 수 있을 뿐만 아니라, 그 시점을 전방위로 트래킹할 수 있기에, 360도 회전 시청 가능한 실감나는 가상현실(VR) 영상 컨텐츠를 제공할 수 있다는 점에서 많은 관심을 받고 있다.In particular, a recent VR system such as an HMD (Head Mounted Display) not only can provide a three-dimensional stereoscopic image in both sides of a user, but also can track the viewpoint in all directions. Therefore, (VR) image contents.

그러나, 360 VR 컨텐츠는 시간 및 양안 영상이 공간적으로 복합 동기화된 동시 전방위의 다시점 영상 정보로 구성되기 때문에, 영상의 제작 및 전송에 있어서, 모든 시점의 양안 공간에 대해 동기화된 2개의 대형 영상을 부호화하여 압축 및 전달하게 된다. 이는 복잡도 및 대역폭 부담을 가중시키며, 특히 복호화 장치에서는 사용자 시점을 벗어나 실제로 시청되지 않는 영역에 대하여도 복호화가 이루어짐으로써 불필요한 프로세스가 낭비되는 문제점이 있다.However, since the 360 VR contents are composed of the multi-view image information of the simultaneous omnidirectionally synchronized spatio-temporal and binocular images, two large images synchronized with respect to the binocular space at all viewpoints in the production and transmission of the image And compresses and transmits them. This increases the complexity and the bandwidth burden. In particular, in a decoding apparatus, an area that is not actually viewed beyond a user's point of view is decoded, thus wasting an unnecessary process.

이에 따라, 영상의 전송 데이터량과 복잡도를 감소시키고, 대역폭 및 복호화 장치의 배터리 소모 측면에서도 효율적인 부호화 방법이 요구된다.Accordingly, there is a need for an efficient encoding method in terms of reducing the amount of data to be transferred and the complexity of the video and also in terms of battery consumption of the bandwidth and decoding apparatus.

또한, 상기와 같은 360 VR 컨텐츠의 경우, 2개 이상의 카메라를 통해 취득한 각 시점영역(REGION, 리전)별 영상을 처리하여야 하는데 서로 다른 카메라를 통해 취득한 영상일 경우, 카메라의 특성 및 영상의 취득 당시의 외부 환경 등에 의해 영상의 전체 밝기 등이 다르게 취득되는 경우가 많다. 이는 결과적으로 복호화 결과물을 360도 VR 컨텐츠로 구현하는데 있어서, 주관적 체감 화질을 매우 떨어뜨리게 되는 문제가 있다.In the case of the 360 VR content as described above, an image for each view region (REGION, region) acquired through two or more cameras must be processed. In the case of an image acquired through different cameras, The overall brightness and the like of the image are often obtained differently depending on the external environment of the camera. As a result, when the decoding result is implemented as 360-degree VR content, there is a problem that the subjective subjective image quality is greatly deteriorated.

본 발명은 상기와 같은 과제를 해결하기 위한 것으로, 동기화된 다시점 영상의 공간적 구조 정보를 이용하여, 360도 카메라나 VR용 영상과 같은 동기화된 다시점 영상을 효율적으로 부호화/복호화하는 영상 처리 방법 및 장치를 제공하는 데 그 목적이 있다.The present invention has been made to solve the above problems and it is an object of the present invention to provide an image processing method and an image processing method for effectively encoding / decoding synchronized multi-view images such as a 360-degree camera or a VR image using spatial structure information of synchronized multi- And an object of the present invention is to provide an apparatus.

또한, 본 발명은 360도 카메라나 VR용 영상과 같은 동기화된 다시점 영상의 동기화된 시점영역 또는 리전별 조도의 불일치로 인한 주관적 체감 화질 저하를 방지하기 위한 조도 보상을 제공하는 영상 처리 방법 및 장치를 제공하는 데 그 목적이 있다.In addition, the present invention provides an image processing method and apparatus for providing illumination intensity compensation to prevent subjective quality deterioration due to mismatch of synchronized viewpoint regions or region-dependent illuminance of synchronized multi-view images such as 360-degree cameras or VR images And the like.

상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 복호화 장치에 의하여 수행되는 복호화 방법에 있어서, 시간 또는 공간적으로 동기화된 복수의 리전(REGION)으로 구성되는 현재 픽처 상의 현재 블록의 움직임 예측 복호화를 수행하는 단계를 포함하고, 상기 움직임 예측 복호화를 수행하는 단계는, 상기 현재 블록이 속한 리전에 대응하여 이웃한 참조 리전을 도출하는 단계; 상기 참조 리전의 조도 보상 파라미터를 획득하는 단계; 및 상기 조도 보상 파라미터를 이용하여, 움직임 예측 복호화되는 현재 블록의 조도 보상을 처리하는 단계를 포함한다.According to an aspect of the present invention, there is provided a decoding method performed by a decoding apparatus, the decoding method comprising: a decoding step of decoding a current block on a current picture, which is composed of a plurality of REGIONs, Wherein the step of performing motion prediction decoding comprises: deriving a neighboring reference region corresponding to a region to which the current block belongs; Obtaining an illumination compensation parameter of the reference region; And processing the illumination compensation of the current block to be motion-predictively decoded using the illumination compensation parameter.

상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 복호화 장치에 있어서, 시간 또는 공간적으로 동기화된 복수의 리전(REGION)으로 구성되는 현재 픽처 상의 현재 블록의 움직임 예측 복호화를 수행하는 영상 복호화부; 및 상기 현재 블록이 속한 리전에 대응하여 이웃한 참조 리전을 도출하고, 상기 참조 리전의 조도 보상 파라미터를 획득하며, 상기 조도 보상 파라미터를 이용하여, 움직임 예측 복호화되는 현재 블록의 조도 보상을 처리하는 조도 보상 처리부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for performing motion prediction decoding on a current block on a current picture, the motion prediction decoding including a plurality of temporally or spatially synchronized REGIONs An image decoding unit; And deriving a neighboring reference region corresponding to the region to which the current block belongs, obtaining an illumination compensation parameter of the reference region, and processing the illumination intensity of the current block to be subjected to motion prediction decoding using the illumination compensation parameter And a compensation processing unit.

한편, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램 및 그 프로그램이 기록된 기록 매체로 구현될 수 있다.In order to solve the above problems, a method according to an embodiment of the present invention may be implemented by a program for executing the method in a computer and a recording medium on which the program is recorded.

본 발명의 실시 예에 따르면, 동기화된 다시점 영상으로부터 부호화 및 전송에 최적화된 공간적 구조 정보를 추출 및 시그널링하여, 영상의 전송 데이터량과 대역폭 및 복잡도를 효율적으로 감소시킬 수 있다.According to the embodiment of the present invention, the spatial data structure optimized for coding and transmission can be extracted and signaled from the synchronized multi-view image, thereby effectively reducing the transmission data amount, bandwidth, and complexity of the image.

또한, 복호화단에서는 동기화된 다시점 영상이 수신된 경우 상기 시그널링 정보에 따라 각 시점에 대한 최적화된 일부 및 선택적 복호화를 수행할 수 있게 됨으로써 시스템 낭비를 저감시킬 수 있어 복잡도 및 배터리 소모 측면에서도 효율적인 부호화/복호화 방법 및 장치를 제공할 수 있다.In addition, when a synchronized multi-view image is received in the decoding unit, it is possible to perform an optimized partial and selective decoding for each view according to the signaling information, thereby reducing the system waste. Thus, efficient encoding / Decoding method and apparatus.

그리고, 본 발명의 실시 예에 따르면 다양한 방식의 동기화된 영상에 대한 공간적 구조 정보를 지원할 수 있도록 하여 복호화 장치 스펙에 따라 적절한 영상 재생을 가능하게 하여, 장치 호환성을 향상시킬 수 있게 된다.In addition, according to the embodiment of the present invention, it is possible to support spatial structure information on various types of synchronized images, thereby enabling proper image reproduction according to the specifications of a decoding apparatus, thereby improving device compatibility.

또한, 본 발명은 동기화된 다시점 영상의 동기화된 시점영역 또는 리전별 도 조도 보상을 위한 조도 보상 파라미터를 이용하여, 움직임 보상 예측 블록 또는 움직임 보상된 블록에 적용하고 이에 대응하는 적응적 필터링을 처리함으로써, 조도 불일치를 사전에 방지하고, 이에 따라 주관적 화질을 크게 향상시킬 수 있는 장점이 있다.In addition, the present invention applies a motion compensated prediction block or a motion compensated block to a synchronized viewpoint region or a region-dependent illumination intensity compensation parameter for a synchronized multi viewpoint image, and processes the corresponding adaptive filtering Thereby, there is an advantage that roughness discrepancy can be prevented in advance, and the subjective image quality can be greatly improved.

도 1은 본 발명의 일실시예에 따른 전체 시스템 구조를 도시한다.
도 2는 본 발명의 일 실시 예에 따른 영상 부호화 장치의 구성을 나타내는 블록도이다.
도 3 내지 도 6은 본 발명의 실시 예에 따른 동기화된 다시점 영상의 공간적 구조의 일 예를 나타내는 도면이다.
도 7 내지 도 9는 본 발명의 다양한 실시 예에 따른 공간적 구조 정보의 시그널링 방법을 설명하기 위한 도면들이다.
도 10은 본 발명의 실시 예에 따른 공간적 구조 정보의 구성을 설명하기 위한 도면이다.
도 11은 본 발명의 실시 예에 따른 공간적 구조 정보의 타입 인덱스 테이블을 설명하기 위한 도면들이다.
도 12는 본 발명의 실시 예에 따른 복호화 방법을 설명하기 위한 흐름도이다.
도 13은 본 발명의 실시 예에 따른 복호화 시스템을 도시한 것이다.
도 14 내지 도 15는 본 발명의 실시 예에 따른 부호화 및 복호화 처리를 설명하기 위한 도면들이다.
도 16 내지 도 17은 본 발명의 실시 예에 따른 리전 파라미터 기반의 조도 보상을 처리하는 복호화 방법을 설명하기 위한 흐름도이다.
도 18은 본 발명의 실시 예에 따른 동기화된 다시점 영상의 리전 영역 및 공간적으로 이웃한 리전을 설명하기 위한 도면이다.
도 19는 본 발명의 실시 예에 따른 시간적으로 이웃한 리전을 설명하기 위한 도면이다.
도 20은 본 발명의 실시 예에 따른 리전 적응적 필터링을 설명하기 위한 도면이다.
1 shows an overall system architecture according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention.
3 to 6 are views showing an example of a spatial structure of a synchronized multi-view image according to an embodiment of the present invention.
7 to 9 are diagrams for explaining a signaling method of spatial structure information according to various embodiments of the present invention.
10 is a diagram for explaining a configuration of spatial structure information according to an embodiment of the present invention.
11 is a view for explaining a type index table of spatial structure information according to an embodiment of the present invention.
12 is a flowchart illustrating a decoding method according to an embodiment of the present invention.
13 illustrates a decoding system according to an embodiment of the present invention.
14 to 15 are diagrams for explaining encoding and decoding processing according to an embodiment of the present invention.
FIGS. 16 through 17 are flowcharts for explaining a decoding method for processing a region parameter-based roughness compensation according to an embodiment of the present invention.
18 is a diagram for explaining a region of a synchronized multi-view image and spatially neighboring regions according to an embodiment of the present invention.
19 is a diagram for explaining a temporally neighboring region according to an embodiment of the present invention.
20 is a view for explaining region adaptive filtering according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시 예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be understood, however, that the present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, the same reference numbers are used throughout the specification to refer to the same or like parts.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.Throughout this specification, when a part is referred to as being "connected" to another part, it is not limited to a case where it is "directly connected" but also includes the case where it is "electrically connected" do.

본원 명세서 전체에서, 어떤 부재가 다른 부재 상에 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is located on another member, this includes not only when a member is in contact with another member but also when another member is present between the two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 본원 명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본원의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본원 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.Throughout this specification, when an element is referred to as "including " an element, it is understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise. The terms "about "," substantially ", etc. used to the extent that they are used throughout the specification are intended to be taken to mean the approximation of the manufacturing and material tolerances inherent in the stated sense, Accurate or absolute numbers are used to help prevent unauthorized exploitation by unauthorized intruders of the referenced disclosure. The word " step (or step) "or" step "used to the extent that it is used throughout the specification does not mean" step for.

본원 명세서 전체에서, 마쿠시 형식의 표현에 포함된 이들의 조합의 용어는 마쿠시 형식의 표현에 기재된 구성 요소들로 이루어진 군에서 선택되는 하나 이상의 혼합 또는 조합을 의미하는 것으로서, 상기 구성 요소들로 이루어진 군에서 선택되는 하나 이상을 포함하는 것을 의미한다.Throughout the present specification, the term of a combination of these in the expression of a mark-up form means a combination or combination of at least one selected from the group consisting of the constituents described in the expression of the mark-up form, Quot; is meant to include one or more selected from the group consisting of

본 발명의 실시 예에서, 동기화된 영상을 부호화하는 방법의 일예로, 현재까지 개발된 비디오 부호화 표준 중에서 최고의 부호화 효율을 가지는 MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)에서 공동으로 표준화한 HEVC(High Efficiency Video Coding) 또는 현재 표준화가 진행 중인 부호화 기술을 이용하여 부호화를 수행할 수 있으나, 이에 한정되지는 아니한다.In an embodiment of the present invention, as an example of a method of encoding a synchronized image, standardized jointly by Moving Picture Experts Group (MPEG) and Video Coding Experts Group (VCEG) having the highest coding efficiency among the video coding standards developed so far Encoding may be performed using an HEVC (High Efficiency Video Coding) or a coding technique in progress of the current standardization, but the present invention is not limited thereto.

통상, 부호화 장치는 인코딩 과정과 디코딩 과정을 포함하고, 복호화 장치는 디코딩 과정을 구비한다. 복호화 장치의 디코딩 과정은 부호화 장치의 디코딩 과정과 동일하다. 따라서, 이하에서는 부호화 장치를 위주로 설명하나, 복호화 장치에 있어서도 동일한 프로세스가 역방향으로 적용될 수 있다.Generally, the encoding apparatus includes an encoding process and a decoding process, and the decoding apparatus has a decoding process. The decoding process of the decoding apparatus is the same as the decoding process of the encoding apparatus. Therefore, although the encoding apparatus will be mainly described below, the same process can also be applied to the decoding apparatus in the reverse direction.

도 1은 본 발명의 일실시예에 따른 전체 시스템 구조를 도시한다.1 shows an overall system architecture according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 전체 시스템은, 전처리 장치(10), 부호화 장치(100), 복호화 장치(200), 후처리 장치(20)를 포함한다.Referring to FIG. 1, an overall system according to an embodiment of the present invention includes a preprocessing apparatus 10, an encoding apparatus 100, a decrypting apparatus 200, and a post-processing apparatus 20.

본 발명의 실시 예에 따른 시스템은, 복수의 시점별 영상들을 병합 또는 스티치(stitch)등의 작업을 통해 전처리하여, 동기화된 비디오 프레임을 획득하는 전처리 장치(10)와, 상기 동기화된 비디오 프레임을 부호화하여 비트스트림을 출력하는 부호화 장치(100)와, 상기 비트스트림을 전송받아 상기 동기화된 비디오 프레임을 복호화하는 복호화 장치(200) 및 상기 비디오 프레임의 후처리를 통해 각 시점별 동기화된 영상이 각각의 디스플레이로 출력되도록 하는 후처리 장치(20)를 포함하여 구성될 수 있다.The system according to an embodiment of the present invention includes a preprocessing apparatus 10 for preprocessing a plurality of viewpoint images through an operation such as merging or stitching to obtain a synchronized video frame, And outputs the bit stream; a decoding unit (200) for decoding the synchronized video frame by receiving the bit stream; and a decoding unit And a post-processing device 20 for outputting the output of the post-processing device 20 to the display device.

여기서, 입력 영상은 다시점별 개별 영상을 포함할 수 있으며, 예를 들어 하나 이상의 카메라가 시간 및 공간 동기화된 상태에서 촬영되는 다양한 시점의 서브 이미지 정보를 포함할 수 있다. 이에 따라 전처리 장치(10)는 취득된 다시점 서브 이미지 정보를 시간에 따라 공간적 병합 또는 스티치 처리함으로써 동기화된 영상 정보를 획득할 수 있다.Here, the input image may include a separate individual image, for example, sub-image information at various time points, in which one or more cameras are photographed in time and space synchronized state. Accordingly, the preprocessing apparatus 10 can acquire the synchronized image information by spatially merging or stitching the acquired multi-view sub-image information according to time.

그리고, 부호화 장치(100)는 상기 동기화된 영상 정보를 스캐닝 및 예측 부호화하여 비트스트림을 생성하며, 생성된 비트스트림은 복호화 장치(200)로 전송될 수 있다. 특히, 본 발명의 실시 예에 따른 부호화 장치(100)는 상기 동기화된 영상 정보로부터 공간적 구조 정보를 추출할 수 있으며, 복호화 장치(200)로 시그널링할 수 있다.The encoding apparatus 100 scans and predictively encodes the synchronized image information to generate a bitstream, and the generated bitstream can be transmitted to the decoding apparatus 200. In particular, the encoding apparatus 100 according to the embodiment of the present invention can extract spatial structure information from the synchronized image information, and can signal the signal to the decoding apparatus 200.

여기서 공간적 구조 정보(spatial layout information)는 상기 전처리 장치(10)로부터 하나 이상의 서브 이미지들이 병합되어 하나의 비디오 프레임으로 구성됨에 따라, 각각의 서브 이미지들의 속성 및 배치에 대한 기본 정보를 포함할 수 있다. 또한, 각 서브 이미지들 및 서브 이미지들간 관계에 대한 부가 정보를 더 포함할 수 있으며, 이에 대하여는 후술하도록 한다.Here, the spatial layout information may include basic information about the attributes and the layout of each sub-image, as one or more sub-images are merged into one video frame from the preprocessing apparatus 10 . Further, it may further include additional information on the relationship between each of the sub images and the sub images, which will be described later.

이에 따라, 본 발명의 실시 예에 따른 공간적 구조 정보가 복호화 장치(200)로 전달될 수 있다. 그리고, 복호화 장치(200)는 공간적 구조 정보와, 사용자 시점 정보를 참조하여 비트스트림의 복호화 대상 및 복호화 순서를 결정할 수 있으며, 이는 효율적인 복호화를 유도할 수 있다.Accordingly, the spatial structure information according to the embodiment of the present invention can be transmitted to the decoding apparatus 200. Then, the decoding apparatus 200 can determine the decoding target and decoding order of the bitstream by referring to the spatial structure information and the user viewpoint information, which can lead to efficient decoding.

그리고, 복호화된 비디오 프레임은 다시 후처리 장치(20)를 통해 각각의 디스플레이별 서브 이미지로 분리되어 HMD 와 같은 복수의 동기화된 디스플레이 시스템으로 제공되며, 이에 따라 사용자는 가상 현실과 같이 현실감있는 동기화된 다시점 영상을 제공받을 수 있게 된다.Then, the decoded video frame is divided into sub-images for each display through the post-processing device 20 and provided to a plurality of synchronized display systems such as an HMD, A multi-view image can be provided.

도 2는 본 발명의 일 실시 예에 따른 영상 부호화 장치의 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 부호화 장치(100)는 동기화된 다시점 영상 획득부(110), 공간적 구조 정보 생성부(120), 공간적 구조 정보 시그널링부(130), 영상 부호화부(140), 조도 보상 처리부(145) 및 전송 처리부(150)를 포함한다.2, an encoding apparatus 100 according to an exemplary embodiment of the present invention includes a synchronized multi-view image acquisition unit 110, a spatial structure information generation unit 120, a spatial structure information signaling unit 130, A luminance compensation processing unit 145, and a transmission processing unit 150. [0031]

동기화된 다시점 영상 획득부(110)는 360도 카메라와 같은 동기화된 다시점 영상 획득 수단을 이용하여 동기화된 다시점 영상을 획득한다. 동기화된 다시점 영상은 시간 및 공간 동기화된 복수의 서브 이미지를 포함할 수 있으며, 전처리 장치(10)로부터 수신되거나 별도의 외부 입력 장치로부터 수신될 수도 있다.The synchronized multi-view image acquisition unit 110 acquires a synchronized multi-view image using synchronized multi-view image acquisition means such as a 360-degree camera. The synchronized multi-view image may include a plurality of time-and-space-synchronized subimages and may be received from the preprocessor 10 or may be received from a separate external input device.

그리고, 공간적 구조 정보 생성부(120)는 상기 동기화된 다시점 영상을 시간 단위의 비디오 프레임으로 분할하고, 상기 비디오 프레임에 대한 공간적 구조 정보를 추출한다. 공간적 구조 정보는 각각의 서브 이미지들의 속성 및 배치 상태에 따라 결정될 수 있으며, 전처리 장치(10)로부터 획득되는 정보에 따라 결정될 수도 있다.The spatial structure information generation unit 120 divides the synchronized multi-view image into video frames in units of time, and extracts spatial structure information on the video frames. The spatial structure information may be determined according to the attributes and arrangement state of the respective sub images, and may be determined according to information obtained from the preprocessing apparatus 10. [

그리고, 공간적 구조 정보 시그널링부(130)는 상기 공간적 구조 정보를 복호화 장치(200)로 시그널링하기 위한 정보 처리를 수행한다. 예를 들어, 공간적 구조 정보 시그널링부(130)는 영상 부호화부에서 부호화된 영상 데이터에 포함시키거나, 별도의 데이터 포맷을 구성하거나, 부호화된 영상의 메타데이터에 포함시키기 위한 하나 이상의 프로세스를 수행할 수 있다.The spatial structure information signaling unit 130 performs information processing for signaling the spatial structure information to the decoding apparatus 200. For example, the spatial structure information signaling unit 130 may perform one or more processes to be included in the image data encoded by the image encoding unit, to construct a separate data format, or to include the metadata in the metadata of the encoded image .

그리고, 영상 부호화부(140)는 동기화된 다시점 영상을 시간 흐름에 따라 부호화한다. 또한, 영상 부호화부(140)는 공간적 구조 정보 생성부(120)에서 생성되는 공간적 구조 정보를 참조 정보로 이용하여, 영상 스캐닝 순서 및 참조 이미지 등을 결정할 수 있다.Then, the image encoding unit 140 encodes the synchronized multi-view image according to the time flow. Also, the image encoding unit 140 can use the spatial structure information generated by the spatial structure information generation unit 120 as reference information to determine an image scanning order, a reference image, and the like.

따라서, 영상 부호화부(140)는 전술한 바와 같이 HEVC(High Efficiency Video Coding)를 이용하여 부호화를 수행할 수 있으나, 공간적 구조 정보에 따라, 동기화된 다시점 영상에 대해 보다 효율적인 방식으로 개선될 수 있다.Accordingly, although the image encoding unit 140 can perform encoding using HEVC (High Efficiency Video Coding) as described above, it can be improved in a more efficient manner for the synchronized multi-view image according to the spatial structure information have.

그리고, 조도 보상 처리부(145)는 상기 영상 부호화부(140)에서 처리되는 영상 부호화에 있어서, 현재 픽처 상의 현재 블록의 움직임 예측 복호화가 수행되는 경우, 상기 현재 블록이 속한 리전에 대응하여 이웃한 참조 리전을 도출하고, 상기 참조 리전의 조도 보상 파라미터를 획득하며, 상기 조도 보상 파라미터를 이용하여, 움직임 예측 복호화되는 현재 블록의 조도 보상을 처리한다.When the motion prediction decoding of the current block on the current picture is performed in the image coding process performed by the image coding unit 140, the luminance compensation processing unit 145 performs a luminance compensation process on the neighboring reference Derives a region, obtains a luminance compensation parameter of the reference region, and processes luminance compensation of a current block to be motion-predictively decoded using the luminance compensation parameter.

여기서, 상기 전처리 장치(10)에서 처리되어 시간 또는 공간적으로 동기화된 상기 서브 이미지들은 복수의 리전(REGION)으로 구성되는 각 픽처상에 배치될 수 있다. 각 서브 이미지들은 서로 다른 카메라 등을 통해 취득되어 전처리 장치(10)에서의 영상 처리에 따라 스티칭 및 병합될 수 있다. 그러나, 상기 각 카메라를 통해 취득된 서브 이미지들은 촬영 당시의 외부 환경 등에 의해 전체적 밝기가 통일되지 못할 수 잇으며, 따라서 불일치에 따른 주관적 화질 저하와 부호화 효율 감소가 발생될 수 있다.Here, the sub images processed in the preprocessing apparatus 10 and synchronized in time or spatially may be arranged on each picture composed of a plurality of REGIONs. Each of the sub images may be acquired through a different camera or the like, and may be stitched and merged according to image processing in the preprocessing apparatus 10. [ However, the sub-images acquired through each of the cameras may not be uniform in overall brightness due to the external environment at the time of shooting, so that subjective image quality degradation and coding efficiency may be reduced due to inconsistencies.

이에 따라, 본 발명의 실시 예에서는 스티칭 및 병합 배치되는 서브 이미지의 영역을 리전(REGION) 이라고 부를 수 있으며, 조도 보상 처리부(145)는 영상 부호화부(140)의 부호화에 있어서, 현재 리전에 대해 상기와 같은 시간 또는 공간적으로 이웃한 리전 에 대해 획득되는 조도 보상 파라미터 기반의 조도 보상 처리를 수행함으로써 서로 다른 카메라에 의해 발생되는 조도의 불일치를 보상하고, 이에 따른 화질 향상 및 부호화 효율 향상 효과를 얻을 수 있다.Accordingly, in the embodiment of the present invention, the region of the sub-image stitched and merged may be referred to as a REGION, and the illumination compensation processing unit 145 may be configured such that in the encoding of the image encoding unit 140, By performing the roughness compensation process based on the roughness compensation parameters obtained for the temporally or spatially adjacent regions as described above, it is possible to compensate for the inconsistency of illumination caused by different cameras, thereby improving the picture quality and improving the coding efficiency .

특히, 전처리 장치(10)의 병합 및 스티칭 방식에 따라 특정 시간에 동기화된 각 픽처의 레이아웃이 결정될 수 있다. 이에 따라, 특정 픽처 내 각 리전간에는 레이아웃에 의해 공간적으로 서로 이웃하는 관계를 갖거나, 서로 다른 픽처의 동일 위치의 리전간에는 시간적으로 서로 이웃하는 관계를 가질 수 있으며, 조도 보상 처리부(145)는 이와 같은 이웃 관계 정보를 영상 정보의 공간적 구조 정보로부터 획득하거나, 또는 영상 부호화부(140)로부터 획득할 수 있다.In particular, the layout of each picture synchronized at a specific time can be determined according to the merging and stitching method of the preprocessing apparatus 10. [ Accordingly, the respective regions in a specific picture may have a spatially mutually neighboring relationship by layout, or a temporally mutually adjacent relationship between regions at the same position in different pictures, and the illumination compensation processing unit 145 The same neighbor relationship information can be obtained from the spatial structure information of the image information or can be obtained from the image encoding unit 140. [

따라서, 조도 보상 처리부(145)는 현재 리전에 대응되는 이웃 리전 정보와, 상기 이웃 리전 정보에 대응되는 상기 조도 보상 파라미터를 결정하고, 이에 따라 영상 부호화부(140)로부터 식별되는 복호화 블록에 대한 조도 보상 처리를 수행할 수 있다.Accordingly, the illumination compensation processing unit 145 determines the neighbor region information corresponding to the current region and the illumination compensation parameter corresponding to the neighbor region information, and accordingly determines the illuminance for the decoding block identified from the image encoding unit 140 Compensation processing can be performed.

특히 본 발명의 실시 예에 따르면, 바람직하게 조도 보상 처리는 영상 부호화부(140)의 움직임 보상 처리에 적용될 수 있다. 상기 영상 부호화부(140)는 움직임 예측 샘플 또는 움직임 보상에 따라 움직임 예측 샘플과 정합 복원된 블록 정보를 조도 보상 처리부(145)로 전달할 수 있으며, 조도 보상 처리부(145)는 이웃 리전 정보와 조도 보상 파라미터에 따라 움직임 예측 샘플 또는 움직임 보상에 따라 움직임 예측 샘플과 정합 복원된 블록에 대한 조도 보상 처리를 수행할 수 있다.Particularly, according to the embodiment of the present invention, the luminance compensation process can be applied to the motion compensation process of the image coding unit 140. The image encoding unit 140 may transmit the motion prediction sample or the block information matched and restored with the motion prediction sample according to the motion compensation to the illumination compensation processing unit 145. The illumination compensation processing unit 145 may include the neighbor region information, It is possible to perform the illumination compensation process for the block that is matched with the motion prediction sample according to the motion prediction sample or the motion compensation according to the parameter.

보다 구체적으로, 조도 보상 파라미터는 참조 대상 리전에 대응하여 미리 산출되는 조도 스케일 정보 및 조도 오프셋 정보를 포함할 수 있다. 조도 보상 처리부(145)는 상기 조도 스케일 정보와 상기 조도 오프셋 정보를 상기 움직임 예측 샘플 또는 정합 복원된 블록에 대해 적용하여, 조도 보상 처리된 움직임 예측 샘플 또는 정합 복원된 블록을 영상 부호화부(140)로 전달할 수 있다.More specifically, the roughness compensation parameter may include roughness scale information and roughness offset information calculated in advance corresponding to the reference target region. The roughness compensation processing unit 145 applies the roughness scale information and the roughness offset information to the motion prediction samples or the matched and restored blocks, and outputs the roughness-compensated motion prediction samples or the matched and restored blocks to the image encoding unit 140. [ .

또한, 조도 보상 처리부(145)는 전송 처리부(150)를 통해 상기 이웃 리전 정보 및 상기 조도 보상 파라미터 중 적어도 하나를 복호화 장치(200) 또는 후처리 장치(20)로 시그널링할 수 있다. 이에 따른 복호화 장치(200) 또는 후처리 장치(20)의 동작은 후술하도록 한다.In addition, the illumination compensation processing unit 145 can signal at least one of the neighbor region information and the illumination compensation parameter to the decoding apparatus 200 or the post-processing apparatus 20 through the transmission processing unit 150. The operation of the decoding apparatus 200 or the post-processing apparatus 20 will be described later.

그리고, 전송 처리부(150)는 부호화된 영상 데이터와, 상기 공간적 구조 정보 시그널링부(130)로부터 삽입된 공간적 구조 정보와, 상기 이웃 리전 정보 또는 상기 조도 보상 파라미터를 결합하여 복호화 장치(200) 또는 후처리 장치(20)로 전송하기 위한 하나 이상의 변환 및 송신 처리를 수행할 수 있다.The transmission processing unit 150 combines the encoded image data, the spatial structure information inserted from the spatial structure information signaling unit 130, and the neighboring region information or the roughness compensation parameter, And may perform one or more conversion and transmission processing for transmission to the processing device 20. [

도 3 내지 도 6은 본 발명의 실시 예에 따른 동기화된 다시점 영상의 공간적 구조 및 영상 구성의 일 예를 나타내는 도면이다.3 to 6 are views showing an example of a spatial structure and an image configuration of a synchronized multi-view image according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시 예에 따른 다시점 영상은 시간적 동기화 및 공간적 동기화된 복수의 영상 프레임을 포함할 수 있다.Referring to FIG. 3, a multi-view image according to an exemplary embodiment of the present invention may include a plurality of temporally synchronized and spatially synchronized image frames.

각각의 프레임은 고유의 공간적 구조(Spatial layout)에 따라 동기화될 수 있으며, 동일한 시간에 표시될 하나 이상의 Scene, Perspective 또는 View 에 대응되는 서브 이미지의 레이아웃을 구성할 수 있다.Each frame can be synchronized according to its own spatial layout and can form a layout of sub-images corresponding to one or more scenes, perspectives or views to be displayed at the same time.

이에 따라, 공간적 구조 정보(Spatial layout information)는 동기화된 다시점 영상을 구성하는 각각의 서브 이미지들이 병합, 스티치(Stitch) 등을 통해 하나의 입력 영상으로 구성되거나 동시간 다시점 영상(예를 들어, 동일한 시간으로 동기화된 복수의 영상으로서, 동일한 POC 내에 대응되는 다양한 View에 대응)이 입력 영상으로 구성되는 경우에, 상기 다시점 영상 또는 서브 이미지들의 배치 정보, 캡쳐 카메라의 위치 정보 및 각도 정보, 병합 정보, 서브 이미지의 개수 정보, 스캐닝 순서 정보, 취득 시간 정보, 카메라 파라미터 정보, 서브 이미지들 간의 참조 의존성 정보 등 서브 이미지와 그 관계 정보를 포함할 수 있다.Accordingly, the spatial layout information may be configured such that each sub-image constituting the synchronized multi-view image is composed of one input image through merging, stitching or the like, Point images or sub-images, positional information and angle information of the captured camera, and position information of the captured camera when the input image is composed of a plurality of images synchronized at the same time and corresponding to various views corresponding to the same POC) Image information, merging information, number of sub images, scanning order information, acquisition time information, camera parameter information, reference dependency information between sub images, and the like.

예를 들어, 도 4에 도시된 바와 같이 다이버전트(divergent) 형태의 카메라 배열을 통해 영상 정보가 촬영될 수 있으며, 배열 영상에 대한 스티치처리(stiching)를 통해, 360도 관찰 가능한 공간영상을 구성할 수 있다.For example, as shown in FIG. 4, image information can be photographed through a divergent camera array, and a 360-degree viewable spatial image can be formed through stiching of an array image can do.

도 4에 도시된 바와 같이, 각 카메라 배열 A, B, C ... 에 대응하여 촬영된 영상 A', B', C', ...들이 1차원 또는 2차원 공간적 구조에 따라 배치될 수 있으며, 배열된 영상들간의 스티치 처리를 위한 좌우, 상하 영역 관계 정보가 공간적 구조 정보로서 예시될 수 있다.As shown in FIG. 4, the images A ', B', C ', ... photographed corresponding to the respective camera arrays A, B, C ... can be arranged in a one- And left and right and top and bottom area relationship information for stitch processing between arranged images can be exemplified as spatial structure information.

이에 따라, 공간적 구조 정보 생성부(120)는 상기와 같은 다양한 속성을 포함하는 공간적 구조 정보를 입력 영상으로부터 추출할 수 있으며, 공간적 구조 정보 시그널링부(130)는 상기 공간적 구조 정보를 후술할 최적화된 방법으로 시그널링할 수 있다.Accordingly, the spatial structure information generation unit 120 can extract the spatial structure information including the various attributes from the input image, and the spatial structure information signaling unit 130 may convert the spatial structure information into an optimized Signaling method.

이와 같이 생성 및 시그널링되는 공간적 구조 정보는 전술한 바와 같이 유용한 참조 정보로 활용 될 수 있다.The spatial structure information generated and signaled as described above can be utilized as useful reference information as described above.

예를 들어, 각 카메라를 통해 촬영된 컨텐트가 pre-stitched된 이미지라 하면, 인코딩 이전에 상기 각 pre-stiched 이미지들이 오버랩되어 하나의 scene을 구성하게 된다. 반면, 상기 scene은 각 view에 따라 분리될 수 있으며, 타입에 따라 각 분리되는 이미지간 상호 보상이 이루어질 수 있다.For example, if the content photographed through each camera is a pre-stitched image, each of the pre-stitched images is overlapped before encoding to form one scene. On the other hand, the scene can be divided according to each view, and mutual compensation can be performed between the separated images according to the type.

이에 따라, 다시점에서 촬영한 하나 이상의 영상을 전처리 과정에서 하나의 이미지로 병합 및 Stitching 하여 인코더의 입력으로 전달하는 Pre-stitched image의 경우, 병합 및 Stitching된 입력 영상의 장면 정보, 공간적 레이아웃 구성 정보 등은 별도의 공간적 구조 정보 시그널링을 통해 인코딩 단계 및 디코딩 단계에 전달될 수 있다.Accordingly, in the case of a pre-stitched image in which one or more images photographed at a plurality of points are merged and stitched into one image in the preprocessing process and transmitted to the input of the encoder, the scene information of the merged and stitched input image, Etc. may be transferred to the encoding step and the decoding step through separate spatial structure information signaling.

또한, 다시점에서 취득된 영상들이 시간적으로 동기화된 시점의 하나 이상의 입력 영상으로 전달되어 부호화 및 복호화 되는 Non-stitched image 영상 타입의 경우에도, 부호화 및 복호화 단계에서 상기 공간적 구조 정보에 따라 참조 및 보상될 수 있다.이를 위해, 다양한 공간적 레이아웃 정보 및 이에 대응하는 데이터 필드가 필요할 수 있다. 그리고, 데이터 필드는 입력 영상의 압축정보와 함께 부호화되거나, 별도의 메타데이터에 포함되어 전송될 수 있다.Also, even in the case of a non-stitched image image type in which the images obtained from the multi-viewpoints are transmitted to one or more input images at a time synchronized with time and are encoded and decoded, reference and compensation are performed according to the spatial structure information in the encoding and decoding step To this end, various spatial layout information and corresponding data fields may be needed. The data field may be encoded together with the compression information of the input image, or may be included in separate metadata and transmitted.

또한, 공간적 레이아웃 정보를 포함하는 데이터 필드는 영상의 후처리 장치(20) 및 디스플레이의 렌더링 프로세스에서도 활용될 수 있다.Further, the data field including the spatial layout information can be utilized in the rendering process of the image post-processing apparatus 20 and the display.

이를 위해, 공간적 레이아웃 정보를 포함하는 데이터 필드는 각 카메라로부터의 영상 취득 당시 획득된 위치 좌표 정보 및 색차 정보를 포함할 수 있다.To this end, the data field including the spatial layout information may include position coordinate information and chrominance information obtained at the time of capturing an image from each camera.

예를 들어, 각 카메라로부터 영상 정보의 취득 당시 획득한 영상의 3차원 좌표 정보 및 색차 정보 (X, Y, Z), (R, G, B)등의 정보가 각각의 서브 이미지들에 대한 부가 정보로 획득 및 전달 될 수 있으며, 이러한 정보는 복호화를 수행한 이후, 영상의 후처리 및 렌더링 과정에서 활용될 수 있다.For example, when three-dimensional coordinate information and chrominance information (X, Y, Z), (R, G, B) of an image acquired at the time of acquiring image information from each camera are added to each sub- Information, and this information can be utilized in the post-processing and rendering process of the image after performing decoding.

또한, 공간적 레이아웃 정보를 포함하는 데이터 필드는 각 카메라의 카메라 정보를 포함할 수 있다.Further, the data field including the spatial layout information may include camera information of each camera.

도 5 내지 도 6에 도시된 바와 같이, 3차원 공간을 촬영하여 공간 영상을 제공하는 하나 이상의 카메라가 배치될 수 있다.As shown in FIGS. 5 to 6, one or more cameras for photographing a three-dimensional space and providing a spatial image may be disposed.

예를 들어, 도 5에 도시된 바와 같이, 영상 획득시 3차원 공간 안에서의 한 지점에서 주변의 사물들을 취득하는 형태로 하나 이상의 카메라의 위치가 중앙 위치에 고정되고 각각의 방향이 설정될 수 있다.For example, as shown in Fig. 5, the position of one or more cameras may be fixed at a central position and each direction may be set in such a manner as to acquire surrounding objects at one point in a three-dimensional space at the time of image acquisition .

또한, 도 6에 도시된 바와 같이, 하나 이상의 카메라는 하나의 오브젝트를 다양한 각도에서 촬영하는 형태로 배치될 수 있다. 이 때, 영상 획득 당시의 좌표 정보(X, Y, Z)와 거리 정보 등을 기반으로 3차원 영상을 재생할 VR 디스플레이 디바이스에서는 사용자의 움직임 정보(Up/Down, Left/Right, Zoom in/Zoom Out) 등을 분석하고, 이에 대응되는 영상의 일부분을 복호화 하거나 후처리하여 사용자가 원하는 시점 또는 부분 영상을 복원할 수 있게 된다.한편, 전술한 바와 같이, VR 영상으로 예시되는 동기화된 다시점 영상의 압축, 전송, 재생 등의 시스템에 있어서, 영상의 타입이나 특성, 복호화 장치의 특성 등에 따라 별도의 영상 변환 툴 모듈 등이 필요한 부분에 추가될 수 있다.Further, as shown in FIG. 6, one or more cameras may be arranged in such a manner as to photograph one object at various angles. At this time, in the VR display device that reproduces the 3D image based on the coordinate information (X, Y, Z) and the distance information at the time of image acquisition, the user's motion information (Up / Down, Left / Right, Zoom in / Zoom Out ), And the like, and decodes or post-processes a part of the corresponding image, thereby enabling a user to restore a desired point-in-time or partial image. As described above, the synchronized multi- In a system such as compression, transmission, reproduction, etc., a separate image conversion tool module or the like may be added to a portion required depending on the type and characteristics of an image, characteristics of a decoding apparatus, and the like.

예를 들어, 영상 부호화부(140)는 카메라로부터 취득된 영상이 Equirectangular 타입일 때, 영상의 압축 성능 및 부호화 효율 등에 따라 변환 툴 모듈을 통해 Icosahedron/Cube Map 등과 같은 방식의 영상 타입으로 변환하고, 이를 통한 부호화를 수행할 수 있다. 이때의 변환 툴 모듈은 전처리 장치(10) 및 후처리 장치(20)에서도 활용될 수 있으며, 변환에 따른 변환 정보가 상기 공간적 구조 정보등에 포함되어 메타데이터 형식으로 복호화 장치(200) 또는 후처리 장치(20)나 VR 디스플레이 장치로 전달될 수 있다.For example, when the image obtained from the camera is Equirectangular type, the image encoding unit 140 converts the image type into a video type such as Icosahedron / Cube Map through a conversion tool module according to the compression performance and encoding efficiency of the image, So that the encoding can be performed through this. The conversion tool module may be used in the preprocessing apparatus 10 and the post-processing apparatus 20. The conversion information according to the conversion may be included in the spatial structure information, (20) or a VR display device.

한편, 본 발명의 실시 예에 따른 동기화된 다시점 영상을 전달하기 위해, 부호화 장치(100) 및 복호화 장치(200)간 스케일가능성(Scalability)을 지원하기 위한 별도 VR 영상 압축방식이 필요할 수 있다.Meanwhile, in order to transfer the synchronized multi-view image according to the embodiment of the present invention, a separate VR image compression scheme for supporting the scalability between the encoding apparatus 100 and the decoding apparatus 200 may be required.

이에 따라, 부호화 장치(100)는 VR 영상을 스케일 가능하게 압축하기 위해, 기본 계층과 향상 계층을 구분하는 방식으로 영상을 압축 부호화 할 수 있다.Accordingly, in order to compress the VR image in a scalable manner, the encoding apparatus 100 can compression-encode the image in a manner that distinguishes between the base layer and the enhancement layer.

이러한 방법으로는 한 장의 입력 영상이 다양한 카메라를 통해 취득된 고해상도 VR 영상을 압축 함에 있어, 기본 계층에서는 원본 영상에 대한 압축을 수행하고, 향상 계층에서는 한 장의 픽쳐를 Slice / Tile 등과 같이 영역을 분할하여 각 서브 이미지별로 부호화를 수행할 수 있다.In this method, in compressing a high-resolution VR image obtained by a single input image from various cameras, the base layer compresses the original image, and in the enhancement layer, a single picture is divided into regions such as Slice / Tile Thereby performing encoding for each sub-image.

이 때, 부호화 장치(100)는 기본 계층의 복원 영상을 참조 영상으로 활용하여 부호화 효율을 높이는 계층간 예측 기법 (Inter layer prediction)을 통해 압축 부호화를 처리할 수 있다.At this time, the encoding apparatus 100 can perform compression encoding through inter layer prediction, which improves the coding efficiency by using the restored image of the base layer as a reference image.

한편, 복호화 장치(200)에서는 기본 계층을 복호화 하면서, 사용자의 움직임 등에 따라 특정 영상을 빠르게 복호화해야 할 때, 향상 계층의 일부 영역을 복호화 하여, 사용자 움직임에 따른 일부 영상 복호화를 빠르게 수행할 수 있다.On the other hand, when the base layer is decoded and the specific image is to be decoded rapidly according to the motion of the user, the decryption unit 200 can decode a part of the enhancement layer and perform partial image decryption according to the user's motion .

이와 같이 스케일 가능한(Scalability) 압축 방식에 있어, 부호화 장치(100)는 기본 계층을 부호화하되, 기본 계층에서는 원본 영상을 임의의 비율로 스케일 다운(Scale down) 또는 다운 샘플링(Down sampling)등을 수행하여 압축할 수 있다. 이때 향상 계층에서는 기본 계층의 복원 영상에 대한 스케일 업(Scale Up) 또는 업 샘플링(Up sampling) 등을 통해 동일한 해상도로 영상의 사이즈를 조절하고, 이에 대응되는 기본 계층의 복원 영상을 참조 픽쳐로 활용함으로써 부/복호화를 수행할 수 있다.In the scalable compression method, the encoding apparatus 100 encodes the base layer. In the base layer, the original image is scaled down or down-sampled at an arbitrary ratio . At this time, in the enhancement layer, the size of the image is adjusted with the same resolution through Scale Up or Upsampling of the restored image of the base layer, and the restored image of the base layer corresponding thereto is utilized as a reference picture Decoding / decoding can be performed.

이러한 스케일가능성(Scalability)을 지원하는 처리 구조에 따라, 복호화 장치(200)는 낮은 비트 또는 저해상도로 압축된 기본 계층의 전체 비트스트림을 복호화 하고, 사용자의 움직임에 따라 전체 비트스트림 중 일부 영상만을 향상 계층으로 복호화 할 수 있다. 또한, 전체 영상에 대한 복호화를 전부 수행하지는 않기 때문에 낮은 복잡도만으로도 VR 영상을 복원할 수 있게 된다.According to the processing structure supporting such scalability, the decoding apparatus 200 decodes the entire bitstream of the base layer compressed with a low bit or a low resolution, and only enhances some of the entire bitstream according to the motion of the user It can be decoded into a layer. In addition, since decoding of the entire image is not performed, it is possible to restore the VR image with low complexity.

또한, 해상도가 다른 별도의 스케일가능성(Scalability)을 지원하는 영상 압축 방식에 따라, 부호화 장치(100)는 기본 계층에서 원본 영상 또는 영상 제작자의 의도에 따른 영상에 대한 압축을 수행할 수 있으며, 향상 계층에서 기본 계층의 복원 영상을 참조하여 부호화를 수행하는 계층간 예측 방식을 기반으로 부호화를 수행할 수 있다.In addition, according to an image compression method that supports a separate scalability with different resolutions, the encoding device 100 can compress an original image or an image according to the intention of the image creator in the base layer, Layer prediction method for performing coding by referring to a reconstructed image of a base layer in a layer.

이 때, 향상 계층의 입력 영상은 한 장의 입력 영상을 영상 분할 방법을 통해 분할하여 복수 개의 영역으로 부호화한 영상일 수 있다. 하나의 분할된 영역은 최대 하나의 서브 이미지를 포함할 수 있으며, 복수개의 분할 영역이 하나의 서브 이미지로 구성될 수 있다. 이러한 분할 방법을 통해 부호화 된 압축 비트스트림은 서비스 및 어플리케이션 단계에서 2개 이상의 출력을 처리할 수 있게 된다. 예를 들어, 서비스에서는 기본 계층에 대한 복호화를 통해 전체 영상을 복원 및 출력을 수행하고, 향상 계층에서는 서비스 또는 어플리케이션을 통한 사용자의 움직임, 시점 변화 및 조작 등을 반영하여 일부 영역 및 일부 서브 이미지만을 복호화 할 수 있다.In this case, the input image of the enhancement layer may be an image obtained by dividing a single input image by an image segmentation method and encoding the input image into a plurality of regions. One divided area may include at most one subimage, and a plurality of divided areas may be composed of one subimage. The compressed bitstream encoded through this division method can process two or more outputs in the service and application stages. For example, in the service, the entire image is restored and output through decryption of the base layer. In the enhancement layer, only a part of the sub-image and a sub-image It can be decoded.

도 7 내지 도 9는 본 발명의 다양한 실시 예에 따른 공간적 구조 정보의 시그널링 방법을 설명하기 위한 도면들이다.7 to 9 are diagrams for explaining a signaling method of spatial structure information according to various embodiments of the present invention.

도 7 내지 도 9에 도시된 바와 같이, 공간적 구조 정보는 일반적 영상 부호화에 있어서, 부호화 파라미터로 정의되는 SPS(SEQUENCE PARAMETER SET) 또는 VPS(VIDEO PARAMETER SET)과 같은 HLS상에 NAL(NETWORK ABSTRACTION LAYER) UNIT 형식의 하나의 클래스 타입으로 시그널링 될 수 있다.As shown in FIGS. 7 to 9, the spatial structure information includes a NAL (NETWORK ABSTRACTION LAYER) on HLS such as a SPS (Sequence Parameter Set) or VPS (VIDEO PARAMETER SET) It can be signaled as one class type of UNIT type.

먼저, 도 7은 본 발명의 실시 예에 따른 동기화된 영상 부호화 플래그가 삽입되는 NAL UNIT 타입을 도시한 것으로, 예를 들어, VPS(VIDEO PARAMETER SET) 등에 본 발명의 실시 예에 따른 동기화된 영상 부호화 플래그가 삽입될 수 있다.FIG. 7 illustrates a NAL UNIT type in which a synchronized image encoding flag is inserted according to an embodiment of the present invention. For example, in FIG. 7, a synchronized image encoding method according to an embodiment of the present invention, such as a VIDEO PARAMETER SET A flag can be inserted.

이에 따라, 도 8은 본 발명의 실시 예에 따른 공간적 구조 정보 플래그를 VPS(VIDEO PARAMETER SET)에 삽입하는 실시 예를 도시한 것이다.Accordingly, FIG. 8 illustrates an embodiment of inserting a spatial structure information flag into a VPS (VIDEO PARAMETER SET) according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 본 발명의 실시 예에 따른 공간적 구조 정보 시그널링부(130)는, VPS 상에 별도의 입력 영상의 종류 확인을 위한 플래그를 삽입할 수 있다. 부호화 장치(100)는 공간적 구조 정보 시그널링부(130)를 통해, vps_other_type_coding_flag를 이용하여 VR 콘텐츠와 같은 동기화된 다시점 영상 부호화가 수행되고, 공간적 구조 정보가 시그널링됨을 나타내는 플래그를 삽입할 수 있다.As shown in FIG. 8, the spatial structure information signaling unit 130 according to the embodiment of the present invention may insert a flag for identifying the type of a separate input image on the VPS. The encoding apparatus 100 may insert a flag indicating that the synchronized multi-view image encoding such as the VR content is performed using the vps_other_type_coding_flag through the spatial structure information signaling unit 130 and the spatial structure information is signaled.

또한, 도 9에 도시된 바와 같이 본 발명의 실시 예에 따른 공간적 구조 정보 시그널링부(130)는 SPS(SEQUENCE PARAMETER SET) 상에 다시점 동기화된 영상 부호화된 영상임을 시그널링할 수 있다.In addition, as shown in FIG. 9, the spatial structure information signaling unit 130 according to an embodiment of the present invention can signal that the image is a multi-view synchronized image on an SPS (Sequence Parameter Set).

예를 들어, 도 9에 도시된 바와 같이 공간적 구조 정보 시그널링부(130)는 입력 영상의 타입(INPUT_IMAGE_TYPE)을 삽입함으로써, 동기화된 다시점 영상의 인덱스 정보가 SPS에 포함되어 전송될 수 있다.For example, as shown in FIG. 9, the spatial structure information signaling unit 130 inserts the input image type (INPUT_IMAGE_TYPE) so that the index information of the synchronized multi-view image is included in the SPS and can be transmitted.

여기서, SPS상 INPUT_IMAGE_TYPE_INDEX가 -1이 아닌 경우, 또는 INDEX 값이 -1인 경우, 또는 그 값이 0으로 지정되어 의미적으로 -1에 대응될 경우 INPUT_IMAGE_TYPE이 본 발명의 실시 예에 따른 동기화된 다시점 영상임을 나타낼 수 있다.Here, if the INPUT_IMAGE_TYPE_INDEX on the SPS is not -1, or the INDEX value is -1, or if its value is designated as 0 and corresponds semantically to -1, then INPUT_IMAGE_TYPE is set to be synchronized again according to the embodiment of the present invention Point image.

또한, 공간적 구조 정보 시그널링부(130)는 입력 영상의 타입이 동기화된 다시점 영상인 경우, 그 시점 정보(PERSPECTIVE INFORMATION)을 SPS에 포함시켜 시그널링함으로써, 동기화된 다시점 영상의 공간적 구조 정보의 일부를 SPS에 삽입하여 전송할 수도 있다. 시점 정보는 2D 영상의 3D 렌더링 프로세싱 과정에 따라 각 시간대별 이미지 레이아웃이 시그널링되는 정보로서, 상단, 하단, 측면 등의 순서 정보가 포함 될 수 있다.In addition, when the type of the input image is a synchronized multi-view image, the spatial structure information signaling unit 130 signals the SPS by including the view information (PERSPECTIVE INFORMATION) in the SPS, thereby generating a part of the spatial structure information of the synchronized multi- May be inserted into the SPS and transmitted. The viewpoint information is information on which the image layout is signaled for each time frame according to the 3D rendering process of the 2D image, and may include order information such as an upper end, a lower end, and a side view.

이에 따라, 복호화 장치(200)는 VPS 또는 SPS의 상기 플래그를 복호화 하여 해당 영상이 본 발명의 실시 예에 따른 공간적 구조 정보를 이용한 부호화를 수행했는지를 식별할 수 있다. 예를 들어, 도 5의 VPS의 경우에는 VPS_OTHER_TYPE_CODING_FLAG를 추출하여 해당 영상이 공간적 구조 정보를 이용하여 부호화된 동기화 다시점 영상인지 여부를 확인할 수 있다.Accordingly, the decoding apparatus 200 can decode the flag of the VPS or the SPS to identify whether the corresponding image has been encoded using the spatial structure information according to the embodiment of the present invention. For example, in the case of the VPS of FIG. 5, VPS_OTHER_TYPE_CODING_FLAG may be extracted to check whether the corresponding image is a synchronized multi-view image encoded using spatial structure information.

또한 도 9의 SPS의 경우에는 PERSPECTIVE_INFORMATION_INDEX 정보를 복호화함으로써, 레이아웃과 같은 실제적인 공간적 구조정보를 식별할 수 있다.In the SPS of FIG. 9, the PERSPECTIVE_INFORMATION_INDEX information is decoded to identify actual spatial structure information such as layout.

이 때, 공간적 구조 정보는 파라미터의 형식으로 구성될 수 있으며, 예를 들어, 공간적 구조 파라미터 정보는 SPS, VPS 등의 HLS 상에 서로 다르게 포함되거나, 별도의 함수와 같은 형태로 Syntax가 구성되거나, SEI 메시지로 정의될 수 있다.In this case, the spatial structure information may be configured in the form of a parameter. For example, the spatial structure parameter information may be differently included in the HLS such as SPS, VPS, or the syntax may be configured as a separate function, SEI message.

또한, 일 실시 예에 따르면, 공간적 구조 정보는 PPS(PICTURE PARAMETER SET)에 포함되어 전송될 수 있다. 이 경우, 각 서브 이미지별 속성 정보가 포함될 수 있다. 예를 들어, 서브 이미지의 독립성이 시그널링될 수 있다. 독립성은 해당 영상이 다른 영상을 참조하지 않고 부호화 및 복호화될 수 있음을 나타낼 수 있으며, 동기화된 다시점 영상의 서브 이미지들은 독립적(INDEPENDENT) 서브 이미지와 의존적(DEPENDENT) 서브 이미지를 포함할 수 있다. 의존적 서브 이미지는 독립적 서브 이미지를 참조하여 복호화될 수 있다. 공간적 구조 정보 시그널링부(130)는 PPS 상에 독립적 서브 이미지를 리스트(Independent sub image list) 형태로 시그널링할 수 있다.Also, according to one embodiment, spatial structure information may be included in a PICTURE PARAMETER SET (PPS) and transmitted. In this case, attribute information for each sub-image may be included. For example, the independence of sub-images can be signaled. Independence may indicate that the image can be encoded and decoded without reference to another image, and the sub-images of the synchronized multi-view image may include an INDEPENDENT sub-image and a DEPENDENT sub-image. The dependent sub-images can be decoded with reference to the independent sub-images. The spatial structure information signaling unit 130 may signal independent sub-images in the form of an independent sub-image list on the PPS.

또한, 상기한 공간적 구조 정보는 SEI 메시지로 정의되어 시그널링될 수 있다. 도 10은 공간적 구조 정보로서 SEI 메시지를 예시한 것으로, Spatial layout information 디스크립터를 이용하여 파라미터화된 공간적 구조 정보가 삽입될 수 있다.In addition, the spatial structure information may be defined and signaled as an SEI message. FIG. 10 illustrates an SEI message as spatial structure information, and parameterized spatial structure information can be inserted using a spatial layout information descriptor.

도 10에 도시된 바와 같이, 공간적 구조 정보는 입력 영상의 공간적 레이아웃(Spatial layout)을 나타낼 수 있는 타입 인덱스 정보(INPUT IMAGE TYPE INDEX), 시점 정보(PERSPECTIVE INFORMATION), 카메라 파라미터 정보(CAMERA PARAMETER), 장면 앵글 정보(SCEN ANGLE), 장면 다이나믹 레인지 정보(SCENE DYNAMIC RANGE), 독립적 서브 이미지 정보(INDEPENDENT SUB IMAGE), 장면 시간 정보(SCENE TIME INFORMATION)중 적어도 하나를 포함할 수 있으며, 이 외의 다시점 동기화된 영상을 효율적으로 부호화하는데 필요한 다양한 정보가 더 추가될 수 있다. 이와 같은 파라미터들은 하나의 디스크립터 형태의 SEI 메시지 형식으로 정의될 수 있으며, 복호화 장치(200)는 이를 파싱하여 복호화, 후처리 및 렌더링 단계에서 상기 공간적 구조 정보를 효율적으로 활용할 수 있다.As shown in FIG. 10, the spatial structure information includes type index information (INPUT IMAGE TYPE INDEX), PERSPECTIVE INFORMATION, camera parameter information (CAMERA PARAMETER), and the like which can represent a spatial layout of an input image. May include at least one of scene angle information (SCEN ANGLE), scene dynamic range information (SCENE DYNAMIC RANGE), independent sub image information (INDEPENDENT SUB IMAGE), and scene time information (SCENE TIME INFORMATION) A variety of information necessary for efficient coding of an image can be further added. Such parameters may be defined as one descriptor type SEI message format, and the decoding apparatus 200 may parse it and utilize the spatial structure information efficiently in decoding, post-processing, and rendering.

그리고, 상기한 바와 같이 공간적 구조 정보는 SEI 또는 메타데이터의 형식으로 복호화 장치(200)로 전달될수 있다.As described above, the spatial structure information may be transmitted to the decoding apparatus 200 in the form of SEI or metadata.

또한, 예를 들어, 공간적 구조 정보는 부호화 단계에서 configuration 과 같은 선택 옵션에 의해 시그널링될 수 있다.Also, for example, the spatial structure information may be signaled by a selection option such as configuration in the encoding step.

제1 옵션으로서, 공간적 구조 정보는 신택스상의 부호화 효율에 따라 HLS 상의 VPS / SPS / PPS 또는 Coding unit 신택스에 포함될 수 있다.As a first option, the spatial structure information may be included in the VPS / SPS / PPS or Coding unit syntax on the HLS according to the coding efficiency on the syntax.

제2 옵션으로서, 공간적 구조 정보는 신택스상 SEI 형태의 메타 데이터로 한번에 시그널링될 수 있다.As a second option, the spatial structure information can be signaled at once into metadata in the form of SEIs in syntax.

이하에서는 도 11 내지 도 13을 참조하여, 본 발명의 일 실시 예에 따른 동기화된 다시점 영상 포맷에 따른 효율적인 비디오 부호화 및 복호화 방법에 대하여 보다 구체적으로 설명하도록 한다.Hereinafter, with reference to FIG. 11 to FIG. 13, a more efficient video encoding and decoding method according to the synchronized multi-view image format according to an embodiment of the present invention will be described in detail.

전술한 바와 같이 전처리 단계에서 생성되는 복수의 시점별 영상이 하나의 입력 영상으로 합성되어 부호화될 수 있다. 이 경우, 하나의 입력 영상은 복수의 서브 이미지를 포함할 수 있다. 각각의 서브 이미지들은 동일한 시간시점에 동기화될 수 있으며, 각각 서로 다른 뷰, 시각적 시점(PERSPECTIVE) 또는 장면에 대응될 수 있다. 이는 기존과 같은 별도의 깊이 정보를 이용하지 않고도 동일한 POC(PICTURE ORDER COUNT)에 다양한 VIEW를 지원하게 되는 효과를 가지며, 각 서브 이미지간 중복되는 영역은 바운더리(BOUNDARY) 영역으로 제한되게 된다.As described above, a plurality of view-by-view images generated in the preprocessing step may be synthesized into one input image and then encoded. In this case, one input image may include a plurality of sub images. Each subimage may be synchronized at the same time instant and may correspond to a different view, a visual point of view (PERSPECTIVE), or a scene, respectively. This has the effect of supporting various views in the same POC (PICTURE ORDER COUNT) without using the existing depth information, and the overlapping area between each sub-image is limited to the boundary area.

특히, 입력 영상의 공간적 구조 정보는 전술한 바와 같은 형태로 시그널링될 수 있으며, 부호화 장치(100) 및 복호화 장치(200)는 공간적 구조 정보를 파싱하여 효율적인 부호화 및 복호화를 수행하는데 이용할 수 있다. 즉, 부호화 장치(100)는 인코딩 단계에서 상기 공간적 구조 정보를 이용한 다시점 영상 부호화를 처리할 수 있으며, 복호화 장치(200)는 복호화, 전처리 및 렌더링 단계에서 상기 공간적 구조 정보를 이용한 복호화를 처리할 수 있다.In particular, the spatial structure information of the input image may be signaled as described above, and the encoding apparatus 100 and the decoding apparatus 200 may be used to perform efficient encoding and decoding by parsing the spatial structure information. That is, the encoding apparatus 100 may process multi-view image encoding using the spatial structure information in the encoding step, and the decoding apparatus 200 may process the decoding using the spatial structure information in the decoding, preprocessing, and rendering steps .

도 11은 본 발명의 실시 예에 따른 공간적 구조 정보의 타입 인덱스 테이블을 설명하기 위한 도면들이다.11 is a view for explaining a type index table of spatial structure information according to an embodiment of the present invention.

전술한 바와 같이 입력 영상의 서브 이미지들은 다양한 방식으로 배치될 수 있다. 이에 따라, 공간적 구조 정보는 배치 정보를 시그널링하기 위한 테이블 인덱스를 별도 포함할 수 있다. 예를 들어, 도 11에 도시된 바와 같이 동기화된 다시점 영상은 변환 방법에 따라 Equirectangular (ERP), Cubemap (CMP), Equal-area (EAP), Octahedron (OHP), Viewport generation using rectilinear projection, Icosahedron (ISP), Crasters Parabolic Projection for CPP-PSNR calculation, Truncated Square Pyramid (TSP), Segmented Sphere Projection (SSP), Adjusted Cubemap Projection (ACP), Rotated Sphere Projection (RSP) 등의 레이아웃이 예시될 수 있으며, 공간적 구조 정보에는 각각의 레이아웃에 대응되는 도 11에 도시된 테이블 인덱스가 삽입될 수 있다.As described above, the sub images of the input image can be arranged in various ways. Accordingly, the spatial structure information may separately include a table index for signaling the placement information. For example, as shown in FIG. 11, the synchronized multi-view image is transformed into Equation (ERP), Cubemap (CMP), Equal-area (EAP), Octahedron (OHP), Viewport generation using rectilinear projection, (ISP), Crasters Parabolic Projection for CPP-PSNR calculation, Truncated Square Pyramid (TSP), Segmented Sphere Projection (SSP), Adjusted Cubemap Projection (ACP) and Rotated Sphere Projection (RSP) The table index shown in Fig. 11 corresponding to each layout can be inserted into the structure information.

보다 구체적으로, 각 공간적 구조 정보에 따라 360도에 대응하는 좌표계의 3차원 영상이 2차원 영상으로 투영(Projection)될 수 있다.More specifically, a three-dimensional image of a coordinate system corresponding to 360 degrees can be projected into a two-dimensional image according to each spatial structure information.

ERP는 360도 영상을 하나의 면(face)에 투영 변환하는 것으로, 2차원 이미지의 샘플링 위치에 대응하는 u, v 좌표계 위치 변환 및 상기 u, v 좌표계 위치에 대응하는 구(sphere)상의 경도와 위도 좌표 변환 처리를 포함할 수 있다. 이에 따라, 공간적 구조 정보는 ERP 인덱스와, 단일 면 정보(예를 들어 face index가 0으로 설정)를 포함할 수 있다.The ERP projects and transforms a 360-degree image onto one face. The ERP converts the position of the u, v coordinate system corresponding to the sampling position of the two-dimensional image and the hardness on the sphere corresponding to the u, v coordinate system position And latitude coordinate conversion processing. Accordingly, the spatial structure information may include an ERP index and single plane information (e.g., the face index is set to 0).

CMP는 360도 영상을 6개의 정육각형 면(face)에 투영하는 것으로, PX, PY, PZ, NX, NY, NZ(P는 positive, N은 negative를 나타냄)에 대응하는 각 면 인덱스(face index, f)에 투영된 서브 이미지들이 배치될 수 있다. 예를 들어 CMP영상의 경우, ERP 영상을 3 x 2 큐브맵 영상으로 변환된 영상을 포함할 수 있다.The CMP is a projection of a 360 degree image onto six regularly shaped faces and is a face index corresponding to PX, PY, PZ, NX, NY, and NZ (where P is positive and N is negative) f projected sub-images may be arranged. For example, in the case of a CMP image, an ERP image may be converted into a 3 x 2 cubemap image.

이에 따라, 공간적 구조 정보는 CMP 인덱스와, 서브 이미지에 대응하는 각 면 인덱스 정보가 포함될 수 있다. 후처리 장치(20)는 면 인덱스에 따라 서브 이미지상의 2차원 위치 정보를 처리하여, 3차원 좌표계에 대응되는 위치 정보를 산출하고, 이에 따른 3차원 360도 영상으로 역변환 출력할 수 있다.Accordingly, the spatial structure information may include a CMP index and each face index information corresponding to the subimage. The post-processing apparatus 20 processes the two-dimensional position information on the sub-image according to the plane index, calculates the position information corresponding to the three-dimensional coordinate system, and outputs the three-dimensional 360-degree image inversely.

ACP는 CMP와 같이 360도 영상을 6개의 정육각형 면(face)에 투영함에 있어서, 2차원으로의 투영 변환 및 3차원으로의 역변환에 각각 대응하여 3차원 굴곡 변형에 맞게 조정된 함수를 적용하는 것으로, 그 처리 함수는 상이하나, 이용되는 공간적 구조 정보는 ACP 인덱스와 서브 이미지별 면 인덱스 정보가 포함될 수 있다. 따라서, 후처리 장치(20)는 면 인덱스에 따라 서브 이미지상의 2차원 위치 정보를 조정된 함수에 따라 역변환 처리하여, 3차원 좌표계에 대응되는 위치 정보를 산출하고, 이에 따른 3차원 360도 영상으로 출력할 수 있다. ACP, like CMP, applies a function adjusted to three-dimensional bending deformation corresponding to two-dimensional projection transformation and three-dimensional inversion in projecting a 360-degree image onto six regular faces , The processing function is different, but the spatial structure information used may include ACP index and plane index information per sub-image. Accordingly, the post-processing apparatus 20 performs inverse transform processing of the two-dimensional position information on the sub image according to the adjusted index according to the surface index, calculates position information corresponding to the three-dimensional coordinate system, Can be output.

EAP는 ERP와 동일하게 하나의 면(face)에 투영되는 변환으로서, 2차원 이미지의 샘플링 위치에 즉시 대응하는 구(sphere)상의 경도와 위도 좌표 변환 처리를 포함할 수 있다. 공간적 구조 정보는 EAP 인덱스와 단일 면 정보를 포함할 수 있다.EAP is a transformation that is projected on one face like an ERP and can include latitude and latitude coordinate transformation processing on a sphere immediately corresponding to the sampling position of the two-dimensional image. The spatial structure information may include EAP indexes and single plane information.

OHP는 360도 영상을 8개의 정팔각형 면(face)에 6개의 꼭지점들(vertices) 을 이용하여 투영하는 것으로, 면 {F0, F1, F2, F3, F4, F5, F6, F7}과 꼭지점(V0, V1, V2, V3, V3, V4, V5)를 이용하여 투영된 서브 이미지들이 변환 영상에 배치될 수 있다.The OHP is used to project a 360 degree image onto six regular octagonal faces using six vertices, and the surfaces {F0, F1, F2, F3, F4, F5, F6, V0, V1, V2, V3, V3, V4, V5) may be arranged in the converted image.

이에 따라, 공간적 구조 정보는 OHP 인덱스와, 서브 이미지에 대응하는 각 면 인덱스(face index) 정보 및 상기 면 인덱스 정보에 매칭되는 하나 이상의 꼭지점(vertex) 인덱스 정보가 포함될 수 있다. 또한, 변환 영상의 서브 이미지 배치는 컴팩트한 경우와 컴팩트하지 않는 경우로 구분될 수 있다. 이에 따라, 공간적 구고 정보는 컴팩트 여부 식별 정보를 더 포함할 수 있다. 예를 들어, 컴팩트하지 않는 경우와, 컴팩트한 경우의 면 인덱스와 꼭지점 인덱스 매칭 정보 및 역변환 프로세스가 상이하게 결정될 수 있다. 예를 들어, 면 인덱스 4에는 컴팩트가 아닌 경우 꼭지점 인덱스 V0, V5, V1 로 매칭될 수 있으며, 컴팩트인 경우 V1, V0, V5로 다른 매칭이 처리될 수 있다.Accordingly, the spatial structure information may include an OHP index, face index information corresponding to the subimage, and one or more vertex index information matching the face index information. In addition, sub-image arrangement of the transformed image can be divided into a compact case and a non-compact case. Accordingly, the spatial highlight information may further include the compact or nonidentical identification information. For example, the case of not compact, and the case of compactness, the face index and the vertex index matching information and the inverse transformation process can be determined differently. For example, face indexes 4 may be matched with vertex indices V0, V5, and V1 if they are not compact, and other matches may be processed with V1, V0, and V5 when they are compact.

후처리 장치(20)는 면 인덱스 및 꼭지점 인덱스에 따라, 서브 이미지상의 2차원 위치 정보를 역변환 처리하여 3차원 좌표계에 대응되는 벡터 정보를 산출하고, 이에 따른 3차원 360도 영상으로 역변환 출력할 수 있다.The post-processing apparatus 20 performs inverse transform processing on the two-dimensional position information on the sub-image according to the plane index and the vertex index, calculates vector information corresponding to the three-dimensional coordinate system, and outputs the inverse- have.

ISP는 360도 영상을 20개의 면(face)과 12개의 꼭지점들(vertices) 을 이용하여 투영하는 것으로, 각 변환에 따른 서브 이미지들이 변환 영상에 배치될 수 있다. 공간적 구조 정보는 OHP와 유사하게 ISP 인덱스와, 면 인덱스, 꼭지점 인덱스, 컴팩트 식별 정보 중 적어도 하나를 포함할 수 있다.The ISP projects a 360 degree image using 20 faces and 12 vertices, and the sub images according to each transformation can be arranged in the transformed image. The spatial structure information may include at least one of an ISP index, a face index, a vertex index, and compact identification information, similar to the OHP.

SSP는 360도 영상의 구체를 북극, 적도 및 남극의 3개 세그먼트로 구분하여 처리하는 것으로, 북극 및 남극은 인덱스로 식별되는 두 개의 원으로 각각 매핑되며, 두 극 세그먼트간 모서리는 회색의 비활성 샘플로 처리되고, 적도는 ERP와 동일한 투영법이 이용될 수 있다. 이에 따라, 공간적 구조 정보는 SSP 인덱스와, 각 적도, 북극 및 남극 세그먼트에 대응하는 면 인덱스를 포함할 수 있다.The SSP divides the sphere of a 360 degree image into three segments: the North Pole, the Equator, and the Antarctic. The North and South poles are mapped to two circles identified by indexes, And the equatorial projection method identical to ERP can be used. Accordingly, the spatial structure information may include an SSP index and a face index corresponding to each equator, north pole and south pole segment.

RSP는 360도 영상의 구체를 두개의 동일한 크기의 구획으로 분할하고, 2차원 변환 영상에 상기 분할된 영상을 펼쳐 두개의 행으로 배치하는 방식을 포함할 수 있다. 그리고, RSP는 CMP와 유사한 3X2종횡비로서 6개의 면을 이용하여 상기 배치를 구현할 수 있다. 이에 따라, 변환 영상에는 상단 세그먼트의 제1 구획 영상과 하단 세그먼트의 제2 구획 영상이 포함될 수 있다. 공간적 구조 정보는 RSP 인덱스와 구획 영상 인덱스 및 면 인덱스 중 적어도 하나가 포함될 수 있다.The RSP may include a method of dividing a sphere of a 360-degree image into two equal-sized segments, and arranging the segmented images in two rows by unfolding the segmented images. And, the RSP can implement this arrangement using 6 sides as a 3X2 aspect ratio similar to CMP. Accordingly, the transformed image may include a first segment image of the upper segment and a second segment image of the lower segment. The spatial structure information may include at least one of an RSP index, a segment video index, and a face index.

TSP는 360도 영상을 6개의 큐브면으로 투영한 프레임을 잘린 사각형 피라미드의 면에 대응하여 변형 투영하는 방식을 포함할 수 있다. 이에 따라, 각 면에 대응하는 서브 이미지의 크기 및 형태가 모두 상이할 수 있다. 공간적 구조 정보는 TSP 식별 정보 및 면 인덱스 중 적어도 하나가 포함될 수 있다.The TSP may include a method of deforming and projecting a frame of a 360-degree image projected on six cube surfaces in correspondence with a surface of a truncated rectangular pyramid. Accordingly, the sizes and shapes of the sub images corresponding to the respective surfaces may be different from each other. The spatial structure information may include at least one of the TSP identification information and the face index.

Viewport generation using rectilinear projection은 360도 영상을 시각(viewing angle)을 Z 축으로 하여 투영된 2차원 영상으로 변환 획득하는 것으로, 공간적 구조 정보는 Viewport generation using rectilinear projection 인덱스 정보와, 시점을 나타내는 시각 포트(Viewport) 정보를 더 포함할 수 있다.Viewport generation using rectilinear projection transforms a 360-degree image into a projected two-dimensional image with a viewing angle as a Z-axis. The spatial structure information includes a viewport generation using rectilinear projection index information and a visual port Viewport) information.

한편, 공간적 구조 정보는 상기 영상 변환에 있어서 적용될 보간 필터 정보를 더 포함할 수 있다. 예를 들어, 보간 필터 정보는 각 투영 변환 방식에 따라 상이할 수 있으며, 최인접 필터(nearest neighbor), 바이리니어 필터, 바이큐빅 필터, Lanczos 필터 중 적어도 하나를 포함할 수 있다.Meanwhile, the spatial structure information may further include interpolation filter information to be applied in the image transformation. For example, the interpolation filter information may differ depending on each projection transformation method, and may include at least one of a nearest neighbor, a bilinear filter, a bicubic filter, and a Lanczos filter.

한편, 전처리 변환 및 후처리 역변환의 처리 성능 평가를 위한 변환 방식 및 그 인덱스가 별도 정의될 수 있다. 예를 들어, 성능 평가는 전처리 장치(10)에서 전처리 방식을 결정하기 위해 이용될 수 있으며, 그 방식으로는 서로 다른 두 변환 영상을 CPP(Crasters Parablic Projection) 도메인으로 변환하여 PSNR 을 측정하는 CPP 방식이 예시될 수 있다.On the other hand, the conversion method and the index for evaluating the processing performance of the preprocessing conversion and post-processing inverse conversion can be separately defined. For example, the performance evaluation can be used to determine the preprocessing method in the preprocessor 10. In this method, a CPP (CPPR) method for converting two different transformed images into a Crasters Parallel Projection (CPP) Can be illustrated.

다만, 도 11에 도시된 테이블은 입력 영상에 따라 임의적으로 배치된 것으로, 부호화 효율 및 시장의 컨텐츠 분포 등에 따라 변경될 수 있다.However, the table shown in FIG. 11 is arbitrarily arranged according to the input image and can be changed according to the coding efficiency, the content distribution of the market, and the like.

이에 따라, 복호화 장치(200)는 별도 시그널링되는 테이블 인덱스를 파싱하여, 복호화 처리에 이용할 수 있다.Accordingly, the decoding apparatus 200 can parse the separately signaled table index and use it for decoding processing.

특히, 본 발명의 실시 예에서 상기 각 레이아웃 정보는 영상의 일부 복호화에 유용하게 이용될 수 있다. 즉 CUBIC LAYOUT과 같은 서브 이미지 배치 정보는 독립적 서브 이미지와 의존적 서브 이미지를 구분하는데 이용 수 있으며 이에 따라 효율적인 부호화 및 복호화 스캐닝 순서를 결정하거나, 특정 시점에 대한 일부 복호화를 수행하는데 이용될 수도 있다.Particularly, in the embodiment of the present invention, each of the layout information can be usefully used for partial decoding of an image. That is, sub-image layout information such as CUBIC LAYOUT can be used to distinguish between independent sub-images and dependent sub-images, thereby determining an efficient encoding and decoding scanning sequence, or performing partial decoding for a specific time.

도 12는 본 발명의 실시 예에 따른 복호화 방법을 설명하기 위한 흐름도이다.12 is a flowchart illustrating a decoding method according to an embodiment of the present invention.

도 12를 참조하면, 먼저 복호화 장치(200)는 영상 비트스트림을 수신한다(S101).Referring to FIG. 12, the decoding apparatus 200 receives an image bitstream (S101).

그리고, 복호화 장치(200)는 영상이 동기화된 다시점 영상인지를 확인한다(S103).Then, the decoding apparatus 200 confirms whether the multi-view image is a synchronized multi-view image (S103).

여기서, 복호화 장치(200)는 영상 비트스트림으로부터 공간적 구조 정보 시그널링부(130)로부터 시그널링되는 플래그로부터 동기화된 다시점 영상인지를 식별할 수 있다. 예를 들어, 복호화 장치(200)는 전술한 바와 같은 VPS, SPS 등으로부터 영상이 동기화된 다시점 영상인지를 미리 식별할 수 있다.Here, the decoding apparatus 200 can identify the synchronized multi-view image from the flag signaled from the spatial structure information signaling unit 130 from the image bit stream. For example, the decoding apparatus 200 can identify in advance whether the multi-view image is a synchronized image from the VPS, SPS, or the like as described above.

만약 동기화된 다시점 영상이 아닌 경우에는 일반적인 전체 영상 복호화를 수행한다(S113).If it is not a synchronized multi-view image, general full image decoding is performed (S113).

그리고, 복호화 장치(200)는 동기화된 다시점 영상인 경우, 공간적 구조 정보로부터 테이블 인덱스를 복호화한다(S105).If the decoded image is a synchronized multi-view image, the decoding apparatus 200 decodes the table index from the spatial structure information (S105).

여기서, 복호화 장치(200)는 테이블 인덱스로부터 EQUIRECTANGULAR 영상인지 여부를 식별할 수 있다(S107).Here, the decoding apparatus 200 can discriminate whether or not it is an EQUIRECTANGULAR image from the table index (S107).

이는 동기화된 다시점 영상 중 EQUIRECTANGULAR 영상의 경우에는 별도의 서브 이미지로 구분되지 않을 수 있기 때문이며, 복호화 장치(200)는 EQUIRECTANGULAR 영상에 대하여는 전체 영상의 복호화를 수행하게 된다(S113).This is because, among the synchronized multi-view images, the EQUIRECTANGULAR image may not be classified as a separate sub-image, and the decoding apparatus 200 decodes the entire image for the EQUIRECTANGULAR image (S113).

EQUIRECTANGULAR 영상이 아닌 경우, 복호화 장치(200)는 나머지 전체 공간적 구조 정보(SPATIAL LAYOUT INFORMATION)를 복호화하며(S109), 상기 공간적 구조정보에 기초한 영상 복호화 처리를 수행한다(S111). 여기서, 상기 공간적 구조정보에 기초한 영상 복호화 처리는 상기 조도 보상 처리부(145)의 이웃 리전에 대한 조도 보상 파라미터를 이용한 조도 보상 처리를 더 포함할 수 있다.If the image is not an EQUIRECTANGULAR image, the decoding apparatus 200 decodes the remaining SPATIAL LAYOUT INFORMATION (S109) and performs image decoding processing based on the spatial structure information (S111). Here, the image decoding process based on the spatial structure information may further include an illumination compensation process using the illumination compensation parameters for the neighbor regions of the illumination compensation processor 145.

도 13은 본 발명의 일 실시 예에 따른 복호화 시스템 및 그 동작을 도시한 도면들이다.13 is a diagram illustrating a decoding system and its operation according to an embodiment of the present invention.

도 13을 참조하면, 본 발명의 실시 예에 따른 복호화 시스템(300)은 전술한 바와 같은 부호화 장치(100) 또는 외부 서버 등으로부터 수신되는 전체 동기화된 다시점 영상 비트스트림 및 공간적 구조 정보를 수신하여, 사용자의 가상현실 디스플레이 장치(400)로 하나 이상의 복호화된 픽쳐를 제공하는 클라이언트 시스템을 구성할 수 있다.Referring to FIG. 13, a decoding system 300 according to an embodiment of the present invention receives a fully synchronized multi-view image bit stream and spatial structure information received from the encoding apparatus 100 or an external server, , And configure the client system to provide one or more decoded pictures to the user's virtual reality display device (400).

이를 위해, 복호화 시스템(300)은 복호화 처리부(310), 사용자 동작 분석부(320) 및 인터페이스부(330)를 포함한다. 다만, 복호화 시스템(300)은 본 명세서에서 별도의 시스템으로 설명되고는 있으나, 이는 필요한 복호화 처리 및 후처리를 수행하기 위한 전술한 복호화 장치(200) 및 후처리 장치(20)를 구성하는 전부 또는 일부 모듈의 조합으로 구성될 수 있으며, 복호화 장치(200)를 확장하여 구성할 수도 있다. 따라서, 그 명칭에 한정되는 것은 아니다.For this, the decoding system 300 includes a decoding processing unit 310, a user operation analysis unit 320, and an interface unit 330. Although the decryption system 300 is described as a separate system in the present specification, the decryption system 300 and the post-processing apparatus 20 described above for performing the necessary decryption processing and post-processing, A combination of some modules, or may be configured by extending the decoding apparatus 200. Therefore, it is not limited to the name.

이에 따라, 본 발명의 실시 예에 따른 복호화 시스템(300)은 부호화 장치(100)로부터 수신되는 공간적 구조 정보와, 사용자 동작 분석에 따른 사용자 시점 정보에 기초하여 전체 비트스트림 중 일부에 대한 선택적 복호화를 수행할 수 있다. 특히, 도 13에서 설명되는 선택적 복호화에 따라, 복호화 시스템(300)은 공간적 구조 정보를 이용하여, 동일한 시간(POC, Picture of Count)의 복수의 시점을 갖는 입력 영상들을 일정 방향을 기준으로 사용자의 시점(PERSPECTIVE)과 대응시킬 수 있다. 또한, 이를 기준으로 사용자 시점에 의해 결정되는 관심 영역(ROI, Region Of Interest) 픽쳐들에 대한 일부 복호화를 수행할 수 있다.Accordingly, the decoding system 300 according to the embodiment of the present invention can selectively decode a part of the entire bitstream based on the spatial structure information received from the encoding apparatus 100 and the user viewpoint information according to the user's motion analysis Can be performed. In particular, according to the selective decoding described with reference to FIG. 13, the decoding system 300 uses the spatial structure information to generate input images having a plurality of viewpoints at the same time (POC, Picture of Count) (PERSPECTIVE). Also, it is possible to perform partial decoding on ROI (Region Of Interest) pictures determined by the user's point of view based on the ROI.

이와 같이, 복호화 시스템(300)은 공간적 구조 정보를 이용하여, 선택된 특정 영역에 대응하는 복호화를 선택적으로 처리할 수 있게 된다. 예를 들어, 구조 정보에 따라 상기 개별적 처리되는 복호화에 의해, 특정 선택 영역에 대응하는 품질 파라미터(Qp)값이 결정되고 이에 따른 선택적 복호화가 처리될 수 있다. 특히, 상기 관심 영역(ROI)에 대한 선택적 복호화에 있어서, 상기 품질 파라미터의 값은 다른 영역과 상이하게 결정될 수 있으다. 상기 사용자의 시점(PERSPECTIVE)에 따라서는 상기 ROI 영역 중에서도 일부인 세부(DETAIL) 영역에 대한 품질 파라미터가 다른 영역과 상이하게 결정될 수도 있다.In this way, the decoding system 300 can selectively process the decoding corresponding to the selected specific area using the spatial structure information. For example, the quality parameter (Qp) value corresponding to the specific selection area is determined by the individually processed decoding according to the structure information, and the selective decoding corresponding thereto can be processed. In particular, in selective decoding for the ROI, the value of the quality parameter may be determined differently from the other regions. The quality parameter for the DETAIL area, which is a part of the ROI area, may be determined to be different from the other area according to the user's viewpoint (PERSPECTIVE).

이를 위해, 복호화 시스템(300)에는 사용자 정보 수신 및 분석을 위한 인터페이스 레이어가 포함될 수 있으며, 현재 복호화 하는 영상이 지원하는 시점과 VR 디스플레이 장치(400)의 시점 매핑 및 후처리, 렌더링 등을 선택적으로 수행할 수 있다. 보다 구체적으로 인터페이스 레이어는 상기 후처리와 렌더링을 위한 하나 이상의 프로세싱 모듈과, 인터페이스부(330) 및 사용자 동작 분석부(320)를 포함할 수 있다.For this purpose, the decoding system 300 may include an interface layer for receiving and analyzing user information, and may include a point of time at which the currently decoded image is supported and a point-of-view mapping, post-processing and rendering of the VR display device 400, Can be performed. More specifically, the interface layer may include one or more processing modules for post-processing and rendering, and an interface 330 and a user motion analyzer 320.

인터페이스부(330)는 사용자가 착용한 VR 디스플레이 장치(400)로부터 움직임 정보를 수신할 수 있다.The interface unit 330 may receive motion information from the VR display device 400 worn by the user.

인터페이스부(330)는 예를 들어, 사용자의 VR 디스플레이 장치(400)의 환경 센서, 근접 센서, 동작 감지 센서, 위치 센서, 자이로스코프 센서, 가속도 센서, 및 지자기 센서 중 적어도 하나를 유선 또는 무선으로 수신하기 위한 하나 이상의 데이터 통신 모듈을 포함할 수 있다.The interface unit 330 may wirelessly or wirelessly transmit at least one of an environmental sensor, a proximity sensor, a motion sensor, a position sensor, a gyroscope sensor, an acceleration sensor, and a geomagnetic sensor of the user's VR display apparatus 400 One or more data communication modules for receiving data.

그리고, 사용자 동작 분석부(320)는 상기 인터페이스부(330)로부터 수신되는 사용자 동작 정보를 분석하여 사용자의 시점(PERSPECTIVE)을 결정하며, 이에 대응되는 복호화 픽쳐 그룹을 적응적으로 선택하기 위한 선택 정보를 복호화 처리부(310)로 전달할 수 있다.The user motion analyzer 320 analyzes the user motion information received from the interface 330 to determine the user's viewpoint (PERSPECTIVE), and selects the decoded picture group corresponding to the selection information To the decryption processing unit 310.

이에 따라, 복호화 처리부(310)는 사용자 동작 분석부(320)로부터 전달된 선택 정보에 기초하여, ROI(Region Of Intrest) 픽쳐를 선택하기 위한 ROI 마스크를 설정할 수 있으며, 상기 설정된 ROI 마스크에 대응되는 픽쳐 영역만을 복호화할 수 있다. 예를 들어, 픽쳐 그룹은 전술한 영상 프레임 내 복수의 서브 이미지, 또는 참조 이미지들 중 적어도 하나에 대응될 수 있다.Accordingly, the decoding processing unit 310 can set an ROI mask for selecting an ROI (Region Of Intrest) picture based on the selection information transmitted from the user motion analyzing unit 320, and the ROI mask corresponding to the set ROI mask Only the picture area can be decoded. For example, a picture group may correspond to at least one of a plurality of sub-images, or reference images, in the image frame described above.

예를 들어, 도 13에 도시된 바와 같이, 복호화 처리부(310)에서 복호화된 특정 POC의 서브 이미지가 1 내지 8까지 존재하는 경우, 복호화 처리부(310)는 사용자의 시각 시점(PERSPECTIVE)에 대응되는 서브 이미지 영역 6, 7만을 복호화 처리함으로써, 처리 속도 및 효율을 실시간으로 향상시킬 수 있다.For example, as shown in FIG. 13, when the sub-images of the specific POC decoded by the decoding processing unit 310 exist from 1 to 8, the decoding processing unit 310 decodes the sub-image corresponding to the time point (PERSPECTIVE) By processing only the sub image areas 6 and 7, the processing speed and efficiency can be improved in real time.

도 14 내지 도 15는 본 발명의 실시 예에 따른 부호화 및 복호화 처리를 설명하기 위한 도면들이다.14 to 15 are diagrams for explaining encoding and decoding processing according to an embodiment of the present invention.

도 14는 본 발명의 일실시예에 따른 동영상 부호화 장치의 구성 중 상기 도 2의 구성의 영상 부호화부(140)의 부호화 처리를 위한 세부 구성을 블록도로 도시한 것으로, 본 발명의 실시 예에 따른 동기화된 다시점 영상의 각각의 서브 이미지 또는 전체 프레임을 입력 비디오 신호로서 입력받아 처리할 수 있다.FIG. 14 is a block diagram illustrating a detailed configuration of a moving picture encoding apparatus according to an exemplary embodiment of the present invention for encoding the moving picture encoding unit 140 shown in FIG. 2. Referring to FIG. Each sub-image or the entire frame of the synchronized multi-view image can be input and processed as an input video signal.

도 14를 참조하면, 본 발명에 따른 동영상 부호화 장치(100)는 픽쳐 분할부(160), 변환부(162), 양자화부(163), 스캐닝부(164), 엔트로피 부호화부(165), 인트라 예측부(169), 인터 예측부(170), 역양자화부(166), 역변환부(167), 후처리부(171), 픽쳐 저장부(172), 감산부 및 가산부(168)를 포함한다.14, a moving picture encoding apparatus 100 according to the present invention includes a picture dividing unit 160, a transforming unit 162, a quantizing unit 163, a scanning unit 164, an entropy coding unit 165, An inter prediction unit 170, an inverse quantization unit 166, an inverse transformation unit 167, a post-processing unit 171, a picture storage unit 172, a subtraction unit and an addition unit 168 .

픽쳐 분할부(160)는 입력되는 비디오 신호를 분석하여 픽쳐를 가장 큰 코딩 유닛(LCU:Largest Coding Unit)마다 소정 크기의 코딩 유닛으로 분할하여 예측 모드를 결정하고, 상기 코딩 유닛별로 예측 유닛의 크기를 결정한다.The picture division unit 160 analyzes a video signal to determine a prediction mode by dividing a picture into a coding unit of a predetermined size for each largest coding unit (LCU: Largest Coding Unit), and calculates a prediction unit size .

그리고, 픽쳐 분할부(160)는 부호화할 예측 유닛을 예측 모드(또는 예측 방법)에 따라 인트라 예측부(169) 또는 인터 예측부(170)로 보낸다. 또한, 픽쳐 분할부(160)는 부호화할 예측 유닛을 감산부로 보낸다.The picture division unit 160 sends the prediction unit to be encoded to the intra prediction unit 169 or the inter prediction unit 170 according to a prediction mode (or a prediction method). Further, the picture division unit 160 sends the prediction unit to be encoded to the subtraction unit.

픽쳐는 복수의 슬라이스로 구성되고, 슬라이스는 복수개의 최대 부호화 단위(Largest coding unit: LCU)로 구성될 수 있다.The picture may be composed of a plurality of slices, and the slice may be composed of a plurality of maximum coding units (LCU).

상기 LCU는 복수개의 부호화 단위(CU)로 분할될 수 있고, 부호기는 분할여부를 나타내는 정보(flag)를 비트스트림에 추가할 수 있다. 복호기는 LCU의 위치를 어드레스(LcuAddr)를 이용하여 인식할 수 있다.The LCU can be divided into a plurality of coding units (CUs), and the encoder can add information indicating whether or not to be divided to a bit stream. The decoder can recognize the position of the LCU by using the address (LcuAddr).

분할이 허용되지 않는 경우의 부호화 단위(CU)는 예측 단위(Prediction unit: PU)로 간주되고, 복호기는 PU의 위치를 PU인덱스를 이용하여 인식할 수 있다.The coding unit CU in the case where division is not allowed is regarded as a prediction unit (PU), and the decoder can recognize the position of the PU using the PU index.

예측 단위(PU)는 복수개의 파티션으로 나뉠 수 있다. 또한 예측 단위(PU)는 복수개의 변환 단위(Transform unit: TU)로 구성될 수 있다.The prediction unit PU may be divided into a plurality of partitions. Also, the prediction unit PU may be composed of a plurality of conversion units (TUs).

이 경우, 픽쳐 분할부(160)는 결정된 부호화 모드에 따른 소정 크기의 블록 단위(예를 들면, PU 단위 또는 TU 단위)로 영상 데이터를 감산부로 보낼 수 있다.In this case, the picture dividing unit 160 may send the image data to the subtracting unit in a block unit (for example, PU unit or TU unit) of a predetermined size according to the determined coding mode.

동영상 부호화 단위로 CTB (Coding Tree Block)을 사용하며, 이 때 CTB는 다양한 정사각형 모양으로 정의된다. CTB는 코딩단위 CU(Coding Unit)라고 부른다. CTB (Coding Tree Block) is used as a unit of video encoding, and the CTB is defined as various square shapes. The CTB is called the coding unit CU (coding unit).

코딩단위(CU)는 분할에 따른 쿼드트리(Quad Tree)의 형태를 가질 수 있다. 또한, QTBT(Quadtree plus binary tree) 분할의 경우 코딩단위는 상기 쿼드트리 또는 단말 노드에서 이진 분할된 바이너리 트리(Binary Tree)의 형태를 가질 수 있으며, 부호화기의 표준의 따라 최대 크기가 256X256에서 64ㅧ64로 구성될 수 있다.The coding unit (CU) may have a form of a quad tree according to the division. In the case of quadtree plus binary tree (QTBT) partitioning, the coding unit may have a form of a binary tree divided by the quad tree or the terminal node, and the maximum size according to the standard of the encoder is 64 x 256 64 < / RTI >

예를 들어 픽쳐 분할부(160)는 최대 크기가 64X64인 경우, 최대 코딩단위 LCU(Largest Coding Unit)일 때 깊이(Depth)를 0으로 하여 깊이가 3이 될 때까지, 즉 8ㅧ8크기의 코딩단위(CU)까지 재귀적(Recursive)으로 최적의 예측단위를 찾아 부호화를 수행한다. 또한, 예를 들어 QTBT로 분할된 단말 노드의 코딩 유닛에 대해, PU(Prediction Unit) 및 TU(Transform Unit)는 상기 분할된 코딩 유닛과 동일한 형태를 갖거나 더 분할된 형태를 가질 수 있다.For example, when the maximum size is 64 × 64, the picture division unit 160 sets the depth to 0 when the depth is 3 when the maximum coding unit is a LCU (Largest Coding Unit) And performs encoding by searching for an optimal prediction unit recursively up to the coding unit (CU). Further, for a coding unit of a terminal node divided into QTBT, for example, a PU (Prediction Unit) and a TU (Transform Unit) may have the same form as the divided coding unit or may have a further divided form.

예측을 수행하는 예측단위는 PU(Prediction Unit)로 정의되며, 각 코딩단위(CU)는 다수개의 블록으로 분할된 단위의 예측이 수행되며, 정사각형과 직사각형의 형태로 나뉘어 예측을 수행한다. A prediction unit for performing prediction is defined as a PU (Prediction Unit). Each coding unit (CU) is predicted by a unit divided into a plurality of blocks, and is divided into a square and a rectangle to perform prediction.

변환부는 입력된 예측 유닛의 원본 블록과 인트라 예측부(169) 또는 인터 예측부(170)에서 생성된 예측 블록의 잔차신호인 잔차 블록을 변환한다. 상기 잔차 블록은 코딩 유닛 또는 예측 유닛으로 구성된다. 코딩 유닛 또는 예측 유닛으로 구성된 잔차 블록은 최적의 변환 단위(Transform Unit)로 분할되어 변환된다. 예측 모드(intra or inter)에 따라 서로 다른 변환 매트릭스가 결정될 수 있다. 또한, 인트라 예측의 잔차 신호는 인트라 예측 모드에 따라 방향성을 가지므로 인트라 예측 모드에 따라 적응적으로 변환 매트릭스가 결정될 수 있다.The transform unit transforms the original block of the input prediction unit and the residual block, which is the residual signal of the intra prediction unit 169 or the prediction block generated by the inter prediction unit 170. [ The residual block is composed of a coding unit or a prediction unit. A residual block composed of a coding unit or a prediction unit is divided into optimal transform units and transformed. Different transformation matrices may be determined depending on the prediction mode (intra or inter). Also, since the residual signal of the intra prediction has directionality according to the intra prediction mode, the transformation matrix can be adaptively determined according to the intra prediction mode.

변환 단위는 2개(수평, 수직)의 1차원 변환 매트릭스에 의해 변환될 수 있다. 예를 들어, 인터 예측의 경우에는 미리 결정된 1개의 변환 매트릭스가 결정된다.The transformation unit can be transformed by two (horizontal, vertical) one-dimensional transformation matrices. For example, in the case of inter prediction, a predetermined conversion matrix is determined.

반면에, 인트라 예측의 경우, 인트라 예측 모드가 수평인 경우에는 잔차 블록이 수직방향으로의 방향성을 가질 확률이 높아지므로, 수직방향으로는 DCT 기반의 정수 매트릭스를 적용하고, 수평방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를 적용한다. 인트라 예측 모드가 수직인 경우에는 수직방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를, 수평 방향으로는 DCT 기반의 정수 매트릭스를 적용한다.On the other hand, in case of the intra prediction, when the intra prediction mode is horizontal, the probability that the residual block has the direction in the vertical direction becomes high. Therefore, the DCT-based integer matrix is applied in the vertical direction, Or a KLT-based integer matrix. When the intra prediction mode is vertical, a DST-based or KLT-based integer matrix is applied in the vertical direction and a DCT-based integer matrix is applied in the horizontal direction.

DC 모드의 경우에는 양방향 모두 DCT 기반 정수 매트릭스를 적용한다. 또한, 인트라 예측의 경우, 변환 단위의 크기에 의존하여 변환 매트릭스가 적응적으로 결정될 수도 있다.In case of DC mode, DCT-based integer matrix is applied in both directions. Further, in the case of intra prediction, the transformation matrix may be adaptively determined depending on the size of the conversion unit.

양자화부는 상기 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위한 양자화 스텝 사이즈를 결정한다. 양자화 스텝 사이즈는 미리 정해진 크기 이상의 부호화 단위(이하, 양자화 유닛이라 함)별로 결정된다.The quantization unit determines a quantization step size for quantizing the coefficients of the residual block transformed by the transform matrix. The quantization step size is determined for each coding unit of a predetermined size or larger (hereinafter referred to as a quantization unit).

상기 미리 정해진 크기는 8x8 또는 16x16일 수 있다. 그리고, 결정된 양자화 스텝 사이즈 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 상기 변환 블록의 계수들을 양자화한다.The predetermined size may be 8x8 or 16x16. And quantizes the coefficients of the transform block using a quantization matrix determined according to the determined quantization step size and the prediction mode.

양자화부는 현재 양자화 유닛의 양자화 스텝 사이즈 예측자로서 현재 양자화 유닛에 인접한 양자화 유닛의 양자화 스텝 사이즈를 이용한다.The quantization unit uses the quantization step size of the quantization unit adjacent to the current quantization unit as a quantization step size predictor of the current quantization unit.

양자화부는 현재 양자화 유닛의 좌측 양자화 유닛, 상측 양자화 유닛, 좌상측 양자화 유닛 순서로 검색하여 1개 또는 2개의 유효한 양자화 스텝 사이즈를 이용하여 현재 양자화 유닛의 양자화 스텝 사이즈 예측자를 생성할 수 있다.The quantization unit may search the left quantization unit, the upper quantization unit, and the upper left quantization unit of the quantization unit in order, and generate a quantization step size predictor of the current quantization unit using one or two effective quantization step sizes.

예를 들어, 상기 순서로 검색된 유효한 첫번째 양자화 스텝 사이즈를 양자화 스텝 사이즈 예측자로 결정할 수 있다. 또한, 상기 순서로 검색된 유효한 2개의 양자화 스텝 사이즈의 평균값을 양자화 스텝 사이즈 예측자로 결정할 수도 있고, 1개만이 유효한 경우에는 이를 양자화 스텝 사이즈 예측자로 결정할 수 있다.For example, the effective first quantization step size searched in the above order can be determined as a quantization step size predictor. In addition, the average value of the two effective quantization step sizes searched in the above order may be determined as a quantization step size predictor, or when only one is effective, it may be determined as a quantization step size predictor.

상기 양자화 스텝 사이즈 예측자가 결정되면, 현재 부호화 단위의 양자화 스텝 사이즈와 상기 양자화 스텝 사이즈 예측자 사이의 차분값을 엔트로피 부호화부로 전송한다.When the quantization step size predictor is determined, a difference value between the quantization step size of the current encoding unit and the quantization step size predictor is transmitted to the entropy encoding unit.

한편, 현재 코딩 유닛의 좌측 코딩 유닛, 상측 코딩 유닛, 좌상측 코딩 유닛 모두가 존재하지 않을 가능성이 있다. 반면에 최대 코딩 유닛 내의 부호화 순서 상으로 이전에 존재하는 코딩 유닛이 존재할 수 있다.On the other hand, there is a possibility that the left coding unit, the upper coding unit, and the upper left coding unit of the current coding unit do not exist. On the other hand, there may be coding units that were previously present on the coding order in the maximum coding unit.

따라서, 현재 코딩 유닛에 인접한 양자화 유닛들과 상기 최대 코딩 유닛 내에서는 부호화 순서상 바로 이전의 양자화 유닛의 양자화 스텝 사이즈가 후보자가 될 수 있다.Therefore, the quantization step sizes of the quantization units adjacent to the current coding unit and the quantization unit immediately before the coding order in the maximum coding unit can be candidates.

이 경우, 1) 현재 코딩 유닛의 좌측 양자화 유닛, 2) 현재 코딩 유닛의 상측 양자화 유닛, 3) 현재 코딩 유닛의 좌상측 양자화 유닛, 4) 부호화 순서상 바로 이전의 양자화 유닛 순서로 우선순위를 둘 수 있다. 상기 순서는 바뀔 수 있고, 상기 좌상측 양자화 유닛은 생략될 수도 있다.In this case, 1) the left quantization unit of the current coding unit, 2) the upper quantization unit of the current coding unit, 3) the upper left side quantization unit of the current coding unit, 4) . The order may be changed, and the upper left side quantization unit may be omitted.

상기 양자화된 변환 블록은 역양자화부와 스캐닝부로 제공된다.The quantized transform block is provided as an inverse quantization unit and a scanning unit.

스캐닝부는 양자화된 변환 블록의 계수들을 스캐닝하여 1차원의 양자화 계수들로 변환한다. 양자화 후의 변환 블록의 계수 분포가 인트라 예측 모드에 의존적일 수 있으므로, 스캐닝 방식은 인트라 예측 모드에 따라 결정된다.The scanning unit scans the coefficients of the quantized transform block and converts them into one-dimensional quantization coefficients. Since the coefficient distribution of the transform block after quantization may be dependent on the intra prediction mode, the scanning scheme is determined according to the intra prediction mode.

또한, 계수 스캐닝 방식은 변환 단위의 크기에 따라 달리 결정될 수도 있다. 상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있다. 양자화 계수들의 스캔순서는 역방향으로 스캔한다.The coefficient scanning method may be determined depending on the size of the conversion unit. The scan pattern may vary according to the directional intra prediction mode. The scan order of the quantization coefficients is scanned in the reverse direction.

상기 양자화된 계수들이 복수개의 서브셋으로 분할된 경우에는 각각의 서브셋 내의 양자화 계수들에 동일한 스캔패턴을 적용한다. 서브셋 간의 스캔패턴은 지그재그 스캔 또는 대각선 스캔을 적용한다. 스캔 패턴은 DC를 포함하는 메인 서브셋으로부터 순방향으로 잔여 서브셋들로 스캔하는 것이 바람직하나, 그 역방향도 가능하다.When the quantized coefficients are divided into a plurality of subsets, the same scan pattern is applied to the quantization coefficients in each subset. The scan pattern between subset applies zigzag scan or diagonal scan. The scan pattern is preferably scanned to the remaining subsets in the forward direction from the main subset containing the DC, but vice versa.

또한, 서브셋 내의 양자화된 계수들의 스캔패턴과 동일하게 서브셋 간의 스캔패턴을 설정할 수도 있다. 이 경우, 서브셋 간의 스캔패턴이 인트라 예측 모드에 따라 결정된다. 한편, 부호기는 상기 변환 유닛내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보를 복호기로 전송한다.In addition, a scan pattern between subsets can be set in the same manner as a scan pattern of quantized coefficients in a subset. In this case, the scan pattern between the sub-sets is determined according to the intra-prediction mode. On the other hand, the encoder transmits to the decoder information indicating the position of the last non-zero quantization coefficient in the transform unit.

각 서브셋 내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보도 복호기로 전송할 수 있다.Information that can indicate the position of the last non-zero quantization coefficient in each subset can also be transmitted to the decoder.

역양자화(135)는 상기 양자화된 양자화 계수를 역양자화한다. 역변환부는 역양자화된 변환 계수를 공간 영역의 잔차 블록으로 복원한다. 가산기는 상기 역변환부에 의해 복원된 잔차블록과 인트라 예측부(169) 또는 인터 예측부(170)로부터의 수신된 예측 블록을 합쳐서 복원 블록을 생성한다.The inverse quantization unit 135 dequantizes the quantized quantized coefficients. The inverse transform unit restores the inversely quantized transform coefficients into residual blocks in the spatial domain. The adder combines the residual block reconstructed by the inverse transform unit with the intra prediction unit 169 or the received prediction block from the inter prediction unit 170 to generate a reconstruction block.

후처리부(171)는 복원된 픽쳐에 발생하는 블록킹 효과의 제거하기 위한 디블록킹 필터링 과정, 화소 단위로 원본 영상과의 차이값을 보완하기 위한 적응적 오프셋 적용 과정 및 코딩 유닛으로 원본 영상과의 차이값을 보완하기 위한 적응적 루프 필터링 과정을 수행한다.The post-processing unit 171 performs a deblocking filtering process for eliminating the blocking effect generated in the reconstructed picture, an adaptive offset application process for compensating the difference value from the original image on a pixel-by-pixel basis, and a coding unit And performs an adaptive loop filtering process to compensate the value.

디블록킹 필터링 과정은 미리 정해진 크기 이상의 크기를 갖는 예측 유닛 및 변환 단위의 경계에 적용하는 것이 바람직하다. 상기 크기는 8x8일 수 있다. 상기 디블록킹 필터링 과정은 필터링할 경계(boundary)를 결정하는 단계, 상기 경계에 적용할 경계 필터링 강도(bounary filtering strength)를 결정하는 단계, 디블록킹 필터의 적용 여부를 결정하는 단계, 상기 디블록킹 필터를 적용할 것으로 결정된 경우, 상기 경계에 적용할 필터를 선택하는 단계를 포함한다.The deblocking filtering process is preferably applied to the boundary of a prediction unit and a conversion unit having a size larger than a predetermined size. The size may be 8x8. The deblocking filtering process may include determining a boundary to be filtered, determining a bounary filtering strength to be applied to the boundary, determining whether to apply a deblocking filter, And selecting a filter to be applied to the boundary if it is determined to apply the boundary.

상기 디블록킹 필터의 적용 여부는 i) 상기 경계 필터링 강도가 0보다 큰지 여부 및 ii) 상기 필터링할 경계에 인접한 2개의 블록(P 블록, Q블록) 경계 부분에서의 화소값들이 변화 정도를 나타내는 값이 양자화 파라미터에 의해 결정되는 제1 기준값보다 작은지 여부에 의해 결정된다.Whether or not the deblocking filter is applied is determined based on i) whether the boundary filtering strength is greater than 0 and ii) whether a pixel value at a boundary between two blocks adjacent to the boundary to be filtered (P block, Q block) Is smaller than a first reference value determined by the quantization parameter.

상기 필터는 적어도 2개 이상인 것이 바람직하다. 블록 경계에 위치한 2개의 화소들간의 차이값의 절대값이 제2 기준값보다 크거나 같은 경우에는 상대적으로 약한 필터링을 수행하는 필터를 선택한다.The filter is preferably at least two or more. If the absolute value of the difference between two pixels located at the block boundary is greater than or equal to the second reference value, a filter that performs relatively weak filtering is selected.

상기 제2 기준값은 상기 양자화 파라미터 및 상기 경계 필터링 강도에 의해 결정된다.And the second reference value is determined by the quantization parameter and the boundary filtering strength.

적응적 오프셋 적용 과정은 디블록킹 필터가 적용된 영상내의 화소와 원본 화소간의 차이값(distortion)을 감소시키기 위한 것이다. 픽쳐 또는 슬라이스 단위로 상기 적응적 오프셋 적용 과정을 수행할지 여부를 결정할 수 있다.The adaptive offset application process is to reduce a distortion between a pixel in the image to which the deblocking filter is applied and the original pixel. It may be determined whether to perform the adaptive offset applying process in units of pictures or slices.

픽쳐 또는 슬라이스는 복수개의 오프셋 영역들로 분할될 수 있고, 각 오프셋 영역별로 오프셋 타입이 결정될 수 있다. 오프셋 타입은 미리 정해진 개수(예를 들어, 4개)의 에지 오프셋 타입과 2개의 밴드 오프셋 타입을 포함할 수 있다.The picture or slice may be divided into a plurality of offset regions, and an offset type may be determined for each offset region. The offset type may include a predetermined number (e.g., four) of edge offset types and two band offset types.

오프셋 타입이 에지 오프셋 타입일 경우에는 각 화소가 속하는 에지 타입을 결정하여, 이에 대응하는 오프셋을 적용한다. 상기 에지 타입은 현재 화소와 인접하는 2개의 화소값의 분포를 기준으로 결정한다.If the offset type is an edge offset type, the edge type to which each pixel belongs is determined and the corresponding offset is applied. The edge type is determined based on the distribution of two pixel values adjacent to the current pixel.

적응적 루프 필터링 과정은 디블록킹 필터링 과정 또는 적응적 오프셋 적용 과정을 거친 복원된 영상과 원본 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 적응적 루프 필터링은 상기 결정된 ALF는 4x4 크기 또는 8x8 크기의 블록에 포함된 화소 전체에 적용될 수 있다.The adaptive loop filtering process can perform filtering based on a value obtained by comparing a reconstructed image and an original image through a deblocking filtering process or an adaptive offset applying process. The adaptive loop filtering can be applied to the entire pixels included in the 4x4 block or the 8x8 block.

적응적 루프 필터의 적용 여부는 코딩 유닛별로 결정될 수 있다. 각 코딩 유닛에 따라 적용될 루프 필터의 크기 및 계수는 달라질 수 있다. 코딩 유닛별 상기 적응적 루프 필터의 적용 여부를 나타내는 정보는 각 슬라이스 헤더에 포함될 수 있다.Whether or not the adaptive loop filter is applied can be determined for each coding unit. The size and the coefficient of the loop filter to be applied may vary depending on each coding unit. Information indicating whether or not the adaptive loop filter is applied to each coding unit may be included in each slice header.

색차 신호의 경우에는, 픽쳐 단위로 적응적 루프 필터의 적용 여부를 결정할 수 있다. 루프 필터의 형태도 휘도와 달리 직사각형 형태를 가질 수 있다.In the case of the color difference signal, it is possible to determine whether or not the adaptive loop filter is applied in units of pictures. The shape of the loop filter may have a rectangular shape unlike the luminance.

적응적 루프 필터링은 슬라이스별로 적용 여부를 결정할 수 있다. 따라서, 현재 슬라이스에 적응적 루프 필터링이 적용되는지 여부를 나타내는 정보는 슬라이스 헤더 또는 픽쳐 헤더에 포함된다.Adaptive loop filtering can be applied on a slice-by-slice basis. Therefore, information indicating whether or not adaptive loop filtering is applied to the current slice is included in the slice header or the picture header.

현재 슬라이스에 적응적 루프 필터링이 적용됨을 나타내면, 슬라이스 헤더 또는 픽쳐 헤더는 추가적으로 적응적 루프 필터링 과정에 사용되는 휘도 성분의 수평 및/또는 수직 방향의 필터 길이를 나타내는 정보를 포함한다.If the current slice indicates that adaptive loop filtering is applied, the slice header or picture header additionally includes information indicating the horizontal and / or vertical direction filter length of the luminance component used in the adaptive loop filtering process.

슬라이스 헤더 또는 픽쳐 헤더는 필터 세트의 수를 나타내는 정보를 포함할 수 있다. 이때 필터 세트의 수가 2 이상이면, 필터 계수들이 예측 방법을 사용하여 부호화될 수 있다. 따라서, 슬라이스 헤더 또는 픽쳐 헤더는 필터 계수들이 예측 방법으로 부호화되는지 여부를 나타내는 정보를 포함할 수 있으며, 예측 방법이 사용되는 경우에는 예측된 필터 계수를 포함한다.The slice header or picture header may include information indicating the number of filter sets. At this time, if the number of filter sets is two or more, the filter coefficients can be encoded using the prediction method. Accordingly, the slice header or the picture header may include information indicating whether or not the filter coefficients are encoded in the prediction method, and may include predicted filter coefficients when the prediction method is used.

한편, 휘도 뿐만 아니라, 색차 성분들도 적응적으로 필터링될 수 있다. 따라서, 색차 성분 각각이 필터링되는지 여부를 나타내는 정보를 슬라이스 헤더 또는 픽쳐 헤더가 포함할 수 있다. 이 경우, 비트수를 줄이기 위해 Cr과 Cb에 대한 필터링 여부를 나타내는 정보를 조인트 코딩(즉, 다중화 코딩)할 수 있다.On the other hand, not only luminance but also chrominance components can be adaptively filtered. Accordingly, the slice header or the picture header may include information indicating whether or not each of the color difference components is filtered. In this case, in order to reduce the number of bits, information indicating whether or not to filter Cr and Cb can be joint-coded (i.e., multiplexed coding).

이때, 색차 성분들의 경우에는 복잡도 감소를 위해 Cr과 Cb를 모두 필터링하지 않는 경우가 가장 빈번할 가능성이 높으므로, Cr과 Cb를 모두 필터링하지 않는 경우에 가장 작은 인덱스를 할당하여 엔트로피 부호화를 수행한다.At this time, in the case of chrominance components, since Cr and Cb are not all filtered in order to reduce the complexity, it is most likely to be the most frequent. Therefore, if Cr and Cb are not all filtered, the smallest index is allocated and entropy encoding is performed .

그리고, Cr 및 Cb를 모두 필터링하는 경우에 가장 큰 인덱스를 할당하여 엔트로피 부호화를 수행한다.When both Cr and Cb are filtered, the largest index is allocated and entropy encoding is performed.

픽쳐 저장부(172)는 후처리된 영상 데이터를 후처리부(171)로부터 입력받아 픽쳐(picture) 단위로 영상을 복원하여 저장한다. 픽쳐는 프레임 단위의 영상이거나 필드 단위의 영상일 수 있다. 픽쳐 저장부(172)는 다수의 픽쳐를 저장할 수 있는 버퍼(도시되지 않음)를 구비한다.The picture storage unit 172 receives the post-processed image data from the post-processing unit 171, and restores and restores the pictures in units of pictures. The picture may be a frame-based image or a field-based image. The picture storage unit 172 has a buffer (not shown) capable of storing a plurality of pictures.

인터 예측부(170)는 상기 픽쳐 저장부(172)에 저장된 적어도 하나 이상의 참조 픽쳐를 이용하여 움직임 추정을 수행하고, 참조 픽쳐를 나타내는 참조 픽쳐 인덱스 및 움직임 벡터를 결정한다.The inter-prediction unit 170 performs motion estimation using at least one reference picture stored in the picture storage unit 172, and determines a reference picture index and a motion vector indicating a reference picture.

그리고, 결정된 참조 픽쳐 인덱스 및 움직임 벡터에 따라, 픽쳐 저장부(172)에 저장된 다수의 참조 픽쳐들 중 움직임 추정에 이용된 참조 픽쳐로부터, 부호화하고자 하는 예측 유닛에 대응하는 예측 블록을 추출하여 출력한다.Then, based on the determined reference picture index and motion vector, a prediction block corresponding to the prediction unit to be coded is extracted from the reference pictures used for motion estimation among a plurality of reference pictures stored in the picture storage unit 172 and output .

여기서, 상기 인터 예측부(170)는 움직임 보상 예측 처리 정보를 조도 보상 처리부(145)로 제공하여 전술한 이웃한 리전에 대한 조도 보상 처리된 예측 블록이 처리되도록 할 수 있으며, 그 처리는 도 2에서 전술한 바와 같이, 예측 블록 또는 재구성 또는 정합에 따라 복원 처리된 블록에 대한 조도 보상 파라미터의 적용 처리를 포함할 수 있다.Here, the inter-prediction unit 170 may provide the motion compensation prediction processing information to the illumination compensation processing unit 145 to process the illumination compensation compensated prediction block for the neighboring region, As described above, the processing of applying the illumination compensation parameters to the prediction block or the block reconstructed according to the reconstruction or matching.

인트라 예측부(169)는 현재 예측 유닛이 포함되는 픽처 내부의 재구성된 화소값을 이용하여 인트라 예측 부호화를 수행한다.The intra prediction unit 169 performs intraprediction encoding using the reconstructed pixel values in the picture including the current prediction unit.

인트라 예측부(169)는 예측 부호화할 현재 예측 유닛을 입력받아 현재 블록의 크기에 따라 미리 설정된 개수의 인트라 예측 모드 중에 하나를 선택하여 인트라 예측을 수행한다.The intra prediction unit 169 receives the current prediction unit to be predictively encoded and selects one of a predetermined number of intra prediction modes according to the size of the current block to perform intra prediction.

인트라 예측부(169)는 인트라 예측 블록을 생성하기 위해 참조 화소를 적응적으로 필터링한다. 참조 화소가 이용 가능하지 않은 경우에는 이용 가능한 참조 화소들을 이용하여 참조 화소들을 생성할 수 있다.The intraprediction unit 169 adaptively filters the reference pixels to generate intra prediction blocks. If reference pixels are not available, reference pixels may be generated using available reference pixels.

엔트로피 부호화부는 양자화부에 의해 양자화된 양자화 계수, 인트라 예측부(169)로부터 수신된 인트라 예측 정보, 인터 예측부(170)로부터 수신된 움직임 정보 등을 엔트로피 부호화한다.The entropy encoding unit entropy-codes quantization coefficients quantized by the quantization unit, intra prediction information received from the intra prediction unit 169, motion information received from the inter prediction unit 170, and the like.

도시되지는 않았으나, 인터 예측 부호화 장치는 움직임 정보 결정부, 움직임 정보 부호화 모드 결정부, 움직임 정보 부호화부, 예측 블록 생성부, 잔차 블록 생성부, 잔차 블록 부호화부 및 멀티플렉서를 포함하여 구성될 수 있다.Although not shown, the inter prediction coding apparatus may include a motion information determination unit, a motion information coding mode determination unit, a motion information coding unit, a prediction block generation unit, a residual block generation unit, a residual block coding unit, and a multiplexer .

움직임 정보 결정부는 현재 블록의 움직임 정보를 결정한다. 움직임 정보는 참조 픽쳐 인덱스와 움직임 벡터를 포함한다. 참조 픽쳐 인덱스는 이전에 부호화되어 복원된 픽쳐 중 어느 하나를 나타낸다.The motion information determination unit determines the motion information of the current block. The motion information includes a reference picture index and a motion vector. The reference picture index indicates any one of the previously coded and reconstructed pictures.

현재 블록이 단방향 인터 예측 부호화되는 경우에는 리스트 0(L0)에 속하는 참조 픽쳐들 중의 어느 하나를 나타낸다. 반면에, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0(L0)의 참조 픽쳐들 중 하나를 나타내는 참조픽쳐 인덱스와 리스트 1(L1)의 참조 픽쳐들 중의 하나를 나타내는 참조픽쳐 인덱스를 포함할 수 있다.And indicates one of the reference pictures belonging to the list 0 (L0) when the current block is unidirectionally inter-predictive-coded. On the other hand, when the current block is bi-directionally predictive-coded, a reference picture index indicating one of the reference pictures of the list 0 (L0) and a reference picture index indicating one of the reference pictures of the list 1 (L1) .

또한, 현재 블록이 양방향 예측 부호화되는 경우에는 리스트 0과 리스트 1을 결합하여 생성된 복합 리스트(LC)의 참조 픽쳐들 중의 1개 또는 2개의 픽쳐를 나타내는 인덱스를 포함할 수 있다.In addition, when the current block is bi-directionally predictive-coded, it may include an index indicating one or two pictures among the reference pictures of the composite list LC generated by combining the list 0 and the list 1.

움직임 벡터는 각각의 참조픽쳐 인덱스가 나타내는 픽쳐 내의 예측 블록의 위치를 나타낸다. 움직임 벡터는 화소단위(정수단위)일수도 있으나, 서브화소단위일 수도 있다.The motion vector indicates the position of the prediction block in the picture indicated by each reference picture index. The motion vector may be a pixel unit (integer unit) or a sub-pixel unit.

예를 들어, 1/2, 1/4, 1/8 또는 1/16 화소의 해상도를 가질 수 있다. 움직임 벡터가 정수단위가 아닐 경우에는 예측 블록은 정수 단위의 화소들로부터 생성된다.For example, it may have a resolution of 1/2, 1/4, 1/8 or 1/16 pixels. When the motion vector is not an integer unit, the prediction block is generated from the pixels of the integer unit.

움직임 정보 부호화 모드 결정부는 현재 블록의 움직임 정보를 스킵 모드로 부호화할지, 머지 모드로 부호화할지, AMVP 모드로 부호화할지를 결정한다.The motion information encoding mode determination unit determines whether motion information of the current block is coded in a skip mode, a merge mode, or an AMVP mode.

스킵 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 스킵 후보자가 존재하고, 잔차신호가 0인 경우에 적용된다. 또한, 스킵 모드는 현재 블록이 코딩 유닛과 사이즈가 같을 때 적용된다. 현재 블록은 예측 유닛으로 볼 수 있다.The skip mode is applied when there is a skip candidate having the same motion information as the current block motion information, and the residual signal is zero. The skip mode is also applied when the current block is the same size as the coding unit. The current block can be viewed as a prediction unit.

머지 모드는 현재 블록의 움직임 정보와 동일한 움직임 정보를 갖는 머지 후보자가 존재할 때 적용된다. 머지 모드는 현재 블록이 코딩 유닛과 사이즈가 다르거나, 사이즈가 같을 경우에는 잔차 신호가 존재하는 경우에 적용된다. 머지 후보자와 스킵 후보자는 동일할 수 있다.The merge mode is applied when there is a merge candidate having the same motion information as the current block motion information. The merge mode is applied when there is a residual signal when the current block is different in size from the coding unit or the size is the same. The merge candidate and the skip candidate can be the same.

AMVP 모드는 스킵 모드 및 머지 모드가 적용되지 않을 때 적용된다. 현재 블록의 움직임 벡터와 가장 유사한 움직임 벡터를 갖는 AMVP 후보자를 AMVP 예측자로 선택한다.AMVP mode is applied when skip mode and merge mode are not applied. The AMVP candidate having the motion vector most similar to the motion vector of the current block is selected as the AMVP predictor.

움직임 정보 부호화부는 움직임 정보 부호화 모드 결정부에 의해 결정된 방식에 따라 움직임 정보를 부호화한다. 움직임 정보 부호화 모드가 스킵 모드 또는 머지 모드일 경우에는 머지 움직임 벡터 부호화 과정을 수행한다. 움직임 정보 부호화 모드가 AMVP일 경우에는 AMVP 부호화 과정을 수행한다.The motion information encoding unit encodes motion information according to a method determined by the motion information encoding mode determining unit. When the motion information encoding mode is a skip mode or a merge mode, a merge motion vector encoding process is performed. When the motion information encoding mode is AMVP, the AMVP encoding process is performed.

예측 블록 생성부는 현재 블록의 움직임 정보를 이용하여 예측 블록을 생성한다. 움직임 벡터가 정수 단위일 경우에는, 참조픽쳐 인덱스가 나타내는 픽쳐 내의 움직임 벡터가 나타내는 위치에 대응하는 블록을 복사하여 현재 블록의 예측 블록을 생성한다.The prediction block generation unit generates a prediction block using the motion information of the current block. If the motion vector is an integer unit, the block corresponding to the position indicated by the motion vector in the picture indicated by the reference picture index is copied to generate a prediction block of the current block.

그러나, 움직임 벡터가 정수 단위가 아닐 경우에는, 참조픽쳐 인덱스가 나타내는 픽쳐내의 정수 단위 화소들로 부터 예측 블록의 화소들을 생성한다.However, when the motion vector is not an integer unit, the pixels of the prediction block are generated from the pixels in the integer unit in the picture indicated by the reference picture index.

이 경우, 휘도 화소의 경우에는 8탭의 보간 필터를 사용하여 예측 화소를 생성할 수 있다. 색차 화소의 경우에는 4탭 보간 필터를 사용하여 예측 화소를 생성할 수 있다.In this case, in the case of a luminance pixel, a prediction pixel can be generated using an 8-tap interpolation filter. In the case of a chrominance pixel, a 4-tap interpolation filter can be used to generate a predictive pixel.

잔차 블록 생성부는 현재 블록과 현재 블록의 예측 블록을 이용하여 잔차 블록을 생성한다. 현재 블록의 크기가 2Nx2N인 경우에는 현재 블록과 현재 블록에 대응하는 2Nx2N 크기의 예측 블록을 이용하여 잔차 블록을 생성한다.The residual block generator uses residual blocks of the current block and the current block to generate residual blocks. If the current block size is 2Nx2N, a residual block is generated using a 2Nx2N prediction block corresponding to the current block and the current block.

그러나, 예측에 이용되는 현재 블록의 크기가 2NxN 또는 Nx2N인 경우에는 2Nx2N을 구성하는 2개의 2NxN 블록 각각에 대한 예측 블록을 구한 후, 상기 2개의 2NxN 예측 블록을 이용하여 2Nx2N 크기의 최종 예측 블록을 생성할 수 있다.However, if the current block size used for prediction is 2NxN or Nx2N, a prediction block for each of the 2NxN blocks constituting 2Nx2N is obtained, and the 2Nx2N final prediction block using the 2NxN prediction blocks is calculated Can be generated.

그리고, 상기 2Nx2N 크기의 예측 블록을 이용하여 2Nx2N 의 잔차 블록을 생성할 수도 있다. 2NxN 크기의 2개의 예측블록들의 경계부분의 불연속성을 해소하기 위해 경계 부분의 픽셀들을 오버랩 스무딩할 수 있다.The 2Nx2N residual block may be generated using the 2Nx2N prediction block. It is possible to overlap-smoothing the pixels of the boundary portion to solve the discontinuity of the boundary portion of 2NxN-sized two prediction blocks.

잔차 블록 부호화부는 생성된 잔차 블록을 하나 이상의 변환 유닛으로 나눈다. 그리고, 각 변환 유닛을 변환 부호화, 양자화 및 엔트로피 부호화된다. 이때, 변환 유닛의 크기는 잔차 블록의 크기에 따라 쿼드트리 방식으로 결정될 수 있다.The residual block coding unit divides the generated residual block into one or more conversion units. Then, each conversion unit is transcoded, quantized, and entropy encoded. At this time, the size of the conversion unit may be determined according to the size of the residual block in a quadtree manner.

잔차 블록 부호화부는 인터 예측 방법에 의해 생성된 잔차 블록을 정수기반 변환 매트릭스를 이용하여 변환한다. 상기 변환 매트릭스는 정수기반 DCT 매트릭스이다.The residual block coding unit transforms the residual block generated by the inter prediction method using an integer-based transform matrix. The transform matrix is an integer-based DCT matrix.

잔차 블록 부호화부는 상기 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위해 양자화 매트릭스를 이용한다. 상기 양자화 매트릭스는 양자화 파라미터에 의해 결정된다.The residual block coding unit uses a quantization matrix to quantize the coefficients of the residual block transformed by the transform matrix. The quantization matrix is determined by a quantization parameter.

상기 양자화 파라미터는 미리 정해진 크기 이상의 코딩 유닛별로 결정된다. 상기 미리 정해진 크기는 8x8 또는 16x16일 수 있다. 따라서, 현재 코딩 유닛이 상기 미리 정해진 크기보다 작은 경우에는 상기 미리 정해진 크기 내의 복수개의 코딩 유닛 중 부호화 순서상 첫번째 코딩 유닛의 양자화 파라미터만을 부호화하고, 나머지 코딩 유닛의 양자화 파라미터는 상기 파라미터와 동일하므로 부호화할 필요가 없다.The quantization parameter is determined for each coding unit equal to or larger than a predetermined size. The predetermined size may be 8x8 or 16x16. Therefore, when the current coding unit is smaller than the predetermined size, only the quantization parameters of the first coding unit are encoded in the coding order among the plurality of coding units within the predetermined size, and the quantization parameters of the remaining coding units are the same as the parameters. You do not have to.

그리고, 결정된 양자화 파라미터 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 상기 변환 블록의 계수들을 양자화한다.The coefficients of the transform block are quantized using a quantization matrix determined according to the determined quantization parameter and the prediction mode.

상기 미리 정해진 크기 이상의 코딩 유닛별로 결정되는 양자화 파라미터는 현재 코딩 유닛에 인접한 코딩 유닛의 양자화 파라미터를 이용하여 예측 부호화된다. 현재 코딩 유닛의 좌측 코딩 유닛, 상측 코딩 유닛 순서로 검색하여 유효한 1개 또는 2개의 유효한 양자화 파라미터를 이용하여 현재 코딩 유닛의 양자화 파라미터 예측자를 생성할 수 있다.The quantization parameter determined for each coding unit equal to or larger than the predetermined size is predictively encoded using a quantization parameter of a coding unit adjacent to the current coding unit. A quantization parameter predictor of the current coding unit can be generated by searching the left coding unit of the current coding unit, the upper coding unit order, and using one or two valid quantization parameters available.

예를 들어, 상기 순서로 검색된 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있다. 또한, 좌측 코딩 유닛, 부호화 순서상 바로 이전의 코딩 유닛 순으로 검색하여 유효한 첫번째 양자화 파라미터를 양자화 파라미터 예측자로 결정할 수 있다.For example, a valid first quantization parameter retrieved in the above order may be determined as a quantization parameter predictor. In addition, the first coding unit may be searched in order of the coding unit immediately before in the coding order, and the first validation parameter may be determined as a quantization parameter predictor.

양자화된 변환 블록의 계수들은 스캐닝되어 1차원의 양자화 계수들로 변환한다. 스캐닝 방식은 엔트로피 부호화 모드에 따라 달리 설정될 수 있다. 예를 들어, CABAC으로 부호화될 경우에는 인터 예측 부호화된 양자화 계수들은 미리 정해진 하나의 방식(지그재그, 또는 대각선 방향으로의 래스터 스캔)으로 스캐닝될 수 있다. 반면에 CAVLC으로 부호화될 경우에는 상기 방식과 다른 방식으로 스캐닝될 수 있다.The coefficients of the quantized transform block are scanned and converted into one-dimensional quantization coefficients. The scanning scheme can be set differently according to the entropy encoding mode. For example, in the case of CABAC encoding, the inter prediction encoded quantized coefficients can be scanned in a predetermined manner (zigzag, or raster scan in diagonal direction). On the other hand, when encoded by CAVLC, it can be scanned in a different manner from the above method.

예를 들어, 스캐닝 방식이 인터의 경우에는 지그재그, 인트라의 경우에는 인트라 예측 모드에 따라 결정될 수 있다. 또한, 계수 스캐닝 방식은 변환 단위의 크기에 따라 달리 결정될 수도 있다.For example, the scanning method may be determined according to the intra-prediction mode in the case of interlacing, or the intra-prediction mode in the case of intra. The coefficient scanning method may be determined depending on the size of the conversion unit.

상기 스캔 패턴은 방향성 인트라 예측 모드에 따라 달라질 수 있다. 양자화 계수들의 스캔순서는 역방향으로 스캔한다.The scan pattern may vary according to the directional intra prediction mode. The scan order of the quantization coefficients is scanned in the reverse direction.

멀티플렉서는 상기 움직임 정보 부호화부에 의해 부호화된 움직임 정보들과 상기 잔차 블록 부호화부에 의해 부호화된 잔차 신호들을 다중화한다. 상기 움직임 정보는 부호화 모드에 따라 달라질 수 있다.The multiplexer multiplexes the motion information encoded by the motion information encoding unit and the residual signals encoded by the residual block encoding unit. The motion information may vary depending on the encoding mode.

즉, 스킵 또는 머지일 경우에는 예측자를 나타내는 인덱스만을 포함한다. 그러나, AMVP일 경우에는 현재 블록의 참조 픽쳐 인덱스, 차분 움직임 벡터 및 AMVP 인덱스를 포함한다.That is, in the case of skipping or merge, only the index indicating the predictor is included. However, in the case of AMVP, the reference picture index, the difference motion vector, and the AMVP index of the current block are included.

이하, 인트라 예측부(169)의 동작에 대한 일실시예를 상세히 설명하기로 한다.Hereinafter, one embodiment of the operation of the intra predictor 169 will be described in detail.

먼저, 픽쳐 분할부(160)에 의해 예측 모드 정보 및 예측 블록의 크기를 수신하며, 예측 모드 정보는 인트라 모드를 나타낸다. 예측 블록의 크기는 64x64, 32x32, 16x16, 8x8, 4x4등의 정방형일 수 있으나, 이에 한정하지 않는다. 즉, 상기 예측 블록의 크기가 정방형이 아닌 비정방형일 수도 있다. First, the picture dividing unit 160 receives the prediction mode information and the size of the prediction block, and the prediction mode information indicates the intra mode. The size of the prediction block may be a square of 64x64, 32x32, 16x16, 8x8, 4x4, or the like, but is not limited thereto. That is, the size of the prediction block may be non-square instead of square.

다음으로, 예측 블록의 인트라 예측 모드를 결정하기 위해 참조 화소를 픽쳐 저장부(172)로부터 읽어 들인다.Next, the reference pixels are read from the picture storage unit 172 to determine the intra-prediction mode of the prediction block.

상기 이용 가능하지 않은 참조화소가 존재하는지 여부를 검토하여 참조 화소 생성 여부를 판단한다. 상기 참조 화소들은 현재 블록의 인트라 예측 모드를 결정하는데 사용된다.It is determined whether or not the reference pixel is generated by examining whether or not the unavailable reference pixel exists. The reference pixels are used to determine the intra prediction mode of the current block.

현재 블록이 현재 픽쳐의 상측 경계에 위치하는 경우에는 현재 블록의 상측에 인접한 화소들이 정의되지 않는다. 또한, 현재 블록이 현재 픽쳐의 좌측 경계에 위치하는 경우에는 현재 블록의 좌측에 인접한 화소들이 정의되지 않는다.If the current block is located at the upper boundary of the current picture, pixels adjacent to the upper side of the current block are not defined. In addition, when the current block is located at the left boundary of the current picture, pixels adjacent to the left side of the current block are not defined.

이러한 화소들은 이용 가능한 화소들이 아닌 것으로 판단한다. 또한, 현재 블록이 슬라이스 경계에 위치하여 슬라이스의 상측 또는 좌측에 인접하는 화소들이 먼저 부호화되어 복원되는 화소들이 아닌 경우에도 이용 가능한 화소들이 아닌 것으로 판단한다.It is determined that these pixels are not usable pixels. In addition, it is determined that the pixels are not usable even if the current block is located at the slice boundary and pixels adjacent to the upper or left side of the slice are not encoded and reconstructed.

상기와 같이 현재 블록의 좌측 또는 상측에 인접한 화소들이 존재하지 않거나, 미리 부호화되어 복원된 화소들이 존재하지 않는 경우에는 이용 가능한 화소들만을 이용하여 현재 블록의 인트라 예측 모드를 결정할 수도 있다.As described above, if there are no pixels adjacent to the left or upper side of the current block, or if there are no pixels that have been previously coded and reconstructed, the intra prediction mode of the current block may be determined using only available pixels.

그러나, 현재 블록의 이용 가능한 참조화소들을 이용하여 이용 가능하지 않은 위치의 참조화소들을 생성할 수도 있다. 예를 들어, 상측 블록의 화소들이 이용 가능하지 않은 경우에는 좌측 화소들의 일부 또는 전부를 이용하여 상측 화소들을 생성할 수 있고, 그 역으로도 가능하다.However, it is also possible to use the available reference pixels of the current block to generate reference pixels of unusable positions. For example, if the pixels of the upper block are not available, the upper pixels may be created using some or all of the left pixels, or vice versa.

즉, 이용 가능하지 않은 위치의 참조화소로부터 미리 정해진 방향으로 가장 가까운 위치의 이용 가능한 참조화소를 복사하여 참조화소로 생성할 수 있다. 미리 정해진 방향에 이용 가능한 참조화소가 존재하지 않는 경우에는 반대 방향의 가장 가까운 위치의 이용 가능한 참조화소를 복사하여 참조화소로 생성할 수 있다.That is, available reference pixels at positions closest to the predetermined direction from the reference pixels at unavailable positions can be copied and generated as reference pixels. When there is no usable reference pixel in a predetermined direction, the usable reference pixel at the closest position in the opposite direction can be copied and generated as a reference pixel.

한편, 현재 블록의 상측 또는 좌측 화소들이 존재하는 경우에도 상기 화소들이 속하는 블록의 부호화 모드에 따라 이용 가능하지 않은 참조 화소로 결정될 수 있다.On the other hand, even if the upper or left pixels of the current block exist, the reference pixel may be determined as an unavailable reference pixel according to the encoding mode of the block to which the pixels belong.

예를 들어, 현재 블록의 상측에 인접한 참조 화소가 속하는 블록이 인터 부호화되어 복원된 블록일 경우에는 상기 화소들을 이용 가능하지 않은 화소들로 판단할 수 있다.For example, if the block to which the reference pixel adjacent to the upper side of the current block belongs is inter-coded and the reconstructed block, the pixels can be determined as unavailable pixels.

이 경우에는 현재 블록에 인접한 블록이 인트라 부호화되어 복원된 블록에 속하는 화소들을 이용하여 이용 가능한 참조 화소들을 생성할 수 있다. 이 경우에는 부호기에서 부호화 모드에 따라 이용 가능한 참조 화소를 판단한다는 정보를 복호기로 전송해야 한다.In this case, it is possible to generate usable reference pixels by using pixels belonging to the restored block by intra-coded blocks adjacent to the current block. In this case, information indicating that the encoder determines available reference pixels according to the encoding mode must be transmitted to the decoder.

다음으로, 상기 참조 화소들을 이용하여 현재 블록의 인트라 예측 모드를 결정한다. 현재 블록에 허용 가능한 인트라 예측 모드의 수는 블록의 크기에 따라 달라질 수 있다. 예를 들어, 현재 블록의 크기가 8x8, 16x16, 32x32인 경우에는 34개의 인트라 예측 모드가 존재할 수 있고, 현재 블록의 크기가 4x4인 경우에는 17개의 인트라 예측 모드가 존재할 수 있다.Next, an intra prediction mode of the current block is determined using the reference pixels. The number of intra prediction modes that can be allowed in the current block may vary depending on the size of the block. For example, if the current block size is 8x8, 16x16, or 32x32, there may be 34 intra prediction modes. If the current block size is 4x4, 17 intra prediction modes may exist.

상기 34개 또는 17개의 인트라 예측 모드는 적어도 하나 이상의 비방향성 모드(non-directional mode)와 복수개의 방향성 모드들(directional modes)로 구성될 수 있다.The 34 or 17 intra prediction modes may include at least one non-directional mode and a plurality of directional modes.

하나 이상의 비방향성 모드는 DC 모드 및/또는 플래너(planar) 모드일수 있다. DC 모드 및 플래너모드가 비방향성 모드로 포함되는 경우에는, 현재 블록의 크기에 관계없이 35개의 인트라 예측 모드가 존재할 수도 있다.The one or more non-directional modes may be a DC mode and / or a planar mode. When the DC mode and the planar mode are included in the non-directional mode, there may be 35 intra-prediction modes regardless of the size of the current block.

이 때에는 2개의 비방향성 모드(DC 모드 및 플래너 모드)와 33개의 방향성 모드를 포함할 수 있다.At this time, it may include two non-directional modes (DC mode and planar mode) and 33 directional modes.

플래너 모드는 현재 블록의 우하측(bottom-right)에 위치하는 적어도 하나의 화소값(또는 상기 화소값의 예측값, 이하 제1 참조값이라 함)과 참조화소들을 이용하여 현재 블록의 예측 블록을 생성한다.The planner mode generates a prediction block of the current block using at least one pixel value (or a predicted value of the pixel value, hereinafter referred to as a first reference value) located at the bottom-right of the current block and the reference pixels .

상기한 바와 같이, 본 발명의 일실시예에 따른 동영상 복호화 장치의 구성은 도 1, 2 및 도 14를 참조하여 설명한 동영상 부호화 장치의 구성으로부터 도출될 수 있으며, 예를 들어 도 2 및 도 14를 참조하여 설명한 바와 같은 부호화 과정의 역과정을 수행함으로써 영상을 복호화할 수 있다.As described above, the configuration of the moving picture decoding apparatus according to an embodiment of the present invention can be derived from the configuration of the moving picture coding apparatus described with reference to FIGS. 1, 2, and 14, for example, The image can be decoded by performing an inverse process of the encoding process as described with reference to FIG.

도 15는 본 발명의 일실시예에 따른 동영상 복호화 장치의 구성을 블록도로 도시한 것이다.15 is a block diagram illustrating a configuration of a moving picture decoding apparatus according to an embodiment of the present invention.

도 15를 참조하면, 본 발명에 따른 동영상 복호화 장치는, 엔트로피 복호화부(210), 역양자화/역변환부(220), 가산기(270), 디블록킹 필터(250), 픽쳐 저장부(260), 인트라 예측부(230), 움직임 보상 예측부(240), 조도 보상 처리부(245) 및 인트라/인터전환 스위치(280)를 구비한다.15, the moving picture decoding apparatus according to the present invention includes an entropy decoding unit 210, an inverse quantization / inverse transform unit 220, an adder 270, a deblocking filter 250, a picture storage unit 260, An intra prediction unit 230, a motion compensation prediction unit 240, an intensity compensation processing unit 245, and an intra / inter changeover switch 280.

엔트로피 복호화부(210)는, 동영상 부호화 장치로부터 전송되는 부호화 비트 스트림을 복호하여, 인트라 예측 모드 인덱스, 움직임 정보, 양자화 계수 시퀀스 등으로 분리한다. 엔트로피 복호화부(210)는 복호된 움직임 정보를 움직임 보상 예측부(240)에 공급한다.The entropy decoding unit 210 decodes the encoded bit stream transmitted from the moving picture encoding apparatus into an intra prediction mode index, motion information, a quantized coefficient sequence, and the like. The entropy decoding unit 210 supplies the decoded motion information to the motion compensation prediction unit 240. [

엔트로피 복호화부(210)는 상기 인트라 예측 모드 인덱스를 상기 인트라 예측부(230), 역양자화/역변환부(220)로 공급한다. 또한, 상기 엔트로피 복호화부(210)는 상기 역양자화 계수 시퀀스를 역양자화/역변환부(220)로 공급한다.The entropy decoding unit 210 supplies the intra prediction mode index to the intraprediction unit 230 and the inverse quantization / inverse transformation unit 220. In addition, the entropy decoding unit 210 supplies the inverse quantization coefficient sequence to the inverse quantization / inverse transformation unit 220.

역양자화/역변환부(220)는 상기 양자화 계수 시퀀스를 2차원 배열의 역양자화 계수로 변환한다. 상기 변환을 위해 복수개의 스캐닝 패턴 중에 하나를 선택한다. 현재 블록의 예측모드(즉, 인트라 예측 및 인터 예측 중의 어느 하나)와 인트라 예측 모드 중 적어도 하나에 기초하여 복수개의 스캐닝 패턴 중 하나를 선택한다.The inverse quantization / inverse transform unit 220 transforms the quantized coefficient sequence into an inverse quantization coefficient of the two-dimensional array. One of a plurality of scanning patterns is selected for the conversion. One of a plurality of scanning patterns is selected based on at least one of a prediction mode of the current block (i.e., one of intra prediction and inter prediction) and the intra prediction mode.

상기 인트라 예측 모드는 인트라 예측부 또는 엔트로피 복호화부로부터 수신한다.The intraprediction mode is received from an intraprediction unit or an entropy decoding unit.

역양자화/역변환부(220)는 상기 2차원 배열의 역양자화 계수에 복수개의 양자화 매트릭스 중 선택된 양자화 매트릭스를 이용하여 양자화 계수를 복원한다. 복원하고자 하는 현재 블록의 크기에 따라 서로 다른 양자화 매트릭스가 적용되며, 동일 크기의 블록에 대해서도 상기 현재 블록의 예측 모드 및 인트라 예측 모드 중 적어도 하나에 기초하여 양자화 매트릭스를 선택한다.The inverse quantization / inverse transform unit 220 restores the quantization coefficients using the selected quantization matrix among the plurality of quantization matrices to the inverse quantization coefficients of the two-dimensional array. A different quantization matrix is applied according to the size of the current block to be restored and a quantization matrix is selected based on at least one of a prediction mode and an intra prediction mode of the current block with respect to the same size block.

그리고, 상기 복원된 양자화 계수를 역변환하여 잔차 블록을 복원한다.Then, the reconstructed quantized coefficient is inversely transformed to reconstruct the residual block.

가산기(270)는 역양자화/역변환부(220)에 의해 복원된 잔차 블록과 인트라 예측부(230) 또는 움직임 보상 예측부(240)에 의해 생성되는 예측 블록을 가산함으로써, 영상 블록을 복원한다.The adder 270 reconstructs the image block by adding the residual block reconstructed by the inverse quantization / inverse transforming unit 220 to the intra prediction unit 230 or the prediction block generated by the motion compensation prediction unit 240.

디블록킹 필터(250)는 가산기(270)에 의해 생성된 복원 영상에 디블록킹 필터 처리를 실행한다. 이에 따라, 양자화 과정에 따른 영상 손실에 기인하는 디블록킹 아티펙트를 줄일 수 있다.The deblocking filter 250 performs deblocking filter processing on the reconstructed image generated by the adder 270. Accordingly, the deblocking artifact due to the video loss due to the quantization process can be reduced.

픽쳐 저장부(260)는 디블록킹 필터(250)에 의해 디블록킹 필터 처리가 실행된 로컬 복호 영상을 유지하는 프레임 메모리이다.The picture storage unit 260 is a frame memory for holding a local decoded picture in which the deblocking filter process is performed by the deblocking filter 250.

인트라 예측부(230)는 엔트로피 복호화부(210)로부터 수신된 인트라 예측 모드 인덱스에 기초하여 현재 블록의 인트라 예측 모드를 복원한다. 그리고, 복원된 인트라 예측 모드에 따라 예측 블록을 생성한다.The intraprediction unit 230 restores the intra prediction mode of the current block based on the intra prediction mode index received from the entropy decoding unit 210. A prediction block is generated according to the restored intra prediction mode.

움직임 보상 예측부(240)는 움직임 벡터 정보에 기초하여 픽쳐 저장부(260)에 저장된 픽쳐로부터 현재 블록에 대한 예측 블록을 생성한다. 소수 정밀도의 움직임 보상이 적용될 경우에는 선택된 보간 필터를 적용하여 예측 블록을 생성한다.The motion compensation prediction unit 240 generates a prediction block for the current block from the picture stored in the picture storage unit 260 based on the motion vector information. When motion compensation with a decimal precision is applied, a prediction block is generated by applying a selected interpolation filter.

여기서, 상기 움직임 보상 예측부(240)는 움직임 보상 예측 처리 정보를 조도 보상 처리부(245)로 제공하여 전술한 이웃한 리전에 대한 조도 보상 처리된 예측 블록이 처리되도록 할 수 있으며, 그 처리는 도 2에서 전술한 바와 같이, 예측 블록 또는 재구성 또는 정합에 따라 복원 처리된 블록에 대한 조도 보상 파라미터의 적용 처리를 포함할 수 있다.Here, the motion compensation prediction unit 240 may provide the motion compensation prediction processing information to the luminance compensation processing unit 245 so that the luminance compensation compensated prediction block for the neighboring region may be processed. 2, as described above, the processing of applying the illumination compensation parameters to the prediction block or the block reconstructed according to the reconstruction or matching.

인트라/인터 전환 스위치(280)는 부호화 모드에 기초하여 인트라 예측부(230)와 움직임 보상 예측부(240)의 어느 하나에서 생성된 예측 블록을 가산기(270)에 제공한다.The intra / inter selector switch 280 provides the adder 270 with a prediction block generated in either the intra prediction unit 230 or the motion compensation prediction unit 240 based on the coding mode.

이와 같은 방식으로 복원된 현재 블록의 예측 블록과 복호화한 현재 블록의 잔차 블록을 이용하여 현재 블록이 복원된다.The current block is reconstructed using the predicted block of the current block restored in this manner and the residual block of the decoded current block.

본 발명의 일실시예에 따른 동영상 비트스트림은 하나의 픽처에서의 부호화된 데이터를 저장하는데 사용되는 단위로서, PS(parameter sets)와 슬라이스 데이터를 포함할 수 있다.The moving picture bitstream according to an embodiment of the present invention may include PS (parameter sets) and slice data as a unit used to store coded data in one picture.

PS(parameter sets)는, 각 픽처의 헤드에 상당하는 데이터인 픽처 파라미터 세트(이하 간단히 PPS라 한다)와 시퀀스 파라미터 세트(이하 간단히 SPS라 한다)로 분할된다. 상기 PPS와 SPS는 각 부호화를 초기화하는데 필요한 초기화 정보를 포함할 수 있으며, 본 발명의 실시 예에 따른 공간적 구조 정보(SPATIAL LAYOUT INFORMATION)가 포함될 수 있다.A PS (parameter set) is divided into a picture parameter set (hereinafter, simply referred to as PPS) and a sequence parameter set (hereinafter simply referred to as SPS) which are data corresponding to the heads of each picture. The PPS and the SPS may include initialization information required to initialize each encoding, and may include SPATALAYOUT INFORMATION according to an embodiment of the present invention.

SPS는 램덤 액세스 유닛(RAU)으로 부호화된 모든 픽처를 복호화하기 위한 공통 참조 정보로서, 프로파일, 참조용으로 사용 가능한 픽처의 최대 수 및 픽처 크기 등을 포함할 수 있다.The SPS is common reference information for decoding all pictures coded in the random access unit (RAU), and may include a profile, a maximum number of pictures usable for reference, a picture size, and the like.

PPS는, 랜덤 액세스 유닛(RAU)으로 부호화된 각 픽처에 대해, 픽처를 복호화하기 위한 참조 정보로서 가변 길이 부호화 방법의 종류, 양자화 단계의 초기값 및 다수의 참조 픽처들을 포함할 수 있다.For each picture coded by the random access unit (RAU), the PPS may include a variable length coding method as reference information for decoding the picture, an initial value of the quantization step, and a plurality of reference pictures.

한편, 슬라이스 헤더(SH)는 슬라이스 단위의 코딩시 해당 슬라이스에 대한 정보를 포함한다.On the other hand, the slice header SH includes information on the corresponding slice when coding is performed on a slice basis.

또한 상기한 바와 같은 조도 보상 처리 여부 또한 플래그의 형태로 시그널링될 수 있으며, 기 정의된 조도 보상 처리의 영상 단위에 따라, 상기한 VPS, SPS, PPS 중 적어도 하나에 포함되어 전송될 수 있다.Also, whether the illumination compensation process is performed as described above may be signaled in the form of a flag, and may be included in at least one of the VPS, the SPS, and the PPS according to the image unit of the previously defined roughness compensation process.

또한, 이웃 리전 정보 및 조도 보상 파라미터는 상기 공간적 구조 정보와 함께 PPS에 포함될 수 있다. 또한, 예를 들어, 특정 픽처 내 첫 번째 영상 단위(예를 들어, 타일 또는 슬라이스)에 대응하는 헤더 정보에 초기 이웃 리전 정보가 포함되어 전송될 수 있고, 다음 이웃 리전 정보는 상기 초기 이웃 리전 정보로부터 유도될 수 있다.In addition, the neighbor region information and the illumination compensation parameter may be included in the PPS together with the spatial structure information. Also, for example, the initial neighbor region information may be transmitted in header information corresponding to the first image unit (e.g., tile or slice) in a specific picture, and the next neighbor region information may be transmitted to the initial neighbor region information Lt; / RTI >

도 16 내지 도 17은 본 발명의 실시 예에 따른 리전 파라미터 기반의 조도 보상을 처리하는 복호화 방법을 설명하기 위한 흐름도이다.FIGS. 16 through 17 are flowcharts for explaining a decoding method for processing a region parameter-based roughness compensation according to an embodiment of the present invention.

도 18은 본 발명의 실시 예에 따른 동기화된 다시점 영상의 리전 영역 및 공간적으로 이웃한 리전을 설명하기 위한 도면이며, 도 19는 본 발명의 실시 예에 따른 시간적으로 이웃한 리전을 설명하기 위한 도면이다.FIG. 18 is a diagram for explaining a region and a spatially neighboring region of a synchronized multi-view image according to an embodiment of the present invention. FIG. 19 is a view for explaining a temporally neighboring region according to an embodiment of the present invention. FIG.

먼저, 도 18 및 도 19에 도시된 바와 같이, 각 서브 이미지들은 공간적 스티치 및 병합 처리됨으로써, 하나의 픽처에 대응되는 각 시점(perspectiv)영역(리전, REGION)에 배치될 수 있다. 이에 따라, 공간축에 따라 공간적으로 병합 동기화된 각 리전들은 하나의 픽처를 구성할 수 있으며, 하나의 픽처는 시계열적인 POC(Picture Order Count) 순서에 따라 시간축으로 배치될 수 있다.First, as shown in FIGS. 18 and 19, each of the sub images is subjected to spatial stitching and merging processing, thereby being arranged in each perspective region (REGION) corresponding to one picture. Accordingly, each of the regions spatially merged and synchronized with each other along the spatial axis can constitute one picture, and one picture can be arranged on a time axis according to a time order POC (Picture Order Count) order.

이에 따라, 상기 복수의 리전은 시간적으로 동기화되어 상기 현재 픽처를 구성하는 복수의 면 인덱스(FACE INDEX)에 각각 대응될 수 있으며, 이웃한 참조 리전은 상기 현재 블록이 속한 리전에 대응하여 상기 현재 픽처상에서 공간적으로 인접한 다른 어느 하나의 면 인덱스(FACE INDEX)에 대응되는 리전일 수 있다. 예를 들어, 도 18에 도시된 바와 같이 N번째 픽처 POC N의 현재 블록이 속한 현재 리전 I의 공간축으로 이웃한 리전은 기 복호화된 리전인 a, b, c, e 중 어느 하나일 수 있다.Accordingly, the plurality of regions may be synchronized with each other to correspond to a plurality of plane indexes (FACE INDEXs) constituting the current picture, and neighboring reference regions may correspond to the current picture, (FACE INDEX) that is spatially adjacent to the other face indexes (FACE INDEX). For example, as shown in FIG. 18, the region neighboring the spatial axis of the current region I to which the current block of the Nth picture POC N belongs may be any of the previously decoded regions a, b, c, and e .

또한, 상기 복수의 리전은 공간적으로 동기화되어, 다른 시간대의 픽처 중 상기 현재 리전과 동일 위치에 위치한 리전일 수 있다. 이에 따라, 상기 이웃한 참조 리전은 상기 현재 블록의 리전이 속한 픽처에 대응하여, 시간적으로 인접한 픽처의 동일 위치 리전일 수 있다. 도 19에 도시된 바와 같이, POC N의 현재 블록이 속한 현재 리전 a의 시간축으로 이웃한 리전은 기 복호화된 POC N'의 동일 위치 리전 a'에 대응할 수 있다.In addition, the plurality of regions may be spatially synchronized, and may be located at the same position as the current region among pictures in different time zones. Accordingly, the neighboring reference region may correspond to a picture to which a region of the current block belongs, and may be located in the same position of temporally adjacent pictures. As shown in FIG. 19, a region adjacent to the time axis of the current region a to which the current block of POC N belongs may correspond to the co-located region a 'of the previously decoded POC N'.

따라서, 리전은 임의의 픽쳐(Picture) 내의 다수의 블록 분할에 대응될 수 있으며, 예를 들어, 부호화 표준에 따라 슬라이스 또는 타일 등과 같은 픽쳐 분할 방법이나 구조로 정의될 수 있다. 예시적 정의에 따라, 리전의 최소 크기는 2개 이상의 CTU로 정의될 수 있고, 최대 크기는 하나의 픽처에 대응될 수 있다.Thus, the region may correspond to a plurality of block divisions within an arbitrary picture, and may be defined, for example, as a picture dividing method or structure such as a slice or a tile according to an encoding standard. According to an exemplary definition, the minimum size of a region may be defined as two or more CTUs, and the maximum size may correspond to one picture.

이 때, 리전 분할에 대한 분할 구조는 표준에 따라, 별도의 신택스로 정의되어 시그널링 되거나, 슬라이스 또는 타일과 같은 특정 픽쳐 분할 단위의 신택스에 포함되어 시그널링될 수 있다. 여기서, 시그널링되는 정보는 리전 분할 정보 및 조도 보상 파라미터 정보 중 적어도 하나를 포함할 수 있다.At this time, the division structure for the region division may be signaled by being defined as a separate syntax according to the standard, or may be included in the syntax of a specific picture division unit such as a slice or a tile. Here, the signaled information may include at least one of the region division information and the illumination compensation parameter information.

이에 따라, 부호화 장치(100)의 조도 보상 처리부(145)는 이와 같이 현재 리전에 대해 공간적 또는 시간적으로 이웃한 리전을 결정하고, 결정된 리전의 조도 보상 파라미터를 획득하며, 상기 조도 보상 파라미터를 이용하여 현재 리전에 대한 조도 보상 처리를 수행할 수 있으며, 이에 따른 시그널링 정보를 생성하여 복호화 장치(200)로 전달할 수 있다.Thus, the illumination compensation processing unit 145 of the encoding apparatus 100 determines spatially or temporally neighboring regions with respect to the current region, obtains the determined region's lightness compensation parameters, and uses the lightness compensation parameters The intensity compensation process for the current region can be performed and the signaling information according to the signaling information can be generated and transmitted to the decoding apparatus 200.

이에 따라 도 16은 복호화 장치(200)가 예측 샘플에 대한 조도 보상을 처리하는 제1 실시 예를 나타내는 흐름도로서, 도 16을 참조하면, 복호화 장치(200)는 입력된 비트스트림의 엔트로피 복호화부(210)를 통해 엔트로피 복호화를 수행하고(S201), 역양자화/역변환부(220)를 통해 역양자화 및 역변환을 처리하며(S203), 움직임 보상 예측부(240)를 통해 현재 블록의 움직임 보상 예측 처리를 수행하여, 예측 샘플을 획득한다(S205).16 is a flowchart showing a first embodiment in which the decoding apparatus 200 processes luminance compensation for a predicted sample. Referring to FIG. 16, the decoding apparatus 200 includes an entropy decoding unit And performs inverse quantization and inverse transformation through the inverse quantization / inverse transform unit 220 (S203). The motion compensation prediction unit 240 performs motion compensation prediction processing of the current block To obtain a prediction sample (S205).

그리고, 복호화 장치(200)는 조도 보상 처리부(245)를 통해, 현재 블록이 속한 현재 리전을 식별하고(S207), 현재 리전에 대응되는 이웃 리전의 조도 보상 파라미터를 획득하며(S209), 획득된 조도 보상 파라미터를 이용하여 상기 현재 블록의 예측 샘플에 대한 조도 보상 처리된 예측 샘플을 획득하여(S211), 움직임 보상 예측부(240)로 전달할 수 있다.The decoding apparatus 200 identifies the current region to which the current block belongs through the luminance compensation processing unit 245 in step S207 and acquires the luminance compensation parameters of the neighboring region corresponding to the current region in step S209, Compensated predicted sample for the predicted sample of the current block using the illumination compensation parameter (S211), and may transmit the predicted sample to the motion compensation predictor 240. [

여기서, 상기 예측 샘플의 조도 보상 처리는 아래와 같은 조도 보상 파라미터로서, 조도 스케일 파라미터인 스케일 팩터(Scale factor) α와 및 조도 오프셋 파라미터인 오프셋(Offset) β의 1차식 적용으로 처리될 수 있다. 예를 들어, Y가 조도 보상 처리된 예측 샘플인 경우, Y = α * pic_values + β와 같은 연산이 처리될 수 있다. 여기서, pic_values는 움직임 보상 예측 샘플(Predictor)의 값을 포함할 수 있다.Here, the roughness compensation process of the predicted sample can be processed by applying a linear function of a scale factor a, which is an roughness scale parameter, and an offset (offset) parameter, which is an roughness offset parameter, as the following roughness compensation parameters. For example, if Y is a predicted sample that has undergone illumination compensation, an operation such as Y =? * Pic_values +? Can be processed. Here, pic_values may include the value of the motion compensation prediction sample (Predictor).

이를 위해, 조도 보상 처리부(245)는 전술한 부호화 장치(100)로부터의 시그널링 정보로부터 이웃 리전 정보 또는 그 초기 정보와, 이웃 리전의 조도 보상 파라미터를 획득할 수 있다. 예를 들어, 리전에 따라, 임의의 영상에서 한 픽처가 N개로 분할된 경우, 각 픽처마다 N개의 조도 보상 파라미터인 Region parameter (α, β) 가 존재할 수 있다.To this end, the illumination compensation processing unit 245 can obtain the neighboring region information or its initial information and the illumination compensation parameters of the neighboring regions from the signaling information from the encoding apparatus 100 described above. For example, according to the region, when one picture is divided into N pictures in an arbitrary image, there are N luminance compensation parameters, that is, Region parameters (?,?) For each picture.

한편, 움직임 보상 예측부(240)는 조도 보상 처리된 예측 샘플과 역양자화/역변환부(220)로부터 제공된 레지듀얼 블록을 이용해 정합처리하여 복원 블록을 생성할 수 있다(S213). 예를 들어, 움직임 보상 예측부(240)는 가산기를 통해 조도 보상 처리된 움직임 보상 예측 블록과 레지듀얼 블록을 정합하여 복원 블록을 생성할 수 있다. In operation S213, the motion compensation prediction unit 240 may generate a reconstruction block by performing a matching process using the prediction samples subjected to the illumination compensation process and a residual block provided from the inverse quantization / inverse transformation unit 220. [ For example, the motion compensation prediction unit 240 may generate a reconstruction block by matching a motion compensation prediction block and a residual block, which are subjected to illumination compensation through an adder.

그리고, 복호화 장치(200)는 상기 리전 정보에 따라, 이웃 리전과의 경계 영역을 식별하고, 상기 경계 영역에 대응되는 필터여부 정보를 확인하여, 상기 복원 블록으로 구성된 경계 영역에 대응하는 필터 처리를 적응적으로 처리할 수 있다(S215). 이는 조도 보상 처리부(245) 또는 디블록킹 필터(250)를 통해, 처리될 수 있으며 도 20에서 보다 구체적으로 설명되도록 한다.Then, the decoding apparatus 200 identifies the border region with the neighbor region according to the region information, confirms the filter presence / absence information corresponding to the border region, and performs filter processing corresponding to the border region composed of the restoration block It can be adaptively processed (S215). This can be processed through the intensity compensation processing unit 245 or the deblocking filter 250 and is described in more detail in FIG.

한편, 도 17은 복호화 장치(200)가 예측 샘플에 대한 조도 보상을 처리하는 제2 실시 예를 나타내는 흐름도로서, 도 16을 참조하면, 복호화 장치(200)는 입력된 비트스트림의 엔트로피 복호화부(210)를 통해 엔트로피 복호화를 수행하고(S301), 역양자화/역변환부(220)를 통해 역양자화 및 역변환을 처리하며(S303), 움직임 보상 예측부(240)를 통해 현재 블록의 움직임 보상 예측 처리를 수행한다(S305).FIG. 17 is a flowchart showing a second embodiment in which the decoding apparatus 200 processes illumination compensation for a predicted sample. Referring to FIG. 16, the decoding apparatus 200 includes an entropy decoding unit And performs inverse quantization and inverse transform through the inverse quantization / inverse transform unit 220 in step S303. The motion compensation prediction unit 240 performs motion compensation prediction processing of the current block through the motion compensation prediction unit 240 (S305).

그리고, 움직임 보상 예측부(240)는 예측 샘플과 역양자화/역변환부(220)로부터 제공된 레지듀얼 블록을 이용해 정합처리하여 복원 블록을 생성할 수 있다(S307). 예를 들어, 움직임 보상 예측부(240)는 가산기를 통해 조도 보상 처리된 움직임 보상 예측 블록과 레지듀얼 블록을 정합하여 복원 블록을 생성할 수 있다. The motion compensation prediction unit 240 may generate a reconstruction block by performing a matching process using the prediction sample and the residual block provided from the inverse quantization / inverse transformation unit 220 (S307). For example, the motion compensation prediction unit 240 may generate a reconstruction block by matching a motion compensation prediction block and a residual block, which are subjected to illumination compensation through an adder.

그리고, 복호화 장치(200)는 조도 보상 처리부(245)를 통해, 상기 복원된 블록이 속한 현재 리전을 식별하고, 현재 리전에 대응되는 이웃 리전의 조도 보상 파라미터를 획득하며(S309), 획득된 조도 보상 파라미터를 이용하여 상기 복원 블록에 대한 조도 보상 처리를 수행하여(S311), 출력할 수 있다.Then, the decoding apparatus 200 identifies the current region to which the restored block belongs, obtains the illumination compensation parameters of the neighbor regions corresponding to the current region through the illumination compensation processing unit 245 (S309) And performs an illumination compensation process on the restored block using the compensation parameter (S311).

여기서, 상기 복원 블록의 조도 보상 처리는 예측 샘플의 처리와 유사하게, 스케일 팩터(Scale factor) α와 오프셋(Offset) β의 1차식 적용으로 처리될 수 있다. 예를 들어, Y가 조도 보상된 복원 블록인 경우, Y = α * pic_values + β와 같은 연산이 처리될 수 있다. 여기서, pic_values는 정합 처리에 따라 재구성된(RECONSTRUCTED) 복원 블록의 값을 포함할 수 있다.In this case, the roughness compensation process of the reconstruction block can be processed by linearly applying a scale factor? And an offset? Similarly to the processing of a prediction sample. For example, if Y is a luminance compensated reconstruction block, an operation such as Y = [alpha] * pic_values + [beta] may be processed. Here, pic_values may include the value of the reconstructed block (RECONSTRUCTED) according to the matching process.

이를 위해, 조도 보상 처리부(245)는 전술한 부호화 장치(100)로부터의 시그널링 정보로부터 이웃 리전 정보 또는 그 유도를 위한 초기 정보와, 이웃 리전의 조도 보상 파라미터를 획득할 수 있다. 예를 들어, 리전에 따라, 임의의 영상에서 한 픽처가 N개로 분할된 경우, 각 픽처마다 N개의 조도 보상 파라미터인 Region parameter (α, β) 가 존재할 수 있다.To this end, the illumination compensation processing unit 245 can obtain the neighboring region information or the initial information for deriving the signal from the signaling information from the encoding apparatus 100 and the illumination compensation parameters of the neighboring regions. For example, according to the region, when one picture is divided into N pictures in an arbitrary image, there are N luminance compensation parameters, that is, Region parameters (?,?) For each picture.

그리고, 복호화 장치(200)는 상기 리전 정보에 따라, 이웃 리전과의 경계 영역을 식별하고, 상기 경계 영역에 대응되는 필터여부 정보를 확인하여, 상기 복원 블록으로 구성된 경계 영역에 대응하는 필터 처리를 적응적으로 처리할 수 있다(S215). 이는 조도 보상 처리부(245) 또는 디블록킹 필터(250)를 통해, 처리될 수 있다.Then, the decoding apparatus 200 identifies the border region with the neighbor region according to the region information, confirms the filter presence / absence information corresponding to the border region, and performs filter processing corresponding to the border region composed of the restoration block It can be adaptively processed (S215). Which can be processed through the intensity compensation processing unit 245 or the deblocking filter 250. [

이와 같은 도 16 및 도 17에 대응하는 조도 보상 처리에 있어서, 이웃 리전은 전술한 도 18과 같이, 공간축으로 이웃한 리전 또는 도 19와 같이 시간축으로 이웃한 리전 중 적어도 하나를 포함할 수 있으며, 하나 또는 그 이상의 이웃 리전으로부터 상기 조도 보상 파라미터가 획득될 수 있다. 이는 부호화 장치(100)에서 결정되어 복호화 장치(200)로 시그널링될 수 있다.In the light intensity compensation process corresponding to Figs. 16 and 17, the neighbor region may include at least one of a region neighboring the space axis or a region neighboring the time axis as shown in Fig. 19, as shown in Fig. 18 described above , The intensity compensation parameter may be obtained from one or more neighbor regions. Which can be determined by the encoding apparatus 100 and signaled to the decoding apparatus 200.

또한, 도 16 또는 도 17에 대응하는 조도 보상 처리가 공간적으로 이웃한 리전의 조도 보상 파라미터를 이용하여 수행된 경우, 복호화 장치(200)는 추가적인 블록 단위의 LIC (Local Illumination compensation)를 더 수행할 수도 있다.If the illumination compensation process corresponding to FIG. 16 or 17 is performed using the illumination compensation parameters of spatially neighboring regions, the decoding apparatus 200 further performs a local illumination compensation (LIC) It is possible.

이 경우, 공간적 단위에서 일부 희소(Sparse) 한 밝기 값의 보정이 수행된 후, 시간적 단위에서의 보다 세밀한 밝기 값의 보정이 수행될 수 있는 것이다.In this case, after correction of some sparse brightness values in a spatial unit is performed, correction of finer brightness values in a temporal unit can be performed.

이에 따라, 복호화 장치(200)는 조도 보상 처리에 있어서, 공간적으로 이웃한 리전(Spatially Region)을 이용한 조도 보상 처리를 먼저 적용하고, 상기 조도 보상 처리된 리전에 대한 시간 지역적(Temporally Local) 조도 보상 처리를 수행할 수 있다.Accordingly, in the illumination compensation process, the decoding apparatus 200 first applies the illumination compensation process using a spatially-adjacent region, and performs a temporal local illumination compensation for the illumination-compensated region Processing can be performed.

도 20은 본 발명의 실시 예에 따른 리전 적응적 필터링을 설명하기 위한 도면이다.20 is a view for explaining region adaptive filtering according to an embodiment of the present invention.

도 20을 참조하면, 본 발명의 실시 예에 따르면, S215 또는 S313 단계와 같이, 정합 단계 이후, 복원 블록이 이웃한 리전간의 경계 영역에 속하는 경우, 복호화 장치(200)는 이에 대응하는 경계 영역 필터링을 선택적으로 수행할 수 있으며, 이를 위한 On/Off 정보가 부호화 장치(100)로부터 복호화 장치(200)로 시그널링될 수 있다.Referring to FIG. 20, according to an embodiment of the present invention, when a restoration block belongs to a boundary region between neighboring regions after the matching step as in S215 or S313, the decoding apparatus 200 performs a boundary region filtering And on / off information for this can be signaled from the encoding apparatus 100 to the decoding apparatus 200. [0050] FIG.

이에 따라, 본 발명의 실시 예에 따른 복호화 장치(200)는 리전 기반의 조도 보상에 있어서, 조도보상을 위한 리전 및 리전간의 경계 영역을 미리 식별할 수 있으며, 이후 디블록킹 필터(250) 또는 조도 보상 처리부(245)를 통해 상기 경계 영역에 대응하는 필터 처리를 선택적으로 수행할 수 있다.Accordingly, in the region-based intensity compensation, the decoding apparatus 200 according to the embodiment of the present invention can identify the boundary region between the region and the region for luminance compensation in advance, and then, the deblocking filter 250 or the roughness The filter processing corresponding to the boundary region can be selectively performed through the compensation processing unit 245. [

이 경우, 필터 방향은 리전 간 수직 또는 수평 방향일 수 있으며, 리전 경계 영역에 대하여만 선택적으로 적용될 수 있다.In this case, the filter direction may be vertical to horizontal or horizontal, and may be selectively applied only to the region of the region boundary.

또한, 전술한 조도 보상 처리부(245)의 조도 보상 또한 상기 경계 영역에서만 적용되는 것도 가능하다. 이에 따라, 조도 보상 처리부(245)는 현재 블록이 리전간 경계 영역으로 식별되는 경우에만, 도 16 또는 도 17에 도시된 바와 같은 조도 보상 처리를 선택적으로 수행할 수도 있다.In addition, the illuminance compensation of the above-described illuminance compensation processing unit 245 may also be applied only to the boundary region. Accordingly, the illumination compensation processing unit 245 may selectively perform the illumination compensation processing as shown in FIG. 16 or 17 only when the current block is identified as the boundary region between the regions.

이에 따라, 도 20을 참조하면, 리전 b의 리전 경계 영역에서는 기 복호화된 리전 a를 참조하여, 수평 방향으로의 필터 처리 또는 조도 보상 처리가 복호화 장치(200)에서 선택적으로 수행될 수 있다.Accordingly, referring to FIG. 20, in the region b of the region b, filter processing or illumination compensation processing in the horizontal direction can be selectively performed in the decoding apparatus 200 with reference to the base-decoded region a.

또한, 리전 a'는 기 복호화된 Region a의 값을 참조하여, 수직 방향으로의 필터 처리 또는 조도 보상 처리가 복호화 장치(200)에서 선택적으로 수행될 수 있다.In addition, the region a 'can be selectively performed in the decoding apparatus 200 by referring to the value of the region-decoded Region a, and filtering processing or illumination compensation processing in the vertical direction.

한편, 리전 b'는 기 복호화된 리전 b와 리전 a'을 참조하여 수직 또는 수평 방향 중 적어도 하나로의 필터 처리 또는 조도 보상 처리가 선택적으로 수행될 수 있다.On the other hand, the region b 'can be selectively subjected to filter processing or luminance compensation processing in at least one of vertical and horizontal directions with reference to the decoded region b and the region a'.

상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.The method according to the present invention may be implemented as a program for execution on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include a ROM, a RAM, a CD- , A floppy disk, an optical data storage device, and the like.

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional programs, codes and code segments for implementing the above method can be easily inferred by programmers of the technical field to which the present invention belongs.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

Claims (18)

복호화 장치에 의하여 수행되는 복호화 방법에 있어서,
시간 또는 공간적으로 동기화된 복수의 리전(REGION)으로 구성되는 현재 픽처 상의 현재 블록의 움직임 예측 복호화를 수행하는 단계를 포함하고,
상기 움직임 예측 복호화를 수행하는 단계는,
상기 현재 블록이 속한 리전에 대응하여 이웃한 참조 리전을 도출하는 단계;
상기 참조 리전의 조도 보상 파라미터를 획득하는 단계; 및
상기 조도 보상 파라미터를 이용하여, 움직임 예측 복호화되는 현재 블록의 조도 보상을 처리하는 단계를 포함하는
복호화 방법.
A decoding method performed by a decoding apparatus,
Performing motion prediction decoding of a current block on a current picture, the motion prediction decoding comprising a plurality of temporally or spatially synchronized REGIONs,
The step of performing the motion prediction decoding includes:
Deriving a neighboring reference region corresponding to the region to which the current block belongs;
Obtaining an illumination compensation parameter of the reference region; And
Processing the luminance compensation of the current block to be motion-predictive-decoded using the luminance compensation parameter
Decoding method.
제1항에 있어서,
상기 복수의 리전은 시간적으로 동기화되어 상기 현재 픽처를 구성하는 복수의 면 인덱스(FACE INDEX)에 각각 대응되는
복호화 방법.
The method according to claim 1,
Wherein the plurality of regions are synchronized in time and correspond to a plurality of plane indices (FACE INDEX) constituting the current picture
Decoding method.
제2항에 있어서,
상기 이웃한 참조 리전은
상기 현재 블록이 속한 리전에 대응하여 상기 현재 픽처상에서 공간적으로 인접한 다른 어느 하나의 면 인덱스에 대응되는 리전인
복호화 방법.
3. The method of claim 2,
The neighboring reference region
And a region index corresponding to another one of the face indexes spatially adjacent on the current picture in correspondence with the region to which the current block belongs,
Decoding method.
제1항에 있어서,
상기 복수의 리전은 공간적으로 동기화되어, 다른 시간대의 픽처 중 상기 현재 리전과 동일 위치에 위치한 리전인
복호화 방법.
The method according to claim 1,
The plurality of regions being spatially synchronized, the plurality of regions being arranged in the same position as the current region among pictures in different time zones
Decoding method.
제4항에 있어서,
상기 이웃한 참조 리전은
상기 현재 블록의 리전이 속한 픽처에 대응하여, 시간적으로 인접한 픽처의 동일 위치 리전인
복호화 방법.
5. The method of claim 4,
The neighboring reference region
Corresponding to the picture to which the region of the current block belongs,
Decoding method.
제1항에 있어서,
상기 조도 보상을 수행하는 단계는,
상기 현재 블록에 대응되는 움직임 예측 샘플을 생성하는 단계;
상기 조도 보상 파라미터를 상기 움직임 예측 샘플에 적용하는 단계; 및
상기 조도 보상 파라미터가 적용된 움직임 예측 샘플과 레지듀얼 블록을 정합하여 복원 블록을 획득하는 단계를 포함하는
복호화 방법.
The method according to claim 1,
The step of performing the intensity compensation may include:
Generating a motion prediction sample corresponding to the current block;
Applying the intensity compensation parameter to the motion prediction sample; And
And obtaining a restoration block by matching the residual block with the motion prediction sample to which the intensity compensation parameter is applied
Decoding method.
제1항에 있어서,
상기 조도 보상을 수행하는 단계는,
상기 현재 블록에 대응되는 움직임 예측 샘플을 생성하는 단계;
상기 움직임 예측 샘플과 레지듀얼 블록을 정합하여 복원 블록을 획득하는 단계; 및
상기 조도 보상 파라미터를 상기 복원 블록에 적용하는 단계를 포함하는
복호화 방법.
The method according to claim 1,
The step of performing the intensity compensation may include:
Generating a motion prediction sample corresponding to the current block;
Obtaining a restoration block by matching the motion prediction sample with a residual block; And
And applying the intensity compensation parameter to the reconstruction block
Decoding method.
제1항에 있어서,
상기 조도 보상 파라미터는,
각 복수의 리전에 각각 대응하여 미리 결정되는 조도 스케일 파라미터 및 조도 오프셋 파라미터를 포함하는
복호화 방법.
The method according to claim 1,
The light intensity compensation parameter may be,
A plurality of regions including a predetermined illumination scale parameter and an illumination intensity offset parameter corresponding to each of the plurality of regions
Decoding method.
제1항에 있어서,
상기 조도 보상 처리된 블록이 상기 현재 리전과 상기 이웃한 리전의 경계 영역에 위치하는 경우, 적응적 필터링을 수행하는 단계를 더 포함하는
복호화 방법.
The method according to claim 1,
And performing adaptive filtering if the intensity compensated block is located in a boundary region between the current region and the neighboring region
Decoding method.
복호화 장치에 있어서,
시간 또는 공간적으로 동기화된 복수의 리전(REGION)으로 구성되는 현재 픽처 상의 현재 블록의 움직임 예측 복호화를 수행하는 영상 복호화부; 및
상기 현재 블록이 속한 리전에 대응하여 이웃한 참조 리전을 도출하고, 상기 참조 리전의 조도 보상 파라미터를 획득하며, 상기 조도 보상 파라미터를 이용하여, 움직임 예측 복호화되는 현재 블록의 조도 보상을 처리하는 조도 보상 처리부를 포함하는
복호화 장치.
In the decoding apparatus,
An image decoding unit which performs motion prediction decoding on a current block on a current picture, which is composed of a plurality of REGIONs synchronized in time or spatially; And
Wherein the illumination compensation unit is configured to derive a neighboring reference region corresponding to a region to which the current block belongs and to obtain an illumination compensation parameter of the reference region, Comprising a processor
Decoding device.
제10항에 있어서,
상기 복수의 리전은 시간적으로 동기화되어 상기 현재 픽처를 구성하는 복수의 면 인덱스(FACE INDEX)에 각각 대응되는
복호화 장치.
11. The method of claim 10,
Wherein the plurality of regions are synchronized in time and correspond to a plurality of plane indices (FACE INDEX) constituting the current picture
Decoding device.
제11항에 있어서,
상기 이웃한 참조 리전은
상기 현재 블록이 속한 리전에 대응하여 상기 현재 픽처상에서 공간적으로 인접한 다른 어느 하나의 면 인덱스에 대응되는 리전인
복호화 장치.
12. The method of claim 11,
The neighboring reference region
And a region index corresponding to another one of the face indexes spatially adjacent on the current picture in correspondence with the region to which the current block belongs,
Decoding device.
제10항에 있어서,
상기 복수의 리전은 공간적으로 동기화되어, 다른 시간대의 픽처 중 상기 현재 리전과 동일 위치에 위치한 리전인
복호화 장치.
11. The method of claim 10,
The plurality of regions being spatially synchronized, the plurality of regions being arranged in the same position as the current region among pictures in different time zones
Decoding device.
제13항에 있어서,
상기 이웃한 참조 리전은
상기 현재 블록의 리전이 속한 픽처에 대응하여, 시간적으로 인접한 픽처의 동일 위치 리전인
복호화 장치.
14. The method of claim 13,
The neighboring reference region
Corresponding to the picture to which the region of the current block belongs,
Decoding device.
제10항에 있어서,
상기 조도 보상 처리부는,
상기 영상 복호화부에서 상기 현재 블록에 대응되는 움직임 예측 샘플을 생성하면, 상기 조도 보상 파라미터를 상기 움직임 예측 샘플에 적용하며,
상기 영상 복호화부는 상기 조도 보상 파라미터가 적용된 움직임 예측 샘플과 레지듀얼 블록을 정합하여 복원 블록을 획득하는
복호화 장치.
11. The method of claim 10,
The illuminance compensation processing unit,
Wherein the image decoding unit applies the intensity compensation parameter to the motion prediction sample when generating the motion prediction sample corresponding to the current block,
The image decoding unit obtains a reconstruction block by matching a residual block with a motion prediction sample to which the intensity compensation parameter is applied
Decoding device.
제10항에 있어서,
상기 조도 보상 처리부는,
상기 영상 복호화부에서 상기 현재 블록에 대응되는 움직임 예측 샘플을 생성하고, 상기 움직임 예측 샘플과 레지듀얼 블록을 정합하여 복원 블록을 획득하면, 상기 조도 보상 파라미터를 상기 복원 블록에 적용하는
복호화 장치.
11. The method of claim 10,
The illuminance compensation processing unit,
Wherein the image decoding unit generates a motion prediction sample corresponding to the current block and acquires a reconstruction block by matching the motion prediction sample and the residual block to apply the intensity compensation parameter to the reconstruction block
Decoding device.
제10항에 있어서,
상기 영상 복호화부는, 상기 현재 블록에 대응하여 외부로부터 시그널링된 헤더 또는 신택스 정보로부터 상기 조도 보상 처리의 적용여부를 식별하는
복호화 장치.
11. The method of claim 10,
The image decoding unit identifies whether or not the intensity compensation processing is applied from header or syntax information signaled from the outside corresponding to the current block
Decoding device.
제10항에 있어서,
상기 조도 보상 처리부는, 상기 현재 블록에 대응하여 외부로부터 시그널링된 헤더 또는 신택스 정보로부터 상기 조도 보상을 위한 조도 보상 파라미터를 획득하는
복호화 장치.
11. The method of claim 10,
The illumination compensation processing unit obtains the illumination compensation parameters for the illumination compensation from the externally signaled header or syntax information corresponding to the current block
Decoding device.
KR1020170086115A 2017-07-06 2017-07-06 A method and an appratus for processing videos based on syncronized regions KR20190005452A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170086115A KR20190005452A (en) 2017-07-06 2017-07-06 A method and an appratus for processing videos based on syncronized regions
US16/628,875 US20200267385A1 (en) 2017-07-06 2018-07-06 Method for processing synchronised image, and apparatus therefor
PCT/KR2018/007702 WO2019009667A1 (en) 2017-07-06 2018-07-06 Method for processing synchronised image, and apparatus therefor
CN201880045272.XA CN110870307A (en) 2017-07-06 2018-07-06 Method and device for processing synchronous image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170086115A KR20190005452A (en) 2017-07-06 2017-07-06 A method and an appratus for processing videos based on syncronized regions

Publications (1)

Publication Number Publication Date
KR20190005452A true KR20190005452A (en) 2019-01-16

Family

ID=65280837

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170086115A KR20190005452A (en) 2017-07-06 2017-07-06 A method and an appratus for processing videos based on syncronized regions

Country Status (1)

Country Link
KR (1) KR20190005452A (en)

Similar Documents

Publication Publication Date Title
CN109691110B (en) Method and apparatus for encoding/decoding synchronous multi-view video using spatial layout information
KR102014240B1 (en) A method for seletively decoding a syncronized multi view video by using spatial layout information
US11438506B2 (en) Method and apparatus for reconstructing 360-degree image according to projection format
US20210218889A1 (en) Image data encoding/decoding method and apparatus
US20240007602A1 (en) Image data encoding/decoding method and apparatus
KR20240049530A (en) Method and apparatus for encoding/decoding image and recording medium for storing bitstream
US11831914B2 (en) Method and apparatus of encoding/decoding image data based on tree structure-based block division
US11778331B2 (en) Image data encoding/decoding method and apparatus
RU2729966C1 (en) Methods, devices and machine-readable medium for encoding and decoding video signal
CN110870307A (en) Method and device for processing synchronous image
KR102537024B1 (en) A method for encoding/decoding a virtual reality video
KR20190022399A (en) A method for encoding/decoding a virtual reality video
KR20180028298A (en) A method for encoding/decoding a syncronized multi view video by using spatial layout information
KR20190005452A (en) A method and an appratus for processing videos based on syncronized regions
KR102312285B1 (en) A method for seletively decoding a syncronized multi view video by using spatial layout information
KR20190007254A (en) A method and an appratus for processing videos based on syncronized region
KR20200052763A (en) A method for encoding/decoding a video based on moving information of 3-dimensional sphere
KR20200052762A (en) A method for encoding/decoding a video based on moving information of 3-dimensional sphere
KR20180028300A (en) A method for providing media bitstream of a syncronized multi view video by using spatial layout information
KR20230055488A (en) A method and an apparatus for processing high resolution videos