KR20180021941A - Video encoding method and apparatus using merge for coding units, and video decoding method and apparatus - Google Patents

Video encoding method and apparatus using merge for coding units, and video decoding method and apparatus Download PDF

Info

Publication number
KR20180021941A
KR20180021941A KR1020160105952A KR20160105952A KR20180021941A KR 20180021941 A KR20180021941 A KR 20180021941A KR 1020160105952 A KR1020160105952 A KR 1020160105952A KR 20160105952 A KR20160105952 A KR 20160105952A KR 20180021941 A KR20180021941 A KR 20180021941A
Authority
KR
South Korea
Prior art keywords
unit
merge candidate
motion information
difference signal
video
Prior art date
Application number
KR1020160105952A
Other languages
Korean (ko)
Inventor
심동규
안용조
박시내
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020160105952A priority Critical patent/KR20180021941A/en
Priority to PCT/KR2016/010877 priority patent/WO2018038315A1/en
Publication of KR20180021941A publication Critical patent/KR20180021941A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present invention relates to a method and an apparatus for omitting the presence or absence of a differential signal when performing the merge of coding units in a video compression technique. The apparatus includes a merge candidate generating part, a merge candidate determining part, a motion information generating part, a motion restoration performing part, and a difference signal obtaining part, and a restoration part.

Description

부호화 유닛들의 병합을 사용하는 비디오 부호화 방법 및 장치, 그리고 비디오 복호화 방법 및 장치{VIDEO ENCODING METHOD AND APPARATUS USING MERGE FOR CODING UNITS, AND VIDEO DECODING METHOD AND APPARATUS}TECHNICAL FIELD [0001] The present invention relates to a video encoding method and apparatus using a combination of encoding units, and a video decoding method and apparatus using video encoding,

본 발명은 영상 처리기술에 관한 것으로써, 보다 상세하게는 비디오압축 기술에서 부호화 유닛들의 병합을 사용하는 경우 양자화 계수의 유무를 부호화 및 복호화하는 방법 및 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique, and more particularly, to a method and apparatus for encoding and decoding presence / absence of a quantization coefficient when a combination of encoding units is used in a video compression technique.

최근 고해상도, 고화질 비디오에 대한 요구가 증가함에 따라 차세대 비디오 서비스를 위한 고효율 비디오 압축 기술에 대한 필요성이 대두되었다. 이러한 필요성에 기반하여 H.264/AVC 비디오 압축 표준을 공동으로 표준화 했던 MPEG과 VCEG은 JCT-VC (Joint Collaborative Team on Video Coding)을 결성하여 2013년 1월 최신 국제 비디오 압축 표준인 HEVC에 대한 표준화를 완료하였다.Recently, as the demand for high definition and high definition video increases, there is a need for a high efficiency video compression technology for next generation video service. Based on this need, MPEG and VCEG, which jointly standardized the H.264 / AVC video compression standard, formed Joint Collaborative Team on Video Coding (JCT-VC) to standardize the latest international video compression standard HEVC .

HEVC에서는 기존의 비디오 압축 표준인 MPEG-4, H.264/AVC 등에서 사용하는 매크로블록 (macroblock, MB)의 개념을 쿼드 트리 형태의 블록 구조로 확장하여 부호화를 위한 단위인 코딩 유닛 (coding unit, CU), 예측을 위한 단위인 예측 유닛 (prediction unit, PU) 와 변환을 위한 변환 유닛 (transform unit, TU)으로 역할별 세분화된 블록 단위를 사용한다. HEVC 표준화 이후, MPEG과 VCEG은 공동으로 차세대 비디오 부호화 표준 개발을 위하여 JVET을 결성하여 부호화 성능 향상을 위한 연구를 진행하고 있으며, HEVC의 쿼드 트리 형태의 블록 구조에서 확장된 쿼드트리 플러스 바이너리트리 (quad-tree plus binary-tree, QTBT)의 블록 구조에 대한 연구가 진행되고 있다.HEVC expands the concept of macroblock (MB) used in existing video compression standards MPEG-4, H.264 / AVC, etc. into a block structure of a quad tree type and provides a coding unit (coding unit) CU), a prediction unit (PU) for prediction, and a transform unit (TU) for conversion. Since the HEVC standardization, MPEG and VCEG have jointly developed JVET for the development of the next generation video coding standard and are studying to improve the coding performance. In the HEVC quad tree type block structure, quad tree plus binary tree (quad) -tree plus binary-tree, QTBT).

본 발명은 다양한 분할 형태의 블록 구조를 사용하는 비디오 부호화 및 복호화 방법 및 장치에서 부호화 유닛이 병합된 경우 양자화 계수의 유무를 부호화 및 복호화하는 방법 및 장치를 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide a method and apparatus for encoding and decoding presence / absence of a quantization coefficient when an encoding unit is combined in a video encoding and decoding method and apparatus using block structures of various division types.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It is to be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 부호화 장치 및 방법, 그리고 복호화 장치 및 방법은 MERGE 후보를 생성하는 MERGE 후보 생성부, 상기 생성된 MERGE 후보를 이용하여 MERGE 후보를 결정하는 MERGE 후보 결정부, 상기 결정된 MERGE 후보를 이용하여 현재 부호화 유닛의 움직임 정보를 생성하는 움직임 정보 생성부, 상기 생성된 움직임 정보를 이용하여 움직임 복원을 수행하는 움직임 복원 수행부, 및 차분신호를 비트스트림으로부터 획득하고 이를 복원하는 차분신호 획득부 및 복원부를 포함한다.According to an aspect of the present invention, there is provided a video encoding apparatus and method, and a decoding apparatus and method therefor, including a MERGE candidate generating unit for generating a MERGE candidate, a MERGE candidate determining unit for determining a MERGE candidate using the generated MERGE candidate, A motion information generation unit for generating motion information of a current encoding unit using the determined MERGE candidate, a motion restoration performing unit for performing motion restoration using the generated motion information, And a difference signal acquisition unit and a reconstruction unit.

상기 과제를 해결하기 위하여 현재 복호화하는 부호화 유닛과 공간적, 시간적으로 인접한 움직임 정보들을 이용하여 MERGE 후보를 생성하는 MERGE 후보 생성부, 상기 생성된 MERGE 후보 중 비트스트림에서 획득한 MERGE 후보 인덱스를 이용하여 MERGE 후보를 결정하는 MERGE 후보 결정부, 상기 결정된 MERGE 후보의 움직임 정보를 현재 부호화 유닛에서 가공하여 움직임 정보를 생성하는 움직임 정보 생성부, 상기 생성된 움직임 정보를 이용하여 움직임 복원을 수행하는 움직임 복원부, 및 상기 현재 부호화 유닛 내부의 모든 블록에 대한 차분신호 존재 여부 판별 없이 차분 신호를 비트스트림으로부터 획득하는 단계를 포함한다.In order to solve the above problem, a MERGE candidate generating unit for generating a MERGE candidate using spatial information and motion information temporally adjacent to a current decoding unit, a MERGE candidate generating unit for generating a MERGE candidate using a MERGE candidate index acquired from a bitstream of the generated MERGE candidate, A motion information generating unit for generating motion information by processing the motion information of the determined MERGE candidate in the current encoding unit, a motion restoring unit for performing motion restoration using the generated motion information, And obtaining a difference signal from a bit stream without discriminating whether or not a difference signal exists for all blocks in the current encoding unit.

본 발명은 다양한 분할 형태의 블록 구조를 사용하는 비디오 압축 기술에서 인접한 블록 간의 병합을 수행하는 경우 부호화된 양자화 계수의 유무를 부호화 및 복호화하는 방법 및 장치를 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide a method and apparatus for encoding and decoding the presence or absence of an encoded quantization coefficient when performing merging between adjacent blocks in a video compression technique using block structures of various divisions.

본 발명의 일 실시 예에 따르면, 부호화 유닛이 스킵 모드가 아니며 병합 모드로 결정되는 경우 차분신호의 존재 유무에 대한 정보를 전송하지 않으므로 차분신호의 존재 유무에 대한 정보를 부호화하는데 필요한 비트량을 감소시킴으로써 부호화의 성능을 향상시킬 수 있다.According to an embodiment of the present invention, when the encoding unit is not in a skip mode and is determined to be a merge mode, information on the presence or absence of a difference signal is not transmitted, so that a bit amount necessary for encoding information on the presence or absence of a difference signal is reduced The performance of the encoding can be improved.

도 1은 본 발명의 일 실시예에 따른 비디오 부호화 장치의 구성을 나타내는 블록도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 비디오 복호화 장치의 구성을 나타내는 블록도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 다양한 분할 형태를 사용하는 블록 구조와 쿼드 트리 및 바이너리 트리로 분할된 부호화 유닛의 일 예를 나타내는 개념도를 도시한다.
도 4는 본 발명의 일 실시예에 따른 부호화 유닛의 복호화 순서도를 도시한다.
도 5는 본 발명의 일 실시예에 따른 기존 비디오 부호화 표준에서 사용하는 병합모드의 복호화 순서도를 도시한다.
도 6은 본 발명의 일 실시예에 따른 차분신호 존재 유무를 전송하지 않는 비디오 복호화 방법 및 장치에서의 병합모드의 복호화 순서도를 도시한다.
1 is a block diagram showing a configuration of a video encoding apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a video decoding apparatus according to an embodiment of the present invention.
FIG. 3 is a conceptual diagram illustrating an example of a block structure using a plurality of division types and an encoding unit divided into a quadtree and a binary tree according to an embodiment of the present invention.
FIG. 4 shows a decoding flowchart of an encoding unit according to an embodiment of the present invention.
FIG. 5 illustrates a decoding flow diagram of a merge mode used in an existing video encoding standard according to an embodiment of the present invention.
FIG. 6 shows a decoding flowchart of a merging mode in a video decoding method and apparatus that does not transmit presence / absence of a difference signal according to an embodiment of the present invention.

하기는 본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings attached hereto, so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

본 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다.Throughout this specification, when a part is referred to as being 'connected' to another part, it includes not only a case where it is directly connected but also a case where the part is electrically connected with another part in between.

또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.In addition, when an element is referred to as being "comprising" an element throughout the specification, it is understood that the element may include other elements, but not other elements, unless specifically stated otherwise.

본 명세서 전체에서 사용되는 정도의 용어 ~(하는) 단계 또는 ~의 단계는 ~를 위한 단계를 의미하지 않는다.The term (or step) or step of (~) used in the present specification does not imply a step for.

또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Also, the terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다.이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, which does not mean that each component is composed of separate hardware or software constituent units. That is, each constituent unit is described by arranging each constituent unit for convenience of explanation, and at least two constituent units of each constituent unit may be combined to form one constituent unit or one constituent unit may be divided into a plurality of constituent units to perform a function. The integrated embodiments and the separate embodiments of each of these components are also included in the scope of the present invention without departing from the essence of the present invention.

이하 본 명세서에 기재된 본 발명의 다양한 실시예들에서 '부호화 단위'는 비디오 부호화 및 복호화 단계에서 화소로 이루어진 블록과 이에 대한 부호화 정보를 포함하는 단위를 지칭하며, '부호화 유닛', 'Coding Unit', 'CU' 등의 용어와 병행하여 사용될 수 있으며, 비디오 부호화 및 복호화 단위를 모두 포함하여 포괄적으로 지칭할 수 있다.In the various embodiments of the present invention described below, an 'encoding unit' refers to a unit including blocks constituting pixels and encoding information thereof in the video encoding and decoding step, and includes 'encoding unit', 'coding unit' , 'CU', or the like, and may be collectively referred to as including both video encoding and decoding units.

이하 본 발명의 일 실시예에 따라 제안하는 부호화 유닛들의 병합을 사용하는 부호화 방법 및 장치, 그리고 비디오 복호화 방법 및 장치에 대하여 도 6을 참조하여 구체적으로 설명하기로 한다.Hereinafter, an encoding method and apparatus using a merging of the proposed encoding units according to an embodiment of the present invention, and a video decoding method and apparatus will be described in detail with reference to FIG.

도 1은 본 발명의 일 실시예에 따른 비디오 부호화 방법 및 장치의 구성을 나타내는 블록도를 도시한다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram illustrating a video encoding method and apparatus according to an embodiment of the present invention.

일 실시예에 따른 비디오 부호화 방법 및 장치는 화면 간 예측부(120), 화면 내 예측부(125), 감산부(130), 변환부(140), 양자화부(150), 엔트로피 부호화부(160), 역변환부(145), 역양자화부(155), 가산부(135), 인루프 필터부(180), 복원 픽쳐 버퍼(190)를 포함할 수 있다.The video encoding method and apparatus according to one embodiment includes an inter picture prediction unit 120, an intra picture prediction unit 125, a subtraction unit 130, a transform unit 140, a quantization unit 150, an entropy encoding unit 160 An inverse transform unit 145, an inverse quantization unit 155, an adding unit 135, an in-loop filter unit 180, and a reconstruction picture buffer 190.

화면 간 예측부(120)는 입력 영상(110)과 복원 픽쳐 버퍼(190)에 저장되어 있는 복원 영상을 이용하여 움직임 예측을 수행하여 예측 신호를 생성한다.The inter-picture prediction unit 120 performs motion prediction using the reconstructed image stored in the input image 110 and the reconstructed picture buffer 190 to generate a prediction signal.

화면 내 예측부(125)는 부호화되는 현재 블록과 인접하는 기-복원된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다.The intra prediction unit 125 performs spatial prediction using the pixel values of neighboring neighboring blocks that are adjacent to the current block to be encoded, thereby generating a prediction signal.

감산부(130)는 입력 영상과 화면 간 예측부(120) 혹은 화면 내 예측부(125)를 통해 생성된 예측 신호를 이용하여 잔차 신호(residual signal)를 생성한다.The subtractor 130 generates a residual signal using the input image and the prediction signal generated through the inter-picture predicting unit 120 or the intra-picture predicting unit 125.

변환부(140) 및 양자화부(150)는 감산부(130)을 통해 생성된 잔차 신호에 대하여 변환 및 양자화를 수행하여 양자화된 계수(quantized coefficient)를 생성한다.The conversion unit 140 and the quantization unit 150 convert and quantize the residual signal generated through the subtraction unit 130 to generate a quantized coefficient.

엔트로피 부호화부(160)는 비디오 부호화기에 정의된 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 부호화 정보에 대하여 엔트로피 부호화를 수행하여 비트스트림을 출력한다.The entropy encoding unit 160 performs entropy encoding on the encoding information such as syntax elements and quantized coefficients defined in the video encoder and outputs the bitstream.

역변환부(145) 및 역양자화부(155)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 복원된 잔차 신호를 생성한다.The inverse transform unit 145 and the inverse quantization unit 155 receive the quantized coefficients, perform inverse quantization and inverse transformation in order, and generate a reconstructed residual signal.

가산부(135)는 화면 간 예측부(120) 혹은 화면 내 예측부(125)를 통해 생성된 예측 신호와 복원된 잔차 신호를 이용하여 복원 신호를 생성한다.The adder 135 generates a reconstructed signal using the predictive signal generated through the inter-picture predicting unit 120 or the intra-picture predictor 125 and the reconstructed residual signal.

복원 신호는 인루프 필터부(180)로 전달된다. 필터링이 적용된 복원 픽쳐는 복원 픽쳐 버퍼(190)에 저장되며, 화면 간 예측부(120)에서 참조 픽쳐로 사용될 수 있다.The restored signal is transmitted to the in-loop filter unit 180. The restored picture to which the filtering is applied is stored in the restored picture buffer 190, and can be used as a reference picture in the inter-picture predicting unit 120.

도 2는 본 발명의 일 실시예에 따른 비디오 복호화 장치 및 방법의 구성을 나타내는 블록도를 도시한다.2 is a block diagram showing the configuration of a video decoding apparatus and method according to an embodiment of the present invention.

일 실시예에 따른 비디오 복호화 장치 및 방법은 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 화면 내 예측부(240), 화면 간 예측부(250), 가산부(260), 인루프 필터부(270), 복원 픽쳐 버퍼(280)를 포함할 수 있다.The video decoding apparatus and method according to one embodiment includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, an inter prediction unit 250, 260, an in-loop filter unit 270, and a reconstruction picture buffer 280.

엔트로피 복호화부(210)는 입력된 비트스트림(200)을 복호화하여 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 복호화 정보를 출력한다.The entropy decoding unit 210 decodes the input bitstream 200 and outputs decoded information such as syntax elements and quantized coefficients.

역양자화부(220) 및 역변환부 (230)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 잔차 신호(residual signal)를 출력한다.The inverse quantization unit 220 and the inverse transformation unit 230 receive the quantization coefficient, perform inverse quantization and inverse transformation in order, and output a residual signal.

화면 내 예측부(240)는 복호화되는 현재 블록과 인접하는 기-복호화된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다.The intra prediction unit 240 generates a prediction signal by performing spatial prediction using the pixel values of the neighboring decoded neighboring blocks adjacent to the current block to be decoded.

화면 간 예측부(250)는 비트스트림으로부터 추출된 움직임 벡터와 복원 픽쳐 버퍼(280)에 저장되어 있는 복원 영상을 이용하여 움직임 보상을 수행하여 예측 신호를 생성한다.The inter-picture prediction unit 250 performs motion compensation using a motion vector extracted from the bit stream and a reconstructed picture stored in the reconstruction picture buffer 280 to generate a prediction signal.

화면 내 예측부(240)와 화면 내 예측부(250)로부터 출력된 예측 신호는 가산부(260)를 통해 잔차 신호와 합해지고, 그에 따라 블록 단위로 생성된 복원 신호는 복원된 영상을 포함한다.The prediction signals output from the intra prediction unit 240 and the intra prediction unit 250 are summed with the residual signal through the adder 260 and the reconstructed signal generated on a block-by-block basis includes the reconstructed image .

복원된 영상은 인루프 필터부(270)로 전달된다. 필터링이 적용된 복원 픽쳐는 복원 픽쳐 버퍼(280)에 저장되며, 화면 간 예측부(250)에서 참조 픽쳐로 사용될 수 있다.The reconstructed image is transferred to the in-loop filter unit 270. The restored picture to which the filtering is applied is stored in the restored picture buffer 280, and can be used as a reference picture in the inter-picture predicting unit 250.

도 3은 본 발명의 일 실시예에 따른 다양한 분할 형태를 사용하는 블록 구조와 쿼드 트리 및 바이너리 트리로 분할된 부호화 유닛의 일 예를 나타내는 개념도를 도시한다.FIG. 3 is a conceptual diagram illustrating an example of a block structure using a plurality of division types and an encoding unit divided into a quadtree and a binary tree according to an embodiment of the present invention.

일 실시예에 따른 다양한 분할 형태를 사용하는 블록 구조로 쿼드트리 블록 분할 구조와 바이너리 블록 분할 구조, 쿼드트리 블록 분할 구조와 바이너리 블록 분할 구조를 병합한 형태의 블록 구조를 포함한다.A quad-tree block division structure and a binary block division structure, a quad-tree block division structure, and a binary block division structure are merged into a block structure using various division forms according to an embodiment.

일 실시예에 따른 블록 분할 구조에서는 분할되지 않은 정방형 블록 (310), 쿼드트리 분할 블록 (320, 321, 322, 323), 수평 바이너리 분할 블록 (330, 331), 수직 바이너리 분할 블록 (340, 341)을 사용하여 하나의 블록을 하나 혹은 그 이상의 블록으로 분할 하는 것을 포함한다. 또한, 하나의 블록에 대하여 상기 블록 분할은 한번 혹은 그 이상 적용될 수 있다.The quad tree partitioning blocks 320, 321, 322 and 323, the horizontal binary division blocks 330 and 331, the vertical binary division blocks 340 and 341 ) To divide one block into one or more blocks. Further, the block division may be applied to one block one or more times.

도 4는 본 발명의 일 실시예에 따른 부호화 유닛의 복호화 순서도를 도시한다.FIG. 4 shows a decoding flowchart of an encoding unit according to an embodiment of the present invention.

일 실시예에 따른 부호화 유닛의 복호화 순서는 최초 SKIP 여부를 판단하는 정보에 대한 복호화를 수행하는 SKIP 여부 복호화부 (410), SKIP 여부 판단부 (420), SKIP 모드 복호화부 (430), MERGE 여부 복호화부 (440), MERGE 여부 판단부 (450), MERGE 모드 복호화부 (460), 화면 간 예측 모드 복호화부 (470)을 포함한다.The decoding procedure of the encoding unit according to the embodiment may include a SKIP decoding unit 410, a SKIP determination unit 420, a SKIP mode decoding unit 430, a MERGE determination unit 420, Decoding unit 440, a MERGE determination unit 450, a MERGE mode decoding unit 460, and an inter-picture prediction mode decoding unit 470.

일 실시예에 따라 현재 복호화를 수행하는 부호화 유닛에 대하여 비트스트림으로부터 SKIP 여부를 복호화하여 현재 부호화 유닛이 SKIP인 경우, SKIP 모드 복호화를 수행하는 과정을 포함한다. 반면, 현재 부호화 유닛이 SKIP이 아닌 경우, 비트스트림으로부터 병합 (MERGE) 여부를 복호화하여 현재 부호화 유닛의 주변 블록과의 병합 여부를 판단하여 현재 부호화 유닛이 주변 블록과 병합된 경우에는 MERGE 모드로 복호화를 수행하고, 그렇지 않은 경우 화면 간 예측 모드 복호화를 수행하는 것을 포함한다. According to an exemplary embodiment of the present invention, there is provided a method of decoding a current bitstream, the method comprising the steps of: On the other hand, when the current encoding unit is not SKIP, it is determined whether or not the current encoding unit is merged with the neighboring block by decoding the MERGE or not from the bitstream. If the current encoding unit is merged with the neighboring block, And performing inter picture prediction mode decoding if not.

도 5는 본 발명의 일 실시예에 따른 기존 비디오 부호화 표준에서 사용하는 병합모드의 복호화 순서도를 도시한다.FIG. 5 illustrates a decoding flow diagram of a merge mode used in an existing video encoding standard according to an embodiment of the present invention.

일 실시예에 따른 기존 비디오 부호화 표준에서 사용하는 병합모드의 복호화 순서는 병합 후보 생성부 (510), 병합 후보 결정부 (520), 움직임 정보 생성부 (530), 움직임 복원 수행부 (540), 차분신호 존재 판단부 (550), 차분신호 복원부 (560)을 포함한다.The merging mode decoding order used in the existing video coding standard according to an exemplary embodiment includes a merging candidate generating unit 510, a merging candidate determining unit 520, a motion information generating unit 530, a motion restoration performing unit 540, A difference signal presence determining unit 550, and a difference signal restoring unit 560.

일 실시예에 따른 기존 비디오 부호화 표준에서 사용하는 병합모드의 복호화 순서는 현재 부호화 유닛의 공간적, 시간적으로 인접한 블록 및 화소 단위 위치 정보에 기반한 움직임 벡터, 참조 방향, 참조 픽쳐 인덱스를 포함하는 움직임 정보들을 이용하여 병합 후보를 생성하는 것을 포함한다. 또한, 상기 생성된 병합 후보 중 하나의 병합 후보를 결정하고, 상기 결정된 병합 후보를 이용하여 움직임 정보를 생성하고, 상기 생성된 움직임 정보를 기반으로 움직임 복원을 수행하는 것을 포함한다.The decoding order of the merging mode used in the existing video coding standard according to an exemplary embodiment includes motion information including a motion vector, a reference direction, and a reference picture index based on spatial and temporally adjacent block and pixel unit position information of the current coding unit To generate a merging candidate. The method also includes determining one merging candidate among the generated merging candidates, generating motion information using the determined merging candidates, and performing motion restoration based on the generated motion information.

일 실시예에 따른 기존 비디오 부호화 표준에서 사용하는 병합모드의 복호화 순서는 차분신호 존재 여부에 대하여 비트스트림을 통해 전송된 정보를 이용하여 판단하고, 상기 차분신호 존재 여부 정보가 차분신호가 존재함을 의미하는 경우 차분신호를 비트스트림으로부터 획득, 역-양자화, 역-변환을 포함하는 차분신호 복원을 포함한다. 반면, 상기 차분신호 존재 여부 정보가 차분신호가 존재하지 않음을 의미하는 경우 차분신호의 복원 없이 상기 복원된 움직임 복원 블록을 이용하여 현재 부호화 유닛의 복원을 포함한다.The decoding order of the merge mode used in the conventional video coding standard according to an embodiment is determined by using information transmitted through a bit stream with respect to the presence or absence of a difference signal and the presence or absence of the difference signal indicates that a difference signal exists Includes differential signal recovery, which includes acquiring the differential signal from the bitstream and de-quantizing and de-transforming, if that is what it means. On the other hand, if the difference signal presence information indicates that there is no difference signal, the reconstruction of the current encoding unit is performed using the reconstructed motion reconstruction block without reconstructing the difference signal.

도 6은 본 발명의 일 실시예에 따른 차분신호 존재 유무를 전송하지 않는 비디오 복호화 방법 및 장치에서의 병합모드의 복호화 순서도를 도시한다.FIG. 6 shows a decoding flowchart of a merging mode in a video decoding method and apparatus that does not transmit presence / absence of a difference signal according to an embodiment of the present invention.

일 실시예에 따른 차분신호 존재 유무를 전송하지 않는 비디오 복호화 방법 및 장치에서의 병합모드의 복호화 순서는 병합 (MERGE) 후보 생성부 (610), 병합 후보 결정부 (620), 움직임 정보 생성부 (630), 움직임 복원 수행부 (640), 차분신호 복원부 (650)을 포함한다.A decoding method of a merging mode in a video decoding method and apparatus that does not transmit presence / absence of a difference signal according to an exemplary embodiment includes a merging candidate generating unit 610, a merging candidate determining unit 620, a motion information generating unit 630, a motion restoration performing unit 640, and a difference signal restoring unit 650.

일 실시예에 따른 차분신호 존재 유무를 전송하지 않는 비디오 복호화 방법 및 장치에서 병합모드의 복호화 순서는 현재 부호화 유닛의 공간적, 시간적으로 인접한 블록 및 화소 단위 위치 정보에 기반한 움직임 벡터, 참조 방향, 참조 픽쳐 인덱스를 포함하는 움직임 정보들을 이용하여 병합 후보를 생성하는 것을 포함한다. 또한, 상기 생성된 병합 후보 중 하나의 병합 후보를 결정하고, 상기 결정된 병합 후보를 이용하여 움직임 정보를 생성하고, 상기 생성된 움직임 정보를 기반으로 움직임 복원을 수행하는 것을 포함한다.In the video decoding method and apparatus that does not transmit presence / absence of difference signal according to an exemplary embodiment, the decoding order of the merging mode is determined based on a motion vector based on spatial and temporally adjacent block and pixel unit position information of the current encoding unit, And generating merged candidates using the motion information including the index. The method also includes determining one merging candidate among the generated merging candidates, generating motion information using the determined merging candidates, and performing motion restoration based on the generated motion information.

일 실시예에 따른 차분신호 존재 유무를 전송하지 않는 비디오 복호화 방법 및 장치에서 병합모드의 부호화 순서는 상기 움직임 복원 수행 이후, 차분신호가 존재 여부에 대한 정보의 파싱 없이 병합모드의 경우에는 차분신호가 존재한다고 판단하고 차분신호를 비트스트림으로부터 획득, 역-양자화, 역-변환을 포함하는 차분신호 복원을 포함한다. In the video decoding method and apparatus that do not transmit presence / absence of difference signals according to an exemplary embodiment, the coding order of the merging mode is determined such that after the motion restoration, a differential signal is obtained in the merging mode without parsing information on the presence / And includes differential signal restoration including the inverse-quantization and inverse-transformation of obtaining the difference signal from the bitstream.

해당 없음.Not applicable.

Claims (4)

비디오 부호화 및 복호화 방법에 있어서,
MERGE 후보를 생성하는 단계;
상기 생성된 MERGE 후보를 이용하여 MERGE 후보를 결정하는 단계;
상기 결정된 MERGE 후보를 이용하여 현재 부호화 유닛의 움직임 정보를 생성하는 단계;
상기 생성된 움직임 정보를 이용하여 움직임 복원을 수행하는 단계; 및
차분신호를 비트스트림으로부터 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 방법 및 복호화 방법.
A video encoding and decoding method,
Generating a MERGE candidate;
Determining a MERGE candidate using the generated MERGE candidate;
Generating motion information of a current encoding unit using the determined MERGE candidate;
Performing motion restoration using the generated motion information; And
And obtaining the difference signal from the bitstream.
제 1항에 있어서,
현재 복호화하는 부호화 유닛과 공간적, 시간적으로 인접한 움직임 정보들을 이용하여 MERGE 후보를 생성하는 단계;
상기 생성된 MERGE 후보 중 비트스트림에서 획득한 MERGE 후보 인덱스를 이용하여 MERGE 후보를 결정하는 단계;
상기 결정된 MERGE 후보의 움직임 정보를 현재 부호화 유닛에서 가공하여 움직임 정보를 생성하는 단계;
상기 생성된 움직임 정보를 이용하여 움직임 복원을 수행하는 단계; 및
상기 현재 부호화 유닛 내부의 모든 블록에 대한 차분신호 존재 여부 판별 없이 차분신호를 비트스트림으로부터 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 방법 및 복호화 방법.
The method according to claim 1,
Generating a MERGE candidate using spatial information and temporally adjacent motion information with an encoding unit to be currently decoded;
Determining a MERGE candidate using the MERGE candidate index obtained in the bitstream of the generated MERGE candidate;
Generating motion information by processing motion information of the determined MERGE candidate in a current encoding unit;
Performing motion restoration using the generated motion information; And
And obtaining a difference signal from a bitstream without discriminating whether or not a difference signal exists for all blocks in the current encoding unit.
비디오 부호화 및 복호화 장치에 있어서,
상기 생성된 MERGE 후보를 이용하여 MERGE 후보를 결정하는 단계;
상기 결정된 MERGE 후보를 이용하여 현재 부호화 유닛의 움직임 정보를 생성하는 단계;
상기 생성된 움직임 정보를 이용하여 움직임 복원을 수행하는 단계; 및
차분신호를 비트스트림으로부터 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 장치 및 복호화 장치.
A video encoding and decoding apparatus comprising:
Determining a MERGE candidate using the generated MERGE candidate;
Generating motion information of a current encoding unit using the determined MERGE candidate;
Performing motion restoration using the generated motion information; And
And obtaining the difference signal from the bit stream.
제 2항에 있어서,
현재 복호화하는 부호화 유닛과 공간적, 시간적으로 인접한 움직임 정보들을 이용하여 MERGE 후보를 생성하는 단계;
상기 생성된 MERGE 후보 중 비트스트림에서 획득한 MERGE 후보 인덱스를 이용하여 MERGE 후보를 결정하는 단계;
상기 결정된 MERGE 후보의 움직임 정보를 현재 부호화 유닛에서 가공하여 움직임 정보를 생성하는 단계;
상기 생성된 움직임 정보를 이용하여 움직임 복원을 수행하는 단계; 및
상기 현재 부호화 유닛 내부의 모든 블록에 대한 차분신호 존재 여부 판별 없이 차분신호를 비트스트림으로부터 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 장치 및 복호화 장치.
3. The method of claim 2,
Generating a MERGE candidate using spatial information and temporally adjacent motion information with an encoding unit to be currently decoded;
Determining a MERGE candidate using the MERGE candidate index obtained in the bitstream of the generated MERGE candidate;
Generating motion information by processing motion information of the determined MERGE candidate in a current encoding unit;
Performing motion restoration using the generated motion information; And
And obtaining a difference signal from a bit stream without discriminating whether or not a difference signal exists for all blocks in the current encoding unit.
KR1020160105952A 2016-08-22 2016-08-22 Video encoding method and apparatus using merge for coding units, and video decoding method and apparatus KR20180021941A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160105952A KR20180021941A (en) 2016-08-22 2016-08-22 Video encoding method and apparatus using merge for coding units, and video decoding method and apparatus
PCT/KR2016/010877 WO2018038315A1 (en) 2016-08-22 2016-09-29 Method and device for coding video by using merger of coding units, and method and device for decoding video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160105952A KR20180021941A (en) 2016-08-22 2016-08-22 Video encoding method and apparatus using merge for coding units, and video decoding method and apparatus

Publications (1)

Publication Number Publication Date
KR20180021941A true KR20180021941A (en) 2018-03-06

Family

ID=61245094

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160105952A KR20180021941A (en) 2016-08-22 2016-08-22 Video encoding method and apparatus using merge for coding units, and video decoding method and apparatus

Country Status (2)

Country Link
KR (1) KR20180021941A (en)
WO (1) WO2018038315A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105791856B (en) * 2010-11-23 2019-07-12 Lg电子株式会社 Prediction technique between being executed by encoding apparatus and decoding apparatus
KR20130050406A (en) * 2011-11-07 2013-05-16 오수미 Method for generating prediction block in inter prediction mode
KR20140105038A (en) * 2012-01-20 2014-09-01 주식회사 아이벡스피티홀딩스 Apparatus for decoding motion information in merge mode
RU2624578C2 (en) * 2012-07-02 2017-07-04 Самсунг Электроникс Ко., Лтд. Method and device for motion vector prediction for video encoding or decoding
US10187657B2 (en) * 2014-03-14 2019-01-22 Samsung Electronics Co., Ltd. Method and device for configuring merge candidate list for decoding and encoding of interlayer video

Also Published As

Publication number Publication date
WO2018038315A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
US11509909B2 (en) Video decoding device and method using inverse quantization
US9832467B2 (en) Deblock filtering for intra block copying
EP3205092B1 (en) Intra block copy prediction restrictions for parallel processing
KR101947142B1 (en) Methods of decoding using skip mode and apparatuses for using the same
KR101316060B1 (en) Decoding method of inter coded moving picture
US9549177B2 (en) Evaluation of signaling of collocated reference picture for temporal prediction
US8948243B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
US20130272406A1 (en) Signaling of temporal motion vector predictor (mvp) flag for temporal prediction
KR20140016823A (en) Video decoding method and apparatus using the same
KR20130067280A (en) Decoding method of inter coded moving picture
KR20180039323A (en) Video coding method and apparatus using combination of various block partitioning structure
KR20180042899A (en) Video coding method and apparatus using adaptive interpolation filter
KR20170114598A (en) Video coding and decoding methods using adaptive cross component prediction and apparatus
KR20180040824A (en) Video coding method and apparatus using decoder-side intra mode derivation
KR100682929B1 (en) Apparatus and method of encoding/decoding image having gray alpha channel
KR102505364B1 (en) Decryption device, program, and decryption method
JP6590412B2 (en) Video encoding apparatus, method and program, and video decoding apparatus, method and program
KR20170122351A (en) Video coding method and apparatus using adaptive coding order according to direction of intra prediction
KR20170113724A (en) Cabac encoding method and apparatus using adaptive initialization for context model, and cabac decoding method and apparatus
KR20180021941A (en) Video encoding method and apparatus using merge for coding units, and video decoding method and apparatus
KR20180041833A (en) Video coding method and apparatus using most probable mode list of intra
KR20180041831A (en) Video coding method and apparatus using skip candidate list according to block partition
KR20150145753A (en) Method and apparatus for video encoding and decoding based on intra block copy
KR20180040827A (en) Video coding method and apparatus using grouped coding uinit syntax
KR20170125155A (en) Video coding method and apparatus using interpolation filter for intra prediction