KR20170109095A - Method and apparatus for decoding video with motion vector derivation - Google Patents

Method and apparatus for decoding video with motion vector derivation Download PDF

Info

Publication number
KR20170109095A
KR20170109095A KR1020160031800A KR20160031800A KR20170109095A KR 20170109095 A KR20170109095 A KR 20170109095A KR 1020160031800 A KR1020160031800 A KR 1020160031800A KR 20160031800 A KR20160031800 A KR 20160031800A KR 20170109095 A KR20170109095 A KR 20170109095A
Authority
KR
South Korea
Prior art keywords
motion
information
unit
derivation
decoding
Prior art date
Application number
KR1020160031800A
Other languages
Korean (ko)
Inventor
박시내
심동규
류호찬
Original Assignee
광운대학교 산학협력단
디지털인사이트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단, 디지털인사이트 주식회사 filed Critical 광운대학교 산학협력단
Priority to KR1020160031800A priority Critical patent/KR20170109095A/en
Priority to CN202310522554.7A priority patent/CN116506600A/en
Priority to CN202310522560.2A priority patent/CN116506602A/en
Priority to CN202310522570.6A priority patent/CN116506603A/en
Priority to CN202310522574.4A priority patent/CN116506604A/en
Priority to US16/084,105 priority patent/US10694184B2/en
Priority to PCT/KR2017/002578 priority patent/WO2017155334A1/en
Priority to CN201780028323.3A priority patent/CN109155857B/en
Priority to CN202310522559.XA priority patent/CN116506601A/en
Publication of KR20170109095A publication Critical patent/KR20170109095A/en
Priority to US16/881,786 priority patent/US11438591B2/en
Priority to US17/872,577 priority patent/US11838509B2/en
Priority to US18/381,715 priority patent/US20240048704A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • H04N7/0152High-definition television systems using spatial or temporal subsampling
    • H04N7/0155High-definition television systems using spatial or temporal subsampling using pixel blocks
    • H04N7/0157High-definition television systems using spatial or temporal subsampling using pixel blocks with motion estimation, e.g. involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

The present invention relates to an apparatus and a method, including a method for deriving movement information through a movement derivation method in a decoder without movement information received from an encoder in a video decoder.

Description

움직임 벡터 도출을 통한 비디오 복호화 방법 및 장치 {METHOD AND APPARATUS FOR DECODING VIDEO WITH MOTION VECTOR DERIVATION}TECHNICAL FIELD The present invention relates to a video decoding method and apparatus using motion vector derivation,

본 발명은 비디오 부호화 기술에 관한 것으로서, 보다 상세하게는 복호화기에서 움직임 벡터를 도출하는 방법을 통해 효과적으로 비디오를 부/복호화하기 위한 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a video coding technique, and more particularly, to a method for effectively adding / decoding video through a method of deriving a motion vector in a decoder.

최근 FHD (Full High Definition) 및 UHD (Ultra High Definition) 와 같은 고해상도의 영상 서비스 수요와 고품질의 영상 서비스 수요가 증가하였다.Recently, demand for high-resolution video services such as Full High Definition (FHD) and Ultra High Definition (UHD) has increased and demand for high-quality video services has increased.

본 발명은 FHD (Full High Definition) 및 UHD (Ultra High Definition)오 같은 고해상도의 영상을 위한 비디오 부/복호화기에서 움직임 정보의 전송을 효과적으로 하기 위해 복호화기에서 움직임 벡터의 정보를 복호화기에서 도출하고 이를 통해 효과적으로 비디오 부/복호화가 가능한 방법 및 장치를 제공하는 것을 그 목적으로 한다.In order to effectively transmit motion information in a video decoder / decoder for a high resolution image such as FHD (Full High Definition) and UHD (Ultra High Definition), the decoder extracts information on a motion vector from a decoder And it is an object of the present invention to provide a method and an apparatus which can effectively perform video embedding / decoding.

상기 과제를 해결하기 위한 본 발명의 일 실시 예에서 비디오 복호화 장치 및 방법은 움직임 정보 도출 장치 혹은 단계를 가지게 되며, 부호화기부터 직접적으로 전송받은 움직임 벡터의 정보 없이 복호화기에서 움직임 정보를 도출할 수 있다.According to an embodiment of the present invention, a video decoding apparatus and method have a motion information derivation apparatus or step, and can derive motion information from a decoder without a motion vector information directly transmitted from an encoder .

전술한 본 발명의 과제 해결 수단에 의하면, 복호화기에서 움직임 정보 도출 장치 혹은 단계를 통해 움직임 벡터에 대한 직접적인 전송 없이 비디오 복호화가 가능하도록 하고 비디오 부/복호화 효율을 향상시킬 수 있다.According to an embodiment of the present invention, a decoder can perform video decoding without directly transmitting a motion vector through a motion information derivation apparatus or a step and improve a video decoding / decoding efficiency.

도 1은 본 발명의 실시 예에 따른 복호화 장치의 블록도이다.
도 2는 움직임 도출을 수행하는 복호화 유닛에서의 움직임 도출 및 움직임 보상에 대한 순서도 이다.
도 3은 본 발명의 실시 예에서 복호화 유닛이 분할되는 경우 서브 블록의 분할의 예에 대한 것이다.
도 4는 복호화 유닛의 주변 픽셀 정보를 이용하여 움직임 도출을 하는 예에서 움직임 예측을 수행하는 주변 픽셀의 모양에 대한 것이다.
도 5는 도 4의 방법을 두 장의 참조 영상을 사용하는 실시예에 대한 것이다.
도 6은 움직임 도출을 두 장의 참조 영상을 사용하여 대응 블록의 움직임 예측을 통해 현재 복호화 유닛의 움직임을 도출하는 방법에 대한 것이다.
1 is a block diagram of a decoding apparatus according to an embodiment of the present invention.
2 is a flowchart of motion derivation and motion compensation in a decoding unit that performs motion derivation.
3 is an example of division of subblocks when a decoding unit is divided in an embodiment of the present invention.
FIG. 4 is a diagram of a shape of a surrounding pixel for performing motion prediction in an example of motion derivation using surrounding pixel information of a decoding unit.
Figure 5 is an embodiment using the method of Figure 4 using two reference images.
6 illustrates a method of deriving a motion of a current decoding unit through motion prediction of a corresponding block using two reference images.

이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear.

본 발명에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. The description of a specific configuration in the present invention does not exclude a configuration other than the configuration and means that additional configurations can be included in the practice of the present invention or the technical scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, which does not mean that each component is composed of separate hardware or software constituent units. That is, each constituent unit is included in each constituent unit for convenience of explanation, and at least two constituent units of the constituent units may be combined to form one constituent unit, or one constituent unit may be divided into a plurality of constituent units to perform a function. The integrated embodiments and separate embodiments of the components are also included within the scope of the present invention, unless they depart from the essence of the present invention.

또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components are not essential components to perform essential functions in the present invention, but may be optional components only to improve performance. The present invention can be implemented only with components essential for realizing the essence of the present invention, except for the components used for the performance improvement, and can be implemented by only including the essential components except the optional components used for performance improvement Are also included in the scope of the present invention.

발명에 사용되는 블록은 복호화의 기본 블록 단위, 예측 블록 단위, 변환 블록 단위가 될 수 있다. 또한 블록 경계는 복호화 블록의 경계, 예측 블록의 경계, 변환 블록의 경계가 될 수 있다.The block used in the invention may be a basic block unit for decoding, a prediction block unit, or a conversion block unit. The block boundary may be a boundary of a decoding block, a boundary of a prediction block, or a boundary of a transform block.

도 1은 본 발명의 실시 예에 따른 복호화기의 블록도 이다. 부호화기로부터 비트스트림을 전송받은 복호화기는 크게 화면간 예측(137) 및 화면내 예측(136)을 통해 복호화를 수행하게 된다. 복호화 시 화면 간 예측을 수행할 때 본 발명의 실시 예에 따라 부호화기로부터 전송 받은 움직임 정보를 통해 화면 간 예측을 수행할 수도 있고, 복호화기에서 도출한 움직임 정보를 통해 화면 간 예측을 수행할 수도 있다. 부호화기로부터 전송받은 움직임 정보를 이용하여 화면간 예측 복호화를 하는 경우 움직임 예측부(136)에서 예측움직임벡터(PMV)와 전송 받은 움직임 벡터 차분값을 이용하여 실제 해당 블록의 움직임 벡터를 계산하고 이를 이용하여 움직임 보상을 수행한다. 복호화기에서 움직임 벡터를 도출하여 도출된 움직임 정보를 이용하여 화면간 예측 복호화를 수행하는 경우, 움직임 벡터는 움직임 도출부에서 구해지고 이를 이용하여 움직임 보상을 수행한다. 움직임 벡터를 부호화기로부터 전송받거나 혹은 복호화기에서 도출하는 방법은 화면간 예측 복호화에서 선택적으로 적용할 수 있으며, 선택 정보 및 관련 정보는 부호화기에서 구문 정보(syntax)를 통해 전송받을 수 있다. 1 is a block diagram of a decoder according to an embodiment of the present invention. The decoder, which receives the bitstream from the encoder, performs decoding mainly through the inter-picture prediction 137 and the intra-picture prediction 136. [ The inter-picture prediction may be performed through the motion information received from the encoder according to the embodiment of the present invention when the inter-picture prediction is performed at the time of decoding, or the inter-picture prediction may be performed through the motion information derived from the decoder . In case of inter-picture prediction decoding using the motion information received from the encoder, the motion estimator 136 calculates the motion vector of the corresponding block using the predicted motion vector PMV and the received motion vector difference value, Thereby performing motion compensation. In case of performing inter picture prediction decoding using motion information derived by deriving a motion vector from a decoder, a motion vector is obtained by a motion derivation unit and motion compensation is performed using the motion vector. The method of receiving the motion vector from the encoder or extracting it from the decoder may be selectively applied in inter prediction decoding, and the selection information and the related information may be transmitted through the syntax information in the encoder.

도 2는 본 발명의 실시 예의 복호화기가 움직임 정보를 도출하는 방법 혹은부호화기로부터 전송받는 방법을 선택적으로 적용할 경우 복호화 순서도이다. 본 순서도에서 움직임 보상 이후의 단계는 생략하였다. 복호화기는 입력받은 비트스트림(201)으로부터 움직임 도출 플래그(MV_deriv_Flagi ,j) 정보를 도출한다. 움직임 도출 플래그(202)는 움직임 도출 방법에 대한 선택 정보이고, 복호화기는 이를 통해 움직임 도출 방법을 사용하여 복호화할 것인지에 대해서 확인할 수 있다. 움직임 정보 도출 플래그는 기본적으로 현재 복호화 유닛에 대한 선택 정보를 의미하지만, 실시 예에 따라 시퀀스, 프레임, 프레임 그룹, 슬라이스,슬라이스 그룹, 복호화 유닛, 복호화 유닛 그룹, 서브 복호화 유닛 등 다양한 레벨에서 움직임 도출 방법의 선택을 표시할 수 있다. 움직임 도출 플래그가 1인 경우, 즉 움직임 도출 방법을 사용하여 부호화가 진행된 복호화 유닛은 움직임 도출 방법을 통해 복호화를 수행하게 되는데, 이때 복호화기는 추가적으로 현재 복호화 유닛에 대한 움직임 도출 정보를 복호화(203)하게 된다. 현재 복호화 유닛에 대한 움직임 도출 정보는 움직임 도출 방법을 사용할 복호화 유닛의 깊이정보, 움직임 도출 방법에서 움직임 정보를 도출하는 방법에 대한 정보, 움직임 도출을 사용하게 될 유닛 혹은 서브유닛의 모양/크기/개수에 관한 정보, 반복 수행 횟수에 관한 정보 중 적어도 하나를 포함할 수 있다. 이러한 정보의 하나 또는 그 이상의 조합을 통해 현재 복호화 할 유닛의 크기, 모양 등을 정의하고 움직임 도출(204)을 수행한다. 복호화 유닛의 깊이 정보는 실제 움직임 도출 방법을 통해 움직임 도출(204)을 수행할 블록의 크기 정보를 알아낼 수 있는 정보로 움직임 도출 방법이 적용된 블록의 크기가 128×128이고, 깊이 정보가 2라고 하고 유닛의 모양이 정사각형이라고 하면 도 3의 (a)와 같은 형태로 서브 유닛 블록으로 분할될 수 있다. 이 방법은 부호화기와 복호화기의 약속에 의해 정해질 수 있고, 부호화기로부터 전송받은 정보를 통해 복호화기에서 도 3의 (b)와 같이 소정의 크기를 가진 블록으로 분할될 수도 있다. 움직임 도출(204)을 통해 현재 복호화 유닛의 움직임 정보를 도출하게 되면 이 정보를 이용하여 움직임 보상(205)을 수행한다. 2 is a decoding flowchart when a decoder of the embodiment of the present invention selectively applies a method of deriving motion information or a method of receiving a signal from an encoder. In the flowchart, the steps after the motion compensation are omitted. The decoder derives the motion derivation flag (MV_deriv_Flag i , j ) information from the input bit stream (201). The motion derivation flag 202 is selection information for the motion derivation method, and the decoder can confirm whether to decode it using the motion derivation method. The motion information derivation flag basically indicates selection information for the current decoding unit. However, the motion information derivation flag basically selects the motion information at various levels such as a sequence, a frame, a frame group, a slice, a slice group, a decoding unit, a decoding unit group, The choice of method can be displayed. If the motion derivation flag is 1, that is, the decoding unit, which has been encoded using the motion derivation method, performs decoding through the motion derivation method. At this time, the decoder further decodes the motion derivation information for the current decoding unit (203) do. The motion derivation information for the current decoding unit includes depth information of the decoding unit to use the motion derivation method, information on how to derive motion information from the motion derivation method, shape / size / number of units or subunits to be used for motion derivation And information on the number of iterations to be performed. The size, shape, and the like of the unit to be currently decoded are defined through one or more combinations of such information, and motion derivation 204 is performed. The depth information of the decoding unit is information capable of finding the size information of the block to be subjected to the motion derivation 204 through the actual motion derivation method. The size of the block to which the motion derivation method is applied is 128x128 and the depth information is 2 Assuming that the shape of the unit is square, it can be divided into subunit blocks in the same manner as in FIG. 3 (a). This method can be determined by the promise of the encoder and the decoder, and may be divided into blocks having a predetermined size as shown in FIG. 3 (b) in the decoder through information received from the encoder. When the motion information of the current decoding unit is derived through the motion derivation 204, the motion compensation unit 205 performs motion compensation using the information.

도 4는 본 발명의 실시 예로 현재 복호화하는 유닛 혹은 서브 유닛의 주변 픽셀 정보를 이용하여 현재 유닛에 대한 움직임 정보를 예측하는 방법이다. 이 방법은 유닛 혹은 서브 유닛의 주변 픽셀 정보를 이용하여 움직임 예측을 수행하고 그 결과를 현재 유닛 혹은 서브 유닛의 움직임 벡터 값으로 사용하는 방법이다. 이때, 현재 복호화 유닛은 도 4(b)와 같이 이전에 복호화가 된 영역들을 현재 복호화 유닛을 위해 움직임 예측을 수행할 수 있는 영역으로 활용할 수 있다. 이때, 현재 복호화 유닛이 (c-1)의 영역을 이용하여 움직임 예측을 수행하면 그 움직임 예측을 이용하여 현재 복호화 유닛에 대한 움직임 정보를 도출할 수 있고 이를 이용한 복호화가 가능하다. 이렇게 복호화 단계가 완료될 수 있지만 좀 더 정밀한 움직임 예측을 위해 복호화된 영역(402)과 기존에 움직임 예측을 위해 이용한 영역(401)을 모두 이용하여 움직임 예측을 수행할 수 있다. 이때 이렇게 반복적으로 수행하는 움직임 도출 단계는 부/복호화기 사이에 약속된 반복 수행 횟수 혹은 부호화기로부터 복호화기로 전송된 반복수행 횟수 정보를 통해 결정될 수 있다. 그리고 복호화 유닛의 깊이 정보를 통해 현재 복호화 유닛이 서브 유닛으로 분할된다면 도 4(d)의 회색음영 정보들을 이용하여 각 서브 유닛의 움직임 도출을 할 수 있다. 이는 하나의 실시 예로서 복호화기는 부호화기와의 약속을 통해 움직임 예측을 수행하는 회색 음영의 크기, 모양은 다양해 질 수 있다. 이에 대한 정보는 부/복호화기의 약속에 의해 고정된 값과 모양을 사용할 수도 있고, 부호화기에서 복호화기에서 그 정보를 전송하는 방법이 있을 수 있겠다. 그리고 주변의 픽셀 정보를 이용하여 현재 블록의 움직임 정보를 도출하는 방법은 도 5와 같이 한 장 이상의 참조 영상에 대해서도 적용 가능하며 여러 장의 참조 영상을 사용할 경우 움직임 벡터 값은 비디오 복호화에서 사용하는 통상적인 방법에 의해 계산될 수 있다. 여기서 통상적인 방법이란 참조 영상들과 현재 복호화하는 영상의 시간 순서에 따른 시간 차이 값에 비례하여 움직임 값을 계산하는 방법이 있을 수 있을 수 있다.FIG. 4 is a method for predicting motion information on a current unit by using surrounding pixel information of a current decoding unit or sub-unit according to an embodiment of the present invention. In this method, motion prediction is performed using surrounding pixel information of a unit or a sub-unit, and the result is used as a motion vector value of a current unit or a sub-unit. At this time, the current decoding unit can utilize the previously decoded areas as an area where motion prediction can be performed for the current decoding unit as shown in FIG. 4 (b). At this time, if the current decoding unit performs motion prediction using the area of (c-1), the motion information for the current decoding unit can be derived using the motion prediction, and decoding using the motion information can be performed. Although the decoding step can be completed, the motion estimation can be performed using both the decoded area 402 and the area 401 used for motion prediction for more accurate motion prediction. At this time, the motion derivation step, which is repeatedly performed, may be determined through the number of iterations performed between the sub-decoders or the number of iterations performed by the encoder to the decoders. If the current decoding unit is divided into the sub-units through the depth information of the decoding unit, the motion of each sub-unit can be derived using the gray shading information of FIG. 4 (d). In one embodiment of the present invention, the size and shape of the gray shade for performing the motion prediction through the promise of the decoder can be varied. The information about this may be a fixed value and a shape according to the promise of the subscriber / decoder, and there may be a method of transmitting the information at the decoder at the encoder. The method of deriving the motion information of the current block using the neighboring pixel information may be applied to one or more reference images as shown in FIG. 5. If a plurality of reference images are used, the motion vector value may be a normal ≪ / RTI > Here, a conventional method may be a method of calculating a motion value in proportion to a time difference value according to a time order of reference images and an image to be currently decoded.

도 6은 본 발명의 실시 예로 현재 복호화하는 유닛 혹은 서브 유닛의 대응 블록(co-located block)의 값을 이용하여 현재 복호화하는 유닛의 움직임 정보를 도출하는 방법이다. 통상적으로 현재 복호화하는 유닛을 기준으로 두 장 이상의 참조 영상들에서 대응 블록들 사이의 에러를 최소화하는 방법을 통해 움직임 벡터를 계산할 수 있다. 이 방법 역시 주변 픽셀 정보를 이용하여 현재 유닛에 대한 움직임 정보를 예측하는 방법이다. 움직임 정보를 도출하는 방법에 대한 정보, 움직임 도출을 사용하게 될 유닛 혹은 서브 유닛의 모양, 반복 수행 횟수 등의 조합을 통해 다양한 방법으로 실시 가능하다.FIG. 6 illustrates a method of deriving motion information of a unit to be currently decoded using a value of a co-located block of a current decoding unit or sub-unit according to an embodiment of the present invention. A motion vector may be calculated through a method of minimizing an error between corresponding blocks in two or more reference images based on a unit to be currently decoded. This method also predicts motion information for the current unit using surrounding pixel information. Information on a method of deriving motion information, shape of unit or sub-unit to be used for motion derivation, number of iterations, and the like.

Claims (1)

비디오 복호화 방법에 있어서,
현재 복호화하는 유닛에 대해서 움직임 정보를 부호화기로부터 수신받지 않고 복호화하는 유닛인지를 판단하는 단계;
상기 현재 복호화하는 유닛에 대해서 움직임 정보를 부호화기로부터 수신받지 않는 블록에 대해 움직임 정보를 도출하기 위한 정보를 도출하는 단계;
움직임 도출과 관련된 정보를 이용하여 움직임 정보를 도출하는 단계; 및
도출된 움직임 정보를 이용하여 움직임 보상을 수행하는 단계를 포함하는 것은 특징으로 하는 비디오 복호화 방법.
A video decoding method comprising:
Determining whether the current decoding unit is a unit that decodes the motion information without receiving the motion information from the encoder;
Deriving information for deriving motion information for a block that does not receive motion information from the encoder for the current decoding unit;
Deriving motion information using information related to motion derivation; And
And performing motion compensation using the derived motion information.
KR1020160031800A 2016-03-11 2016-03-17 Method and apparatus for decoding video with motion vector derivation KR20170109095A (en)

Priority Applications (12)

Application Number Priority Date Filing Date Title
KR1020160031800A KR20170109095A (en) 2016-03-17 2016-03-17 Method and apparatus for decoding video with motion vector derivation
US16/084,105 US10694184B2 (en) 2016-03-11 2017-03-09 Video coding method and apparatus
CN202310522560.2A CN116506602A (en) 2016-03-11 2017-03-09 Video coding method and device
CN202310522570.6A CN116506603A (en) 2016-03-11 2017-03-09 Video coding method and device
CN202310522574.4A CN116506604A (en) 2016-03-11 2017-03-09 Video coding method and device
CN202310522554.7A CN116506600A (en) 2016-03-11 2017-03-09 Video coding method and device
PCT/KR2017/002578 WO2017155334A1 (en) 2016-03-11 2017-03-09 Video coding method and apparatus
CN201780028323.3A CN109155857B (en) 2016-03-11 2017-03-09 Video coding method and device
CN202310522559.XA CN116506601A (en) 2016-03-11 2017-03-09 Video coding method and device
US16/881,786 US11438591B2 (en) 2016-03-11 2020-05-22 Video coding method and apparatus
US17/872,577 US11838509B2 (en) 2016-03-11 2022-07-25 Video coding method and apparatus
US18/381,715 US20240048704A1 (en) 2016-03-11 2023-10-19 Video coding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160031800A KR20170109095A (en) 2016-03-17 2016-03-17 Method and apparatus for decoding video with motion vector derivation

Publications (1)

Publication Number Publication Date
KR20170109095A true KR20170109095A (en) 2017-09-28

Family

ID=60035782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160031800A KR20170109095A (en) 2016-03-11 2016-03-17 Method and apparatus for decoding video with motion vector derivation

Country Status (1)

Country Link
KR (1) KR20170109095A (en)

Similar Documents

Publication Publication Date Title
US10412406B2 (en) Method and apparatus for deriving temporal motion vector prediction
US11706440B2 (en) Video signal processing method and apparatus using adaptive motion vector resolution
CN110249628B (en) Video encoder and decoder for predictive partitioning
US11800150B2 (en) Method for deriving a motion vector
US10257536B2 (en) Method of temporal derived bi-directional motion vector for motion vector prediciton
JP2019535202A (en) Inter prediction mode based image processing method and apparatus therefor
US10944983B2 (en) Method of motion information coding
CN111448800B (en) Affine motion prediction based image decoding method and apparatus using affine MVP candidate list in image coding system
US11089317B2 (en) Method and apparatus for processing video signal using affine prediction
KR102554364B1 (en) Method and apparatus for encoding/decoding video
US20200244989A1 (en) Method and device for inter-prediction mode-based image processing
KR20140029383A (en) Image coding device and image decoding device
US20150271516A1 (en) Video coding apparatus and video coding method
KR20220049018A (en) Video encoding/decoding method, apparatus and method for transmitting a bitstream for performing PROF
US11616948B2 (en) Method and device for subpicture-based image encoding/decoding, and method for transmitting bitstream
JP2013240116A (en) Video decoder, video decoding method and program, and receiver, reception method, and reception program
KR20170109095A (en) Method and apparatus for decoding video with motion vector derivation
US20200193646A1 (en) Method and apparatus for decoding multi-view video information
US11102503B2 (en) Motion information prediction method and apparatus for distortion due to projection formation conversion
KR20170121383A (en) Method and apparatus for video decoder with motion vector refinement
KR20130122567A (en) Method for reconstructing intermediate depth view of multi-view video