KR20150007205A - Video decoding method and apparatus using the same - Google Patents

Video decoding method and apparatus using the same Download PDF

Info

Publication number
KR20150007205A
KR20150007205A KR1020140066011A KR20140066011A KR20150007205A KR 20150007205 A KR20150007205 A KR 20150007205A KR 1020140066011 A KR1020140066011 A KR 1020140066011A KR 20140066011 A KR20140066011 A KR 20140066011A KR 20150007205 A KR20150007205 A KR 20150007205A
Authority
KR
South Korea
Prior art keywords
picture
layer
block
inter
reference picture
Prior art date
Application number
KR1020140066011A
Other languages
Korean (ko)
Other versions
KR102325977B1 (en
Inventor
이하현
강정원
이진호
최진수
김진웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/324,974 priority Critical patent/US20150010083A1/en
Publication of KR20150007205A publication Critical patent/KR20150007205A/en
Priority to KR1020210087838A priority patent/KR20210088478A/en
Application granted granted Critical
Publication of KR102325977B1 publication Critical patent/KR102325977B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

The video decoding method according to an embodiment of the present invention comprises the following steps: decoding information of a first layer picture which a second layer picture subjected to be decoded can refer to; producing information of a reference picture between basic layers using the information of the first layer picture; producing information of a reference picture between improved layers using the information of the first layer picture, information of the reference picture between the basic layers and the information of a second layer picture; and producing a reference picture list in which prediction between screens of the second layer picture is used using the information of the reference picture of the basic layers, information of the reference picture of the improved layers and information of the second layer picture.

Description

영상의 복호화 방법 및 이를 이용하는 장치{VIDEO DECODING METHOD AND APPARATUS USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a video decoding method and apparatus using the same,

본 발명은 영상의 부호화 및 복호화 처리에 관한 것으로서, 보다 상세하게는 비트스트림 내 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video encoding and decoding process, and more particularly, to a video encoding and decoding method and apparatus for supporting a plurality of layers in a bitstream.

최근 HD(High Definition) 해상도를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있으며 이에 따라 많은 기관들이 차세대 영상기기에 대한 개발에 박차를 가하고 있다. 또한 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 보다 높은 해상도, 고화질의 영상에 대한 압축기술이 요구되고 있다.Recently, broadcasting service having high definition (HD) resolution has been expanded not only in domestic but also in the world, so that many users are accustomed to high definition and high definition video, and accordingly, many organizations are spurring development for next generation video equipment. In addition, with the increase of interest in UHD (Ultra High Definition) having resolution more than 4 times of HDTV in addition to HDTV, a compression technique for a higher resolution and a higher image quality is required.

영상 압축을 위해, 시간적으로 이전 및/또는 이후의 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 인터(inter) 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 인트라(intra) 예측 기술, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 부호화 기술 등이 사용될 수 있다.An inter prediction technique for predicting a pixel value included in a current picture from temporally preceding and / or following pictures for image compression, a prediction method of predicting a pixel value included in a current picture using pixel information in the current picture An intra prediction technique, an entropy coding technique in which a short code is assigned to a symbol having a high appearance frequency and a long code is assigned to a symbol having a low appearance frequency.

영상 압축 기술에는 유동적인 네트워크 환경을 고려하지 않고 하드웨어의 제한적인 동작 환경하에서 일정한 네트워크 대역폭을 제공하는 기술이 있다. 그러나 수시로 대역폭이 변화하는 네트워크 환경에 적용되는 영상 데이터를 압축하기 위해서는 새로운 압축 기술이 요구되고, 이를 위해 스케일러블(scalable) 비디오 부호화/복호화 방법이 사용될 수 있다. There is a technique for providing a constant network bandwidth under a limited operating environment of hardware without considering a flexible network environment. However, a new compression technique is required in order to compress image data applied to a network environment in which the bandwidth varies from time to time, and a scalable video encoding / decoding method can be used for this purpose.

본 발명은 향상된 계층간 참조 영상 생성시 정수 화소 단위의 움직임 보상을 통해 부, 복호화기의 복잡도를 감소시킬 수 있는 영상의 복호화 방법 및 이를 이용하는 장치를 제공한다.The present invention provides an image decoding method and an apparatus using the same that can reduce complexity of a subtractor and a decoder by performing motion compensation on an integer pixel basis when an interlayer reference image is generated.

또한 부호화 파라미터 기반으로 가중치를 구하여 적용함으로써, 가중치 정보의 전송을 생략함으로써 복호화 효율을 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치를 제공한다.There is also provided a method of decoding an image and a device using the same, which can improve decoding efficiency by omitting transmission of weight information by obtaining and applying weights based on coding parameters.

이로써, 다계층 구조 기반의 영상 부호화 및 복호화 시, 상위 계층의 영상을 부, 복호화함에 있어 예측 신호로 사용될 수 있는 하위 계층 정보의 정밀도를 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치를 제공한다.There is provided a method of decoding an image and an apparatus using the same, which can increase the precision of lower layer information that can be used as a prediction signal in attaching and decoding an image of an upper layer during image coding and decoding based on a multi-layer structure.

본 발명의 일 실시예인 복수의 계층을 지원하는 영상의 복호화 방법은 복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 단계와; 상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하는 단계와; 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하는 단계와; 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of decoding an image supporting a plurality of layers, comprising: decoding information of a first layer picture that can be referred to by a second layer picture to be decoded; Generating information of inter-base layer reference pictures using the information of the first layer picture; Generating information of an inter-layer reference picture enhanced using the information of the first layer picture, the information of the inter-base layer reference picture, and the information of the second layer picture; Generating a reference picture list in which inter-picture prediction of the second layer picture is used by using the information of the inter-base-layer reference pictures, the information of the inter-layer reference pictures, and the information of the second layer picture .

상기 기본 계층간 참조 픽쳐의 정보를 생성하는 단계는, 제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐를 생성하는 단계와; 상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 생성하는 단계를 포함할 수 있다. The step of generating the information of the inter-base-layer reference pictures may include the steps of: generating a first inter-base-layer reference picture mapping a first layer picture size to a picture size of the second layer; And generating a second interlayer reference picture in which the decoded temporal reference pictures of the first layer picture are mapped to the temporal reference picture size of the second layer picture.

상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는, 상기 제2 계층 픽쳐의 참조 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여 상기 대상 블록에 대한 움직임 보상을 수행한 제1 참조 블록을 유도하는 단계와; 상기 제2 기본 계층간 참조 픽쳐 및 상기 움직임 벡터를 이용하여 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제2 참조 블록을 유도하는 단계와; 상기 제1 참조 블록과 상기 제2 참조 블록의 차이에 해당하는 차분 블록을 생성하는 단계와; 상기 차분 블록에 상기 계층간 대응 블록을 합하는 단계를 포함할 수 있다. Wherein the step of generating the enhanced inter-layer reference picture information comprises the steps of: using the reference picture of the second layer picture and the motion vector of the block of the first layer picture corresponding to the object block to be decoded of the second layer picture Deriving a first reference block for performing motion compensation on the target block; Deriving a second reference block in which motion compensation is performed for a block between layers of a first inter-base layer reference picture corresponding to the current block using the second inter-base-layer reference picture and the motion vector; Generating a difference block corresponding to a difference between the first reference block and the second reference block; And summing the inter-layer corresponding block to the differential block.

상기 차분 블록에 가중치를 적용하는 단계를 더 포함하는 포함할 수 있다.And applying a weight to the difference block.

상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하는 단계를 더 포함하고, 상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층간 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상이 수행될 수 있다. Further comprising the step of determining whether a reference picture index of a temporal reference picture of the first layer picture has a preset value, and when the reference picture index has the preset value, The motion compensation using the motion interpolation filter can be performed.

상기 제1 참조 블록 및 상기 제2 참조 블록을 유도하기 위하여 수행되는 움직임 보상은 정수 화소 단위로 수행될 수 있다. The motion compensation performed to derive the first reference block and the second reference block may be performed on an integer pixel basis.

상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는, 상기 제2 계층 픽쳐의 참조 픽쳐와 제2 기본 계층간 참조 픽쳐 간의 차분 픽쳐를 생성하는 단계와; 상기 차분 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여, 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제3 참조 블록을 유도하는 단계와; 상기 제3 참조 블록과 상기 계층간 대응 블록을 합하는 단계를 포함할 수 있다.Wherein the step of generating the enhanced inter-layer reference picture information comprises: generating a difference picture between a reference picture of the second layer picture and a reference picture between the second base layer; A motion vector of a block of the first hierarchical picture corresponding to a current block to be decoded of the difference picture and the second hierarchical picture is used to calculate a correspondence between layers of a first inter-base-layer reference picture corresponding to the current block Deriving a third reference block that performs motion compensation on the block; And summing the third reference block and the inter-layer corresponding block.

상기 제3 참조 블록에 가중치를 적용하는 단계를 더 포함할 수 있다.And applying a weight to the third reference block.

상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하는 단계를 더 포함하고, 상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상이 수행될 수 있다. Determining whether a reference picture index of a temporal reference picture of the first layer picture has a predetermined value, and when the reference picture index has the preset value, Motion compensation using a motion interpolation filter can be performed.

상기 제3 참조 블록을 유도하기 위하여 수행되는 움직임 보상은 정수 화소 단위로 수행될 수 있다.The motion compensation performed to derive the third reference block may be performed on an integer pixel basis.

본 발명의 다른 실시예에 따른 복수의 계층을 지원하는 영상의 복호화 장치는 복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 엔트로피 복호화부와; 상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하고, 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하고, 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 예측부를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for decoding an image supporting a plurality of layers, the apparatus comprising: an entropy decoding unit decoding information of a first layer picture that can be referred to by a second layer picture to be decoded; Layer reference picture using the information of the first layer picture, and generates information of a reference layer between the layers by using information of the first layer picture, information of the reference layer between the base layer and information of the second layer picture And a reference picture used for inter-picture prediction of the second layer picture, using the information of the inter-base-layer reference pictures, the information of the improved inter-layer reference pictures and the information of the second layer picture, And a prediction unit for generating a list.

본 발명의 일 실시예에 따르면, 향상된 계층간 참조 영상 생성시 정수 화소 단위의 움직임 보상을 통해 부, 복호화기의 복잡도를 감소시킬 수 있는 영상의 복호화 방법 및 이를 이용하는 장치가 제공된다.According to an embodiment of the present invention, there is provided an image decoding method and an apparatus using the same that can reduce the complexity of a subtitle and a decoder by performing motion compensation on an integer pixel basis when an interlayer reference image is generated.

또한 부호화 파라미터 기반으로 가중치를 구하여 적용함으로써, 가중치 정보의 전송을 생략함으로써 복호화 효율을 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치가 제공된다.There is also provided a method of decoding an image and a device using the same, which can enhance decryption efficiency by omitting transmission of weight information by obtaining and applying weights based on coding parameters.

이로써, 다계층 구조 기반의 영상 부호화 및 복호화 시, 상위 계층의 영상을 부, 복호화함에 있어 예측 신호로 사용될 수 있는 하위 계층 정보의 정밀도를 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치가 제공된다.Accordingly, there is provided a method of decoding an image and an apparatus using the method, which can increase the precision of lower layer information that can be used as a prediction signal in attaching and decoding an image of an upper layer during image coding and decoding based on a multi-layer structure.

도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 3은 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일 실시예를 개략적으로 나타내는 개념도이다.
도 4는 본 발명에 따른 영상의 복호화 방법을 설명하기 위한 제어 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 향상된 계층간 참조 픽쳐을 설명하기 위한 도면이다.
도 6은 본 발명의 다른 실시예에 따라 향상된 계층간 참조 픽쳐의 생성을 설명하기 위한 개략도이다.
도 7은 본 발명의 또 다른 실시예에 따라 향상된 계층간 참조 픽쳐의 생성을 설명하기 위한 개략도이다.
1 is a block diagram showing a configuration of an image encoding apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
3 is a conceptual diagram schematically showing an embodiment of a scalable video coding structure using a plurality of layers to which the present invention can be applied.
4 is a control flowchart for explaining a method of decoding an image according to the present invention.
5 is a view for explaining an improved inter-layer reference picture according to an embodiment of the present invention.
6 is a schematic diagram for explaining generation of an improved inter-layer reference picture according to another embodiment of the present invention.
7 is a schematic diagram for explaining generation of an improved inter-layer reference picture according to another embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear.

어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . In addition, the description of "including" a specific configuration in the present invention does not exclude a configuration other than the configuration, and means that additional configurations can be included in the practice of the present invention or the technical scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, which does not mean that each component is composed of separate hardware or software constituent units. That is, each constituent unit is included in each constituent unit for convenience of explanation, and at least two constituent units of the constituent units may be combined to form one constituent unit, or one constituent unit may be divided into a plurality of constituent units to perform a function. The integrated embodiments and separate embodiments of the components are also included within the scope of the present invention, unless they depart from the essence of the present invention.

또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
In addition, some of the components are not essential components to perform essential functions in the present invention, but may be optional components only to improve performance. The present invention can be implemented only with components essential for realizing the essence of the present invention, except for the components used for the performance improvement, and can be implemented by only including the essential components except the optional components used for performance improvement Are also included in the scope of the present invention.

도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다. 스케일러블(scalable) 비디오 부호화/복호화 방법 또는 장치는 스케일러빌리티(scalability)를 제공하지 않는 일반적인 영상 부호화/복호화 방법 또는 장치의 확장(extension)에 의해 구현될 수 있으며, 도 1의 블록도는 스케일러블 비디오 부호화 장치의 기초가 될 수 있는 영상 부호화 장치의 일 실시예를 나타낸다.1 is a block diagram showing a configuration of an image encoding apparatus according to an embodiment of the present invention. A scalable video encoding / decoding method or apparatus may be implemented by a general image encoding / decoding method or apparatus extension that does not provide scalability, and the block diagram of FIG. 1 is a scalable 1 shows an embodiment of a video encoding apparatus that can be a basis of a video encoding apparatus.

도 1을 참조하면, 상기 영상 부호화 장치(100)는 움직임 예측부(111), 움직임 보상부(112), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조영상 버퍼(190)를 포함한다.1, the image encoding apparatus 100 includes a motion prediction unit 111, a motion compensation unit 112, an intra prediction unit 120, a switch 115, a subtractor 125, a transform unit 130, A quantization unit 140, an entropy encoding unit 150, an inverse quantization unit 160, an inverse transformation unit 170, an adder 175, a filter unit 180, and a reference image buffer 190.

영상 부호화 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트스트림(bit stream)을 출력할 수 있다. 인트라 예측은 화면 내 예측, 인터 예측은 화면 간 예측을 의미한다. 인트라 모드인 경우 스위치(115)가 인트라로 전환되고, 인터 모드인 경우 스위치(115)가 인터로 전환된다. 영상 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성한 후, 입력 블록과 예측 블록의 차분을 부호화할 수 있다.The image encoding apparatus 100 may encode an input image in an intra mode or an inter mode and output a bit stream. Intra prediction is intra prediction, and inter prediction is inter prediction. In the intra mode, the switch 115 is switched to the intra mode, and in the inter mode, the switch 115 is switched to the inter mode. The image encoding apparatus 100 may generate a prediction block for an input block of the input image, and may then code the difference between the input block and the prediction block.

인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다.In the intra mode, the intraprediction unit 120 may generate a prediction block by performing spatial prediction using the pixel value of the already coded block around the current block.

인터 모드인 경우, 움직임 예측부(111)는, 움직임 예측 과정에서 참조 영상 버퍼(190)에 저장되어 있는 참조 영상에서 입력 블록과 가장 매치가 잘 되는 영역을 찾아 움직임 벡터를 구할 수 있다. 움직임 보상부(112)는 움직임 벡터와 참조 영상 버퍼(190)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. In the inter mode, the motion predicting unit 111 may obtain a motion vector by searching an area of the reference image stored in the reference image buffer 190, which is best matched with the input block, in the motion estimation process. The motion compensation unit 112 may generate a prediction block by performing motion compensation using a motion vector and a reference image stored in the reference image buffer 190.

감산기(125)는 입력 블록과 생성된 예측 블록의 차분에 의해 잔여 블록(residual block)을 생성할 수 있다. 변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 그리고 양자화부(140)는 입력된 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력할 수 있다.
The subtractor 125 may generate a residual block by a difference between the input block and the generated prediction block. The transforming unit 130 may perform a transform on the residual block to output a transform coefficient. The quantization unit 140 may quantize the input transform coefficient according to the quantization parameter to output a quantized coefficient.

엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터 값 등을 기초로, 심볼(symbol)을 확률 분포에 따라 엔트로피 부호화하여 비트스트림(bit stream)을 출력할 수 있다. 엔트로피 부호화 방법은 다양한 값을 갖는 심볼을 입력 받아, 통계적 중복성을 제거하면서, 복호 가능한 2진수의 열로 표현하는 방법이다. The entropy encoding unit 150 entropy-codes a symbol according to a probability distribution based on the values calculated by the quantization unit 140 or the encoding parameter value calculated in the encoding process to obtain a bit stream Can be output. The entropy coding method is a method of receiving symbols having various values and expressing them as decodable binary numbers while eliminating statistical redundancy.

여기서, 심볼이란 부호화/복호화 대상 구문 요소(syntax element) 및 부호화 파라미터(coding parameter), 잔여 신호(residual signal)의 값 등을 의미한다. 부호화 파라미터는 부호화 및 복호화에 필요한 매개변수로서, 구문 요소와 같이 부호화기에서 부호화되어 복호화기로 전달되는 정보뿐만 아니라, 부호화 혹은 복호화 과정에서 유추될 수 있는 정보를 포함할 수 있으며 영상을 부호화하거나 복호화할 때 필요한 정보를 의미한다. 부호화 파라미터는 예를 들어 인트라/인터 예측모드, 이동/움직임 벡터, 참조 영상 색인, 부호화 블록 패턴, 잔여 신호 유무, 변환 계수, 양자화된 변환 계수, 양자화 파라미터, 블록 크기, 블록 분할 정보 등의 값 또는 통계를 포함할 수 있다. 또한 잔여 신호는 원신호와 예측 신호의 차이를 의미할 수 있고, 또한 원신호와 예측 신호의 차이가 변환(transform)된 형태의 신호 또는 원신호와 예측 신호의 차이가 변환되고 양자화된 형태의 신호를 의미할 수도 있다. 잔여 신호는 블록 단위에서는 잔여 블록이라 할 수 있다.Here, the symbol means a syntax element to be encoded / decoded, a coding parameter, a value of a residual signal, and the like. A coding parameter is a parameter required for coding and decoding. The coding parameter may include information that can be inferred in an encoding or decoding process, as well as information encoded and encoded in a decoder such as a syntax element. When encoding or decoding an image, It means necessary information. The coding parameters include, for example, values such as intra / inter prediction mode, motion / motion vector, reference picture index, coding block pattern, presence of residual signal, transform coefficient, quantized transform coefficient, quantization parameter, block size, Statistics can be included. In addition, the residual signal may mean a difference between the original signal and the prediction signal, or a signal in which the difference between the original signal and the prediction signal is transformed or a difference between the original signal and the prediction signal is transformed and the quantized signal . The residual signal can be regarded as a residual block in block units.

엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 부호화를 통해서 영상 부호화의 압축 성능이 높아질 수 있다. When entropy coding is applied, a small number of bits are allocated to a symbol having a high probability of occurrence, and a large number of bits are allocated to a symbol having a low probability of occurrence, so that the size of a bit string for the symbols to be coded Can be reduced. Therefore, the compression performance of the image encoding can be enhanced through the entropy encoding.

엔트로피 부호화를 위해 지수 골룸(exponential golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법이 사용될 수 있다. 예를 들어, 엔트로피 부호화부(150)에는 가변 길이 부호화(VLC: Variable Lenghth Coding/Code) 테이블과 같은 엔트로피 부호화를 수행하기 위한 테이블이 저장될 수 있고, 엔트로피 부호화부(150)는 저장된 가변 길이 부호화(VLC) 테이블을 사용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(150)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법 또는 확률 모델을 사용하여 엔트로피 부호화를 수행할 수도 있다.For entropy encoding, an encoding method such as exponential golomb, context-adaptive variable length coding (CAVLC), and context-adaptive binary arithmetic coding (CABAC) may be used. For example, a table for performing entropy encoding such as a variable length coding / code (VLC) table may be stored in the entropy encoding unit 150, and the entropy encoding unit 150 may store the stored variable length encoding (VLC) table for performing entropy encoding. Further, the entropy encoding unit 150 derives a binarization method of a target symbol and a probability model of a target symbol / bin, and then performs entropy encoding using the derived binarization method or probability model You may.

양자화된 계수는 역양자화부(160)에서 역양자화되고 역변환부(170)에서 역변환될 수 있다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성될 수 있다. The quantized coefficients can be inversely quantized in the inverse quantization unit 160 and inversely transformed in the inverse transformation unit 170. The inverse quantized and inverse transformed coefficients can be added to the prediction block through the adder 175 and a reconstruction block can be generated.

복원 블록은 필터부(180)를 거치고, 필터부(180)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(180)를 거친 복원 블록은 참조 영상 버퍼(190)에 저장될 수 있다.
The restoration block passes through the filter unit 180 and the filter unit 180 applies at least one of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) can do. The restoration block having passed through the filter unit 180 may be stored in the reference image buffer 190.

도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다. 도 1에서 상술한 바와 같이 스케일러블 비디오 부호화/복호화 방법 또는 장치는 스케일러빌리티를 제공하지 않는 일반적인 영상 부호화/복호화 방법 또는 장치의 확장에 의해 구현될 수 있으며, 도 2의 블록도는 스케일러블 비디오 복호화 장치의 기초가 될 수 있는 영상 복호화 장치의 일 실시예를 나타낸다.2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention. As described above with reference to FIG. 1, the scalable video encoding / decoding method or apparatus may be implemented by expanding a general image encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 2 illustrates scalable video decoding / 1 shows an embodiment of an image decoding apparatus which can be the basis of the apparatus.

도 2를 참조하면, 상기 영상 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 및 참조 영상 버퍼(270)를 포함한다.2, the image decoding apparatus 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, a motion compensation unit 250, (260) and a reference image buffer (270).

영상 복호화 장치(200)는 부호화기에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다. 인트라 모드인 경우 스위치가 인트라로 전환되고, 인터 모드인 경우 스위치가 인터로 전환될 수 있다. 영상 복호화 장치(200)는 입력 받은 비트스트림으로부터 복원된 잔여 블록(residual block)을 얻고 예측 블록을 생성한 후 복원된 잔여 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.
The video decoding apparatus 200 receives the bit stream output from the encoder and decodes the video stream into the intra mode or the inter mode, and outputs the reconstructed video, that is, the reconstructed video. In the intra mode, the switch is switched to the intra mode, and in the inter mode, the switch can be switched to the inter mode. The video decoding apparatus 200 may generate a reconstructed block, i.e., a reconstructed block, by obtaining a reconstructed residual block from the input bitstream, generating a predicted block, and adding the reconstructed residual block to the predicted block.

엔트로피 복호화부(210)는, 입력된 비트스트림을 확률 분포에 따라 엔트로피 복호화하여, 양자화된 계수(quantized coefficient) 형태의 심볼을 포함한 심볼들을 생성할 수 있다. 엔트로피 복호화 방법은 2진수의 열을 입력 받아 각 심볼들을 생성하는 방법이다. 엔트로피 복호화 방법은 상술한 엔트로피 부호화 방법과 유사하다.The entropy decoding unit 210 may entropy-decode the input bitstream according to a probability distribution to generate symbols including a symbol of a quantized coefficient type. The entropy decoding method is a method of generating each symbol by receiving a binary sequence. The entropy decoding method is similar to the entropy encoding method described above.

양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환되며, 양자화된 계수가 역양자화/역변환 된 결과, 복원된 잔여 블록(residual block)이 생성될 수 있다. The quantized coefficients are inversely quantized in the inverse quantization unit 220 and inversely transformed in the inverse transformation unit 230. As a result that the quantized coefficients are inversely quantized / inverse transformed, reconstructed residual blocks can be generated.

인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다. 인터 모드인 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 영상 버퍼(270)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. In the intra mode, the intraprediction unit 240 can generate a prediction block by performing spatial prediction using the pixel value of the already coded block around the current block. In the inter mode, the motion compensation unit 250 can generate a prediction block by performing motion compensation using a motion vector and a reference image stored in the reference image buffer 270. [

복원된 잔여 블록과 예측 블록은 가산기(255)를 통해 더해지고, 더해진 블록은 필터부(260)를 거친다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(260)는 재구성된 영상, 즉 복원 영상을 출력한다. 복원 영상은 참조 영상 버퍼(270)에 저장되어 화면 간 예측에 사용될 수 있다.The restored residual block and the prediction block are added through the adder 255, and the added block is passed through the filter unit 260. The filter unit 260 may apply at least one of a deblocking filter, SAO, and ALF to a restoration block or a restored picture. The filter unit 260 outputs a reconstructed image, that is, a reconstructed image. The restored image is stored in the reference image buffer 270 and can be used for inter-view prediction.

상기 영상 복호화 장치(200)에 포함되어 있는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 및 참조 영상 버퍼(270) 중 영상의 복호화에 직접적으로 관련된 구성요소들, 예컨대, 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 등을 다른 구성요소와 구분하여 복호화부 또는 디코딩부로 표현할 수 있다. An entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, a motion compensation unit 250, a filter unit 260 included in the image decoding apparatus 200, An entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intraprediction unit 240, a motion compensation unit 240, And the filter unit 260 may be expressed as a decoding unit or a decoding unit.

또한, 영상 복호화 장치(200)는 비트스트림에 포함되어 있는 인코딩된 영상에 관련된 정보를 파싱하는 도시하지 않은 파싱부를 더 포함할 수 있다. 파싱부는 엔트로피 복호화부(210)를 포함할 수도 있고, 엔트로피 복호화부(210)에 포함될 수도 있다. 이러한 파싱부는 또한 디코딩부의 하나의 구성요소로 구현될 수도 있다.
In addition, the video decoding apparatus 200 may further include a parsing unit (not shown) for parsing information related to the encoded video included in the bitstream. The parsing unit may include an entropy decoding unit 210 or may be included in the entropy decoding unit 210. Such a parsing unit may also be implemented as one component of the decoding unit.

도 3은 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일 실시예를 개략적으로 나타내는 개념도이다. 도 3에서 GOP(Group of Picture)는 픽쳐군 즉, 픽쳐의 그룹을 나타낸다.3 is a conceptual diagram schematically showing an embodiment of a scalable video coding structure using a plurality of layers to which the present invention can be applied. In Fig. 3, a GOP (Group of Picture) represents a picture group, that is, a group of pictures.

영상 데이터를 전송하기 위해서는 전송 매체가 필요하며, 그 성능은 다양한 네트워크 환경에 따라 전송 매체별로 차이가 있다. 이러한 다양한 전송 매체 또는 네트워크 환경에의 적용을 위해 스케일러블 비디오 코딩 방법이 제공될 수 있다.In order to transmit video data, a transmission medium is required, and the performance of the transmission medium varies depending on various network environments. A scalable video coding method may be provided for application to these various transmission media or network environments.

스케일러블 비디오 코딩 방법은 계층(layer) 간의 텍스쳐 정보, 움직임 정보, 잔여 신호 등을 활용하여 계층 간 중복성을 제거하여 부호화/복호화 성능을 높이는 코딩 방법이다. 스케일러블 비디오 코딩 방법은, 전송 비트율, 전송 에러율, 시스템 자원 등의 주변 조건에 따라, 공간적, 시간적, 화질적 관점에서 다양한 스케일러빌리티를 제공할 수 있다.The scalable video coding method is a coding method for enhancing the coding / decoding performance by eliminating inter-layer redundancy by utilizing texture information, motion information, residual signal, etc. between layers. The scalable video coding method can provide various scalabilities in terms of spatial, temporal, and image quality according to surrounding conditions such as a transmission bit rate, a transmission error rate, and a system resource.

스케일러블 비디오 코딩은, 다양한 네트워크 상황에 적용 가능한 비트스트림을 제공할 수 있도록, 복수 계층(multiple layers) 구조를 사용하여 수행될 수 있다. 예를 들어 스케일러블 비디오 코딩 구조는, 일반적인 영상 부호화 방법을 이용하여 영상 데이터를 압축하여 처리하는 기본 계층을 포함할 수 있고, 기본 계층의 부호화 정보 및 일반적인 영상 부호화 방법을 함께 사용하여 영상 데이터를 압축 처리하는 향상 계층을 포함할 수 있다.Scalable video coding can be performed using multiple layers structure to provide a bitstream applicable to various network situations. For example, the scalable video coding structure may include a base layer that compresses and processes image data using a general image encoding method, and compresses and compresses the image data using the base layer encoding information and general image encoding method Lt; RTI ID = 0.0 > layer. ≪ / RTI >

여기서, 계층(layer)은 공간(spatial, 예를 들어, 영상 크기), 시간(temporal, 예를 들어, 부호화 순서, 영상 출력 순서, 프레임 레이트), 화질, 복잡도 등을 기준으로 구분되는 영상 및 비트스트림(bitstream)의 집합을 의미한다. 또한 기본 계층(Base layer)은 하위 계층 또는 참조 계층, 향상 계층(Enhancement layer)은 상위 계층을 의미할 수 있다. 또한 복수의 계층들은 서로 간에 종속성을 가질 수도 있다.Here, the layer may be classified into a video and a bit classified based on spatial (e.g., image size), temporal (e.g., coding order, image output order, frame rate), image quality, Means a set of bitstreams. In addition, a base layer may refer to a lower layer or a reference layer, and an enhancement layer may refer to an upper layer. The plurality of layers may also have dependencies between each other.

도 3을 참조하면, 예를 들어 기본 계층은 SD(standard definition), 15Hz의 프레임율, 1Mbps 비트율로 정의될 수 있고, 제1 향상 계층은 HD(high definition), 30Hz의 프레임율, 3.9Mbps 비트율로 정의될 수 있으며, 제2 향상 계층은 4K-UHE(ultra high definition), 60Hz의 프레임율, 27.2Mbps 비트율로 정의될 수 있다. 상기 포맷(format), 프레임율, 비트율 등은 하나의 실시예로서, 필요에 따라 달리 정해질 수 있다. 또한 사용되는 계층의 수도 본 실시예에 한정되지 않고 상황에 따라 달리 정해질 수 있다. Referring to FIG. 3, for example, the base layer may be defined by a standard definition (SD), a frame rate of 15 Hz, a bit rate of 1 Mbps, and a first enhancement layer may be defined as high definition (HD), a frame rate of 30 Hz, And the second enhancement layer may be defined as 4K-UHE (ultra high definition), a frame rate of 60 Hz, and a bit rate of 27.2 Mbps. The format, the frame rate, the bit rate, and the like are one example, and can be determined as needed. Also, the number of layers to be used is not limited to the present embodiment, but can be otherwise determined depending on the situation.

예를 들어, 전송 대역폭이 4Mbps라면 상기 제1향상계층 HD의 프레임 레이트를 줄여서 15Hz이하로 전송할 수 있다. 스케일러블 비디오 코딩 방법은 상기 도 3의 실시예에서 상술한 방법에 의해 시간적, 공간적, 화질적 스케일러빌리티를 제공할 수 있다.For example, if the transmission bandwidth is 4 Mbps, the frame rate of the first enhancement layer HD may be reduced to 15 Hz or less. The scalable video coding method can provide temporal, spatial, and image quality scalability by the method described in the embodiment of FIG.

스케일러블 비디오 코딩은 이하 부호화 관점에서는 스케일러블 비디오 부호화, 복호화 관점에서는 스케일러블 비디오 복호화와 동일한 의미를 가진다.
Scalable video coding has the same meaning as scalable video coding in view of coding and scalable video decoding in view of decoding.

본 발명은 복수의 계층(layer) 또는 시점(view)을 포함하는 영상의 부, 복호화(en-/de-coding) 과정에 관한 것으로 상기 복수의 계층 또는 시점은 제1, 제2, 제3, 제n 계층 또는 시점으로 표현할 수 있다. 이하 설명에서는 제1 계층과 제2 계층이 존재하는 픽쳐를 예로 기술하며, 그 이상의 계층 또는 시점에도 동일한 방법으로 적용할 수 있다. 또한, 상기 제1 계층은 하위(base) 계층, 제2 계층은 상위(upper) 계층으로 표현할 수도 있다. 또한, 상기 제1 계층은 참조(reference) 계층, 제 2 계층은 향상(enhancement) 계층으로 표현될 수 있다. The present invention relates to an en- / de-coding process of an image including a plurality of layers or views, wherein the plurality of layers or viewpoints are first, second, third, Nth layer or a viewpoint. In the following description, a picture in which the first layer and the second layer exist is described as an example, and the same method can be applied to the layer or viewpoint. The first layer may be expressed as a base layer, and the second layer may be expressed as an upper layer. In addition, the first layer may be referred to as a reference layer and the second layer may be represented as an enhancement layer.

제2 계층의 픽쳐/블록에 대응하는 제1 계층의 픽쳐/블록은 상기 제2 계층 픽쳐/블록의 크기에 맞게 변경할 수 있다. 즉, 제1 계층의 픽쳐/블록의 크기가 제2 계층의 픽쳐/블록 보다 작은 경우 업샘플링(up-sampling), re-sampling 등의 방법을 이용하여 스케일링(scaling)할 수 있다.The picture / block of the first layer corresponding to the picture / block of the second layer can be changed according to the size of the second layer picture / block. That is, when the size of the picture / block of the first layer is smaller than that of the second layer, scaling can be performed by up-sampling, re-sampling, or the like.

또한, 제1 계층의 픽쳐는 상기 제2 계층의 참조 픽쳐 리스트(reference picture list)에 추가하여 제2 계층의 영상 부/복호화에 이용될 수 있다. 이때, 제2 계층은 통상의 화면간 예측처럼 참조 픽쳐 리스트에 있는 제1 계층 영상을 이용하여 예측 및 부/복호화를 수행할 수 있다.In addition, the first layer picture may be used for the second layer picture decoding / decoding in addition to the reference picture list of the second layer. At this time, the second layer can perform prediction and addition / decryption using the first layer picture in the reference picture list as in normal inter-picture prediction.

부/복호화를 위한 블록의 크기는 4x4, 8x8, 16x16, 32x32, 64x64 등 NxN 형태의 정사각형 또는 4x8, 16x8, 8x32 등의 NxM 형태의 직사각형 일 수 있으며, 블록의 단위는 부호화 블록(CB: Coding Block), 예측 블록(PB: Prediction Block), 변환 블록(TB: Transform Block) 중 적어도 하나 일 수 있으며 각각 서로 다른 크기를 가질 수 있다.The size of the block for decoding / decoding may be NxN type square such as 4x4, 8x8, 16x16, 32x32, 64x64, or NxM type rectangle such as 4x8, 16x8, 8x32, etc. The unit of block is a coding block ), A prediction block (PB), and a transform block (TB), and may have different sizes.

이하에서, 스케일러블 비디오, 즉 다계층 구조를 사용하는 영상의 부호화 및 복호화 방법 중 상위 계층의 부호화 및 복호화 대상이 되는 블록(이하 현재 블록 또는 대상 블록이라고 칭함)의 예측 블록, 즉 예측 신호를 생성하는 방법에 대하여 살펴본다. 이하 발명의 내용(방법 또는 장치)은 통상적으로 부호화기와 복호화기에 동일하게 적용될 수 있다.
Hereinafter, a prediction block of a block (hereinafter referred to as a current block or a target block) to be coded and decoded in an upper layer among coding and decoding methods of scalable video, i.e., an image using a multi-layer structure, How to do it. The content (method or apparatus) of the present invention can be equally applied to an encoder and a decoder in general.

한편, 대상 블록의 예측 신호는 화면 간 예측을 통하여 생성될 수 있다.On the other hand, the prediction signal of the target block can be generated through inter-picture prediction.

화면간 예측은 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나를 참조 픽쳐로 하고, 참조 픽쳐를 기반으로 현재 블록에 대한 예측을 수행할 수 있다. 현재 블록의 예측에 이용되는 영상을 참조 픽쳐(reference picture) 또는 참조 프레임(reference frame)이라고 한다. The inter-picture prediction may use at least one of the previous picture or the following picture of the current picture as a reference picture, and perform a prediction on the current block based on the reference picture. An image used for prediction of a current block is referred to as a reference picture or a reference frame.

참조 픽쳐 내의 영역은 참조 픽쳐를 지시하는 참조 픽쳐 인덱스(refIdx) 및 움직임 벡터(motion vector) 등을 이용하여 나타낼 수 있다. An area in the reference picture can be represented using a reference picture index refIdx indicating a reference picture and a motion vector.

화면간 예측은 참조 픽쳐 및 참조 픽쳐 내에서 현재 블록에 대응하는 참조 블록을 선택해서, 현재 블록에 대한 예측 블록을 생성할 수 있다. The inter picture prediction can generate a prediction block for the current block by selecting a reference block corresponding to the current block in the reference picture and the reference picture.

화면 간 예측에서 부호화기 및 복호화기는 현재 블록의 움직임 정보를 도출한 후, 도출된 움직임 정보에 기반하여 화면 간 예측 및/또는 움직임 보상을 수행할 수 있다. 이 때, 부호화기 및 복호화기는 복원된 주변 블록(neighboring block) 및/또는 이미 복원된 콜(col) 픽쳐(collocated picture) 내에서 현재 블록에 대응되는 콜(col) 블록(collocated block)의 움직임 정보를 이용함으로써, 부호화/복호화 효율을 향상시킬 수 있다. In inter-picture prediction, the encoder and the decoder may derive the motion information of the current block, and then perform inter-picture prediction and / or motion compensation based on the derived motion information. At this time, the encoder and the decoder decode the motion information of the collocated block corresponding to the current block in the restored neighboring block and / or collocated picture already recovered The coding / decoding efficiency can be improved.

여기서, 복원된 주변 블록은 이미 부호화 및/또는 복호화되어 복원된 현재 픽쳐 내의 블록으로서, 현재 블록에 인접한 블록 및/또는 현재 블록의 외부 코너에 위치한 블록을 포함할 수 있다. 또한 부호화기 및 복호화기는, 콜 픽쳐 내에서 현재 블록과 공간적으로 대응되는 위치에 존재하는 블록을 기준으로 소정의 상대적인 위치를 결정할 수 있고, 상기 결정된 소정의 상대적인 위치(상기 현재 블록과 공간적으로 대응되는 위치에 존재하는 블록의 내부 및/또는 외부의 위치)를 기반으로 상기 콜 블록을 도출할 수 있다. 여기서, 일례로 콜 픽쳐는 참조 픽쳐 리스트에 포함된 참조 픽쳐 중에서 하나의 픽쳐에 해당될 수 있다.Here, the reconstructed neighboring block may include a block adjacent to the current block and / or a block located at the outer corner of the current block, which is a block in the current picture reconstructed by decoding and / or decoding. Also, the encoder and the decoder can determine a predetermined relative position based on a block existing at a position spatially corresponding to the current block in the call picture, and determine the relative position based on the determined relative position (a position spatially corresponding to the current block The location of the call block may be derived based on the internal and / or external location of the block present in the block. Here, for example, the call picture may correspond to one picture among the reference pictures included in the reference picture list.

화면간 예측은 현재 블록과의 레지듀얼(residual) 신호가 최소화되며 움직임 벡터 크기 역시 최소가 되도록 예측 블록을 생성할 수 있다.Inter prediction may generate a prediction block such that the residual signal with respect to the current block is minimized and the motion vector size is minimized.

한편, 움직임 정보 도출 방식은 현재 블록의 예측 모드에 따라 달라질 수 있다. 인터 예측을 위해 적용되는 예측 모드에는 AMVP(Advanced Motion Vector Predictor), 머지(merge) 등이 있을 수 있다.Meanwhile, the motion information derivation method can be changed according to the prediction mode of the current block. The prediction mode applied for inter prediction may be an Advanced Motion Vector Predictor (AMVP), a merge, or the like.

일례로, AMVP(Advanced Motion Vector Predictor)가 적용되는 경우, 부호화기 및 복호화기는 복원된 주변 블록의 움직임 벡터 및/또는 콜 블록의 움직임 벡터를 이용하여, 예측 움직임 벡터 후보 리스트를 생성할 수 있다. 즉, 복원된 주변 블록의 움직임 벡터 및/또는 콜 블록의 움직임 벡터는 예측 움직임 벡터 후보로 사용될 수 있다. 부호화기는 상기 리스트에 포함된 예측 움직임 벡터 후보 중에서 선택된 최적의 예측 움직임 벡터를 지시하는 예측 움직임 벡터 인덱스를 복호화기로 전송할 수 있다. 이 때, 복호화기는 상기 예측 움직임 벡터 인덱스를 이용하여, 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보 중에서, 현재 블록의 예측 움직임 벡터를 선택할 수 있다.For example, when an Advanced Motion Vector Predictor (AMVP) is applied, the encoder and the decoder can generate a predicted motion vector candidate list using a motion vector of a restored neighboring block and / or a motion vector of a call block. That is, the motion vector of the reconstructed neighboring block and / or the motion vector of the call block may be used as a predicted motion vector candidate. The encoder may transmit a predicted motion vector index indicating an optimal predicted motion vector selected from the predicted motion vector candidates included in the list to the decoder. At this time, the decoder can select the predicted motion vector of the current block from the predicted motion vector candidates included in the predicted motion vector candidate list using the predicted motion vector index.

부호화기는 현재 블록의 움직임 벡터와 예측 움직임 벡터 간의 움직임 벡터 차분(MVD: Motion Vector Difference)을 구할 수 있고, 이를 부호화하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 수신된 움직임 벡터 차분을 복호화할 수 있고, 복호화된 움직임 벡터 차분과 예측 움직임 벡터의 합을 통해 현재 블록의 움직임 벡터를 도출할 수 있다.The encoder can obtain a motion vector difference (MVD) between a motion vector of a current block and a predicted motion vector, and can encode the motion vector difference and transmit the motion vector to a decoder. At this time, the decoder can decode the received motion vector difference, and derive the motion vector of the current block through the sum of the decoded motion vector difference and the predicted motion vector.

부호화기는 또한 참조 픽쳐를 지시하는 참조 픽쳐 인덱스 등을 복호화기에 전송할 수 있다. The encoder may also transmit a reference picture index indicating the reference picture to the decoder.

복호화기는 주변 블록의 움직임 정보들을 이용하여 현재 블록의 움직임 벡터를 예측하고, 부호화기로부터 수신한 레지듀얼을 이용하여 현재 블록에 대한 움직임 벡터를 유도할 수 있다. The decoder can predict the motion vector of the current block using the motion information of the neighboring block and derive the motion vector of the current block using the residual received from the encoder.

복호화기는 어떤 주변 블록의 움직임 정보를 이용하는지에 관한 정보, 현재 블록의 움직임 벡터와 예측된 움직임 벡터 사이의 차이, 참조 픽쳐를 지시하는 참조 픽쳐 인덱스 부호화기로부터 수신할 수 있다. The decoder can receive information from which neighboring block motion information is used, the difference between the motion vector of the current block and the predicted motion vector, and the reference picture index encoder that indicates the reference picture.

복호화기는 유도한 움직임 벡터와 부호화기로부터 수신한 참조 픽쳐 인덱스 정보를 기반으로 현재 블록에 대한 예측 블록을 생성할 수 있다. The decoder can generate a prediction block for the current block based on the derived motion vector and the reference picture index information received from the encoder.

다른 예로, 머지(merge)가 적용되는 경우, 부호화기 및 복호화기는 복원된 주변 블록의 움직임 정보 및/또는 콜 블록의 움직임 정보를 이용하여, 머지 후보 리스트를 생성할 수 있다. 즉, 부호화기 및 복호화기는 복원된 주변 블록 및/또는 콜 블록의 움직임 정보가 존재하는 경우, 이를 현재 블록에 대한 머지 후보로 사용할 수 있다. As another example, when a merge is applied, the encoder and the decoder can generate a merge candidate list using the motion information of the restored neighboring block and / or the motion information of the call block. That is, the encoder and the decoder can use the motion information of the restored neighboring block and / or call block as a merge candidate for the current block.

부호화기는 머지 후보 리스트에 포함된 머지 후보 중에서 최적의 부호화 효율을 제공할 수 있는 머지 후보를 현재 블록에 대한 움직임 정보로 선택할 수 있다. 이 때, 상기 선택된 머지 후보를 지시하는 머지 인덱스가 비트스트림에 포함되어 복호화기로 전송될 수 있다. 복호화기는 상기 전송된 머지 인덱스를 이용하여, 머지 후보 리스트에 포함된 머지 후보 중에서 하나를 선택할 수 있으며, 상기 선택된 머지 후보를 현재 블록의 움직임 정보로 결정할 수 있다. 따라서, 머지 모드가 적용되는 경우, 복원된 주변 블록 및/또는 콜 블록의 움직임 정보가 현재 블록의 움직임 정보로 그대로 사용될 수 있다. 복호화기는 예측 블록과 부호화기로부터 전송되는 레 지듀얼을 더하여 현재 블록을 복원할 수 있다.The encoder can select a merge candidate that can provide the optimal encoding efficiency among the merge candidates included in the merge candidate list as the motion information for the current block. At this time, a merge index indicating the selected merge candidate may be included in the bitstream and transmitted to the decoder. The decoder can select one of the merge candidates included in the merge candidate list using the transmitted merge index, and determine the selected merge candidate as the motion information of the current block. Therefore, when the merge mode is applied, the motion information of the restored neighboring block and / or call block can be used as it is as motion information of the current block. The decoder can recover the current block by adding the predictive block and the residual transmitted from the encoder.

상술한 AMVP 및 머지 모드에서는, 현재 블록의 움직임 정보를 도출하기 위해, 복원된 주변 블록의 움직임 정보 및/또는 콜 블록의 움직임 정보가 사용될 수 있다.In the above-described AMVP and merge modes, motion information of a restored neighboring block and / or motion information of a call block may be used to derive motion information of the current block.

화면 간 예측에 이용되는 다른 모드 중 하나 인 스킵 모드의 경우에, 주변 블록의 정보를 그대로 현재 블록에 이용할 수 있다. 따라서 스킵 모드의 경우에, 부호화기는 현재 블록의 움직임 정보로서 어떤 블록의 움직임 정보를 이용할 것인지를 지시하는 정보 외에 레지듀얼 등과 같은 신택스 정보를 복호화기에 전송하지 않는다. In the case of the skip mode which is one of the other modes used for the inter-picture prediction, the information of the neighboring blocks can be used as it is for the current block. Therefore, in the case of the skip mode, the encoder does not transmit syntax information such as residual, etc. to the decoder in addition to information indicating which block's motion information is to be used as motion information of the current block.

부호화기 및 복호화기는 상기 도출된 움직임 정보에 기반하여 현재 블록에 대한 움직임 보상을 수행함으로써, 현재 블록의 예측 블록을 생성할 수 있다. 여기서, 예측 블록은 현재 블록에 대한 움직임 보상 수행 결과 생성된, 움직임 보상된 블록을 의미할 수 있다. 또한, 복수의 움직임 보상된 블록은 하나의 움직임 보상된 영상을 구성할 수 있다.The encoder and the decoder can generate a prediction block of the current block by performing motion compensation on the current block based on the derived motion information. Here, the prediction block may be a motion compensated block generated as a result of performing motion compensation on a current block. In addition, a plurality of motion-compensated blocks may constitute one motion-compensated image.

복호화기는 현재 블록의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽쳐 인덱스 등에 관한 정보를 부호화기로부터 수신한 스킵 플래그, 머지 플래그 등을 확인하고 이에 대응하여 유도할 수 있다. The decoder can identify the skip flag, the merge flag, and the like received from the encoder on the motion information necessary for inter-prediction of the current block, e.g., motion vector, reference picture index,

예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 서로 다를 수 있다. 예컨대, PU단위로 예측모드가 정해져서 TU단위로 예측이 수행될 수도 있고, PU 단위로 예측 모드가 정해지고 TU 단위로 화면 내 예측이 수행될 수 도 있다.
The processing unit in which the prediction is performed and the processing unit in which the prediction method and the concrete contents are determined may be different from each other. For example, the prediction mode may be determined in units of PU, and the prediction may be performed in units of TU, the prediction mode may be determined in units of PU, and the intra prediction may be performed in units of TU.

설명의 편의를 위하여 본 발명에 사용되는 여러 픽쳐에 대한 용어를 정리하면 다음과 같다. For the sake of convenience of description, the terms used in the present invention will be summarized as follows.

제2 계층의 현재 부, 복호화 대상 픽쳐는 EP(Enhancement Picture)로, 제 2계층의 현재 부, 복호화 대상 픽쳐에 대응하는 제1 계층의 픽쳐는 BP(Base Picture)로 표현 될 수 있다. 제1 계층은 기본 계층에 한정되지 않고 부, 복호화 대상 픽쳐를 포함하는 계층이 참조하는 참조 계층을 포함할 수 있다. The current portion of the second layer, the picture to be decoded can be represented by EP (Enhancement Picture), the current portion of the second layer, and the picture of the first layer corresponding to the decoding subject picture can be expressed by BP (Base Picture). The first layer is not limited to the base layer but may include a reference layer referred to by a layer including a picture to be decoded and a sub-picture.

제1 계층의 픽쳐를 리-샘플링(re-sampling)을 하여 얻은 계층간 참조 픽쳐를 ILP(Inter layer Picture)로 표현될 수 있고, 제1 계층과 제2 계층의 픽쳐층간 픽쳐의 크기가 동일한 경우, ILP는 BP 픽쳐와 동일할 수 있다. An interlayer reference picture obtained by re-sampling a picture of the first layer can be expressed by an ILP (Inter layer Picture), and when the picture layers of the first layer and the second layer have the same size , The ILP may be the same as the BP picture.

제1 계층의 픽쳐 정보 및 제2 계층의 픽쳐 정보를 이용하여 생성된 향상된 계층간 참조 픽쳐는 EILP(Enhanced Inter layer Picture)로 표현될 수 있다. The enhanced inter-layer reference picture generated using the picture information of the first layer and the picture information of the second layer can be expressed as EILP (Enhanced Interlayer Picture).

제2 계층의 현재 부, 복호화 대상 픽쳐의 시간 참조 복원 픽쳐는 EP’로, 제2 계층의 시간 참조 복원 픽쳐에 대응되는 제1 계층의 복원 픽쳐는 BP’로 표될 수 있다. 본 명세서에서 시간 참조 픽쳐란 화면간 예측에 사용되는 시간적 참조 픽쳐(temperal reference picture)를 의미할 수 있으며 계층간 참조 픽쳐와 구분하여 동일한 계층에 속하는 참조 픽쳐를 지칭할 수 있다. The temporal reference restored picture of the current part of the second layer and the picture to be decoded can be represented as EP 'and the restored picture of the first layer corresponding to the temporal reference restored picture of the second layer can be represented as BP'. Herein, the temporal reference picture may refer to a temporal reference picture used for inter-view prediction, and may refer to a reference picture belonging to the same hierarchy by being distinguished from inter-layer reference pictures.

ILP와 유사하게 BP’ 픽쳐를 업-샘플링을 하여 얻은 계층간 참조 픽쳐를 ILP’로 표현하면, 제1 계층과 제2 계층의 픽쳐층간 픽쳐의 크기가 동일한 경우, ILP’는 BP’ 픽쳐와 동일할 수 있다다.
Similarly to ILP, when a layer-to-layer reference picture obtained by up-sampling a BP picture is expressed as ILP ', if the picture layer picture of the first layer and the picture of the second layer have the same size, ILP' I can do it.

다계층을 지원하는 영상에서, 상위 계층의 대상 블록의 예측 신호는 상술한 화면 간 예측 방법 이외에 대상 블록이 참조 가능한 하위 계층, 즉 참조 계층의 복원된 영상을 이용하는 방법이 있다. In an image supporting multiple layers, a prediction signal of a target block of an upper layer includes a method of using a reconstructed image of a lower layer, that is, a reference layer, to which a target block can be referenced, in addition to the inter-view prediction method described above.

도 4는 본 발명에 따른 영상의 복호화 방법을 설명하기 위한 제어 흐름도이다. 보다 구체적으로 도 4는 다계층 영상의 부, 복호화 과정에서 제 2 계층의 픽쳐에 대한 부, 복호화 과정을 수행할 때 제1 계층의 픽쳐 정보를 이용하여 다계층 영상의 부호화 및 복호화 방법에 대한 설명을 나타내고 있다. 따라서, 도 4에 대한 설명은 영상의 복호화 및 부호화 방법에 모두 적용될 수 있다. 이하에서는 설명의 편의를 위하여 복호화 과정을 기준으로 기술한다. 4 is a control flowchart for explaining a method of decoding an image according to the present invention. More specifically, FIG. 4 illustrates a method of encoding and decoding a multi-layer image using the picture information of the first layer when performing a process of attaching and decrypting a picture of a second layer in the process of attaching and decoding a multi-layer image, . Accordingly, the description of FIG. 4 can be applied to both the image decoding method and the image decoding method. Hereinafter, for the sake of convenience of description, description will be made on the basis of the decoding process.

우선, 복호화기는 제2 계층의 픽쳐가 참조하고 있는 제1 계층의 픽쳐 정보를 복호화한다(S410).First, the decoder decodes the picture information of the first hierarchy referred to by the picture of the second hierarchy (S410).

복호화기는 제2 계층의 복호화 대상 블록에 대응되는 제1 계층 픽쳐의 부호화된 정보를 대상 블록을 예측 하기 위한 참조 정보로 복호화 하여 사용할 수 있다. The decoder may decode the coded information of the first layer picture corresponding to the current block to be decoded of the second layer into reference information for predicting the target block.

참조 정보는 복호호된 제1 계층 픽쳐 샘플 값 또는 움직임 정보들을 포함할 수 있다. The reference information may include a decoded first layer picture sample value or motion information.

제1 계층의 움직임 정보들은 움직임 벡터 값, 참조 픽쳐 인덱스, 예측 방향 지시자, 참조 픽쳐 POC (Picture Order Count), 예측 모드, 참조 픽쳐 리스트, 머지 플래그, 머지 색인, 참조 픽쳐의 픽쳐 타입(단기(short-term) 참조 픽쳐, 장기(long-term) 참조 픽쳐) 정보 등을 포함할 수 있다. The motion information of the first layer includes motion vector values, a reference picture index, a prediction direction indicator, a picture order count (POC), a prediction mode, a reference picture list, a merge flag, a merge index, -term) reference picture, a long-term reference picture) information, and the like.

제1 계층의 복호화된 움직임 정보들은 NxN (예, 16x16) 단위로 동일한 움직임 정보를 갖도록 압축되어 저장될 수 있다.
The decoded motion information of the first layer may be compressed and stored to have the same motion information in units of NxN (e.g., 16x16).

제1 계층의 픽쳐 정보가 생성되면, 복호화기는 제1 계층의 복호화된 픽쳐 정보를 이용하여 기본 계층간 참조 픽쳐(ILP)에 대한 정보를 생성할 수 있다(S420). When the picture information of the first layer is generated, the decoder may generate information about the inter-base layer reference pictures (ILP) using the decoded picture information of the first layer (S420).

기본 계층간 참조 픽쳐는 제1 계층의 픽쳐 크기를 제2 계층의 픽쳐 크기로 매핑(mapping)한 픽쳐 및 제2 계층의 픽쳐에 대응되는 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐를 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 픽쳐를 포함할 수 있다.The inter-base-layer reference pictures are pictures obtained by mapping the picture size of the first layer to the picture size of the second layer and the decoded temporal reference pictures of the first layer picture corresponding to the picture of the second layer, And a picture mapped to the size of the temporal reference picture of FIG.

계층간 픽쳐의 크기가 다를 경우, 복호화된 제1 계층의 픽쳐 크기를 제2 계층의 픽쳐 크기로 매핑하기 위해 제1 계층 픽쳐의 샘플 값들에 대해 업-샘플링(up-sampling)을 수행 할 수 있다. If the inter-layer picture size is different, up-sampling may be performed on the sample values of the first layer picture to map the decoded picture size of the first layer to the picture size of the second layer .

예를 들어, 복호화된 제1 계층의 픽쳐 크기가 960x540 이고, 제2 계층의 픽쳐 크기가 1920x1080 인 경우, 제1 계층의 복호화된 픽쳐의 크기를 제2 계층의 픽쳐 크기인 1920x1080으로 업샘플링을 수행 할 수 있다. 업샘플링된 픽쳐를 기본 계층간 참조 픽쳐로 사용할 수 있다. For example, if the decoded picture size of the first layer is 960x540 and the picture size of the second layer is 1920x1080, the size of the decoded picture of the first layer is upsampled to 1920x1080, which is the picture size of the second layer can do. The upsampled picture can be used as a reference picture between base layers.

한편, 계층간 픽쳐의 크기가 동일 할 경우, 복호화된 제1 계층의 픽쳐를 기본 계층간 참조 픽쳐로 사용할 수 있다. On the other hand, when the inter-layer picture size is the same, the decoded first layer picture can be used as the inter-base layer reference picture.

다른 실시예에 따르면, 계층간 픽쳐의 크기가 동일 할 경우, 복호화된 제1 계층의 픽쳐에 대해 필터를 적용한 픽쳐를 기본 계층간 참조 픽쳐로 사용할 수 있다. According to another embodiment, when the inter-layer picture size is the same, a picture to which a filter is applied to the decoded first layer picture can be used as a reference inter-base layer reference picture.

예를 들어, 복호화된 제1 계층의 픽쳐에 대해 [-1, 3, 12, 3 -1] 필터 계수를 갖는 필터를 적용한 픽쳐를 기본 계층간 참조 픽쳐로 사용할 수 있다. For example, a picture to which a filter having [-1, 3, 12, 3 -1] filter coefficients is applied to a decoded first layer picture can be used as a reference interlayer layer reference picture.

또는, 복호화기는 계층간 픽쳐의 크기가 다를 경우, 제1 계층 픽쳐의 샘플 값들에 대해 업-샘플링(up-sampling)을 수행한 기본 계층간 참조 픽쳐에 대해 필터를 적용할 수 있다.Alternatively, if the inter-layer picture size is different, the decoder may apply a filter to the inter-base layer reference picture that has up-sampled the sample values of the first layer picture.

또 다른 실시예에 따르면, 계층간 픽쳐의 크기가 다를 경우, 복호화된 제1 계층 픽쳐의 움직임 정보들을 제2 계층 픽쳐의 크기로 매핑하여 기본 계층간 참조 픽쳐의 움직임 정보로 사용할 수 있다. According to another embodiment, when the inter-layer picture size is different, the motion information of the decoded first layer picture may be mapped to the size of the second layer picture, and used as motion information of the inter-base layer reference picture.

예를 들어, 기본 계층간 참조 픽쳐의 크기를 NxN 단위로 분할하고, 분할된 NxN 블록내의 특정 좌표 값에 대응되는 제1 계층 픽쳐 내의 위치에 해당하는 움직임 정보를 기본 계층간 참조 픽쳐 내 블록의 움직임 정보로 매핑시킬 수 있다. 이 때, 계층간 픽쳐의 가로, 세로 크기 비율을 반영하여 움직임 정보를 매핑시킬 수 있다. For example, the size of the inter-base layer reference picture is divided into NxN units, and the motion information corresponding to the position in the first layer picture corresponding to the specific coordinate value in the divided NxN block is referred to as motion Can be mapped to information. At this time, the motion information can be mapped by reflecting the horizontal and vertical size ratios of the intra-layer pictures.

반면, 계층간 픽쳐의 크기가 동일 할 경우, 복호화된 제1 계층 픽쳐 내의 움직임 정보들을 기본 계층간 참조 픽쳐의 움직임 정보로 사용할 수 있다.
On the other hand, when the inter-layer picture size is the same, the motion information in the decoded first layer picture can be used as the motion information of the inter-base layer reference picture.

제1 계층의 복호화된 픽쳐 정보 및 기본 계층간 참조 픽쳐 정보가 생성되면, 복호화기는 제1 계층의 복호화된 픽쳐 정보, 기본 계층간 참조 픽쳐 정보 및 제2 계층의 복호화된 픽쳐 정보를 이용하여 향상된 계층간 참조 픽쳐(EILP) 정보를 생성할 수 있다(S430). 이하 실시예에서는 설명의 편의 상 계층간 픽쳐의 가로, 세로 크기 비율은 각각 2배인 것으로 가정한다.When the decoded picture information of the first layer and the inter-base layer reference picture information are generated, the decoder uses the decoded picture information of the first layer, the inter-base layer reference picture information, and the decoded picture information of the second layer, (EILP) information (S430). In the following embodiments, it is assumed that the horizontal and vertical size ratios of the intra-layer pictures are each doubled for convenience of explanation.

향상된 계층간 참조 픽쳐를 생성하기 위하여 단계 S420를 통해 생성한 기본 계층간 참조 픽쳐에 추가하여 제1 계층의 복호화된 픽쳐 정보 및 제2 계층의 복호화된 픽쳐 정보를 이용할 수 있다. It is possible to use the decoded picture information of the first layer and the decoded picture information of the second layer in addition to the inter-base layer reference pictures generated through step S420 to generate the improved inter-layer reference pictures.

도 5는 본 발명의 일 실시예에 따른 향상된 계층간 참조 픽쳐를 설명하기 위한 도면이다. 5 is a diagram for explaining an improved inter-layer reference picture according to an embodiment of the present invention.

도 5를 참조하면, 제2 계층 픽쳐(EP)의 화면 간 예측을 위하여 복수의 픽쳐(A, B, C)들이 참조 픽쳐 그룹(EP’)을 형성할 수 있다. 즉, 제2 계층 픽쳐(EP)의 화면 간 예측을 위하여 복호화된 참조 픽쳐들(A, B, C)은 DPB와 같은 메모리에 저장될 수 있으며, 이러한 참조 픽쳐들(A, B, C)은 참조 픽쳐 리스트에 포함될 수 있다. Referring to FIG. 5, a plurality of pictures A, B, and C may form a reference picture group EP 'for inter-picture prediction of a second layer picture EP. That is, the reference pictures A, B, and C decoded for the inter-picture prediction of the second layer picture EP may be stored in a memory such as a DPB, and the reference pictures A, B, And can be included in the reference picture list.

대상 픽쳐(EP)에 대응되는 제1 계층 픽쳐(BP)의 복호화된 시간 참조 픽쳐 (A’, B’, C’)들이 역시 제1 계층 픽쳐(BP)에 대한 참조 픽쳐 그룹(BP’)을 형성할 수 있다. The decoded time reference pictures A ', B', and C 'of the first layer picture BP corresponding to the current picture EP are also referred to as the reference picture group BP' for the first layer picture BP .

제1 계층 픽쳐(BP)의 복호화된 시간 참조 픽쳐들(BP’)이 업-샘플링된 기본 계층간 참조 픽쳐들(A”, B”, C”)은 기본 계층 간 참조 픽쳐 그룹(ILP’)을 형성할 수 있다. The inter-base-layer reference pictures A ", B", and C ", on which the decoded temporal reference pictures BP 'of the first layer picture BP are up-sampled are referred to as inter-base-layer reference picture groups ILP' Can be formed.

제2 계층의 현재 부, 복호화 대상 픽쳐(EP)를 위한 향상된 계층간 참조 픽쳐(EILP)는 제2 계층 내의 현재 부, 복호화 대상 픽쳐(EP)의 복호화된 시간 참조 픽쳐들(EP’)과, 대상 픽쳐(EP)에 대응되는 제1 계층 픽쳐(BP)의 복호화된 시간 참조 픽쳐들(BP’) 및 시간 참조 픽쳐들(BP’)을 업-샘플링 하여 생성한 기본 계층간 참조 픽쳐들(ILP’)을 이용하여 생성할 수 있다.
The current layer of the second layer and the enhanced inter-layer reference picture (EILP) for the decoded picture EP include the decoded temporal reference pictures EP 'of the current part and the current picture EP to be decoded in the second layer, Inter-base-layer reference pictures ILP (B) generated by up-sampling the decoded temporal reference pictures BP 'and temporal reference pictures BP' of the first layer picture BP corresponding to the target picture EP, ').

도 6은 본 발명의 다른 실시예에 따라 향상된 계층간 참조 픽쳐의 생성을 설명하기 위한 개략도이다. 6 is a schematic diagram for explaining generation of an improved inter-layer reference picture according to another embodiment of the present invention.

도 6에 도시된 바와 같이, 제2 계층의 부, 복호화 대상 픽쳐(EP)의 부, 복호화 대상 블록(①)의 예측을 위하여 향상된 계층간 참조 픽쳐(EILP)를 생성한다.As shown in Fig. 6, an enhanced inter-layer reference picture (EILP) is generated for prediction of the second layer portion, the picture to be decoded EP, and the to-be-decoded block 1 & cir &

이를 위하여 제2 계층 대상 픽쳐(EP)에 대응하는 제1 계층 픽쳐(BP)의 움직임 정보(움직임 벡터, 참조 픽쳐 인덱스) 및 제2 계층의 현재 부, 복호화 대상 픽쳐(EP)에 대응되는 기본 계층간 참조 픽쳐(ILP)가 이용될 수 있다. For this purpose, motion information (motion vector, reference picture index) of the first layer picture BP corresponding to the second layer target picture EP, a current layer of the second layer, a base layer An inter-reference picture (ILP) can be used.

기본 계층간 참조 픽쳐(ILP, ILP’)의 가로, 세로 크기에 대한 제1 계층 픽쳐(BP) 및 제1 계층 픽쳐의 시간 참조 픽쳐(BP’)의 비율은 각각 2배일 수 있다.The ratio of the first layer picture BP to the horizontal and vertical sizes of the inter-base layer reference pictures ILP and ILP 'and the temporal reference picture BP' of the first layer picture may be doubled.

제2 계층 대상 픽쳐(EP)의 대상 블록, 예를 들어 NxN 블록(①)의 위치에 대응하는 제1 계층 픽쳐(BP)의 블록은 ③이고, NxN 블록(①)의 위치에 대응하는 기본 계층간 참조 픽쳐(ILP)의 블록은 ②이다. 대상 블록(①)과 기본 계층간 참조 픽쳐(ILP)의 블록 ②는 동일한 위치에 존재하는 블록이다. 블록 ②는 대상 블록 ①에 대한 계층간 대응 블록으로, 블록 ③은 대상 블록 ①에 대하여 대응 블록으로 표현될 수 있다. The block of the first layer picture BP corresponding to the position of the target block of the second hierarchical target picture EP, for example, the NxN block (1), is ③, and the base layer corresponding to the position of the NxN block The block of the inter-reference picture (ILP) is (2). The block (2) of the target block (1) and the base layer reference picture (ILP) is a block existing at the same position. The block (2) can be represented as a block corresponding to the target block (1) and the block (3) as a corresponding block with respect to the target block (1).

제1 계층 픽쳐(BP)의 시간 참조 픽쳐(BP’)에서 블록 ③에 대한 움직임 보상이 수행된 참조 블록은 ⑥이고, 움직임 보상을 위한 움직임 벡터는 ⑦ MV로 가정할 수 있다. The reference block in which the motion compensation is performed on the block 3 in the temporal reference picture BP 'of the first layer picture BP is 6 and the motion vector for motion compensation is 7 MV.

제2 계층 픽쳐(EP)의 시간 참조 픽쳐(EP’)에서 대상 블록(①)에 대한 움직임 보상이 수행된 참조 블록은 ④이고, 제1 계층 픽쳐(BP)의 시간 참조 픽쳐(BP’)를 업-샘플링하여 생성한 기본 계층간 참조 픽쳐(ILP’)에서 기본 계층간 참조 픽쳐(ILP’)의 블록 ②에 대한 움직임 보상이 수행된 참조 블록은 ⑤이다. 이와 같이 움직임 보상이 수행된 블록 ④ 및 블록 ⑤는 NxN 블록(②)에 대한 예측 신호를 생성할 때 사용될 수 있다. The reference block in which motion compensation is performed on the target block (1) in the temporal reference picture EP 'of the second layer picture EP is 4 and the temporal reference picture BP' of the first layer picture BP is The reference block in which motion compensation is performed on the block (2) of the inter-base layer reference picture (ILP ') in the inter-base layer reference picture (ILP') generated by upsampling is ⑤. Blocks (4) and (5) in which motion compensation is performed can be used to generate a prediction signal for the NxN block (2).

도 6에 도시된 바와 같이, 대상 블록(①)에 대한 움직임 보상 및 기본 계층간 참조 픽쳐(ILP’)의 블록 ②에 대한 움직임 보상에 사용되는 움직임 벡터는 계층간 픽쳐의 가로, 세로 크기 비율을 고려하여 제1 계층 블록(③) 위치의 움직임 벡터(⑦)를 스케일링한 벡터(⑧ Scaled MV)이다.As shown in FIG. 6, the motion vector used for the motion compensation for the target block (1) and the motion compensation for the block (2) of the inter-base layer reference picture (ILP ' (⑧ Scaled MV) obtained by scaling the motion vector (⑦) of the first layer block (③) position.

본 실시예에서는 기본 계층간 참조 픽쳐(ILP, ILP’)의 가로, 세로 크기에 대한 제1 계층 픽쳐(BP) 및 제1 계층 픽쳐의 시간 참조 픽쳐(BP’)의 비율이 2배이므로, 제1 계층 블록(③) 위치의 움직임 벡터(⑦)를 2배로 스케일한 벡터가 NxN 블록(②)의 움직임 보상에 이용될 수 있다.Since the ratio of the first layer picture BP to the horizontal and vertical sizes of the inter-base layer reference pictures ILP and ILP 'and the temporal reference picture BP' of the first layer picture is doubled in this embodiment, A vector obtained by scaling a motion vector (⑦) at the position of the first layer block (3) by two times can be used for motion compensation of the NxN block (2).

복호화기는 스케일된 움직임 벡터를 이용하여 시간 참조 픽쳐(EP’)을 대상으로 움직임 보상을 통해 구한 참조 블록(④)의 샘플 값과 기본 계층간 참조 픽쳐(ILP’)을 대상으로 움직임 보상을 통해구한 참조 블록(⑤)의 샘플 값 간의 차분 값을 구하여 차분 블록(⑨)를 생성한다. The decoder computes the motion vector of a reference picture (ILP ') obtained by motion compensation on a sample value of a reference block (4) obtained through motion compensation on a temporal reference picture (EP') using a scaled motion vector And the difference value between the sample values of the reference block (5) is calculated to generate a difference block (9).

차분 블록(⑨)은 기본 계층간 참조 픽쳐(ILP) 내 NxN블록(②) 샘플 값에 더해지고, 이렇게 생성된 새로운 블록(⑩)이 NxN 블록(②)의 새로운 샘플 값으로 사용될 수 있다. 즉, 블록 ⑩이 제2 계층 픽쳐(EP)의 복원을 위한 예측 블록으로 사용될 수 있다. 새로운 예측 블록(⑩)으로 이루어진 향상된 계층간 참조 픽쳐(EILP)는 제2 계층 픽쳐(EP)의 화면 간 예측에 사용되는 참조 픽쳐 리스트에 포함될 수 있다.
The difference block (9) is added to the NxN block (2) sample value in the inter-base layer reference picture (ILP), and the new block (10) thus generated can be used as a new sample value of the NxN block (2). That is, the block 10 may be used as a prediction block for reconstruction of the second layer picture EP. The enhanced inter-layer reference picture (EILP) composed of the new prediction block (10) may be included in the reference picture list used for inter-picture prediction of the second layer picture EP.

본 발명의 일 실시예에 따르면, 복호화기는 차분 블록(⑨)에 가중치를 적용한 후 NxN 블록(②)의 샘플 값과 더할 수 있다. According to an embodiment of the present invention, the decoder may add a weight to the difference block (9) and then add it to the sample value of the NxN block (2).

가중치는 픽쳐, 슬라이스, 블록 단위 등으로 적용될 수 있으며, 부호화 파라미터(예, 움직임 벡터 및 참조 픽쳐 인덱스 등)에 의해 유추 수도 있다. 또한 부호화기에 가중치에 대한 계산 후, 결정된 가중치 값에 대한 정보가 부호화되어 복호화기에 전송될 수 있다. The weight may be applied to a picture, a slice, a block unit, or the like, and may be derived from coding parameters (e.g., a motion vector and a reference picture index). Further, after calculating the weights in the encoder, information on the determined weight values can be encoded and transmitted to the decoder.

예를 들어, 제1 계층 픽쳐(BP)의 블록 ③의 참조 픽쳐 인덱스가 “0” 인 경우 가중치를 “1”로 설정하고, 참조 픽쳐 인덱스가 “1”인 경우 0.5를 적용할 수 있다. For example, when the reference picture index of the block 3 of the first layer picture BP is "0", the weight is set to "1", and when the reference picture index is "1", 0.5 is applied.

또 다른 예를 들어, 블록 ③의 참조 픽쳐 인덱스가 “0” 인 경우는 가중치 “1”을 적용하고, 참조 픽쳐 인덱스가 “1”인 경우 가중치“0”을 적용할 수 있다.For another example, a weight "1" may be applied when the reference picture index of block 3 is "0", and a weight "0" may be applied when the reference picture index is "1".

또 다른 실시예에서는, 블록 ③의 참조 픽쳐 리스트, 즉 예측 방향을 고려하여 가중치를 설정할 수 있다. 블록 ③의 참조 픽쳐 방향이 리스트 0(LIST 0) 인 경우에는 가중치를 “1”로 설정하고, 참조 픽쳐 방향이 리스트 1(LIST 1)인 경우에는 가중치 “0.5” 를 적용할 수 있다.In another embodiment, the weights can be set in consideration of the reference picture list of the block (3), that is, the prediction direction. The weight is set to "1" when the reference picture direction of the block 3 is the list 0 (LIST 0), and the weight "0.5" when the reference picture direction is the list 1 (LIST 1).

가중치는 휘도(Luma) 성분과 색차(chroma) 성분에 따라 상이한 값이 적용될 수 있다. Different weights may be applied depending on the luminance (Luma) component and the chroma component.

정리하면, 도 6과 같이 복호화기는 제2 계층의 대상 픽쳐(EP)에 대응되는 제1 계층 픽쳐(BP)를 업-샘플링한 기본 계층간 참조 픽쳐(ILP) 내 NxN 블록(②)과, 복호화 대상 블록(①)의 참조 블록(④)과 NxN 블록(②)의 참조 블록(⑤)의 차분 신호를 더한 신호를 NxN 블록(②)의 새로운 샘플 값으로 사용할 수 있다.
In summary, as shown in FIG. 6, the decoder includes an NxN block (2) in a base layer reference picture (ILP) up-sampled with a first layer picture (BP) corresponding to a target picture EP of a second layer, A signal obtained by adding the difference signal between the reference block (4) of the target block (1) and the reference block (5) of the NxN block (2) can be used as a new sample value of the NxN block (2).

도 7은 본 발명의 또 다른 실시예에 따라 향상된 계층간 참조 픽쳐의 생성을 설명하기 위한 개략도이다. 본 실시예에서도, 계층간 픽쳐의 가로, 세로 크기 비율은 각각 2배일 수 있다. 7 is a schematic diagram for explaining generation of an improved inter-layer reference picture according to another embodiment of the present invention. Also in this embodiment, the horizontal and vertical size ratios of the intra-layer pictures can be doubled, respectively.

본 실시예에 따르면, 복호화기는 제2 계층의 현재 부, 복호화 대상 픽쳐(EP)의 시간 참조 픽쳐(EP’)와 제1 계층 픽쳐의 시간 참조 픽쳐를 업-샘플링 하여 생성한 계층간 참조 픽쳐(ILP’)간의 차분 픽쳐(DP)를 이용하여 NxN블록(②)에 대한 예측 신호를 생성 할 수 있다.According to the present embodiment, the decoder includes a temporal reference picture EP 'of a current portion of a second hierarchical level, a picture to be decoded EP, and a inter-layer reference picture ILP ') can be used to generate a prediction signal for the NxN block (2).

이를 위하여 제2 계층 대상 픽쳐(EP)에 대응하는 제1 계층 픽쳐(BP)의 움직임 정보(움직임 벡터, 참조 픽쳐 인덱스) 및 제2 계층의 현재 부, 복호화 대상 픽쳐(EP)에 대응되는 기본 계층간 참조 픽쳐(ILP)가 이용될 수 있다. For this purpose, motion information (motion vector, reference picture index) of the first layer picture BP corresponding to the second layer target picture EP, a current layer of the second layer, a base layer An inter-reference picture (ILP) can be used.

제1 계층 픽쳐(BP)의 시간 참조 픽쳐(BP’)에서 블록 ③에 대한 움직임 보상이 수행된 참조 블록은 ④이고, 움직임 보상을 위한 움직임 벡터는 ⑤ MV로 가정할 수 있다. In the temporal reference picture BP 'of the first layer picture BP, the reference block in which the motion compensation is performed on the block 3 is ④, and the motion vector for motion compensation is ⑤ MV.

복호화기는 현재 부, 복호화 대상 픽쳐의 시간 참조 픽쳐(EP’)와 제1 계층 픽쳐에서 시간 참조 픽쳐를 업-샘플링한 계층간 참조 픽쳐(ILP’)를 뺀 차분 픽쳐(DP)를 생성한다. 복호화기는 차분 픽쳐(DP)에 소정의 오프셋(예, 128)을 더하여 사용할 수 있다. The decoder generates a difference picture DP obtained by subtracting the temporal reference picture EP 'of the picture to be decoded and the inter-layer reference picture ILP' obtained by up-sampling the temporal reference picture in the first layer picture. The decoder can use a predetermined offset (for example, 128) to the difference picture DP.

복호화기는 생성된 차분 픽쳐(DP)를 대상으로 제1 계층 픽쳐(BP) 내 블록(③) 위치의 움직임 정보, 즉 스케일된 움직임 벡터(⑥ Scaled MV)를 이용하여 움직임 보상을 수행할 수 있다. The decoder can perform motion compensation using the motion information at the position of the block (3) in the first layer picture (BP), that is, the scaled motion vector (6 Scaled MV), with respect to the generated difference picture DP.

본 실시예에서는 기본 계층간 참조 픽쳐(ILP, ILP’)의 가로, 세로 크기에 대한 제1 계층 픽쳐(BP) 및 제1 계층 픽쳐의 시간 참조 픽쳐(BP’)의 비율이 2배이므로, 블록(③)의 움직임 벡터(⑤)를 2배로 스케일링한 벡터가 NxN 블록(②)의 움직임 보상에 이용될 수 있다.In this embodiment, since the ratio of the first layer picture BP to the horizontal and vertical sizes of the inter-base layer reference pictures ILP and ILP 'and the temporal reference picture BP' of the first layer picture is twice, A vector obtained by scaling the motion vector (5) of the motion vector (3) twice can be used for motion compensation of the NxN block (2).

복호화기는 차분 픽쳐(DP)를 대상으로 NxN 블록(②)의 움직임 보상을 통해 구한 참조 블록(⑦)의 샘플 값과 NxN블록(②)의 샘플 값을 더할 수 있고, 이렇게 생성된 새로운 블록(⑧)이 NxN 블록(②)의 새로운 샘플 값으로 사용될 수 있다. 새로운 블록(⑧)으로 이루어진 향상된 계층간 참조 픽쳐(EILP)는 제2 계층 픽쳐(EP)의 화면 간 예측에 사용되는 참조 픽쳐 리스트에 포함될 수 있다.The decoder can add the sample value of the reference block (7) obtained through the motion compensation of the NxN block (2) to the difference picture DP and the sample value of the NxN block (2) ) Can be used as a new sample value of the NxN block (2). The enhanced inter-layer reference picture EILP consisting of the new block (8) may be included in the reference picture list used for inter-picture prediction of the second layer picture EP.

차분 픽쳐(DP)의 생성 시, 오프셋 값이 더해졌다면 복호화기는 참조 블록(⑦)의 샘플 값에서 동일한 오프셋 값을 뺀 후, NxN블록(②)의 샘플 값과 더할 수 있다. If the offset value is added at the time of generating the difference picture DP, the decoder may add the sample value of the NxN block (2) after subtracting the same offset value from the sample value of the reference block (7).

또한, 복호화기는 참조 블록(⑦)의 샘플 값에 가중치를 적용한 후 NxN 블록 샘플 값과 더할 수 있다.In addition, the decoder may add weight to the sample value of the reference block (7) and then add it to the NxN block sample value.

가중치는 픽쳐, 슬라이스, 블록 단위 등으로 적용될 수 있으며, 부호화 파라미터(예, 움직임 벡터 및 참조 픽쳐 인덱스 등)에 의해 유추 수도 있다. 또한 부호화기에 가중치에 대한 계산 후, 결정된 가중치 값에 대한 정보가 부호화되어 복호화기에 전송될 수 있다. The weight may be applied to a picture, a slice, a block unit, or the like, and may be derived from coding parameters (e.g., a motion vector and a reference picture index). Further, after calculating the weights in the encoder, information on the determined weight values can be encoded and transmitted to the decoder.

예를 들어, 제1 계층 픽쳐(BP)의 블록 ③의 참조 픽쳐 인덱스가 “0” 인 경우 가중치를 “1”로 설정하고, 참조 픽쳐 인덱스가 “1”인 경우 0.5를 적용할 수 있다. For example, when the reference picture index of the block 3 of the first layer picture BP is "0", the weight is set to "1", and when the reference picture index is "1", 0.5 is applied.

또 다른 예를 들어, 블록 ③의 참조 픽쳐 인덱스가 “0” 인 경우는 가중치 “1”을 적용하고, 참조 픽쳐 인덱스가 “1”인 경우 가중치“0”을 적용할 수 있다.For another example, a weight "1" may be applied when the reference picture index of block 3 is "0", and a weight "0" may be applied when the reference picture index is "1".

또 다른 실시예에서는, 블록 ③의 참조 픽쳐 리스트, 즉 예측 방향을 고려하여 가중치를 설정할 수 있다. 블록 ③의 참조 픽쳐 방향이 리스트 0(LIST 0)인 경우에는 가중치를 “1”로 설정하고, 참조 픽쳐 방향이 리스트 1(LIST 1)인 경우에는 가중치 “0.5” 를 적용할 수 있다.In another embodiment, the weights can be set in consideration of the reference picture list of the block (3), that is, the prediction direction. The weight is set to "1" when the reference picture direction of the block 3 is the list 0 (LIST 0), and the weight "0.5" when the reference picture direction is the list 1 (LIST 1).

가중치는 휘도(Luma) 성분과 색차(chroma) 성분에 따라 상이한 값이 적용될 수 있다. Different weights may be applied depending on the luminance (Luma) component and the chroma component.

정리하면, 도 7과 같이 복호화기는 제2 계층의 대상 픽쳐(EP)에 대응되는 제1 계층 픽쳐(BP)를 업-샘플링한 기본 계층간 참조 픽쳐(ILP) 내 NxN 블록(②)에 대하여, 차분 픽쳐(DP)의 참조 블록(⑦)을 더한 블록(⑧)을 NxN 블록(②)의 새로운 샘플 값으로 사용할 수 있다.
7, the decoder decodes the NxN block (2) in the inter-base layer reference picture (ILP) up-sampled with the first layer picture (BP) corresponding to the second-layer target picture (EP) The block (8) obtained by adding the reference block (7) of the difference picture (DP) can be used as a new sample value of the NxN block (2).

한편, 본 발명의 다른 실시예에 따르면, 제2 계층의 시간 참조 픽쳐(EP’), 제1 계층 픽쳐를 업-샘플링한 기본 계층간 참조 픽쳐(ILP’) 또는 제2 계층의 시간 참조 픽쳐(EP’)와 기본 계층간 참조 픽쳐(ILP’) 간의 차분 픽쳐(DP)를 대상으로 NxN 블록(②) 에 대한 움직임 보상을 수행할 때 움직임 보간 필터를 사용할 수 있다. According to another embodiment of the present invention, a temporal reference picture EP 'of a second layer, a reference inter-base reference picture ILP' up-sampled of a first layer picture, or a temporal reference picture of a second layer A motion interpolation filter can be used to perform motion compensation on the NxN block (2) with respect to the difference picture DP between the reference picture IL 'and the reference inter-base reference picture ILP'.

예를 들어, 복호화기는 움직임 보간 필터, 즉 휘도 성분에는 8탭 DCT-IF 필터를, 색차 성분에는 4탭 DCT-IF 필터를 사용하여 부화소 정밀도를 갖는 예측 신호를 생성할 수 있다. For example, the decoder can generate a prediction signal having sub-pixel accuracy using a motion interpolation filter, that is, an 8-tap DCT-IF filter for a luminance component and a 4-tap DCT-IF filter for a chrominance component.

또는, 복호화기는 휘도 성분과 색차 성분에 동일한 바이 리니어(bi-linear) 필터를 사용하여 부화소 정밀도를 갖는 예측 신호를 생성할 수도 있다. Alternatively, the decoder may generate a prediction signal having sub-pixel accuracy using a bi-linear filter that is the same for the luminance component and the chrominance component.

예를 들어, 움직임 보상에 대한 복잡도를 줄이기 위해, 부화소 단위 움직임 보상 과정을 생략하여 정수 화소 정밀도를 갖도록 예측 신호를 생성할 수 있다. For example, in order to reduce the complexity of the motion compensation, the prediction signal can be generated so as to have integer pixel precision by omitting the subpixel motion compensation process.

부화소 단위의 움직 보상 과정을 생략하기 위해, NxN블록(②)의 매핑된 움직임 벡터가 MV0 인 경우, 아래와 같이 움직임 벡터를 조절할 수 있다. In order to omit the sub-pixel motion compensation process, if the mapped motion vector of the NxN block (2) is MV0, the motion vector can be adjusted as follows.

휘도 성분의 경우, 수정된 움직임 벡터(MV0’)는 아래 수식 1과 같은 연산을 통해 구할 수 있다. In the case of the luminance component, the modified motion vector MV0 'can be obtained by the following equation (1).

<수식 1>&Lt; Formula 1 >

MV0’ = (MV0 + R) & 0xFFFFFFFC, MV0 '= (MV0 + R) & 0xFFFFFFFC,

이때, (MV0 % 4) < 2 일 경우 R=0, (MV0 % 4 ) >= 2 일 경우 R=4 을 적용할 수 있다. In this case, R = 0 for (MV0% 4) <2 and R = 4 for (MV0% 4)> = 2.

또 다른 예로, 아래 수식 2가 적용될 수도 있다. As another example, Equation 2 below may be applied.

<수식 2>&Quot; (2) &quot;

MV0’ = (MV0 + R) & 0xFFFFFFFC,  MV0 '= (MV0 + R) & 0xFFFFFFFC,

이때, (MV0 % 4) <= 2 일 경우 R=0, (MV0 % 4) > 2 일 경우 R=4 을 적용할 수 있다. In this case, R = 0 for (MV0% 4) <= 2, and R = 4 for (MV0% 4)> 2.

또 다른 예로, 항상 R 은 0 또는 4를 적용할 수 있다. As another example, R can always be 0 or 4.

한편, 색차 성분의 경우, 수정된 움직임 벡터 (MV0’)는 아래 수식 3과 같은 연산을 통해 구할 수 있다. On the other hand, in the case of the chrominance component, the modified motion vector MV0 'can be obtained by the following equation (3).

<수식 3>&Quot; (3) &quot;

MV0’ = (MV0 + R) & 0xFFFFFFF8, MV0 '= (MV0 + R) &amp; 0xFFFFFFF8,

이 때, (MV0 % 8) < 4 일 경우 R=0, (MV0 % 8) >= 4 일 경우 R=8을 적용할 수 있다.In this case, R = 0 for (MV0% 8) <4 and R = 8 for (MV0% 8)> = 4 can be applied.

또 다른 예로, 색차 성분의 움직임 벡터(MV0’)에 아래 수식 4가 적용될 수도 있다.As another example, the following equation 4 may be applied to the motion vector MV0 'of the chrominance component.

<수식 4>&Lt; Equation 4 &

MV0’ = (MV0 + R) & 0xFFFFFFF8, MV0 '= (MV0 + R) &amp; 0xFFFFFFF8,

이 때, (MV0 % 8) <= 4 일 경우 R=0, (MV0 % 8) > 4 일 경우 R=8을 적용할 수 있다.In this case, R = 0 for (MV0% 8) <= 4 and R = 8 for (MV0% 8)> 4 can be applied.

또 다른 예로, 항상 R은 0 또는 8을 적용할 수 있다.
As another example, R can always be 0 or 8.

본 발명의 또 다른 실시예에 따르면, 도 5 내지 도 7에 기초하여 설명된 실시예에 따라 제2 계층의 시간 참조 픽쳐(EP’), 제1 계층 픽쳐를 업-샘플링한 기본 계층간 참조 픽쳐(ILP’) 또는 제2 계층의 시간 참조 픽쳐(EP’)와 기본 계층간 참조 픽쳐(ILP’) 간의 차분 픽쳐(DP)을 대상으로 움직임 보상을 수행할 때 복잡도를 줄이기 위해, 특정 참조 픽쳐 인덱스 값만을 가지는 NxN 블록에 대해서만 움직임 보상을 수행할 수 있다. 즉, 복호화기는 특정 참조 픽쳐 인덱스 값만을 가지는 NxN 블록에 대해서만 움직임 보상을 수행하고, 움직임 보상에 따라 생성된 예측 값(즉, 도 6의 참조 블록 ⑨ 도 7의 참조 블록 ⑦)을 NxN 블록(②)에 더할 수 있다. According to another embodiment of the present invention, a temporal reference picture EP 'of a second hierarchical layer, a reference inter-base reference picture (EP)' upsampled a first hierarchical picture according to the embodiment described with reference to FIGS. 5 to 7, In order to reduce the complexity when motion compensation is performed on the difference picture DP between the first reference picture ILP 'or the second-layer temporal reference picture EP' and the inter-base-layer reference picture ILP ' It is possible to perform motion compensation only on the NxN block having only the value. That is, the decoder performs motion compensation only on the NxN block having only a specific reference picture index value, and outputs the predictive value generated in accordance with the motion compensation (i.e., the reference block in FIG. 6 (7) ).

예를 들어, 도 6의 NxN 블록(②)에 대응하는 제1 계층 블록(③)의 참조 픽쳐 인덱스 값이 ‘0’ 인 경우에만 제2 계층의 시간 참조 픽쳐(EP’), 제1 계층 영상을 업-샘플링한 기본 계층간 참조 픽쳐(ILP’)를 대상으로 NXN 블록(②)에 대한 움직임 보상을 수행한 후 움직임 보상에 따라 생성된 차분 블록(블록 ⑨)의 샘플 값을 NxN 블록(②)의 샘플 값에 더할 수 있다. For example, only when the reference picture index value of the first hierarchical block (3) corresponding to the NxN block (2) in FIG. 6 is' 0 ', the temporal reference picture EP' (2) with respect to the inter-base layer reference picture (ILP ') up-sampled by the up-sampler and then outputs the sample value of the difference block (block 9) generated according to the motion compensation to the NxN block ) &Lt; / RTI &gt;

또 다른 예를 들면, 도 7의 NxN 블록(②)에 대응하는 제1 계층 블록(③)의 참조 픽쳐 인덱스 값이 ‘0’ 인 경우에만 제2 계층의 시간 참조 픽쳐(EP’)와, 제1 계층 영상을 업-샘플링한 기본 계층간 참조 픽쳐(ILP’) 간의 차분 픽쳐(DP)를 대상으로 NXN 블록(②) 에 대한 움직임 보상을 수행한 후 움직임 보상에 따라 생성된 차분 블록(블록 ⑦)의 샘플 값을 NxN 블록(②) 의 샘플 값에 더할 수 있다.As another example, only when the reference picture index value of the first hierarchical block (3) corresponding to the NxN block (2) in FIG. 7 is' 0 ', the temporal reference picture EP' The motion compensation is performed on the NXN block (2) with respect to the difference picture (DP) between the inter-base layer reference pictures (ILP ') obtained by upsampling the 1-layer picture and then the difference block ) Can be added to the sample value of the NxN block (2).

또는, 본 발명의 다른 실시예에 따르면, 움직임 보상에 대한 복잡도를 줄이기 위해, 도 5 내지 도 7에 기초하여 설명된 실시예에 따라 제2 계층의 시간 참조 픽쳐(EP’), 제1 계층 픽쳐를 업-샘플링한 기본 계층간 참조 픽쳐(ILP’) 또는 제2 계층의 시간 참조 픽쳐(EP’)와 기본 계층간 참조 픽쳐(ILP’) 간의 차분 픽쳐(DP)을 대상으로 움직임 보상을 수행할 때 특정 참조 픽쳐 인덱스 값만을 가지는 NxN 블록에 대해서만 부화소 단위 움직임 보상 과정을 생략하여 정수 화소 정밀도를 갖도록 예측 신호를 생성할 수 있다. 이 경우, 수식 1 내지 수식 4가 적용될 수 있다.
According to another embodiment of the present invention, in order to reduce the complexity of motion compensation, a temporal reference picture EP 'of a second layer, a temporal reference picture EP' The motion compensation is performed on the difference picture DP between the up-sampled inter-base layer reference picture ILP 'or the second-layer temporal reference picture EP' and the inter-base layer reference picture ILP ' It is possible to omit the subpixel motion compensation process only for an NxN block having only a specific reference picture index value, thereby generating a prediction signal with an integer pixel precision. In this case, equations (1) to (4) can be applied.

단계 S430를 통하여 향상된 계층간 참조 픽쳐(EILP)에 대한 정보가 생성되면, 복호화기는 계층간 참조 픽쳐 정보들을 이용하여 화면간 예측에 사용되는 참조 픽쳐 리스트를 생성할 수 있다(S440). 즉, 본 단계를 통해 단계 S420 및 단계 S430을 통해 생성된 기본 계층간 참조 픽쳐(ILP) 정보와 향상된 계층간 참조 픽쳐(EILP) 정보를 이용하여 제2 계층의 현재 부, 복호화 대상 픽쳐(EP)를 위한 참조 픽쳐 리스트가 생성될 수 있다. 참조 픽쳐 리스를 생성할 때 사용되는 참조 픽쳐 정보는 참조 픽쳐의 POC 일 수 있다. 참조 픽쳐 리스트는 복호화 장치 및 부호화 장치의 예측부에서 생성될 수 있다. If information on the enhanced inter-layer reference picture (EILP) is generated through step S430, the decoder may generate a reference picture list used for inter-picture prediction using inter-layer reference picture information (S440). That is, the present part of the second layer, the picture to be decoded (EP), and the current picture of the second layer are decoded using the inter-base layer reference picture (ILP) information and the enhanced inter-layer reference picture (EILP) information generated through steps S420 and S430, A reference picture list can be generated. The reference picture information used when generating the reference picture-less may be the POC of the reference picture. The reference picture list can be generated in the predicting unit of the decoding device and the encoding device.

현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 P 슬라이스인 경우, 복호화기는 참조 픽쳐 리스트 0(LIST0)에 단계 S420를 통해 생성한 계층간 참조 픽쳐(ILP)와 단계 S430를 통해 생성한 향상된 계층간 참조 픽쳐(EILP)를 참조 픽쳐 리스트의 임의의 위치에 추가할 수 있다. 예를 들어, 참조 픽쳐 리스트 내 에서 계층간 참조 픽쳐들의 위치는 마지막 위치에 추가된 후, 참조 픽쳐 리스트 수정 신택스 등을 사용하여 위치를 변경될 수 있다. If the slice type of the current picture and the current picture to be decoded is a P slice, the decoder decodes the interlayer reference picture (ILP) generated in step S420 and the enhanced interlayer reference picture (ILP) generated in step S430 in the reference picture list 0 (EILP) can be added to an arbitrary position in the reference picture list. For example, the positions of the inter-layer reference pictures in the reference picture list are added to the last position, and then the positions can be changed using the reference picture list modification syntax or the like.

또는 현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 P 슬라이스인 경우, 복호화기는 참조 픽쳐 리스트 0 (LIST0)에 단계 S420 또는 단계 S430를 통해 생성한 계층간 참조 픽쳐 중 하나를 선택적으로 추가할 수 있다. 부호화기는 참조 픽쳐 리스트를 구성하기 위한 정보로 선택된 계층간 참조 픽쳐에 대한 정보를 슬라이스마다 부호화하여 전송할 수 있다. Alternatively, if the current slice type of the current picture and the current picture to be decoded is a P slice, the decoder can selectively add one of the inter-layer reference pictures generated in step S420 or step S430 to the reference picture list 0 (LIST0). The encoder can encode information for the inter-layer reference pictures selected as the information for constructing the reference picture list for each slice and transmit the information.

단계 S420 또는 단계 S430를 통해 생성된 계층간 참조 픽쳐 중 하나를 선택하기 위하여 원본 픽쳐, 즉 제2 계층 픽쳐(EP)와 단계 S420를 통해 구한 계층간 참조 픽쳐 (ILP) 간의 SAD(Sum of absolute differences) 또는 SATD(Sum of absolute transformed differences)와, 제2 계층 픽쳐(EP)와 단계 S430를 통해 구한 향상된 계층간 참조 픽쳐 (EILP)간의 SAD 또는 SATD를 비교할 수 있다. 비교 결과 더 작은 SAD 또는 SATD를 갖는 계층간 참조 영상 픽쳐가 참조 픽쳐 리스트에 포함될 수 있다. 또는 SAD 또는 SATD 등을 통해 계층간 참조 픽쳐가 선택될 수도 있다. The sum of absolute differences (SAD) between the original picture, i.e., the second layer picture EP and the inter-layer reference pictures ILP obtained through step S420, in order to select one of the inter-layer reference pictures generated in step S420 or step S430, ) Or SATD (Sum of Absolute Transformed Differences), and the enhanced layer-to-layer reference picture EILP obtained through the second layer picture EP and step S430. As a result of comparison, inter-layer reference picture having a smaller SAD or SATD can be included in the reference picture list. Or a layer-to-layer reference picture may be selected via SAD or SATD.

한편, 현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 B 슬라이스인 경우, 복호화기는 참조 픽쳐 리스트 0(LIST0)와 참조 픽쳐 리스트 1(LIST) 각각에 단계 S420를 통해 생성한 계층간 참조 픽쳐(ILP)와 단계 S430를 통해 생성한 향상된 계층간 참조 픽쳐(EILP)를 임의의 위치에 추가할 수 있다. On the other hand, when the current slice type of the picture to be decoded is the B slice, the decoder decodes the interlayer reference picture ILP generated in step S420 in the reference picture list 0 (LIST0) and the reference picture list 1 (LIST) The enhanced inter-layer reference picture (EILP) generated through step S430 can be added to an arbitrary position.

예를 들어, 복호화기는 계층간 참조 픽쳐들은 참조 픽쳐 리스트 내에서 마지막 위치에 추가한 후, 참조 픽쳐 리스트 수정 신택스 등을 사용하여 그 위치를 변경할 수 있다. For example, the decoder may add the inter-layer reference pictures to the last position in the reference picture list, and then change its position using the reference picture list modification syntax or the like.

또는, 현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 B 슬라이스인 경우, 복호화기는 참조 픽쳐 리트스 0(LIST0)에는 단계 S420를 통해 생성된 계층간 참조 픽쳐(ILP)를 추가하고, 참조 픽쳐 리스트 1(LIST1)에는 단계 S430를 통해 생성된 향상된 계층간 참조 픽쳐(EILP)를 추가할 수 있다. If the current slice type of the picture to be decoded is the B slice, the decoder adds the interlayer reference picture (ILP) generated in step S420 to the reference picture list 0 (LIST0) LIST1) may add the enhanced inter-layer reference picture (EILP) generated in step S430.

또는 반대로, 복호화기는 참조 픽쳐 리트스 0(LIST0)에는 단계 S430를 통해 생성된 향상된 계층간 참조 픽쳐(EILP)를 추가하고, 참조 픽쳐 리스트 1(LIST1)에는 단계 S420를 통해 생성된 계층간 참조 픽쳐(ILP)를 추가할 수 있다.Alternatively, the decoder adds the enhanced inter-layer reference picture (EILP) generated in step S430 to the reference picture list 0 (LIST0), and the inter-layer reference picture (EILP) generated in step S420 is added to the reference picture list 1 (ILP) can be added.

또 다른 실시예에 따르면, 현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 B 슬라이스인 경우, 복호화기는 선택적으로 하나의 계층간 참조 픽쳐만을 참조 픽쳐 리스트에 추가할 수 있다. 부호화기는 참조 픽쳐 리스트를 구성하기 위한 정보로 선택된 계층간 참조 픽쳐에 대한 정보를 슬라이스마다 부호화하여 전송할 수 있다. 복호화기는 부호화기로부터 전송된 정보롤 이용하여 참조 픽쳐 리스트를 구성할 수 있다.According to another embodiment, when the slice type of the current sub-picture and the current picture to be decoded is the B slice, the decoder may selectively add only one inter-layer reference picture to the reference picture list. The encoder can encode information for the inter-layer reference pictures selected as the information for constructing the reference picture list for each slice and transmit the information. The decoder can construct a reference picture list by using the information roll transmitted from the encoder.

일 예로, 단계 S420 또는 단계 S430를 통해 생성된 계층간 참조 픽쳐 중 하나를 선택하기 위하여 원본 픽쳐, 즉 제2 계층 픽쳐(EP)와 단계 S420를 통해 구한 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD와, 제2 계층 픽쳐(EP)와 단계 S430를 통해 구한 향상된 계층간 참조 픽쳐 (EILP)간의 SAD 또는 SATD를 비교할 수 있다. 비교 결과 더 작은 SAD 또는 SATD를 갖는 계층간 참조 영상 픽쳐가 양방향 참조 픽쳐 리스트에 포함될 수 있다.For example, in order to select one of the inter-layer reference pictures generated through step S420 or step S430, a SAD or a SATD (inter picture prediction) is performed between the original picture, that is, the inter-layer reference picture ILP obtained through step S420, And the SAD or SATD between the second layer picture EP and the enhanced inter-layer reference picture EILP obtained through step S430. As a result of comparison, the inter-layer reference picture having the smaller SAD or SATD can be included in the bidirectional reference picture list.

또는, 제2 계층 픽쳐(EP)와 단계 S420를 통해 구한 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD와, 제2 계층 픽쳐(EP)와 단계 S430를 통해 구한 향상된 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD를 비교한 결과 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD가 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD 보다 작을 경우, 복호화기는 참조 픽쳐 리스트 0(LIST 0)에는 기본 계층간 참조 픽쳐(ILP)를, 참조 픽쳐 리스트 1(LIST 1)에는 향상된 계층간 참조 영상 픽쳐(EILP)를 추가할 수 있다. Or the SAD or SATD between the second layer picture EP and the interlayer reference picture ILP obtained through step S420 and the interlayer reference picture EILP obtained through the second layer picture EP and step S430 When SAD or SATD between the second layer picture EP and the interlayer reference picture EILP is smaller than SAD or SATD between the second layer picture EP and the interlayer reference picture ILP as a result of comparing SAD or SATD, The decoder can add the inter-base layer reference picture ILP to the reference picture list 0 (LIST 0) and the inter-layer reference picture EILP to the reference picture list 1 (LIST 1).

물론, 그 반대의 경우도 가능할 수 있다. 즉, 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD가 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD 보다 작을 경우, 복호화기는 참조 픽쳐 리스트 0(LIST 0)에는 향상된 계층간 참조 영상 픽쳐(EILP)를 추가하고, 참조 픽쳐 리스트 1(LIST 1)에는 기본 계층간 참조 픽쳐(ILP)를 추가할 수 있다.Of course, the opposite can also be possible. That is, when the SAD or SATD between the second layer picture EP and the inter-layer reference picture EILP is smaller than the SAD or SATD between the second layer picture EP and the interlayer reference picture ILP, Layer reference picture (EILP) to the reference picture list 1 (LIST 0) and the inter-base layer reference picture (ILP) to the reference picture list 1 (LIST 1).

또는 다른 실시예에 따라, 제2 계층 픽쳐(EP)와 단계 S420를 통해 구한 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD와, 제2 계층 픽쳐(EP)와 단계 S430를 통해 구한 향상된 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD를 비교한 결과, 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD가 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD 보다 큰 경우, 복호화기는 참조 픽쳐 리스트 0(LIST 0)에는 기본 계층간 참조 픽쳐(ILP)를, 참조 픽쳐 리스트 1(LIST 1)에는 향상된 계층간 참조 영상 픽쳐(EILP)를 추가할 수 있다. (SAD or SATD) between the second layer picture (EP) and the interlayer reference picture (ILP) obtained through step S420, the second layer picture (EP) and the improved interlayer reference The SAD or SATD between the second layer picture EP and the interlayer reference picture EILP is compared with the SAD or SATD between the second layer picture EP and the interlayer reference picture ILP, Or SATD, the decoder can add a basic inter-layer reference picture (ILP) to the reference picture list 0 (LIST 0) and an inter-layer reference picture EILP to the reference picture list 1 (LIST 1) .

그 반대로, 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD가 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD 보다 큰 경우, 복호화기는 참조 픽쳐 리스트 0(LIST 0)에는 향상된 계층간 참조 영상 픽쳐(EILP)를 추가하고, 참조 픽쳐 리스트 1(LIST 1)에는 기본 계층간 참조 픽쳐(ILP)를 추가할 수 있다.On the other hand, when the SAD or SATD between the second layer picture EP and the inter-layer reference picture EILP is larger than the SAD or SATD between the second layer picture EP and the inter-layer reference picture ILP, Layer reference picture (EILP) is added to the list 0 (LIST 0), and the inter-base layer reference picture (ILP) is added to the reference picture list 1 (LIST 1).

복호화기는 참조 픽쳐를 선택하는 과정에서 SAD 또는 SATD가 아닌 RDO(Rate Distortion optimization) 등을 적용할 수도 있다. The decoder may apply Rate Distortion Optimization (RDO) or the like instead of SAD or SATD in the process of selecting a reference picture.

도 5 내지 7을 통하여 설명된 참조 픽쳐 리스트를 구성하는 내용은 복호화기뿐만 아니라 부호화기에서 참조 픽쳐 리스트를 구성하는 과정에도 동일하게 적용될 수 있다. The contents of the reference picture list described with reference to FIGS. 5 to 7 can be applied not only to the decoder but also to the process of constructing the reference picture list in the encoder.

상술한 바와 같이, 본 발명에 따를 경우 다계층 구조 기반의 영상 부호화 및 복호화 시, 상위 계층의 영상을 부, 복호화함에 있어 예측 신호로 사용될 수 있는 하위 계층 정보의 정밀도를 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치가 제공된다.As described above, according to the present invention, when coding and decoding images based on a multi-layer structure, an image decoding method capable of enhancing the precision of lower layer information that can be used as a prediction signal in decoding and decoding an image of an upper layer And an apparatus using the same are provided.

이를 위하여 향상된 계층간 참조 영상 생성시 정수 화소 단위의 움직임 보상을 수행하거나 부호화 파라미터 기반으로 가중치를 적용함으로써 가중치 정보의 전송을 생략할 수 있다.For this purpose, we can skip the transmission of weight information by performing motion compensation on an integer pixel basis at the time of generating an interlayer reference image and applying weighting based on coding parameters.

상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above-described embodiments, the methods are described on the basis of a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and some steps may occur in different orders or in a different order than the steps described above have. It will also be understood by those skilled in the art that the steps depicted in the flowchart illustrations are not exclusive and that other steps may be included or that one or more steps in the flowchart may be deleted without affecting the scope of the invention You will understand.

상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. While it is not possible to describe every possible combination for expressing various aspects, one of ordinary skill in the art will recognize that other combinations are possible. Accordingly, it is intended that the invention include all alternatives, modifications and variations that fall within the scope of the following claims.

100 : 영상 부호화 장치 111: 움직임 예측부
112: 움직임 보상부 120 : 인트라 예측부
115 : 스위치 125 : 감산기
130 : 변환부 140 : 양자화부
150 : 엔트로피 부호화부 160 : 역양자화부
170 : 역변환부 180 : 필터부
100: image encoding device 111: motion prediction unit
112: motion compensation unit 120: intra prediction unit
115: Switch 125:
130: conversion unit 140: quantization unit
150: an entropy encoding unit 160: an inverse quantization unit
170: inverting section 180: filter section

Claims (20)

복수의 계층을 지원하는 영상의 복호화 방법에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 단계와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 단계를 포함하는 것을 특징으로 영상 복호화 방법.
A method of decoding an image supporting a plurality of layers,
Decoding information of a first layer picture that can be referred to by a second layer picture to be decoded;
Generating information of inter-base layer reference pictures using the information of the first layer picture;
Generating information of an inter-layer reference picture enhanced using the information of the first layer picture, the information of the inter-base layer reference picture, and the information of the second layer picture;
Generating a reference picture list in which inter-picture prediction of the second layer picture is used, using information of the inter-base layer reference pictures, information of the inter-layer reference pictures, and information of the second layer picture And decodes the decoded image.
제1항에 있어서,
상기 기본 계층간 참조 픽쳐의 정보를 생성하는 단계는,
제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐를 생성하는 단계와;
상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 생성하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.
The method according to claim 1,
Wherein the step of generating information of the inter-base-
Generating a first interlayer reference picture in which a first layer picture size is mapped to a picture size of the second layer;
And generating a second interlayer reference picture in which the decoded temporal reference pictures of the first layer picture are mapped to the temporal reference picture of the second layer picture.
제2항에 있어서,
상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는,
상기 제2 계층 픽쳐의 참조 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여 상기 대상 블록에 대한 움직임 보상을 수행한 제1 참조 블록을 유도하는 단계와;
상기 제2 기본 계층간 참조 픽쳐 및 상기 움직임 벡터를 이용하여 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제2 참조 블록을 유도하는 단계와;
상기 제1 참조 블록과 상기 제2 참조 블록의 차이에 해당하는 차분 블록을 생성하는 단계와;
상기 차분 블록에 상기 계층간 대응 블록을 합하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.
3. The method of claim 2,
Wherein the step of generating the enhanced inter-layer reference picture information comprises:
And a motion compensating unit for performing motion compensation on the target block using the motion vector of the block of the first layer picture corresponding to the target block to be decoded of the second layer picture, Deriving a block;
Deriving a second reference block in which motion compensation is performed for a block between layers of a first inter-base layer reference picture corresponding to the current block using the second inter-base-layer reference picture and the motion vector;
Generating a difference block corresponding to a difference between the first reference block and the second reference block;
And summing the inter-layer correspondence blocks to the differential block.
제3항에 있어서,
상기 차분 블록에 가중치를 적용하는 단계를 더 포함하는 것을 특징으로 하는 영상 복호화 방법.
The method of claim 3,
And applying a weight to the difference block.
3항에 있어서,
상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하는 단계를 더 포함하고,
상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층간 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상이 수행되는 것을 특징으로 하는 영상 복호화 방법.
[3]
Further comprising determining whether a reference picture index of a temporal reference picture of the first layer picture has a predetermined value,
Wherein motion compensation using a motion interpolation filter is performed on the target block and the inter-layer correspondence block when the reference picture index has the predetermined value.
제3항에 있어서,
상기 제1 참조 블록 및 상기 제2 참조 블록을 유도하기 위하여 수행되는 움직임 보상은 정수 화소 단위로 수행되는 것을 특징으로 하는 영상 복호화 방법.
The method of claim 3,
Wherein motion compensation performed to derive the first reference block and the second reference block is performed on an integer pixel basis.
제2항에 있어서,
상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는,
상기 제2 계층 픽쳐의 참조 픽쳐와 제2 기본 계층간 참조 픽쳐 간의 차분 픽쳐를 생성하는 단계와;
상기 차분 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여, 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제3 참조 블록을 유도하는 단계와;
상기 제3 참조 블록과 상기 계층간 대응 블록을 합하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.
3. The method of claim 2,
Wherein the step of generating the enhanced inter-layer reference picture information comprises:
Generating a difference picture between a reference picture of the second layer picture and a reference picture between the second base layer;
A motion vector of a block of the first hierarchical picture corresponding to a current block to be decoded of the difference picture and the second hierarchical picture is used to calculate a correspondence between layers of a first inter-base-layer reference picture corresponding to the current block Deriving a third reference block that performs motion compensation on the block;
And summing the third reference block and the inter-layer correspondence block.
제7항에 있어서,
상기 제3 참조 블록에 가중치를 적용하는 단계를 더 포함하는 것을 특징으로 하는 영상 복호화 방법.
8. The method of claim 7,
And applying a weight to the third reference block. &Lt; RTI ID = 0.0 &gt; 11. &lt; / RTI &gt;
제7항에 있어서,
상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하는 단계를 더 포함하고,
상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상이 수행되는 것을 특징으로 하는 영상 복호화 방법.
8. The method of claim 7,
Further comprising determining whether a reference picture index of a temporal reference picture of the first layer picture has a predetermined value,
Wherein motion compensation using the motion interpolation filter is performed on the target block and the hierarchy corresponding block when the reference picture index has the predetermined value.
제7항에 있어서,
상기 제3 참조 블록을 유도하기 위하여 수행되는 움직임 보상은 정수 화소 단위로 수행되는 것을 특징으로 하는 영상 복호화 방법.
8. The method of claim 7,
Wherein motion compensation performed to derive the third reference block is performed on an integer pixel basis.
복수의 계층을 지원하는 영상의 복호화 장치에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 엔트로피 복호화부와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하고, 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하고, 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 예측부를 포함하는 것을 특징으로 영상 복호화 장치.
An apparatus for decoding an image supporting a plurality of layers,
An entropy decoding unit for decoding information of a first layer picture that can be referred to by a second layer picture to be decoded;
Layer reference picture using the information of the first layer picture, and generates information of a reference layer between the layers by using information of the first layer picture, information of the reference layer between the base layer and information of the second layer picture And a reference picture used for inter-picture prediction of the second layer picture, using the information of the inter-base-layer reference pictures, the information of the improved inter-layer reference pictures and the information of the second layer picture, And a prediction unit for generating a list based on the prediction information.
제11항에 있어서,
상기 예측부는 제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐와 상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 더 생성하는 것을 특징으로 하는 영상 복호화 장치.
12. The method of claim 11,
The prediction unit may include a first interlayer reference picture that maps a first layer picture size to a picture size of the second layer and a temporal reference picture of the second layer picture, Of the first reference picture to the second reference picture.
제12항에 있어서,
상기 예측부는 상기 제2 계층 픽쳐의 참조 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여 상기 대상 블록에 대한 움직임 보상을 수행한 제1 참조 블록과 상기 제2 기본 계층간 참조 픽쳐 및 상기 움직임 벡터를 이용하여 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제2 참조 블록을 유도하고,
상기 제1 참조 블록과 상기 제2 참조 블록의 차이에 해당하는 차분 블록을 생성하고, 상기 차분 블록에 상기 계층간 대응 블록을 합하는 것을 특징으로 하는 영상 복호화 장치.
13. The method of claim 12,
Wherein the predicting unit performs motion compensation on the target block using the motion vector of the first layer picture corresponding to the reference picture of the second layer picture and the target block to be decoded of the second layer picture A second reference block obtained by performing motion compensation on the inter-layer corresponding block of the first inter-base-layer reference picture corresponding to the current block using the first reference block, the second inter-layer reference picture and the motion vector, Induced,
A difference block corresponding to a difference between the first reference block and the second reference block is generated, and the inter-layer corresponding block is added to the differential block.
제13항에 있어서,
상기 예측부는 상기 차분 블록에 가중치를 적용하는 것을 특징으로 하는 영상 복호화 장치.
14. The method of claim 13,
Wherein the predicting unit applies a weight to the difference block.
제13항에 있어서,
상기 예측부는 상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하고,
상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층간 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상을 수행하는 것을 특징으로 하는 영상 복호화 장치.
14. The method of claim 13,
Wherein the predicting unit determines whether the reference picture index of the temporal reference picture of the first layer picture has a preset value,
And performs motion compensation using a motion interpolation filter for the target block and the inter-layer correspondence block when the reference picture index has the predetermined value.
C제13항에 있어서,
상기 예측부는 상기 제1 참조 블록 및 상기 제2 참조 블록을 유도할 때, 정수 화소 단위로 움직임 보상을 수행하는 것을 특징으로 하는 영상 복호화 장치.
C) The method according to claim 13,
Wherein the predicting unit performs motion compensation in units of integer pixels when deriving the first reference block and the second reference block.
제12항에 있어서,
상기 예측부는 상기 제2 계층 픽쳐의 참조 픽쳐와 제2 기본 계층간 참조 픽쳐 간의 차분 픽쳐를 생성하고,
상기 차분 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여, 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제3 참조 블록을 유도하고,
상기 제3 참조 블록과 상기 계층간 대응 블록을 합하는 것을 특징으로 하는 영상 복호화 장치.
13. The method of claim 12,
Wherein the predicting unit generates a difference picture between the reference picture of the second layer picture and the reference picture between the second base layer,
A motion vector of a block of the first hierarchical picture corresponding to a current block to be decoded of the difference picture and the second hierarchical picture is used to calculate a correspondence between layers of a first inter-base-layer reference picture corresponding to the current block Derives a third reference block that has undergone motion compensation for the block,
And the third reference block and the layer-to-layer correspondence block are summed.
제17항에 있어서,
상기 예측부는 상기 제3 참조 블록에 가중치를 적용하는 것을 특징으로 하는 영상 복호화 장치.
18. The method of claim 17,
Wherein the predicting unit applies a weight to the third reference block.
제17항에 있어서,
상기 예측부는 상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하고,
상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상을 수행하는 것을 특징으로 하는 영상 복호화 장치.
18. The method of claim 17,
Wherein the predicting unit determines whether the reference picture index of the temporal reference picture of the first layer picture has a preset value,
And performs motion compensation using a motion interpolation filter for the target block and the hierarchy corresponding block when the reference picture index has the predetermined value.
제17항에 있어서,
상기 예측부는 상기 제3 참조 블록 및 상기 제2 참조 블록을 유도할 때, 정수 화소 단위로 움직임 보상을 수행하는 것을 특징으로 하는 영상 복호화 장치.

18. The method of claim 17,
Wherein the predicting unit performs motion compensation in units of integer pixels when deriving the third reference block and the second reference block.

KR1020140066011A 2013-07-08 2014-05-30 Video decoding method and apparatus using the same KR102325977B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/324,974 US20150010083A1 (en) 2013-07-08 2014-07-07 Video decoding method and apparatus using the same
KR1020210087838A KR20210088478A (en) 2013-07-08 2021-07-05 Video decoding method and apparatus using the same

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20130079804 2013-07-08
KR1020130079804 2013-07-08
KR20130089259 2013-07-29
KR1020130089259 2013-07-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210087838A Division KR20210088478A (en) 2013-07-08 2021-07-05 Video decoding method and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20150007205A true KR20150007205A (en) 2015-01-20
KR102325977B1 KR102325977B1 (en) 2021-11-15

Family

ID=52570257

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020140066011A KR102325977B1 (en) 2013-07-08 2014-05-30 Video decoding method and apparatus using the same
KR1020210087838A KR20210088478A (en) 2013-07-08 2021-07-05 Video decoding method and apparatus using the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210087838A KR20210088478A (en) 2013-07-08 2021-07-05 Video decoding method and apparatus using the same

Country Status (1)

Country Link
KR (2) KR102325977B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039936A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
KR20130045784A (en) * 2011-10-26 2013-05-06 인텔렉추얼디스커버리 주식회사 Method and apparatus for scalable video coding using inter prediction mode

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039936A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
KR20130045784A (en) * 2011-10-26 2013-05-06 인텔렉추얼디스커버리 주식회사 Method and apparatus for scalable video coding using inter prediction mode

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A. Aminlou, et al. Non-CE3: Enhanced inter layer reference picture for RefIdx based scalability. JCT-VC of ITU-T and ISO/IEC. JCTVC-M0155 Ver.4, Apr. 23, 2013, pp.1-6* *
Y. He, et al. Non-SCE3: ILR enhancement with differential coding for RefIdx framework. JCT-VC of ITU-T and ISO/IEC. JCTVC-M0189 Ver.3, Apr. 15, 2013, pp.1-5* *
Y. Ye, et al. ILR enhancement with differential coding for SHVC reference index framework. JCT-VC of ITU-T and ISO/IEC. JCTVC-N0204 Ver.3, Jul. 23, 2013, pp.1-6 *

Also Published As

Publication number Publication date
KR20210088478A (en) 2021-07-14
KR102325977B1 (en) 2021-11-15

Similar Documents

Publication Publication Date Title
JP6605565B2 (en) Advanced residual prediction in scalable multi-view video coding
KR20210068439A (en) Improvements to the history-based motion vector predictor
KR102062821B1 (en) Method and apparatus for image encoding/decoding using prediction of filter information
KR102209109B1 (en) Method and apparatus for image encoding/decoding
EP3854076A1 (en) Affine motion prediction
KR20140016823A (en) Video decoding method and apparatus using the same
KR101979284B1 (en) Method and apparatus for scalable video coding using inter prediction mode
KR20140122189A (en) Method and Apparatus for Image Encoding and Decoding Using Inter-Layer Combined Intra Prediction
CN113196745A (en) Video coding and decoding method and device
TW202236852A (en) Efficient video encoder architecture
KR20160085237A (en) Method and apparatus for encoding and decoding based on merge
KR101561461B1 (en) Video encoding and decoding method and apparatus using the same
KR20210022598A (en) Method and Apparatus for Video Encoding and Video Decoding
KR102602633B1 (en) Method and apparatus for image encoding/decoding
KR102325977B1 (en) Video decoding method and apparatus using the same
KR102334374B1 (en) Method and apparatus for image encoding/decoding
KR102400485B1 (en) Video decoding method and apparatus using the same
US20150010083A1 (en) Video decoding method and apparatus using the same
KR20140081682A (en) Method and apparatus for image encoding/decoding
KR20140088015A (en) Video encoding and decoding method and apparatus using the same
KR20230017238A (en) Video encoding/decoding method and device for determining motion information based on inter-layer prediction, and method for transmitting bitstream
KR20150112470A (en) Video encoding and decoding method and apparatus using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
A107 Divisional application of patent
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant