KR102325977B1 - Video decoding method and apparatus using the same - Google Patents

Video decoding method and apparatus using the same Download PDF

Info

Publication number
KR102325977B1
KR102325977B1 KR1020140066011A KR20140066011A KR102325977B1 KR 102325977 B1 KR102325977 B1 KR 102325977B1 KR 1020140066011 A KR1020140066011 A KR 1020140066011A KR 20140066011 A KR20140066011 A KR 20140066011A KR 102325977 B1 KR102325977 B1 KR 102325977B1
Authority
KR
South Korea
Prior art keywords
picture
layer
inter
information
reference picture
Prior art date
Application number
KR1020140066011A
Other languages
Korean (ko)
Other versions
KR20150007205A (en
Inventor
이하현
강정원
이진호
최진수
김진웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/324,974 priority Critical patent/US20150010083A1/en
Publication of KR20150007205A publication Critical patent/KR20150007205A/en
Priority to KR1020210087838A priority patent/KR20210088478A/en
Application granted granted Critical
Publication of KR102325977B1 publication Critical patent/KR102325977B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

본 발명의 일 실시예에 따른 영상 복호화 방법은 복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 단계와; 상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하는 단계와; 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하는 단계와; 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 단계를 포함할 수 있다.An image decoding method according to an embodiment of the present invention comprises the steps of: decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded; generating information of a reference picture between base layers by using the information of the first layer picture; generating enhanced inter-layer reference picture information by using the first layer picture information, the base inter-layer reference picture information, and the second layer picture information; Generating a reference picture list in which inter prediction of the second layer picture is used using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture. can

Figure R1020140066011
Figure R1020140066011

Description

영상의 복호화 방법 및 이를 이용하는 장치{VIDEO DECODING METHOD AND APPARATUS USING THE SAME}Video decoding method and apparatus using the same

본 발명은 영상의 부호화 및 복호화 처리에 관한 것으로서, 보다 상세하게는 비트스트림 내 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 장치에 관한 것이다.The present invention relates to encoding and decoding processing of an image, and more particularly, to a method and apparatus for encoding and decoding an image supporting a plurality of layers in a bitstream.

최근 HD(High Definition) 해상도를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있으며 이에 따라 많은 기관들이 차세대 영상기기에 대한 개발에 박차를 가하고 있다. 또한 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 보다 높은 해상도, 고화질의 영상에 대한 압축기술이 요구되고 있다.Recently, as broadcasting services having high definition (HD) resolution are expanding not only in Korea but also worldwide, many users are getting used to high-resolution and high-definition images, and accordingly, many organizations are spurring the development of next-generation imaging devices. In addition, as interest in UHD (Ultra High Definition) having a resolution four times higher than that of HDTV increases along with HDTV, compression technology for higher resolution and high-definition images is required.

영상 압축을 위해, 시간적으로 이전 및/또는 이후의 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 인터(inter) 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 인트라(intra) 예측 기술, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 부호화 기술 등이 사용될 수 있다.For image compression, inter prediction technology that predicts pixel values included in the current picture from temporally previous and/or later pictures, predicting pixel values included in the current picture using pixel information in the current picture An intra prediction technique, an entropy encoding technique in which a short code is assigned to a symbol having a high frequency of occurrence and a long code is assigned to a symbol having a low frequency of occurrence, may be used.

영상 압축 기술에는 유동적인 네트워크 환경을 고려하지 않고 하드웨어의 제한적인 동작 환경하에서 일정한 네트워크 대역폭을 제공하는 기술이 있다. 그러나 수시로 대역폭이 변화하는 네트워크 환경에 적용되는 영상 데이터를 압축하기 위해서는 새로운 압축 기술이 요구되고, 이를 위해 스케일러블(scalable) 비디오 부호화/복호화 방법이 사용될 수 있다. In video compression technology, there is a technology that provides a constant network bandwidth under a limited operating environment of hardware without considering a flexible network environment. However, a new compression technique is required to compress image data applied to a network environment in which bandwidth is frequently changed, and for this purpose, a scalable video encoding/decoding method may be used.

본 발명은 향상된 계층간 참조 영상 생성시 정수 화소 단위의 움직임 보상을 통해 부, 복호화기의 복잡도를 감소시킬 수 있는 영상의 복호화 방법 및 이를 이용하는 장치를 제공한다.The present invention provides an image decoding method capable of reducing the complexity of an encoder and decoder through motion compensation in integer pixel units when generating an improved inter-layer reference image, and an apparatus using the same.

또한 부호화 파라미터 기반으로 가중치를 구하여 적용함으로써, 가중치 정보의 전송을 생략함으로써 복호화 효율을 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치를 제공한다.In addition, a method for decoding an image capable of increasing decoding efficiency by omitting transmission of weight information by obtaining and applying a weight based on an encoding parameter, and an apparatus using the same are provided.

이로써, 다계층 구조 기반의 영상 부호화 및 복호화 시, 상위 계층의 영상을 부, 복호화함에 있어 예측 신호로 사용될 수 있는 하위 계층 정보의 정밀도를 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치를 제공한다.Accordingly, a method for decoding an image capable of increasing the precision of lower-layer information that can be used as a prediction signal in encoding and decoding an image of an upper layer during encoding and decoding of an image based on a multi-layer structure, and an apparatus using the same are provided.

본 발명의 일 실시예인 복수의 계층을 지원하는 영상의 복호화 방법은 복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 단계와; 상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하는 단계와; 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하는 단계와; 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method for decoding an image supporting a plurality of layers includes decoding information on a first layer picture that can be referenced by a second layer picture to be decoded; generating information of a reference picture between base layers by using the information of the first layer picture; generating enhanced inter-layer reference picture information by using the first layer picture information, the base inter-layer reference picture information, and the second layer picture information; Generating a reference picture list in which inter prediction of the second layer picture is used using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture. can

상기 기본 계층간 참조 픽쳐의 정보를 생성하는 단계는, 제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐를 생성하는 단계와; 상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 생성하는 단계를 포함할 수 있다. The generating of the information of the reference picture between the base layers may include: generating a first inter-layer reference picture obtained by mapping a first layer picture size to a picture size of the second layer; and generating a second inter-layer reference picture in which the decoded temporal reference pictures of the first layer picture are mapped to the size of the temporal reference picture of the second layer picture.

상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는, 상기 제2 계층 픽쳐의 참조 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여 상기 대상 블록에 대한 움직임 보상을 수행한 제1 참조 블록을 유도하는 단계와; 상기 제2 기본 계층간 참조 픽쳐 및 상기 움직임 벡터를 이용하여 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제2 참조 블록을 유도하는 단계와; 상기 제1 참조 블록과 상기 제2 참조 블록의 차이에 해당하는 차분 블록을 생성하는 단계와; 상기 차분 블록에 상기 계층간 대응 블록을 합하는 단계를 포함할 수 있다. The step of generating the enhanced inter-layer reference picture information includes a reference picture of the second layer picture and a motion vector of a block of the first layer picture corresponding to a target block to be decoded of the second layer picture. deriving a first reference block on which motion compensation is performed on the target block; deriving a second reference block obtained by performing motion compensation on the inter-layer corresponding block of the first inter-layer reference picture corresponding to the target block using the second inter-layer reference picture and the motion vector; generating a difference block corresponding to a difference between the first reference block and the second reference block; and adding the inter-layer corresponding block to the residual block.

상기 차분 블록에 가중치를 적용하는 단계를 더 포함하는 포함할 수 있다.The method may further include applying a weight to the residual block.

상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하는 단계를 더 포함하고, 상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층간 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상이 수행될 수 있다. Further comprising the step of determining whether a reference picture index of the temporal reference picture of the first hierarchical picture has a preset value, if the reference picture index has the preset value, the target block and the inter-layer corresponding block Motion compensation using a motion interpolation filter may be performed.

상기 제1 참조 블록 및 상기 제2 참조 블록을 유도하기 위하여 수행되는 움직임 보상은 정수 화소 단위로 수행될 수 있다. Motion compensation performed to derive the first reference block and the second reference block may be performed in units of integer pixels.

상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는, 상기 제2 계층 픽쳐의 참조 픽쳐와 제2 기본 계층간 참조 픽쳐 간의 차분 픽쳐를 생성하는 단계와; 상기 차분 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여, 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제3 참조 블록을 유도하는 단계와; 상기 제3 참조 블록과 상기 계층간 대응 블록을 합하는 단계를 포함할 수 있다.The generating of the enhanced inter-layer reference picture information may include: generating a difference picture between a reference picture of the second layer picture and a second base inter-layer reference picture; Inter-layer correspondence of the reference picture between the first base layers corresponding to the target block by using the motion vector of the block of the first hierarchical picture corresponding to the target block to be decoded of the differential picture and the second hierarchical picture deriving a third reference block on which motion compensation is performed on the block; and summing the third reference block and the inter-layer corresponding block.

상기 제3 참조 블록에 가중치를 적용하는 단계를 더 포함할 수 있다.The method may further include applying a weight to the third reference block.

상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하는 단계를 더 포함하고, 상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상이 수행될 수 있다. The method further comprises the step of determining whether a reference picture index of a temporal reference picture of the first layer picture has a predetermined value, and when the reference picture index has the predetermined value, with respect to the target block and the layer corresponding block Motion compensation using a motion interpolation filter may be performed.

상기 제3 참조 블록을 유도하기 위하여 수행되는 움직임 보상은 정수 화소 단위로 수행될 수 있다.Motion compensation performed to derive the third reference block may be performed in units of integer pixels.

본 발명의 다른 실시예에 따른 복수의 계층을 지원하는 영상의 복호화 장치는 복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 엔트로피 복호화부와; 상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하고, 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하고, 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 예측부를 포함할 수 있다.An apparatus for decoding an image supporting a plurality of layers according to another embodiment of the present invention includes: an entropy decoding unit for decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded; Inter-layer information is generated using the information of the first hierarchical picture, and information of the base inter-layer reference picture is improved using the information of the first hierarchical picture, the information of the base inter-layer reference picture, and the information of the second hierarchical picture. A reference picture in which inter-picture prediction of the second layer picture is generated by generating information of a reference picture, and using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture It may include a prediction unit that generates a list.

본 발명의 일 실시예에 따르면, 향상된 계층간 참조 영상 생성시 정수 화소 단위의 움직임 보상을 통해 부, 복호화기의 복잡도를 감소시킬 수 있는 영상의 복호화 방법 및 이를 이용하는 장치가 제공된다.According to an embodiment of the present invention, a method for decoding an image capable of reducing the complexity of an encoder and decoder through motion compensation in units of integer pixels when generating an improved inter-layer reference image, and an apparatus using the same are provided.

또한 부호화 파라미터 기반으로 가중치를 구하여 적용함으로써, 가중치 정보의 전송을 생략함으로써 복호화 효율을 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치가 제공된다.In addition, a method for decoding an image capable of increasing decoding efficiency by omitting transmission of weight information by obtaining and applying a weight based on an encoding parameter, and an apparatus using the same are provided.

이로써, 다계층 구조 기반의 영상 부호화 및 복호화 시, 상위 계층의 영상을 부, 복호화함에 있어 예측 신호로 사용될 수 있는 하위 계층 정보의 정밀도를 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치가 제공된다.Accordingly, a method for decoding an image capable of increasing the precision of lower layer information that can be used as a prediction signal in encoding and decoding an image of an upper layer during encoding and decoding of an image based on a multi-layer structure, and an apparatus using the same are provided.

도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 3은 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일 실시예를 개략적으로 나타내는 개념도이다.
도 4는 본 발명에 따른 영상의 복호화 방법을 설명하기 위한 제어 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 향상된 계층간 참조 픽쳐을 설명하기 위한 도면이다.
도 6은 본 발명의 다른 실시예에 따라 향상된 계층간 참조 픽쳐의 생성을 설명하기 위한 개략도이다.
도 7은 본 발명의 또 다른 실시예에 따라 향상된 계층간 참조 픽쳐의 생성을 설명하기 위한 개략도이다.
1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
3 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using a plurality of layers to which the present invention can be applied.
4 is a control flowchart illustrating a video decoding method according to the present invention.
5 is a diagram for explaining an improved inter-layer reference picture according to an embodiment of the present invention.
6 is a schematic diagram illustrating an improved generation of an inter-layer reference picture according to another embodiment of the present invention.
7 is a schematic diagram for explaining improved generation of an inter-layer reference picture according to another embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described concretely with reference to drawings. In describing the embodiments of the present specification, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present specification, the detailed description thereof will be omitted.

어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. When it is said that a component is “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be In addition, the content described as “including” a specific configuration in the present invention does not exclude configurations other than the corresponding configuration, and means that additional configurations may be included in the practice of the present invention or the scope of the technical spirit of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components shown in the embodiment of the present invention are shown independently to represent different characteristic functions, and it does not mean that each component is composed of separate hardware or a single software component. That is, each component is listed as each component for convenience of description, and at least two components of each component are combined to form one component, or one component can be divided into a plurality of components to perform a function, and each Integrated embodiments and separate embodiments of components are also included in the scope of the present invention without departing from the essence of the present invention.

또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
In addition, some of the components are not essential components for performing essential functions in the present invention, but may be optional components for merely improving performance. The present invention can be implemented by including only essential components to implement the essence of the present invention, except for components used for performance improvement, and a structure including only essential components excluding optional components used for performance improvement Also included in the scope of the present invention.

도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다. 스케일러블(scalable) 비디오 부호화/복호화 방법 또는 장치는 스케일러빌리티(scalability)를 제공하지 않는 일반적인 영상 부호화/복호화 방법 또는 장치의 확장(extension)에 의해 구현될 수 있으며, 도 1의 블록도는 스케일러블 비디오 부호화 장치의 기초가 될 수 있는 영상 부호화 장치의 일 실시예를 나타낸다.1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment. A scalable video encoding/decoding method or apparatus may be implemented by extension of a general image encoding/decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 1 is scalable. An embodiment of an image encoding apparatus that can be the basis of a video encoding apparatus is shown.

도 1을 참조하면, 상기 영상 부호화 장치(100)는 움직임 예측부(111), 움직임 보상부(112), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조영상 버퍼(190)를 포함한다.Referring to FIG. 1 , the image encoding apparatus 100 includes a motion prediction unit 111 , a motion compensation unit 112 , an intra prediction unit 120 , a switch 115 , a subtractor 125 , and a transform unit 130 . , a quantizer 140 , an entropy encoder 150 , an inverse quantizer 160 , an inverse transform unit 170 , an adder 175 , a filter unit 180 , and a reference image buffer 190 .

영상 부호화 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트스트림(bit stream)을 출력할 수 있다. 인트라 예측은 화면 내 예측, 인터 예측은 화면 간 예측을 의미한다. 인트라 모드인 경우 스위치(115)가 인트라로 전환되고, 인터 모드인 경우 스위치(115)가 인터로 전환된다. 영상 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성한 후, 입력 블록과 예측 블록의 차분을 부호화할 수 있다.The image encoding apparatus 100 may perform encoding on an input image in an intra mode or an inter mode and output a bit stream. Intra prediction refers to intra prediction, and inter prediction refers to inter prediction. In the intra mode, the switch 115 is switched to intra, and in the inter mode, the switch 115 is switched to inter. The image encoding apparatus 100 may generate a prediction block for an input block of an input image, and then encode a difference between the input block and the prediction block.

인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다.In the intra mode, the intra prediction unit 120 may generate a prediction block by performing spatial prediction using pixel values of an already coded block around the current block.

인터 모드인 경우, 움직임 예측부(111)는, 움직임 예측 과정에서 참조 영상 버퍼(190)에 저장되어 있는 참조 영상에서 입력 블록과 가장 매치가 잘 되는 영역을 찾아 움직임 벡터를 구할 수 있다. 움직임 보상부(112)는 움직임 벡터와 참조 영상 버퍼(190)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. In the inter mode, the motion predictor 111 may obtain a motion vector by finding a region that best matches the input block in the reference image stored in the reference image buffer 190 during the motion prediction process. The motion compensator 112 may generate a prediction block by performing motion compensation using a motion vector and a reference image stored in the reference image buffer 190 .

감산기(125)는 입력 블록과 생성된 예측 블록의 차분에 의해 잔여 블록(residual block)을 생성할 수 있다. 변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 그리고 양자화부(140)는 입력된 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력할 수 있다.
The subtractor 125 may generate a residual block by the difference between the input block and the generated prediction block. The transform unit 130 may perform transform on the residual block to output a transform coefficient. In addition, the quantization unit 140 may quantize the input transform coefficient according to the quantization parameter to output a quantized coefficient.

엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터 값 등을 기초로, 심볼(symbol)을 확률 분포에 따라 엔트로피 부호화하여 비트스트림(bit stream)을 출력할 수 있다. 엔트로피 부호화 방법은 다양한 값을 갖는 심볼을 입력 받아, 통계적 중복성을 제거하면서, 복호 가능한 2진수의 열로 표현하는 방법이다. The entropy encoding unit 150 entropy-encodes a symbol according to a probability distribution based on the values calculated by the quantization unit 140 or an encoding parameter value calculated during the encoding process to generate a bit stream. can be printed out. The entropy encoding method is a method of receiving symbols having various values, removing statistical redundancy, and expressing them as a decodable binary number sequence.

여기서, 심볼이란 부호화/복호화 대상 구문 요소(syntax element) 및 부호화 파라미터(coding parameter), 잔여 신호(residual signal)의 값 등을 의미한다. 부호화 파라미터는 부호화 및 복호화에 필요한 매개변수로서, 구문 요소와 같이 부호화기에서 부호화되어 복호화기로 전달되는 정보뿐만 아니라, 부호화 혹은 복호화 과정에서 유추될 수 있는 정보를 포함할 수 있으며 영상을 부호화하거나 복호화할 때 필요한 정보를 의미한다. 부호화 파라미터는 예를 들어 인트라/인터 예측모드, 이동/움직임 벡터, 참조 영상 색인, 부호화 블록 패턴, 잔여 신호 유무, 변환 계수, 양자화된 변환 계수, 양자화 파라미터, 블록 크기, 블록 분할 정보 등의 값 또는 통계를 포함할 수 있다. 또한 잔여 신호는 원신호와 예측 신호의 차이를 의미할 수 있고, 또한 원신호와 예측 신호의 차이가 변환(transform)된 형태의 신호 또는 원신호와 예측 신호의 차이가 변환되고 양자화된 형태의 신호를 의미할 수도 있다. 잔여 신호는 블록 단위에서는 잔여 블록이라 할 수 있다.Here, the symbol means a syntax element to be encoded/decoded, a coding parameter, and a value of a residual signal. Encoding parameters are parameters necessary for encoding and decoding, and may include information that is encoded in the encoder and transmitted to the decoder, such as syntax elements, as well as information that can be inferred during the encoding or decoding process. means necessary information. Coding parameters include, for example, intra/inter prediction modes, motion/motion vectors, reference image indexes, coding block patterns, residual signal presence, transform coefficients, quantized transform coefficients, quantization parameters, block size, block partition information, etc. It may include statistics. In addition, the residual signal may mean a difference between the original signal and the predicted signal, and a signal in which the difference between the original signal and the predicted signal is transformed or a signal in which the difference between the original signal and the predicted signal is transformed and quantized. may mean The residual signal may be referred to as a residual block in block units.

엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 부호화를 통해서 영상 부호화의 압축 성능이 높아질 수 있다. When entropy encoding is applied, a small number of bits are allocated to a symbol having a high probability of occurrence and a large number of bits are allocated to a symbol having a low probability of occurrence to express the symbol, so that the size of the bit string for the symbols to be encoded is increased. can be reduced. Accordingly, compression performance of image encoding may be improved through entropy encoding.

엔트로피 부호화를 위해 지수 골룸(exponential golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법이 사용될 수 있다. 예를 들어, 엔트로피 부호화부(150)에는 가변 길이 부호화(VLC: Variable Lenghth Coding/Code) 테이블과 같은 엔트로피 부호화를 수행하기 위한 테이블이 저장될 수 있고, 엔트로피 부호화부(150)는 저장된 가변 길이 부호화(VLC) 테이블을 사용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(150)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법 또는 확률 모델을 사용하여 엔트로피 부호화를 수행할 수도 있다.For entropy encoding, an encoding method such as exponential golomb, Context-Adaptive Variable Length Coding (CAVLC), or Context-Adaptive Binary Arithmetic Coding (CABAC) may be used. For example, the entropy encoding unit 150 may store a table for performing entropy encoding, such as a variable length coding (VLC) table, and the entropy encoding unit 150 may store the stored variable length encoding. Entropy encoding can be performed using a (VLC) table. In addition, the entropy encoder 150 derives a binarization method of a target symbol and a probability model of a target symbol/bin, and then performs entropy encoding using the derived binarization method or probability model. You may.

양자화된 계수는 역양자화부(160)에서 역양자화되고 역변환부(170)에서 역변환될 수 있다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성될 수 있다. The quantized coefficient may be inverse quantized by the inverse quantizer 160 and inversely transformed by the inverse transform unit 170 . The inverse-quantized and inverse-transformed coefficients may be added to the prediction block through the adder 175 and a reconstructed block may be generated.

복원 블록은 필터부(180)를 거치고, 필터부(180)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(180)를 거친 복원 블록은 참조 영상 버퍼(190)에 저장될 수 있다.
The reconstructed block passes through the filter unit 180, and the filter unit 180 applies at least one of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstructed block or the reconstructed picture. can do. The reconstructed block passing through the filter unit 180 may be stored in the reference image buffer 190 .

도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다. 도 1에서 상술한 바와 같이 스케일러블 비디오 부호화/복호화 방법 또는 장치는 스케일러빌리티를 제공하지 않는 일반적인 영상 부호화/복호화 방법 또는 장치의 확장에 의해 구현될 수 있으며, 도 2의 블록도는 스케일러블 비디오 복호화 장치의 기초가 될 수 있는 영상 복호화 장치의 일 실시예를 나타낸다.2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment. As described above with reference to FIG. 1 , the scalable video encoding/decoding method or apparatus may be implemented by extension of a general image encoding/decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 2 shows scalable video decoding An embodiment of an image decoding apparatus that can be the basis of the apparatus is shown.

도 2를 참조하면, 상기 영상 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 및 참조 영상 버퍼(270)를 포함한다.Referring to FIG. 2 , the image decoding apparatus 200 includes an entropy decoding unit 210 , an inverse quantization unit 220 , an inverse transform unit 230 , an intra prediction unit 240 , a motion compensator 250 , and a filter unit. 260 and a reference image buffer 270 .

영상 복호화 장치(200)는 부호화기에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다. 인트라 모드인 경우 스위치가 인트라로 전환되고, 인터 모드인 경우 스위치가 인터로 전환될 수 있다. 영상 복호화 장치(200)는 입력 받은 비트스트림으로부터 복원된 잔여 블록(residual block)을 얻고 예측 블록을 생성한 후 복원된 잔여 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.
The image decoding apparatus 200 may receive a bitstream output from the encoder, perform decoding in an intra mode or an inter mode, and output a reconstructed image, that is, a reconstructed image. In the case of the intra mode, the switch may be switched to the intra mode, and in the case of the inter mode, the switch may be switched to the inter mode. The image decoding apparatus 200 may generate a reconstructed block, that is, a reconstructed block by obtaining a reconstructed residual block from the received bitstream, generating a prediction block, and adding the reconstructed residual block and the prediction block.

엔트로피 복호화부(210)는, 입력된 비트스트림을 확률 분포에 따라 엔트로피 복호화하여, 양자화된 계수(quantized coefficient) 형태의 심볼을 포함한 심볼들을 생성할 수 있다. 엔트로피 복호화 방법은 2진수의 열을 입력 받아 각 심볼들을 생성하는 방법이다. 엔트로피 복호화 방법은 상술한 엔트로피 부호화 방법과 유사하다.The entropy decoding unit 210 may entropy-decode the input bitstream according to a probability distribution to generate symbols including symbols in the form of quantized coefficients. The entropy decoding method is a method of generating each symbol by receiving a binary string as an input. The entropy decoding method is similar to the entropy encoding method described above.

양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환되며, 양자화된 계수가 역양자화/역변환 된 결과, 복원된 잔여 블록(residual block)이 생성될 수 있다. The quantized coefficient is inverse quantized by the inverse quantization unit 220 and inverse transformed by the inverse transformation unit 230 , and as a result of inverse quantization/inverse transformation of the quantized coefficient, a reconstructed residual block may be generated.

인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다. 인터 모드인 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 영상 버퍼(270)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. In the intra mode, the intra prediction unit 240 may generate a prediction block by performing spatial prediction using pixel values of an already encoded block around the current block. In the inter mode, the motion compensator 250 may generate a prediction block by performing motion compensation using a motion vector and a reference image stored in the reference image buffer 270 .

복원된 잔여 블록과 예측 블록은 가산기(255)를 통해 더해지고, 더해진 블록은 필터부(260)를 거친다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(260)는 재구성된 영상, 즉 복원 영상을 출력한다. 복원 영상은 참조 영상 버퍼(270)에 저장되어 화면 간 예측에 사용될 수 있다.The reconstructed residual block and the prediction block are added through the adder 255 , and the added block passes through the filter unit 260 . The filter unit 260 may apply at least one of a deblocking filter, SAO, and ALF to a reconstructed block or a reconstructed picture. The filter unit 260 outputs a reconstructed image, that is, a reconstructed image. The restored image may be stored in the reference image buffer 270 and used for inter prediction.

상기 영상 복호화 장치(200)에 포함되어 있는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 및 참조 영상 버퍼(270) 중 영상의 복호화에 직접적으로 관련된 구성요소들, 예컨대, 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 등을 다른 구성요소와 구분하여 복호화부 또는 디코딩부로 표현할 수 있다. The entropy decoding unit 210 , the inverse quantization unit 220 , the inverse transform unit 230 , the intra prediction unit 240 , the motion compensator 250 , and the filter unit 260 included in the image decoding apparatus 200 . and components directly related to image decoding among the reference image buffer 270 , for example, the entropy decoding unit 210 , the inverse quantization unit 220 , the inverse transform unit 230 , the intra prediction unit 240 , and motion compensation. The unit 250 and the filter unit 260 may be distinguished from other components and expressed as a decoder or a decoder.

또한, 영상 복호화 장치(200)는 비트스트림에 포함되어 있는 인코딩된 영상에 관련된 정보를 파싱하는 도시하지 않은 파싱부를 더 포함할 수 있다. 파싱부는 엔트로피 복호화부(210)를 포함할 수도 있고, 엔트로피 복호화부(210)에 포함될 수도 있다. 이러한 파싱부는 또한 디코딩부의 하나의 구성요소로 구현될 수도 있다.
Also, the image decoding apparatus 200 may further include a parsing unit (not shown) that parses information related to the encoded image included in the bitstream. The parsing unit may include the entropy decoding unit 210 or may be included in the entropy decoding unit 210 . This parsing unit may also be implemented as one component of the decoding unit.

도 3은 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일 실시예를 개략적으로 나타내는 개념도이다. 도 3에서 GOP(Group of Picture)는 픽쳐군 즉, 픽쳐의 그룹을 나타낸다.3 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using a plurality of layers to which the present invention can be applied. In FIG. 3 , a group of pictures (GOP) indicates a picture group, that is, a group of pictures.

영상 데이터를 전송하기 위해서는 전송 매체가 필요하며, 그 성능은 다양한 네트워크 환경에 따라 전송 매체별로 차이가 있다. 이러한 다양한 전송 매체 또는 네트워크 환경에의 적용을 위해 스케일러블 비디오 코딩 방법이 제공될 수 있다.In order to transmit image data, a transmission medium is required, and its performance is different for each transmission medium according to various network environments. A scalable video coding method may be provided for application to such various transmission media or network environments.

스케일러블 비디오 코딩 방법은 계층(layer) 간의 텍스쳐 정보, 움직임 정보, 잔여 신호 등을 활용하여 계층 간 중복성을 제거하여 부호화/복호화 성능을 높이는 코딩 방법이다. 스케일러블 비디오 코딩 방법은, 전송 비트율, 전송 에러율, 시스템 자원 등의 주변 조건에 따라, 공간적, 시간적, 화질적 관점에서 다양한 스케일러빌리티를 제공할 수 있다.The scalable video coding method is a coding method that improves encoding/decoding performance by removing inter-layer redundancy by utilizing texture information, motion information, residual signals, etc. between layers. The scalable video coding method may provide various scalability in terms of spatial, temporal, and picture quality according to ambient conditions such as a transmission bit rate, a transmission error rate, and a system resource.

스케일러블 비디오 코딩은, 다양한 네트워크 상황에 적용 가능한 비트스트림을 제공할 수 있도록, 복수 계층(multiple layers) 구조를 사용하여 수행될 수 있다. 예를 들어 스케일러블 비디오 코딩 구조는, 일반적인 영상 부호화 방법을 이용하여 영상 데이터를 압축하여 처리하는 기본 계층을 포함할 수 있고, 기본 계층의 부호화 정보 및 일반적인 영상 부호화 방법을 함께 사용하여 영상 데이터를 압축 처리하는 향상 계층을 포함할 수 있다.Scalable video coding may be performed using a structure of multiple layers so as to provide a bitstream applicable to various network situations. For example, the scalable video coding structure may include a base layer that compresses and processes image data using a general image encoding method, and compresses the image data using both encoding information of the base layer and a general image encoding method. It may include an enhancement layer to process.

여기서, 계층(layer)은 공간(spatial, 예를 들어, 영상 크기), 시간(temporal, 예를 들어, 부호화 순서, 영상 출력 순서, 프레임 레이트), 화질, 복잡도 등을 기준으로 구분되는 영상 및 비트스트림(bitstream)의 집합을 의미한다. 또한 기본 계층(Base layer)은 하위 계층 또는 참조 계층, 향상 계층(Enhancement layer)은 상위 계층을 의미할 수 있다. 또한 복수의 계층들은 서로 간에 종속성을 가질 수도 있다.Here, a layer is an image and bit classified based on spatial (eg, image size), temporal (eg, encoding order, image output order, frame rate), image quality, complexity, etc. It means a set of streams (bitstream). In addition, a base layer may mean a lower layer or a reference layer, and an enhancement layer may mean an upper layer. Also, a plurality of layers may have dependencies on each other.

도 3을 참조하면, 예를 들어 기본 계층은 SD(standard definition), 15Hz의 프레임율, 1Mbps 비트율로 정의될 수 있고, 제1 향상 계층은 HD(high definition), 30Hz의 프레임율, 3.9Mbps 비트율로 정의될 수 있으며, 제2 향상 계층은 4K-UHE(ultra high definition), 60Hz의 프레임율, 27.2Mbps 비트율로 정의될 수 있다. 상기 포맷(format), 프레임율, 비트율 등은 하나의 실시예로서, 필요에 따라 달리 정해질 수 있다. 또한 사용되는 계층의 수도 본 실시예에 한정되지 않고 상황에 따라 달리 정해질 수 있다. Referring to FIG. 3 , for example, the base layer may be defined as SD (standard definition), a frame rate of 15 Hz, and a bit rate of 1 Mbps, and the first enhancement layer is HD (high definition), a frame rate of 30 Hz, and a bit rate of 3.9 Mbps. may be defined, and the second enhancement layer may be defined as 4K-UHE (ultra high definition), a frame rate of 60 Hz, and a bit rate of 27.2 Mbps. The format, frame rate, bit rate, etc. are an example and may be differently determined as needed. Also, the number of layers to be used is not limited to the present embodiment and may be determined differently according to circumstances.

예를 들어, 전송 대역폭이 4Mbps라면 상기 제1향상계층 HD의 프레임 레이트를 줄여서 15Hz이하로 전송할 수 있다. 스케일러블 비디오 코딩 방법은 상기 도 3의 실시예에서 상술한 방법에 의해 시간적, 공간적, 화질적 스케일러빌리티를 제공할 수 있다.For example, if the transmission bandwidth is 4 Mbps, the frame rate of the first enhancement layer HD may be reduced to transmit at 15 Hz or less. The scalable video coding method may provide temporal, spatial, and picture quality scalability by the method described above in the embodiment of FIG. 3 .

스케일러블 비디오 코딩은 이하 부호화 관점에서는 스케일러블 비디오 부호화, 복호화 관점에서는 스케일러블 비디오 복호화와 동일한 의미를 가진다.
Scalable video coding has the same meaning as scalable video coding in terms of encoding and scalable video decoding in terms of decoding.

본 발명은 복수의 계층(layer) 또는 시점(view)을 포함하는 영상의 부, 복호화(en-/de-coding) 과정에 관한 것으로 상기 복수의 계층 또는 시점은 제1, 제2, 제3, 제n 계층 또는 시점으로 표현할 수 있다. 이하 설명에서는 제1 계층과 제2 계층이 존재하는 픽쳐를 예로 기술하며, 그 이상의 계층 또는 시점에도 동일한 방법으로 적용할 수 있다. 또한, 상기 제1 계층은 하위(base) 계층, 제2 계층은 상위(upper) 계층으로 표현할 수도 있다. 또한, 상기 제1 계층은 참조(reference) 계층, 제 2 계층은 향상(enhancement) 계층으로 표현될 수 있다. The present invention relates to an en-/de-coding process of an image including a plurality of layers or views, wherein the plurality of layers or views are first, second, third, It can be expressed as an n-th layer or a viewpoint. In the following description, a picture in which the first layer and the second layer exist is described as an example, and the same method can be applied to layers or views above that. Also, the first layer may be expressed as a base layer, and the second layer may be expressed as an upper layer. Also, the first layer may be expressed as a reference layer, and the second layer may be expressed as an enhancement layer.

제2 계층의 픽쳐/블록에 대응하는 제1 계층의 픽쳐/블록은 상기 제2 계층 픽쳐/블록의 크기에 맞게 변경할 수 있다. 즉, 제1 계층의 픽쳐/블록의 크기가 제2 계층의 픽쳐/블록 보다 작은 경우 업샘플링(up-sampling), re-sampling 등의 방법을 이용하여 스케일링(scaling)할 수 있다.The picture/block of the first layer corresponding to the picture/block of the second layer may be changed according to the size of the picture/block of the second layer. That is, when the size of the picture/block of the first layer is smaller than the picture/block of the second layer, scaling may be performed using a method such as up-sampling or re-sampling.

또한, 제1 계층의 픽쳐는 상기 제2 계층의 참조 픽쳐 리스트(reference picture list)에 추가하여 제2 계층의 영상 부/복호화에 이용될 수 있다. 이때, 제2 계층은 통상의 화면간 예측처럼 참조 픽쳐 리스트에 있는 제1 계층 영상을 이용하여 예측 및 부/복호화를 수행할 수 있다.Also, the picture of the first layer may be added to the reference picture list of the second layer and used for image encoding/decoding of the second layer. In this case, the second layer may perform prediction and encoding/decoding by using the first layer image in the reference picture list like normal inter prediction.

부/복호화를 위한 블록의 크기는 4x4, 8x8, 16x16, 32x32, 64x64 등 NxN 형태의 정사각형 또는 4x8, 16x8, 8x32 등의 NxM 형태의 직사각형 일 수 있으며, 블록의 단위는 부호화 블록(CB: Coding Block), 예측 블록(PB: Prediction Block), 변환 블록(TB: Transform Block) 중 적어도 하나 일 수 있으며 각각 서로 다른 크기를 가질 수 있다.The size of the block for encoding/decoding may be an NxN-shaped square such as 4x4, 8x8, 16x16, 32x32, 64x64, or an NxM-shaped rectangle such as 4x8, 16x8, 8x32, etc., and the unit of the block is a Coding Block (CB). ), a prediction block (PB), and a transform block (TB), and each may have a different size.

이하에서, 스케일러블 비디오, 즉 다계층 구조를 사용하는 영상의 부호화 및 복호화 방법 중 상위 계층의 부호화 및 복호화 대상이 되는 블록(이하 현재 블록 또는 대상 블록이라고 칭함)의 예측 블록, 즉 예측 신호를 생성하는 방법에 대하여 살펴본다. 이하 발명의 내용(방법 또는 장치)은 통상적으로 부호화기와 복호화기에 동일하게 적용될 수 있다.
Hereinafter, a prediction block of a block (hereinafter referred to as a current block or a target block) that is a target for encoding and decoding of a higher layer among scalable video, that is, an image encoding and decoding method using a multi-layer structure, that is, a prediction signal is generated Let's see how to do it. The content (method or apparatus) of the following invention can be equally applied to an encoder and a decoder in general.

한편, 대상 블록의 예측 신호는 화면 간 예측을 통하여 생성될 수 있다.Meanwhile, the prediction signal of the target block may be generated through inter prediction.

화면간 예측은 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나를 참조 픽쳐로 하고, 참조 픽쳐를 기반으로 현재 블록에 대한 예측을 수행할 수 있다. 현재 블록의 예측에 이용되는 영상을 참조 픽쳐(reference picture) 또는 참조 프레임(reference frame)이라고 한다. In the inter prediction, at least one of a picture before or after a picture of the current picture may be used as a reference picture, and prediction of the current block may be performed based on the reference picture. An image used for prediction of the current block is referred to as a reference picture or a reference frame.

참조 픽쳐 내의 영역은 참조 픽쳐를 지시하는 참조 픽쳐 인덱스(refIdx) 및 움직임 벡터(motion vector) 등을 이용하여 나타낼 수 있다. The region in the reference picture may be indicated using a reference picture index refIdx indicating the reference picture, a motion vector, and the like.

화면간 예측은 참조 픽쳐 및 참조 픽쳐 내에서 현재 블록에 대응하는 참조 블록을 선택해서, 현재 블록에 대한 예측 블록을 생성할 수 있다. Inter prediction may generate a prediction block for the current block by selecting a reference picture and a reference block corresponding to the current block in the reference picture.

화면 간 예측에서 부호화기 및 복호화기는 현재 블록의 움직임 정보를 도출한 후, 도출된 움직임 정보에 기반하여 화면 간 예측 및/또는 움직임 보상을 수행할 수 있다. 이 때, 부호화기 및 복호화기는 복원된 주변 블록(neighboring block) 및/또는 이미 복원된 콜(col) 픽쳐(collocated picture) 내에서 현재 블록에 대응되는 콜(col) 블록(collocated block)의 움직임 정보를 이용함으로써, 부호화/복호화 효율을 향상시킬 수 있다. In inter prediction, the encoder and the decoder may derive motion information of the current block and then perform inter prediction and/or motion compensation based on the derived motion information. At this time, the encoder and the decoder obtain the motion information of the collocated block corresponding to the current block in the reconstructed neighboring block and/or the collocated picture that has already been reconstructed. By using it, encoding/decoding efficiency can be improved.

여기서, 복원된 주변 블록은 이미 부호화 및/또는 복호화되어 복원된 현재 픽쳐 내의 블록으로서, 현재 블록에 인접한 블록 및/또는 현재 블록의 외부 코너에 위치한 블록을 포함할 수 있다. 또한 부호화기 및 복호화기는, 콜 픽쳐 내에서 현재 블록과 공간적으로 대응되는 위치에 존재하는 블록을 기준으로 소정의 상대적인 위치를 결정할 수 있고, 상기 결정된 소정의 상대적인 위치(상기 현재 블록과 공간적으로 대응되는 위치에 존재하는 블록의 내부 및/또는 외부의 위치)를 기반으로 상기 콜 블록을 도출할 수 있다. 여기서, 일례로 콜 픽쳐는 참조 픽쳐 리스트에 포함된 참조 픽쳐 중에서 하나의 픽쳐에 해당될 수 있다.Here, the reconstructed neighboring block is a block in the reconstructed current picture that has already been encoded and/or decoded, and may include a block adjacent to the current block and/or a block located at an outer corner of the current block. In addition, the encoder and the decoder may determine a predetermined relative position based on a block existing at a position spatially corresponding to the current block in the collocated picture, and the determined relative position (a position spatially corresponding to the current block) The collocated block can be derived based on the position inside and/or outside the block existing in . Here, as an example, the collocated picture may correspond to one of the reference pictures included in the reference picture list.

화면간 예측은 현재 블록과의 레지듀얼(residual) 신호가 최소화되며 움직임 벡터 크기 역시 최소가 되도록 예측 블록을 생성할 수 있다.In the inter prediction, a prediction block may be generated such that a residual signal with a current block is minimized and a motion vector size is also minimized.

한편, 움직임 정보 도출 방식은 현재 블록의 예측 모드에 따라 달라질 수 있다. 인터 예측을 위해 적용되는 예측 모드에는 AMVP(Advanced Motion Vector Predictor), 머지(merge) 등이 있을 수 있다.Meanwhile, the method of deriving motion information may vary depending on the prediction mode of the current block. Prediction modes applied for inter prediction may include Advanced Motion Vector Predictor (AMVP), merge, and the like.

일례로, AMVP(Advanced Motion Vector Predictor)가 적용되는 경우, 부호화기 및 복호화기는 복원된 주변 블록의 움직임 벡터 및/또는 콜 블록의 움직임 벡터를 이용하여, 예측 움직임 벡터 후보 리스트를 생성할 수 있다. 즉, 복원된 주변 블록의 움직임 벡터 및/또는 콜 블록의 움직임 벡터는 예측 움직임 벡터 후보로 사용될 수 있다. 부호화기는 상기 리스트에 포함된 예측 움직임 벡터 후보 중에서 선택된 최적의 예측 움직임 벡터를 지시하는 예측 움직임 벡터 인덱스를 복호화기로 전송할 수 있다. 이 때, 복호화기는 상기 예측 움직임 벡터 인덱스를 이용하여, 예측 움직임 벡터 후보 리스트에 포함된 예측 움직임 벡터 후보 중에서, 현재 블록의 예측 움직임 벡터를 선택할 수 있다.For example, when Advanced Motion Vector Predictor (AMVP) is applied, the encoder and decoder may generate a predictive motion vector candidate list by using a motion vector of a reconstructed neighboring block and/or a motion vector of a collocated block. That is, the motion vector of the reconstructed neighboring block and/or the motion vector of the collocated block may be used as a prediction motion vector candidate. The encoder may transmit a predicted motion vector index indicating an optimal predicted motion vector selected from among the predicted motion vector candidates included in the list to the decoder. In this case, the decoder may select the predicted motion vector of the current block from among the predicted motion vector candidates included in the predicted motion vector candidate list by using the predicted motion vector index.

부호화기는 현재 블록의 움직임 벡터와 예측 움직임 벡터 간의 움직임 벡터 차분(MVD: Motion Vector Difference)을 구할 수 있고, 이를 부호화하여 복호화기로 전송할 수 있다. 이 때, 복호화기는 수신된 움직임 벡터 차분을 복호화할 수 있고, 복호화된 움직임 벡터 차분과 예측 움직임 벡터의 합을 통해 현재 블록의 움직임 벡터를 도출할 수 있다.The encoder may obtain a motion vector difference (MVD) between the motion vector of the current block and the predicted motion vector, encode it, and transmit it to the decoder. In this case, the decoder may decode the received motion vector difference, and may derive the motion vector of the current block through the sum of the decoded motion vector difference and the predicted motion vector.

부호화기는 또한 참조 픽쳐를 지시하는 참조 픽쳐 인덱스 등을 복호화기에 전송할 수 있다. The encoder may also transmit a reference picture index indicating the reference picture to the decoder.

복호화기는 주변 블록의 움직임 정보들을 이용하여 현재 블록의 움직임 벡터를 예측하고, 부호화기로부터 수신한 레지듀얼을 이용하여 현재 블록에 대한 움직임 벡터를 유도할 수 있다. The decoder may predict the motion vector of the current block using motion information of the neighboring block, and may derive the motion vector of the current block using the residual received from the encoder.

복호화기는 어떤 주변 블록의 움직임 정보를 이용하는지에 관한 정보, 현재 블록의 움직임 벡터와 예측된 움직임 벡터 사이의 차이, 참조 픽쳐를 지시하는 참조 픽쳐 인덱스 부호화기로부터 수신할 수 있다. The decoder may receive information about which neighboring block motion information is used, a difference between a motion vector of the current block and a predicted motion vector, and a reference picture index encoder indicating a reference picture.

복호화기는 유도한 움직임 벡터와 부호화기로부터 수신한 참조 픽쳐 인덱스 정보를 기반으로 현재 블록에 대한 예측 블록을 생성할 수 있다. The decoder may generate a prediction block for the current block based on the derived motion vector and reference picture index information received from the encoder.

다른 예로, 머지(merge)가 적용되는 경우, 부호화기 및 복호화기는 복원된 주변 블록의 움직임 정보 및/또는 콜 블록의 움직임 정보를 이용하여, 머지 후보 리스트를 생성할 수 있다. 즉, 부호화기 및 복호화기는 복원된 주변 블록 및/또는 콜 블록의 움직임 정보가 존재하는 경우, 이를 현재 블록에 대한 머지 후보로 사용할 수 있다. As another example, when merge is applied, the encoder and the decoder may generate a merge candidate list by using motion information of a reconstructed neighboring block and/or motion information of a collocated block. That is, when motion information of the reconstructed neighboring block and/or collocated block exists, the encoder and the decoder may use it as a merge candidate for the current block.

부호화기는 머지 후보 리스트에 포함된 머지 후보 중에서 최적의 부호화 효율을 제공할 수 있는 머지 후보를 현재 블록에 대한 움직임 정보로 선택할 수 있다. 이 때, 상기 선택된 머지 후보를 지시하는 머지 인덱스가 비트스트림에 포함되어 복호화기로 전송될 수 있다. 복호화기는 상기 전송된 머지 인덱스를 이용하여, 머지 후보 리스트에 포함된 머지 후보 중에서 하나를 선택할 수 있으며, 상기 선택된 머지 후보를 현재 블록의 움직임 정보로 결정할 수 있다. 따라서, 머지 모드가 적용되는 경우, 복원된 주변 블록 및/또는 콜 블록의 움직임 정보가 현재 블록의 움직임 정보로 그대로 사용될 수 있다. 복호화기는 예측 블록과 부호화기로부터 전송되는 레 지듀얼을 더하여 현재 블록을 복원할 수 있다.The encoder may select a merge candidate capable of providing optimal encoding efficiency from among merge candidates included in the merge candidate list as motion information for the current block. In this case, the merge index indicating the selected merge candidate may be included in the bitstream and transmitted to the decoder. The decoder may select one of the merge candidates included in the merge candidate list by using the transmitted merge index, and may determine the selected merge candidate as motion information of the current block. Accordingly, when the merge mode is applied, the motion information of the reconstructed neighboring block and/or the collocated block may be used as the motion information of the current block as it is. The decoder may reconstruct the current block by adding the prediction block and the residual transmitted from the encoder.

상술한 AMVP 및 머지 모드에서는, 현재 블록의 움직임 정보를 도출하기 위해, 복원된 주변 블록의 움직임 정보 및/또는 콜 블록의 움직임 정보가 사용될 수 있다.In the aforementioned AMVP and merge modes, in order to derive the motion information of the current block, motion information of a reconstructed neighboring block and/or motion information of a collocated block may be used.

화면 간 예측에 이용되는 다른 모드 중 하나 인 스킵 모드의 경우에, 주변 블록의 정보를 그대로 현재 블록에 이용할 수 있다. 따라서 스킵 모드의 경우에, 부호화기는 현재 블록의 움직임 정보로서 어떤 블록의 움직임 정보를 이용할 것인지를 지시하는 정보 외에 레지듀얼 등과 같은 신택스 정보를 복호화기에 전송하지 않는다. In the case of the skip mode, which is one of the other modes used for inter prediction, information on neighboring blocks may be used for the current block as it is. Accordingly, in the skip mode, the encoder does not transmit syntax information such as residuals to the decoder other than information indicating which block to use as the motion information of the current block.

부호화기 및 복호화기는 상기 도출된 움직임 정보에 기반하여 현재 블록에 대한 움직임 보상을 수행함으로써, 현재 블록의 예측 블록을 생성할 수 있다. 여기서, 예측 블록은 현재 블록에 대한 움직임 보상 수행 결과 생성된, 움직임 보상된 블록을 의미할 수 있다. 또한, 복수의 움직임 보상된 블록은 하나의 움직임 보상된 영상을 구성할 수 있다.The encoder and the decoder may generate a prediction block of the current block by performing motion compensation on the current block based on the derived motion information. Here, the prediction block may mean a motion-compensated block generated as a result of performing motion compensation on the current block. Also, a plurality of motion-compensated blocks may constitute one motion-compensated image.

복호화기는 현재 블록의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽쳐 인덱스 등에 관한 정보를 부호화기로부터 수신한 스킵 플래그, 머지 플래그 등을 확인하고 이에 대응하여 유도할 수 있다. The decoder may check a skip flag, a merge flag, etc. received from the encoder for motion information necessary for inter prediction of the current block, for example, a motion vector, a reference picture index, and the like, and derive it accordingly.

예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 서로 다를 수 있다. 예컨대, PU단위로 예측모드가 정해져서 TU단위로 예측이 수행될 수도 있고, PU 단위로 예측 모드가 정해지고 TU 단위로 화면 내 예측이 수행될 수 도 있다.
A processing unit in which prediction is performed and a processing unit in which a prediction method and specific content are determined may be different from each other. For example, a prediction mode may be determined in a PU unit and prediction may be performed in a TU unit, or a prediction mode may be determined in a PU unit and intra prediction may be performed in a TU unit.

설명의 편의를 위하여 본 발명에 사용되는 여러 픽쳐에 대한 용어를 정리하면 다음과 같다. For convenience of description, terms for various pictures used in the present invention are summarized as follows.

제2 계층의 현재 부, 복호화 대상 픽쳐는 EP(Enhancement Picture)로, 제 2계층의 현재 부, 복호화 대상 픽쳐에 대응하는 제1 계층의 픽쳐는 BP(Base Picture)로 표현 될 수 있다. 제1 계층은 기본 계층에 한정되지 않고 부, 복호화 대상 픽쳐를 포함하는 계층이 참조하는 참조 계층을 포함할 수 있다. The current part of the second layer and the decoding target picture may be expressed as an enhancement picture (EP), and the picture of the first layer corresponding to the current part and the decoding target picture of the second layer may be expressed as a base picture (BP). The first layer is not limited to the base layer and may include a reference layer referenced by a layer including a secondary and a decoding target picture.

제1 계층의 픽쳐를 리-샘플링(re-sampling)을 하여 얻은 계층간 참조 픽쳐를 ILP(Inter layer Picture)로 표현될 수 있고, 제1 계층과 제2 계층의 픽쳐층간 픽쳐의 크기가 동일한 경우, ILP는 BP 픽쳐와 동일할 수 있다. When the inter-layer reference picture obtained by re-sampling the picture of the first layer can be expressed as an inter-layer picture (ILP), and the size of the picture between the picture layers of the first layer and the second layer is the same , ILP may be the same as the BP picture.

제1 계층의 픽쳐 정보 및 제2 계층의 픽쳐 정보를 이용하여 생성된 향상된 계층간 참조 픽쳐는 EILP(Enhanced Inter layer Picture)로 표현될 수 있다. An enhanced inter-layer reference picture generated using the picture information of the first layer and the picture information of the second layer may be expressed as an Enhanced Inter-layer Picture (EILP).

제2 계층의 현재 부, 복호화 대상 픽쳐의 시간 참조 복원 픽쳐는 EP’로, 제2 계층의 시간 참조 복원 픽쳐에 대응되는 제1 계층의 복원 픽쳐는 BP’로 표될 수 있다. 본 명세서에서 시간 참조 픽쳐란 화면간 예측에 사용되는 시간적 참조 픽쳐(temperal reference picture)를 의미할 수 있으며 계층간 참조 픽쳐와 구분하여 동일한 계층에 속하는 참조 픽쳐를 지칭할 수 있다. The temporal reference reconstructed picture of the current secondary and decoding target picture of the second layer may be represented by EP', and the reconstructed picture of the first layer corresponding to the temporal reference reconstructed picture of the second layer may be represented by BP'. In the present specification, a temporal reference picture may mean a temporal reference picture used for inter prediction, and may refer to a reference picture belonging to the same layer as distinguished from an inter-layer reference picture.

ILP와 유사하게 BP’ 픽쳐를 업-샘플링을 하여 얻은 계층간 참조 픽쳐를 ILP’로 표현하면, 제1 계층과 제2 계층의 픽쳐층간 픽쳐의 크기가 동일한 경우, ILP’는 BP’ 픽쳐와 동일할 수 있다다.
Similar to ILP, when an inter-layer reference picture obtained by up-sampling a BP' picture is expressed as ILP', if the size of the inter-picture picture of the first layer and the second layer is the same, ILP' is the same as the BP' picture can do it

다계층을 지원하는 영상에서, 상위 계층의 대상 블록의 예측 신호는 상술한 화면 간 예측 방법 이외에 대상 블록이 참조 가능한 하위 계층, 즉 참조 계층의 복원된 영상을 이용하는 방법이 있다. In an image supporting multi-layers, as a prediction signal of a target block of an upper layer, there is a method of using a reconstructed image of a lower layer, ie, a reference layer, to which the target block can be referred, in addition to the above-described inter prediction method.

도 4는 본 발명에 따른 영상의 복호화 방법을 설명하기 위한 제어 흐름도이다. 보다 구체적으로 도 4는 다계층 영상의 부, 복호화 과정에서 제 2 계층의 픽쳐에 대한 부, 복호화 과정을 수행할 때 제1 계층의 픽쳐 정보를 이용하여 다계층 영상의 부호화 및 복호화 방법에 대한 설명을 나타내고 있다. 따라서, 도 4에 대한 설명은 영상의 복호화 및 부호화 방법에 모두 적용될 수 있다. 이하에서는 설명의 편의를 위하여 복호화 과정을 기준으로 기술한다. 4 is a control flowchart illustrating a video decoding method according to the present invention. More specifically, FIG. 4 illustrates a method of encoding and decoding a multilayer image using picture information of the first layer when performing the process of copying and decoding a picture of the second layer in the process of encoding and decoding a multilayer image. represents Accordingly, the description of FIG. 4 may be applied to both decoding and encoding methods of an image. Hereinafter, for convenience of explanation, the decoding process will be described as a reference.

우선, 복호화기는 제2 계층의 픽쳐가 참조하고 있는 제1 계층의 픽쳐 정보를 복호화한다(S410).First, the decoder decodes picture information of the first layer referenced by the picture of the second layer (S410).

복호화기는 제2 계층의 복호화 대상 블록에 대응되는 제1 계층 픽쳐의 부호화된 정보를 대상 블록을 예측 하기 위한 참조 정보로 복호화 하여 사용할 수 있다. The decoder may decode and use the encoded information of the first layer picture corresponding to the decoding object block of the second layer as reference information for predicting the object block.

참조 정보는 복호호된 제1 계층 픽쳐 샘플 값 또는 움직임 정보들을 포함할 수 있다. The reference information may include a decoded first layer picture sample value or motion information.

제1 계층의 움직임 정보들은 움직임 벡터 값, 참조 픽쳐 인덱스, 예측 방향 지시자, 참조 픽쳐 POC (Picture Order Count), 예측 모드, 참조 픽쳐 리스트, 머지 플래그, 머지 색인, 참조 픽쳐의 픽쳐 타입(단기(short-term) 참조 픽쳐, 장기(long-term) 참조 픽쳐) 정보 등을 포함할 수 있다. The motion information of the first layer includes a motion vector value, a reference picture index, a prediction direction indicator, a reference picture POC (Picture Order Count), a prediction mode, a reference picture list, a merge flag, a merge index, and a picture type of the reference picture (short -term) reference picture, long-term reference picture) information, and the like.

제1 계층의 복호화된 움직임 정보들은 NxN (예, 16x16) 단위로 동일한 움직임 정보를 갖도록 압축되어 저장될 수 있다.
The decoded motion information of the first layer may be compressed and stored to have the same motion information in units of NxN (eg, 16x16).

제1 계층의 픽쳐 정보가 생성되면, 복호화기는 제1 계층의 복호화된 픽쳐 정보를 이용하여 기본 계층간 참조 픽쳐(ILP)에 대한 정보를 생성할 수 있다(S420). When the picture information of the first layer is generated, the decoder may generate information on the base inter-layer reference picture (ILP) by using the decoded picture information of the first layer ( S420 ).

기본 계층간 참조 픽쳐는 제1 계층의 픽쳐 크기를 제2 계층의 픽쳐 크기로 매핑(mapping)한 픽쳐 및 제2 계층의 픽쳐에 대응되는 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐를 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 픽쳐를 포함할 수 있다.The base inter-layer reference picture is a picture obtained by mapping the picture size of the first layer to the picture size of the second layer and the decoded temporal reference picture of the first layer picture corresponding to the picture of the second layer. It may include a picture mapped to the size of the temporal reference picture of .

계층간 픽쳐의 크기가 다를 경우, 복호화된 제1 계층의 픽쳐 크기를 제2 계층의 픽쳐 크기로 매핑하기 위해 제1 계층 픽쳐의 샘플 값들에 대해 업-샘플링(up-sampling)을 수행 할 수 있다. When the size of the picture between the layers is different, up-sampling may be performed on the sample values of the first layer picture in order to map the decoded picture size of the first layer to the picture size of the second layer. .

예를 들어, 복호화된 제1 계층의 픽쳐 크기가 960x540 이고, 제2 계층의 픽쳐 크기가 1920x1080 인 경우, 제1 계층의 복호화된 픽쳐의 크기를 제2 계층의 픽쳐 크기인 1920x1080으로 업샘플링을 수행 할 수 있다. 업샘플링된 픽쳐를 기본 계층간 참조 픽쳐로 사용할 수 있다. For example, when the picture size of the decoded first layer is 960x540 and the picture size of the second layer is 1920x1080, upsampling is performed on the size of the decoded picture of the first layer to 1920x1080, which is the picture size of the second layer. can do. The upsampled picture may be used as a reference picture between the base layers.

한편, 계층간 픽쳐의 크기가 동일 할 경우, 복호화된 제1 계층의 픽쳐를 기본 계층간 참조 픽쳐로 사용할 수 있다. On the other hand, when the sizes of inter-layer pictures are the same, the decoded picture of the first layer may be used as a base inter-layer reference picture.

다른 실시예에 따르면, 계층간 픽쳐의 크기가 동일 할 경우, 복호화된 제1 계층의 픽쳐에 대해 필터를 적용한 픽쳐를 기본 계층간 참조 픽쳐로 사용할 수 있다. According to another embodiment, when the sizes of inter-layer pictures are the same, a picture to which a filter is applied to the decoded first layer picture may be used as a base inter-layer reference picture.

예를 들어, 복호화된 제1 계층의 픽쳐에 대해 [-1, 3, 12, 3 -1] 필터 계수를 갖는 필터를 적용한 픽쳐를 기본 계층간 참조 픽쳐로 사용할 수 있다. For example, a picture to which a filter having a filter coefficient of [-1, 3, 12, 3 -1] is applied to the decoded first layer picture may be used as a base inter-layer reference picture.

또는, 복호화기는 계층간 픽쳐의 크기가 다를 경우, 제1 계층 픽쳐의 샘플 값들에 대해 업-샘플링(up-sampling)을 수행한 기본 계층간 참조 픽쳐에 대해 필터를 적용할 수 있다.Alternatively, when the sizes of inter-layer pictures are different, the decoder may apply a filter to a base inter-layer reference picture in which up-sampling is performed on sample values of the first layer picture.

또 다른 실시예에 따르면, 계층간 픽쳐의 크기가 다를 경우, 복호화된 제1 계층 픽쳐의 움직임 정보들을 제2 계층 픽쳐의 크기로 매핑하여 기본 계층간 참조 픽쳐의 움직임 정보로 사용할 수 있다. According to another embodiment, when the sizes of inter-layer pictures are different, the motion information of the decoded first layer picture may be mapped to the size of the second layer picture and used as motion information of the reference picture between the base layers.

예를 들어, 기본 계층간 참조 픽쳐의 크기를 NxN 단위로 분할하고, 분할된 NxN 블록내의 특정 좌표 값에 대응되는 제1 계층 픽쳐 내의 위치에 해당하는 움직임 정보를 기본 계층간 참조 픽쳐 내 블록의 움직임 정보로 매핑시킬 수 있다. 이 때, 계층간 픽쳐의 가로, 세로 크기 비율을 반영하여 움직임 정보를 매핑시킬 수 있다. For example, the size of the reference picture between the base layers is divided into units of NxN, and motion information corresponding to a position in the first hierarchical picture corresponding to a specific coordinate value in the divided NxN block is transferred to the block in the reference picture between the base layers. information can be mapped. In this case, the motion information may be mapped by reflecting the horizontal and vertical size ratio of the picture between layers.

반면, 계층간 픽쳐의 크기가 동일 할 경우, 복호화된 제1 계층 픽쳐 내의 움직임 정보들을 기본 계층간 참조 픽쳐의 움직임 정보로 사용할 수 있다.
On the other hand, when the sizes of inter-layer pictures are the same, motion information in the decoded first layer picture may be used as motion information of the base inter-layer reference picture.

제1 계층의 복호화된 픽쳐 정보 및 기본 계층간 참조 픽쳐 정보가 생성되면, 복호화기는 제1 계층의 복호화된 픽쳐 정보, 기본 계층간 참조 픽쳐 정보 및 제2 계층의 복호화된 픽쳐 정보를 이용하여 향상된 계층간 참조 픽쳐(EILP) 정보를 생성할 수 있다(S430). 이하 실시예에서는 설명의 편의 상 계층간 픽쳐의 가로, 세로 크기 비율은 각각 2배인 것으로 가정한다.When the decoded picture information of the first layer and the reference picture information between the base layers are generated, the decoder uses the decoded picture information of the first layer, the reference picture information between the base layers and the decoded picture information of the second layer. Inter-reference picture (EILP) information may be generated (S430). In the following embodiment, for convenience of description, it is assumed that the ratio of the horizontal and vertical sizes of the pictures between the layers is twice each.

향상된 계층간 참조 픽쳐를 생성하기 위하여 단계 S420를 통해 생성한 기본 계층간 참조 픽쳐에 추가하여 제1 계층의 복호화된 픽쳐 정보 및 제2 계층의 복호화된 픽쳐 정보를 이용할 수 있다. In order to generate an improved inter-layer reference picture, the decoded picture information of the first layer and the decoded picture information of the second layer may be used in addition to the base inter-layer reference picture generated in step S420.

도 5는 본 발명의 일 실시예에 따른 향상된 계층간 참조 픽쳐를 설명하기 위한 도면이다. 5 is a diagram for explaining an improved inter-layer reference picture according to an embodiment of the present invention.

도 5를 참조하면, 제2 계층 픽쳐(EP)의 화면 간 예측을 위하여 복수의 픽쳐(A, B, C)들이 참조 픽쳐 그룹(EP’)을 형성할 수 있다. 즉, 제2 계층 픽쳐(EP)의 화면 간 예측을 위하여 복호화된 참조 픽쳐들(A, B, C)은 DPB와 같은 메모리에 저장될 수 있으며, 이러한 참조 픽쳐들(A, B, C)은 참조 픽쳐 리스트에 포함될 수 있다. Referring to FIG. 5 , a plurality of pictures A, B, and C may form a reference picture group EP′ for inter prediction of the second layer picture EP. That is, the reference pictures A, B, and C decoded for inter prediction of the second layer picture EP may be stored in a memory such as the DPB, and these reference pictures A, B, and C are It may be included in the reference picture list.

대상 픽쳐(EP)에 대응되는 제1 계층 픽쳐(BP)의 복호화된 시간 참조 픽쳐 (A’, B’, C’)들이 역시 제1 계층 픽쳐(BP)에 대한 참조 픽쳐 그룹(BP’)을 형성할 수 있다. The decoded temporal reference pictures (A', B', C') of the first hierarchical picture (BP) corresponding to the target picture (EP) also refer to the reference picture group (BP') for the first hierarchical picture (BP). can be formed

제1 계층 픽쳐(BP)의 복호화된 시간 참조 픽쳐들(BP’)이 업-샘플링된 기본 계층간 참조 픽쳐들(A”, B”, C”)은 기본 계층 간 참조 픽쳐 그룹(ILP’)을 형성할 수 있다. The base inter-layer reference pictures (A”, B”, C”) from which the decoded temporal reference pictures (BP') of the first layer picture (BP) are up-sampled are the base inter-layer reference picture group (ILP') can form.

제2 계층의 현재 부, 복호화 대상 픽쳐(EP)를 위한 향상된 계층간 참조 픽쳐(EILP)는 제2 계층 내의 현재 부, 복호화 대상 픽쳐(EP)의 복호화된 시간 참조 픽쳐들(EP’)과, 대상 픽쳐(EP)에 대응되는 제1 계층 픽쳐(BP)의 복호화된 시간 참조 픽쳐들(BP’) 및 시간 참조 픽쳐들(BP’)을 업-샘플링 하여 생성한 기본 계층간 참조 픽쳐들(ILP’)을 이용하여 생성할 수 있다.
The current part of the second layer, the enhanced inter-layer reference picture (EILP) for the picture to be decoded (EP) includes the decoded temporal reference pictures (EP') of the current part and the picture to be decoded (EP) in the second layer, Base inter-layer reference pictures (ILP) generated by up-sampling the decoded temporal reference pictures BP' and temporal reference pictures BP' of the first layer picture BP corresponding to the target picture EP. ') can be used to create

도 6은 본 발명의 다른 실시예에 따라 향상된 계층간 참조 픽쳐의 생성을 설명하기 위한 개략도이다. 6 is a schematic diagram illustrating an improved generation of an inter-layer reference picture according to another embodiment of the present invention.

도 6에 도시된 바와 같이, 제2 계층의 부, 복호화 대상 픽쳐(EP)의 부, 복호화 대상 블록(①)의 예측을 위하여 향상된 계층간 참조 픽쳐(EILP)를 생성한다.As shown in FIG. 6 , an enhanced inter-layer reference picture (EILP) is generated for prediction of the second layer part, the decoding target picture part (EP), and the decoding target block (①).

이를 위하여 제2 계층 대상 픽쳐(EP)에 대응하는 제1 계층 픽쳐(BP)의 움직임 정보(움직임 벡터, 참조 픽쳐 인덱스) 및 제2 계층의 현재 부, 복호화 대상 픽쳐(EP)에 대응되는 기본 계층간 참조 픽쳐(ILP)가 이용될 수 있다. To this end, motion information (motion vector, reference picture index) of the first layer picture (BP) corresponding to the second layer target picture (EP), the current part of the second layer, and the base layer corresponding to the decoding target picture (EP) An inter-reference picture (ILP) may be used.

기본 계층간 참조 픽쳐(ILP, ILP’)의 가로, 세로 크기에 대한 제1 계층 픽쳐(BP) 및 제1 계층 픽쳐의 시간 참조 픽쳐(BP’)의 비율은 각각 2배일 수 있다.The ratio of the first layer picture BP and the temporal reference picture BP′ of the first layer picture to the horizontal and vertical sizes of the base inter-layer reference pictures ILP and ILP′ may be doubled, respectively.

제2 계층 대상 픽쳐(EP)의 대상 블록, 예를 들어 NxN 블록(①)의 위치에 대응하는 제1 계층 픽쳐(BP)의 블록은 ③이고, NxN 블록(①)의 위치에 대응하는 기본 계층간 참조 픽쳐(ILP)의 블록은 ②이다. 대상 블록(①)과 기본 계층간 참조 픽쳐(ILP)의 블록 ②는 동일한 위치에 존재하는 블록이다. 블록 ②는 대상 블록 ①에 대한 계층간 대응 블록으로, 블록 ③은 대상 블록 ①에 대하여 대응 블록으로 표현될 수 있다. The target block of the second layer target picture (EP), for example, the block of the first layer picture (BP) corresponding to the position of the NxN block (①) is ③, and the base layer corresponding to the position of the NxN block (①) The block of the inter reference picture (ILP) is ②. The target block (①) and the block ② of the reference picture (ILP) between the base layer are blocks existing in the same position. Block ② may be expressed as an inter-layer corresponding block with respect to target block ①, and block ③ may be expressed as a corresponding block with respect to target block ①.

제1 계층 픽쳐(BP)의 시간 참조 픽쳐(BP’)에서 블록 ③에 대한 움직임 보상이 수행된 참조 블록은 ⑥이고, 움직임 보상을 위한 움직임 벡터는 ⑦ MV로 가정할 수 있다. In the temporal reference picture BP' of the first hierarchical picture BP, it may be assumed that the reference block on which the motion compensation for the block ③ is performed is ⑥, and the motion vector for the motion compensation is ⑦ MV.

제2 계층 픽쳐(EP)의 시간 참조 픽쳐(EP’)에서 대상 블록(①)에 대한 움직임 보상이 수행된 참조 블록은 ④이고, 제1 계층 픽쳐(BP)의 시간 참조 픽쳐(BP’)를 업-샘플링하여 생성한 기본 계층간 참조 픽쳐(ILP’)에서 기본 계층간 참조 픽쳐(ILP’)의 블록 ②에 대한 움직임 보상이 수행된 참조 블록은 ⑤이다. 이와 같이 움직임 보상이 수행된 블록 ④ 및 블록 ⑤는 NxN 블록(②)에 대한 예측 신호를 생성할 때 사용될 수 있다. In the temporal reference picture (EP') of the second layer picture (EP), the reference block on which the motion compensation for the target block (①) is performed is ④, and the temporal reference picture (BP') of the first layer picture (BP) is In the base inter-layer reference picture (ILP') generated by up-sampling, the reference block on which motion compensation is performed on the block ② of the base inter-layer reference picture (ILP') is ⑤. The blocks ④ and ⑤ on which the motion compensation has been performed as described above may be used when generating a prediction signal for the NxN block (②).

도 6에 도시된 바와 같이, 대상 블록(①)에 대한 움직임 보상 및 기본 계층간 참조 픽쳐(ILP’)의 블록 ②에 대한 움직임 보상에 사용되는 움직임 벡터는 계층간 픽쳐의 가로, 세로 크기 비율을 고려하여 제1 계층 블록(③) 위치의 움직임 벡터(⑦)를 스케일링한 벡터(⑧ Scaled MV)이다.As shown in FIG. 6, the motion vector used for motion compensation for the target block (①) and motion compensation for the block ② of the base inter-layer reference picture (ILP') is the ratio of the horizontal and vertical size of the inter-layer picture. It is a vector (⑧ Scaled MV) obtained by scaling the motion vector (⑦) of the position of the first hierarchical block (③) in consideration.

본 실시예에서는 기본 계층간 참조 픽쳐(ILP, ILP’)의 가로, 세로 크기에 대한 제1 계층 픽쳐(BP) 및 제1 계층 픽쳐의 시간 참조 픽쳐(BP’)의 비율이 2배이므로, 제1 계층 블록(③) 위치의 움직임 벡터(⑦)를 2배로 스케일한 벡터가 NxN 블록(②)의 움직임 보상에 이용될 수 있다.In this embodiment, since the ratio of the first hierarchical picture (BP) and the temporal reference picture (BP') of the first hierarchical picture to the horizontal and vertical sizes of the base inter-layer reference pictures (ILP, ILP') is doubled, the second A vector in which the motion vector (⑦) at the position of the 1-layer block (③) is doubled may be used for motion compensation of the NxN block (②).

복호화기는 스케일된 움직임 벡터를 이용하여 시간 참조 픽쳐(EP’)을 대상으로 움직임 보상을 통해 구한 참조 블록(④)의 샘플 값과 기본 계층간 참조 픽쳐(ILP’)을 대상으로 움직임 보상을 통해구한 참조 블록(⑤)의 샘플 값 간의 차분 값을 구하여 차분 블록(⑨)를 생성한다. The decoder uses the scaled motion vector to obtain the sample value of the reference block (④) obtained through motion compensation on the temporal reference picture (EP') and the base inter-layer reference picture (ILP') through motion compensation. A difference block ⑨ is generated by finding a difference value between the sample values of the reference block ⑤.

차분 블록(⑨)은 기본 계층간 참조 픽쳐(ILP) 내 NxN블록(②) 샘플 값에 더해지고, 이렇게 생성된 새로운 블록(⑩)이 NxN 블록(②)의 새로운 샘플 값으로 사용될 수 있다. 즉, 블록 ⑩이 제2 계층 픽쳐(EP)의 복원을 위한 예측 블록으로 사용될 수 있다. 새로운 예측 블록(⑩)으로 이루어진 향상된 계층간 참조 픽쳐(EILP)는 제2 계층 픽쳐(EP)의 화면 간 예측에 사용되는 참조 픽쳐 리스트에 포함될 수 있다.
The difference block (⑨) is added to the sample value of the NxN block (②) in the base inter-layer reference picture (ILP), and the new block (⑩) generated in this way may be used as a new sample value of the NxN block (②). That is, block ⑩ may be used as a prediction block for reconstructing the second layer picture (EP). The enhanced inter-layer reference picture EILP made of the new prediction block ⑩ may be included in the reference picture list used for inter prediction of the second layer picture EP.

본 발명의 일 실시예에 따르면, 복호화기는 차분 블록(⑨)에 가중치를 적용한 후 NxN 블록(②)의 샘플 값과 더할 수 있다. According to an embodiment of the present invention, the decoder may apply a weight to the differential block (⑨) and then add it to the sample value of the NxN block (②).

가중치는 픽쳐, 슬라이스, 블록 단위 등으로 적용될 수 있으며, 부호화 파라미터(예, 움직임 벡터 및 참조 픽쳐 인덱스 등)에 의해 유추 수도 있다. 또한 부호화기에 가중치에 대한 계산 후, 결정된 가중치 값에 대한 정보가 부호화되어 복호화기에 전송될 수 있다. The weight may be applied in units of pictures, slices, blocks, etc., and may be inferred by coding parameters (eg, motion vectors and reference picture indexes). In addition, after calculating the weight in the encoder, information on the determined weight value may be encoded and transmitted to the decoder.

예를 들어, 제1 계층 픽쳐(BP)의 블록 ③의 참조 픽쳐 인덱스가 “0” 인 경우 가중치를 “1”로 설정하고, 참조 픽쳐 인덱스가 “1”인 경우 0.5를 적용할 수 있다. For example, when the reference picture index of block ③ of the first hierarchical picture BP is “0”, the weight may be set to “1”, and when the reference picture index is “1”, 0.5 may be applied.

또 다른 예를 들어, 블록 ③의 참조 픽쳐 인덱스가 “0” 인 경우는 가중치 “1”을 적용하고, 참조 픽쳐 인덱스가 “1”인 경우 가중치“0”을 적용할 수 있다.As another example, when the reference picture index of block ③ is “0”, the weight “1” may be applied, and when the reference picture index is “1”, the weight “0” may be applied.

또 다른 실시예에서는, 블록 ③의 참조 픽쳐 리스트, 즉 예측 방향을 고려하여 가중치를 설정할 수 있다. 블록 ③의 참조 픽쳐 방향이 리스트 0(LIST 0) 인 경우에는 가중치를 “1”로 설정하고, 참조 픽쳐 방향이 리스트 1(LIST 1)인 경우에는 가중치 “0.5” 를 적용할 수 있다.In another embodiment, the weight may be set in consideration of the reference picture list of block ③, that is, the prediction direction. When the reference picture direction of block ③ is list 0 (LIST 0), the weight may be set to “1”, and when the reference picture direction is the list 1 (LIST 1), the weight “0.5” may be applied.

가중치는 휘도(Luma) 성분과 색차(chroma) 성분에 따라 상이한 값이 적용될 수 있다. Different values may be applied to the weight according to a luminance (Luma) component and a chroma (chroma) component.

정리하면, 도 6과 같이 복호화기는 제2 계층의 대상 픽쳐(EP)에 대응되는 제1 계층 픽쳐(BP)를 업-샘플링한 기본 계층간 참조 픽쳐(ILP) 내 NxN 블록(②)과, 복호화 대상 블록(①)의 참조 블록(④)과 NxN 블록(②)의 참조 블록(⑤)의 차분 신호를 더한 신호를 NxN 블록(②)의 새로운 샘플 값으로 사용할 수 있다.
In summary, as shown in FIG. 6 , the decoder up-samples the first layer picture (BP) corresponding to the target picture (EP) of the second layer, an NxN block (②) in the base inter-layer reference picture (ILP), and the decoding A signal obtained by adding the difference signal between the reference block (④) of the target block (①) and the reference block (⑤) of the NxN block (②) can be used as a new sample value of the NxN block (②).

도 7은 본 발명의 또 다른 실시예에 따라 향상된 계층간 참조 픽쳐의 생성을 설명하기 위한 개략도이다. 본 실시예에서도, 계층간 픽쳐의 가로, 세로 크기 비율은 각각 2배일 수 있다. 7 is a schematic diagram for explaining improved generation of an inter-layer reference picture according to another embodiment of the present invention. Also in the present embodiment, the ratio of the horizontal and vertical sizes of the inter-layer picture may be doubled, respectively.

본 실시예에 따르면, 복호화기는 제2 계층의 현재 부, 복호화 대상 픽쳐(EP)의 시간 참조 픽쳐(EP’)와 제1 계층 픽쳐의 시간 참조 픽쳐를 업-샘플링 하여 생성한 계층간 참조 픽쳐(ILP’)간의 차분 픽쳐(DP)를 이용하여 NxN블록(②)에 대한 예측 신호를 생성 할 수 있다.According to the present embodiment, the decoder generates an inter-layer reference picture ( A prediction signal for the NxN block (②) can be generated using the differential picture (DP) between the ILP'.

이를 위하여 제2 계층 대상 픽쳐(EP)에 대응하는 제1 계층 픽쳐(BP)의 움직임 정보(움직임 벡터, 참조 픽쳐 인덱스) 및 제2 계층의 현재 부, 복호화 대상 픽쳐(EP)에 대응되는 기본 계층간 참조 픽쳐(ILP)가 이용될 수 있다. To this end, motion information (motion vector, reference picture index) of the first layer picture (BP) corresponding to the second layer target picture (EP), the current part of the second layer, and the base layer corresponding to the decoding target picture (EP) An inter-reference picture (ILP) may be used.

제1 계층 픽쳐(BP)의 시간 참조 픽쳐(BP’)에서 블록 ③에 대한 움직임 보상이 수행된 참조 블록은 ④이고, 움직임 보상을 위한 움직임 벡터는 ⑤ MV로 가정할 수 있다. In the temporal reference picture BP' of the first hierarchical picture BP, it may be assumed that the reference block on which the motion compensation for block ③ is performed is ④, and the motion vector for motion compensation is ⑤ MV.

복호화기는 현재 부, 복호화 대상 픽쳐의 시간 참조 픽쳐(EP’)와 제1 계층 픽쳐에서 시간 참조 픽쳐를 업-샘플링한 계층간 참조 픽쳐(ILP’)를 뺀 차분 픽쳐(DP)를 생성한다. 복호화기는 차분 픽쳐(DP)에 소정의 오프셋(예, 128)을 더하여 사용할 수 있다. The decoder generates a differential picture (DP) by subtracting the temporal reference picture (EP') of the current secondary and decoding target picture and the inter-layer reference picture (ILP') obtained by up-sampling the temporal reference picture from the first layer picture. The decoder may use the differential picture DP by adding a predetermined offset (eg, 128).

복호화기는 생성된 차분 픽쳐(DP)를 대상으로 제1 계층 픽쳐(BP) 내 블록(③) 위치의 움직임 정보, 즉 스케일된 움직임 벡터(⑥ Scaled MV)를 이용하여 움직임 보상을 수행할 수 있다. The decoder may perform motion compensation on the generated differential picture DP by using motion information on the position of the block ③ in the first hierarchical picture BP, that is, a scaled motion vector ⑥ Scaled MV.

본 실시예에서는 기본 계층간 참조 픽쳐(ILP, ILP’)의 가로, 세로 크기에 대한 제1 계층 픽쳐(BP) 및 제1 계층 픽쳐의 시간 참조 픽쳐(BP’)의 비율이 2배이므로, 블록(③)의 움직임 벡터(⑤)를 2배로 스케일링한 벡터가 NxN 블록(②)의 움직임 보상에 이용될 수 있다.In this embodiment, since the ratio of the first hierarchical picture (BP) and the temporal reference picture (BP') of the first hierarchical picture to the horizontal and vertical sizes of the base inter-layer reference pictures (ILP, ILP') is doubled, the block A vector obtained by multiplying the motion vector (⑤) of (③) by 2 can be used for motion compensation of the NxN block (②).

복호화기는 차분 픽쳐(DP)를 대상으로 NxN 블록(②)의 움직임 보상을 통해 구한 참조 블록(⑦)의 샘플 값과 NxN블록(②)의 샘플 값을 더할 수 있고, 이렇게 생성된 새로운 블록(⑧)이 NxN 블록(②)의 새로운 샘플 값으로 사용될 수 있다. 새로운 블록(⑧)으로 이루어진 향상된 계층간 참조 픽쳐(EILP)는 제2 계층 픽쳐(EP)의 화면 간 예측에 사용되는 참조 픽쳐 리스트에 포함될 수 있다.The decoder can add the sample value of the reference block (⑦) obtained through motion compensation of the NxN block (②) with the difference picture (DP) and the sample value of the NxN block (②), and the generated new block (⑧) ) can be used as a new sample value of the NxN block (②). The enhanced inter-layer reference picture EILP composed of the new block ⑧ may be included in the reference picture list used for inter prediction of the second layer picture EP.

차분 픽쳐(DP)의 생성 시, 오프셋 값이 더해졌다면 복호화기는 참조 블록(⑦)의 샘플 값에서 동일한 오프셋 값을 뺀 후, NxN블록(②)의 샘플 값과 더할 수 있다. When the difference picture DP is generated, if an offset value is added, the decoder may subtract the same offset value from the sample value of the reference block ⑦, and then add it with the sample value of the NxN block ②.

또한, 복호화기는 참조 블록(⑦)의 샘플 값에 가중치를 적용한 후 NxN 블록 샘플 값과 더할 수 있다.Also, the decoder may apply a weight to the sample value of the reference block ⑦ and then add it to the NxN block sample value.

가중치는 픽쳐, 슬라이스, 블록 단위 등으로 적용될 수 있으며, 부호화 파라미터(예, 움직임 벡터 및 참조 픽쳐 인덱스 등)에 의해 유추 수도 있다. 또한 부호화기에 가중치에 대한 계산 후, 결정된 가중치 값에 대한 정보가 부호화되어 복호화기에 전송될 수 있다. The weight may be applied in units of pictures, slices, blocks, etc., and may be inferred by coding parameters (eg, motion vectors and reference picture indexes). In addition, after calculating the weight in the encoder, information on the determined weight value may be encoded and transmitted to the decoder.

예를 들어, 제1 계층 픽쳐(BP)의 블록 ③의 참조 픽쳐 인덱스가 “0” 인 경우 가중치를 “1”로 설정하고, 참조 픽쳐 인덱스가 “1”인 경우 0.5를 적용할 수 있다. For example, when the reference picture index of block ③ of the first hierarchical picture BP is “0”, the weight may be set to “1”, and when the reference picture index is “1”, 0.5 may be applied.

또 다른 예를 들어, 블록 ③의 참조 픽쳐 인덱스가 “0” 인 경우는 가중치 “1”을 적용하고, 참조 픽쳐 인덱스가 “1”인 경우 가중치“0”을 적용할 수 있다.As another example, when the reference picture index of block ③ is “0”, the weight “1” may be applied, and when the reference picture index is “1”, the weight “0” may be applied.

또 다른 실시예에서는, 블록 ③의 참조 픽쳐 리스트, 즉 예측 방향을 고려하여 가중치를 설정할 수 있다. 블록 ③의 참조 픽쳐 방향이 리스트 0(LIST 0)인 경우에는 가중치를 “1”로 설정하고, 참조 픽쳐 방향이 리스트 1(LIST 1)인 경우에는 가중치 “0.5” 를 적용할 수 있다.In another embodiment, the weight may be set in consideration of the reference picture list of block ③, that is, the prediction direction. When the reference picture direction of block ③ is list 0 (LIST 0), the weight may be set to “1”, and when the reference picture direction is the list 1 (LIST 1), the weight “0.5” may be applied.

가중치는 휘도(Luma) 성분과 색차(chroma) 성분에 따라 상이한 값이 적용될 수 있다. Different values may be applied to the weight according to a luminance (Luma) component and a chroma (chroma) component.

정리하면, 도 7과 같이 복호화기는 제2 계층의 대상 픽쳐(EP)에 대응되는 제1 계층 픽쳐(BP)를 업-샘플링한 기본 계층간 참조 픽쳐(ILP) 내 NxN 블록(②)에 대하여, 차분 픽쳐(DP)의 참조 블록(⑦)을 더한 블록(⑧)을 NxN 블록(②)의 새로운 샘플 값으로 사용할 수 있다.
In summary, as shown in FIG. 7, the decoder up-samples the first layer picture (BP) corresponding to the target picture (EP) of the second layer with respect to the NxN block (②) in the base inter-layer reference picture (ILP), A block (⑧) to which the reference block (⑦) of the differential picture (DP) is added may be used as a new sample value of the NxN block (②).

한편, 본 발명의 다른 실시예에 따르면, 제2 계층의 시간 참조 픽쳐(EP’), 제1 계층 픽쳐를 업-샘플링한 기본 계층간 참조 픽쳐(ILP’) 또는 제2 계층의 시간 참조 픽쳐(EP’)와 기본 계층간 참조 픽쳐(ILP’) 간의 차분 픽쳐(DP)를 대상으로 NxN 블록(②) 에 대한 움직임 보상을 수행할 때 움직임 보간 필터를 사용할 수 있다. Meanwhile, according to another embodiment of the present invention, the temporal reference picture (EP') of the second layer, the base inter-layer reference picture (ILP') obtained by up-sampling the first layer picture, or the temporal reference picture of the second layer ( A motion interpolation filter may be used when motion compensation is performed on the NxN block (②) with respect to the differential picture (DP) between the EP′) and the inter-base layer reference picture (ILP′).

예를 들어, 복호화기는 움직임 보간 필터, 즉 휘도 성분에는 8탭 DCT-IF 필터를, 색차 성분에는 4탭 DCT-IF 필터를 사용하여 부화소 정밀도를 갖는 예측 신호를 생성할 수 있다. For example, the decoder may generate a prediction signal having sub-pixel precision by using a motion interpolation filter, that is, an 8-tap DCT-IF filter for a luminance component and a 4-tap DCT-IF filter for a chrominance component.

또는, 복호화기는 휘도 성분과 색차 성분에 동일한 바이 리니어(bi-linear) 필터를 사용하여 부화소 정밀도를 갖는 예측 신호를 생성할 수도 있다. Alternatively, the decoder may generate a prediction signal having sub-pixel precision by using the same bi-linear filter for the luminance component and the chrominance component.

예를 들어, 움직임 보상에 대한 복잡도를 줄이기 위해, 부화소 단위 움직임 보상 과정을 생략하여 정수 화소 정밀도를 갖도록 예측 신호를 생성할 수 있다. For example, in order to reduce the complexity of motion compensation, the prediction signal may be generated to have integer pixel precision by omitting the sub-pixel motion compensation process.

부화소 단위의 움직 보상 과정을 생략하기 위해, NxN블록(②)의 매핑된 움직임 벡터가 MV0 인 경우, 아래와 같이 움직임 벡터를 조절할 수 있다. In order to omit the sub-pixel motion compensation process, when the mapped motion vector of the NxN block (②) is MV0, the motion vector can be adjusted as follows.

휘도 성분의 경우, 수정된 움직임 벡터(MV0’)는 아래 수식 1과 같은 연산을 통해 구할 수 있다. In the case of the luminance component, the corrected motion vector MV0' can be obtained through an operation as in Equation 1 below.

<수식 1><Formula 1>

MV0’ = (MV0 + R) & 0xFFFFFFFC, MV0’ = (MV0 + R) & 0xFFFFFFFC,

이때, (MV0 % 4) < 2 일 경우 R=0, (MV0 % 4 ) >= 2 일 경우 R=4 을 적용할 수 있다. In this case, if (MV0 % 4) < 2, R=0, if (MV0 % 4 ) >= 2, R=4 may be applied.

또 다른 예로, 아래 수식 2가 적용될 수도 있다. As another example, Equation 2 below may be applied.

<수식 2><Formula 2>

MV0’ = (MV0 + R) & 0xFFFFFFFC, MV0’ = (MV0 + R) & 0xFFFFFFFC,

이때, (MV0 % 4) <= 2 일 경우 R=0, (MV0 % 4) > 2 일 경우 R=4 을 적용할 수 있다. In this case, if (MV0 % 4) <= 2, R=0, if (MV0 % 4) > 2, R=4 may be applied.

또 다른 예로, 항상 R 은 0 또는 4를 적용할 수 있다. As another example, 0 or 4 can always be applied to R.

한편, 색차 성분의 경우, 수정된 움직임 벡터 (MV0’)는 아래 수식 3과 같은 연산을 통해 구할 수 있다. On the other hand, in the case of the chrominance component, the corrected motion vector MV0' can be obtained through an operation as in Equation 3 below.

<수식 3><Equation 3>

MV0’ = (MV0 + R) & 0xFFFFFFF8, MV0’ = (MV0 + R) & 0xFFFFFFF8,

이 때, (MV0 % 8) < 4 일 경우 R=0, (MV0 % 8) >= 4 일 경우 R=8을 적용할 수 있다.In this case, if (MV0 % 8) < 4, R=0, if (MV0 % 8) >= 4, R=8 may be applied.

또 다른 예로, 색차 성분의 움직임 벡터(MV0’)에 아래 수식 4가 적용될 수도 있다.As another example, Equation 4 below may be applied to the motion vector MV0' of the chrominance component.

<수식 4><Formula 4>

MV0’ = (MV0 + R) & 0xFFFFFFF8, MV0’ = (MV0 + R) & 0xFFFFFFF8,

이 때, (MV0 % 8) <= 4 일 경우 R=0, (MV0 % 8) > 4 일 경우 R=8을 적용할 수 있다.In this case, when (MV0 % 8) <= 4, R=0 may be applied, and when (MV0 % 8) > 4, R=8 may be applied.

또 다른 예로, 항상 R은 0 또는 8을 적용할 수 있다.
As another example, always R can be 0 or 8.

본 발명의 또 다른 실시예에 따르면, 도 5 내지 도 7에 기초하여 설명된 실시예에 따라 제2 계층의 시간 참조 픽쳐(EP’), 제1 계층 픽쳐를 업-샘플링한 기본 계층간 참조 픽쳐(ILP’) 또는 제2 계층의 시간 참조 픽쳐(EP’)와 기본 계층간 참조 픽쳐(ILP’) 간의 차분 픽쳐(DP)을 대상으로 움직임 보상을 수행할 때 복잡도를 줄이기 위해, 특정 참조 픽쳐 인덱스 값만을 가지는 NxN 블록에 대해서만 움직임 보상을 수행할 수 있다. 즉, 복호화기는 특정 참조 픽쳐 인덱스 값만을 가지는 NxN 블록에 대해서만 움직임 보상을 수행하고, 움직임 보상에 따라 생성된 예측 값(즉, 도 6의 참조 블록 ⑨ 도 7의 참조 블록 ⑦)을 NxN 블록(②)에 더할 수 있다. According to another embodiment of the present invention, the base inter-layer reference picture obtained by up-sampling the temporal reference picture (EP') of the second layer and the first layer picture according to the embodiment described based on FIGS. 5 to 7 . In order to reduce complexity when motion compensation is performed on a differential picture (DP) between (ILP') or a temporal reference picture (EP') of the second layer and a base inter-layer reference picture (ILP'), a specific reference picture index Motion compensation can be performed only on NxN blocks having only values. That is, the decoder performs motion compensation only on the NxN block having only a specific reference picture index value, and converts the prediction value generated according to the motion compensation (that is, the reference block in FIG. 6 ⑨ the reference block ⑦ in FIG. 7) to the NxN block (②) ) can be added to

예를 들어, 도 6의 NxN 블록(②)에 대응하는 제1 계층 블록(③)의 참조 픽쳐 인덱스 값이 ‘0’ 인 경우에만 제2 계층의 시간 참조 픽쳐(EP’), 제1 계층 영상을 업-샘플링한 기본 계층간 참조 픽쳐(ILP’)를 대상으로 NXN 블록(②)에 대한 움직임 보상을 수행한 후 움직임 보상에 따라 생성된 차분 블록(블록 ⑨)의 샘플 값을 NxN 블록(②)의 샘플 값에 더할 수 있다. For example, only when the reference picture index value of the first layer block ③ corresponding to the NxN block ② of FIG. 6 is '0', the temporal reference picture (EP') of the second layer, the first layer image After motion compensation is performed on the NXN block (②) for the base inter-layer reference picture (ILP') up-sampled by ) can be added to the sample value of

또 다른 예를 들면, 도 7의 NxN 블록(②)에 대응하는 제1 계층 블록(③)의 참조 픽쳐 인덱스 값이 ‘0’ 인 경우에만 제2 계층의 시간 참조 픽쳐(EP’)와, 제1 계층 영상을 업-샘플링한 기본 계층간 참조 픽쳐(ILP’) 간의 차분 픽쳐(DP)를 대상으로 NXN 블록(②) 에 대한 움직임 보상을 수행한 후 움직임 보상에 따라 생성된 차분 블록(블록 ⑦)의 샘플 값을 NxN 블록(②) 의 샘플 값에 더할 수 있다.As another example, only when the reference picture index value of the first layer block ③ corresponding to the NxN block ② of FIG. 7 is '0', the temporal reference picture (EP') of the second layer and the second layer A differential block (block ⑦) generated according to motion compensation after motion compensation is performed on the NXN block (②) for the differential picture (DP) between the base inter-layer reference pictures (ILP') obtained by up-sampling the 1-layer image. ) can be added to the sample value of the NxN block (②).

또는, 본 발명의 다른 실시예에 따르면, 움직임 보상에 대한 복잡도를 줄이기 위해, 도 5 내지 도 7에 기초하여 설명된 실시예에 따라 제2 계층의 시간 참조 픽쳐(EP’), 제1 계층 픽쳐를 업-샘플링한 기본 계층간 참조 픽쳐(ILP’) 또는 제2 계층의 시간 참조 픽쳐(EP’)와 기본 계층간 참조 픽쳐(ILP’) 간의 차분 픽쳐(DP)을 대상으로 움직임 보상을 수행할 때 특정 참조 픽쳐 인덱스 값만을 가지는 NxN 블록에 대해서만 부화소 단위 움직임 보상 과정을 생략하여 정수 화소 정밀도를 갖도록 예측 신호를 생성할 수 있다. 이 경우, 수식 1 내지 수식 4가 적용될 수 있다.
Alternatively, according to another embodiment of the present invention, in order to reduce the complexity of motion compensation, the temporal reference picture (EP′) of the second layer and the first layer picture according to the embodiment described based on FIGS. 5 to 7 . To perform motion compensation on the difference picture (DP) between the base inter-layer reference picture (ILP') or the second layer temporal reference picture (EP') and the base inter-layer reference picture (ILP') up-sampled. When the sub-pixel motion compensation process is omitted only for NxN blocks having only a specific reference picture index value, the prediction signal may be generated to have integer pixel precision. In this case, Equations 1 to 4 may be applied.

단계 S430를 통하여 향상된 계층간 참조 픽쳐(EILP)에 대한 정보가 생성되면, 복호화기는 계층간 참조 픽쳐 정보들을 이용하여 화면간 예측에 사용되는 참조 픽쳐 리스트를 생성할 수 있다(S440). 즉, 본 단계를 통해 단계 S420 및 단계 S430을 통해 생성된 기본 계층간 참조 픽쳐(ILP) 정보와 향상된 계층간 참조 픽쳐(EILP) 정보를 이용하여 제2 계층의 현재 부, 복호화 대상 픽쳐(EP)를 위한 참조 픽쳐 리스트가 생성될 수 있다. 참조 픽쳐 리스를 생성할 때 사용되는 참조 픽쳐 정보는 참조 픽쳐의 POC 일 수 있다. 참조 픽쳐 리스트는 복호화 장치 및 부호화 장치의 예측부에서 생성될 수 있다. When information on the enhanced inter-layer reference picture (EILP) is generated through step S430, the decoder may generate a reference picture list used for inter prediction by using the inter-layer reference picture information (S440). That is, the current sub of the second layer and the decoding target picture (EP) using the base inter-layer reference picture (ILP) information and the enhanced inter-layer reference picture (EILP) information generated through steps S420 and S430 through this step. A reference picture list for can be generated. Reference picture information used when generating a reference picture lease may be a POC of a reference picture. The reference picture list may be generated by prediction units of the decoding apparatus and the encoding apparatus.

현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 P 슬라이스인 경우, 복호화기는 참조 픽쳐 리스트 0(LIST0)에 단계 S420를 통해 생성한 계층간 참조 픽쳐(ILP)와 단계 S430를 통해 생성한 향상된 계층간 참조 픽쳐(EILP)를 참조 픽쳐 리스트의 임의의 위치에 추가할 수 있다. 예를 들어, 참조 픽쳐 리스트 내 에서 계층간 참조 픽쳐들의 위치는 마지막 위치에 추가된 후, 참조 픽쳐 리스트 수정 신택스 등을 사용하여 위치를 변경될 수 있다. When the slice type of the current sub-picture to be decoded is P slice, the decoder stores the inter-layer reference picture (ILP) generated in step S420 in the reference picture list 0 (LIST0) and the enhanced inter-layer reference picture generated in step S430. (EILP) may be added at any position in the reference picture list. For example, after the positions of inter-layer reference pictures in the reference picture list are added to the last position, the positions may be changed using a reference picture list modification syntax or the like.

또는 현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 P 슬라이스인 경우, 복호화기는 참조 픽쳐 리스트 0 (LIST0)에 단계 S420 또는 단계 S430를 통해 생성한 계층간 참조 픽쳐 중 하나를 선택적으로 추가할 수 있다. 부호화기는 참조 픽쳐 리스트를 구성하기 위한 정보로 선택된 계층간 참조 픽쳐에 대한 정보를 슬라이스마다 부호화하여 전송할 수 있다. Alternatively, when the slice type of the current sub-picture to be decoded is P slice, the decoder may selectively add one of the inter-layer reference pictures generated in step S420 or step S430 to the reference picture list 0 (LIST0). The encoder may encode and transmit information on an inter-layer reference picture selected as information for constructing a reference picture list for each slice.

단계 S420 또는 단계 S430를 통해 생성된 계층간 참조 픽쳐 중 하나를 선택하기 위하여 원본 픽쳐, 즉 제2 계층 픽쳐(EP)와 단계 S420를 통해 구한 계층간 참조 픽쳐 (ILP) 간의 SAD(Sum of absolute differences) 또는 SATD(Sum of absolute transformed differences)와, 제2 계층 픽쳐(EP)와 단계 S430를 통해 구한 향상된 계층간 참조 픽쳐 (EILP)간의 SAD 또는 SATD를 비교할 수 있다. 비교 결과 더 작은 SAD 또는 SATD를 갖는 계층간 참조 영상 픽쳐가 참조 픽쳐 리스트에 포함될 수 있다. 또는 SAD 또는 SATD 등을 통해 계층간 참조 픽쳐가 선택될 수도 있다. In order to select one of the inter-layer reference pictures generated in step S420 or S430, sum of absolute differences (SAD) between the original picture, that is, the second layer picture (EP) and the inter-layer reference picture (ILP) obtained through step S420 ) or SATD (sum of absolute transformed differences), and the SAD or SATD between the second layer picture (EP) and the enhanced inter-layer reference picture (EILP) obtained through step S430 may be compared. As a result of the comparison, an inter-layer reference picture picture having a smaller SAD or SATD may be included in the reference picture list. Alternatively, an inter-layer reference picture may be selected through SAD or SATD.

한편, 현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 B 슬라이스인 경우, 복호화기는 참조 픽쳐 리스트 0(LIST0)와 참조 픽쳐 리스트 1(LIST) 각각에 단계 S420를 통해 생성한 계층간 참조 픽쳐(ILP)와 단계 S430를 통해 생성한 향상된 계층간 참조 픽쳐(EILP)를 임의의 위치에 추가할 수 있다. On the other hand, if the slice type of the current sub-picture to be decoded is B slice, the decoder adds the reference picture list 0 (LIST0) and the reference picture list 1 (LIST) to the inter-layer reference picture (ILP) generated in step S420 and The enhanced inter-layer reference picture (EILP) generated through step S430 may be added to an arbitrary position.

예를 들어, 복호화기는 계층간 참조 픽쳐들은 참조 픽쳐 리스트 내에서 마지막 위치에 추가한 후, 참조 픽쳐 리스트 수정 신택스 등을 사용하여 그 위치를 변경할 수 있다. For example, after adding inter-layer reference pictures to the last position in the reference picture list, the decoder may change the positions using a reference picture list modification syntax or the like.

또는, 현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 B 슬라이스인 경우, 복호화기는 참조 픽쳐 리트스 0(LIST0)에는 단계 S420를 통해 생성된 계층간 참조 픽쳐(ILP)를 추가하고, 참조 픽쳐 리스트 1(LIST1)에는 단계 S430를 통해 생성된 향상된 계층간 참조 픽쳐(EILP)를 추가할 수 있다. Alternatively, if the slice type of the current sub-picture to be decoded is B slice, the decoder adds the inter-layer reference picture (ILP) generated in step S420 to the reference picture list 0 (LIST0), and the reference picture list 1 ( LIST1), the enhanced inter-layer reference picture (EILP) generated through step S430 may be added.

또는 반대로, 복호화기는 참조 픽쳐 리트스 0(LIST0)에는 단계 S430를 통해 생성된 향상된 계층간 참조 픽쳐(EILP)를 추가하고, 참조 픽쳐 리스트 1(LIST1)에는 단계 S420를 통해 생성된 계층간 참조 픽쳐(ILP)를 추가할 수 있다.Or conversely, the decoder adds the enhanced inter-layer reference picture (EILP) generated through step S430 to the reference picture list 0 (LIST0), and the inter-layer reference picture generated through step S420 to the reference picture list 1 (LIST1). (ILP) can be added.

또 다른 실시예에 따르면, 현재 부, 복호화 대상 픽쳐의 슬라이스 타입이 B 슬라이스인 경우, 복호화기는 선택적으로 하나의 계층간 참조 픽쳐만을 참조 픽쳐 리스트에 추가할 수 있다. 부호화기는 참조 픽쳐 리스트를 구성하기 위한 정보로 선택된 계층간 참조 픽쳐에 대한 정보를 슬라이스마다 부호화하여 전송할 수 있다. 복호화기는 부호화기로부터 전송된 정보롤 이용하여 참조 픽쳐 리스트를 구성할 수 있다.According to another embodiment, when the slice type of the current sub-picture to be decoded is B slice, the decoder may selectively add only one inter-layer reference picture to the reference picture list. The encoder may encode and transmit information on an inter-layer reference picture selected as information for configuring the reference picture list for each slice. The decoder may construct a reference picture list by using information transmitted from the encoder.

일 예로, 단계 S420 또는 단계 S430를 통해 생성된 계층간 참조 픽쳐 중 하나를 선택하기 위하여 원본 픽쳐, 즉 제2 계층 픽쳐(EP)와 단계 S420를 통해 구한 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD와, 제2 계층 픽쳐(EP)와 단계 S430를 통해 구한 향상된 계층간 참조 픽쳐 (EILP)간의 SAD 또는 SATD를 비교할 수 있다. 비교 결과 더 작은 SAD 또는 SATD를 갖는 계층간 참조 영상 픽쳐가 양방향 참조 픽쳐 리스트에 포함될 수 있다.For example, in order to select one of the inter-layer reference pictures generated in step S420 or step S430, SAD or SATD between the original picture, that is, the second layer picture (EP) and the inter-layer reference picture (ILP) obtained through step S420. and SAD or SATD between the second layer picture (EP) and the enhanced inter-layer reference picture (EILP) obtained through step S430 may be compared. As a result of the comparison, an inter-layer reference picture picture having a smaller SAD or SATD may be included in the bidirectional reference picture list.

또는, 제2 계층 픽쳐(EP)와 단계 S420를 통해 구한 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD와, 제2 계층 픽쳐(EP)와 단계 S430를 통해 구한 향상된 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD를 비교한 결과 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD가 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD 보다 작을 경우, 복호화기는 참조 픽쳐 리스트 0(LIST 0)에는 기본 계층간 참조 픽쳐(ILP)를, 참조 픽쳐 리스트 1(LIST 1)에는 향상된 계층간 참조 영상 픽쳐(EILP)를 추가할 수 있다. Alternatively, between the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (ILP) obtained through step S420, and the enhanced inter-layer reference picture (EILP) obtained through the second layer picture (EP) and step S430 As a result of comparing the SAD or SATD, the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (EILP) is smaller than the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (ILP). The decoder may add a base inter-layer reference picture (ILP) to the reference picture list 0 (LIST 0) and an enhanced inter-layer reference picture picture (EILP) to the reference picture list 1 (LIST 1).

물론, 그 반대의 경우도 가능할 수 있다. 즉, 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD가 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD 보다 작을 경우, 복호화기는 참조 픽쳐 리스트 0(LIST 0)에는 향상된 계층간 참조 영상 픽쳐(EILP)를 추가하고, 참조 픽쳐 리스트 1(LIST 1)에는 기본 계층간 참조 픽쳐(ILP)를 추가할 수 있다.Of course, the reverse is also possible. That is, when the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (EILP) is smaller than the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (ILP), the decoder is a reference picture list An enhanced inter-layer reference picture picture (EILP) may be added to 0 (LIST 0), and a base inter-layer reference picture (ILP) may be added to the reference picture list 1 (LIST 1).

또는 다른 실시예에 따라, 제2 계층 픽쳐(EP)와 단계 S420를 통해 구한 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD와, 제2 계층 픽쳐(EP)와 단계 S430를 통해 구한 향상된 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD를 비교한 결과, 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD가 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD 보다 큰 경우, 복호화기는 참조 픽쳐 리스트 0(LIST 0)에는 기본 계층간 참조 픽쳐(ILP)를, 참조 픽쳐 리스트 1(LIST 1)에는 향상된 계층간 참조 영상 픽쳐(EILP)를 추가할 수 있다. Or according to another embodiment, the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (ILP) obtained through step S420, and the enhanced inter-layer reference obtained through the second layer picture (EP) and step S430 As a result of comparing the SAD or SATD between pictures (EILP), the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (EILP) is the SAD between the second layer picture (EP) and the inter-layer reference picture (ILP) Alternatively, if greater than SATD, the decoder may add a base inter-layer reference picture (ILP) to the reference picture list 0 (LIST 0) and an enhanced inter-layer reference picture picture (EILP) to the reference picture list 1 (LIST 1). .

그 반대로, 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐(EILP) 간의 SAD 또는 SATD가 제2 계층 픽쳐(EP)와 계층간 참조 픽쳐 (ILP) 간의 SAD 또는 SATD 보다 큰 경우, 복호화기는 참조 픽쳐 리스트 0(LIST 0)에는 향상된 계층간 참조 영상 픽쳐(EILP)를 추가하고, 참조 픽쳐 리스트 1(LIST 1)에는 기본 계층간 참조 픽쳐(ILP)를 추가할 수 있다.Conversely, when the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (EILP) is greater than the SAD or SATD between the second layer picture (EP) and the inter-layer reference picture (ILP), the decoder performs the reference picture An enhanced inter-layer reference picture picture (EILP) may be added to the list 0 (LIST 0), and a base inter-layer reference picture (ILP) may be added to the reference picture list 1 (LIST 1).

복호화기는 참조 픽쳐를 선택하는 과정에서 SAD 또는 SATD가 아닌 RDO(Rate Distortion optimization) 등을 적용할 수도 있다. The decoder may apply Rate Distortion Optimization (RDO) or the like rather than SAD or SATD in the process of selecting the reference picture.

도 5 내지 7을 통하여 설명된 참조 픽쳐 리스트를 구성하는 내용은 복호화기뿐만 아니라 부호화기에서 참조 픽쳐 리스트를 구성하는 과정에도 동일하게 적용될 수 있다. The contents of configuring the reference picture list described with reference to FIGS. 5 to 7 may be equally applied to the process of configuring the reference picture list in the encoder as well as the decoder.

상술한 바와 같이, 본 발명에 따를 경우 다계층 구조 기반의 영상 부호화 및 복호화 시, 상위 계층의 영상을 부, 복호화함에 있어 예측 신호로 사용될 수 있는 하위 계층 정보의 정밀도를 높일 수 있는 영상의 복호화 방법 및 이를 이용하는 장치가 제공된다.As described above, according to the present invention, when encoding and decoding an image based on a multi-layer structure, a method of decoding an image capable of increasing the precision of lower-layer information that can be used as a prediction signal in encoding and decoding an image of an upper layer and an apparatus using the same.

이를 위하여 향상된 계층간 참조 영상 생성시 정수 화소 단위의 움직임 보상을 수행하거나 부호화 파라미터 기반으로 가중치를 적용함으로써 가중치 정보의 전송을 생략할 수 있다.To this end, when generating an improved inter-layer reference image, transmission of weight information may be omitted by performing motion compensation in units of integer pixels or applying weights based on encoding parameters.

상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above embodiment, the methods are described on the basis of a flowchart as a series of steps or blocks, but the present invention is not limited to the order of the steps, and some steps may occur in a different order or concurrently with other steps as described above. have. In addition, those of ordinary skill in the art will recognize that the steps shown in the flowchart are not exclusive, other steps may be included, or that one or more steps in the flowchart may be deleted without affecting the scope of the present invention. You will understand.

상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. It is not possible to describe every possible combination for representing the various aspects, but one of ordinary skill in the art will recognize that other combinations are possible. Accordingly, it is intended that the present invention cover all other substitutions, modifications and variations falling within the scope of the following claims.

100 : 영상 부호화 장치 111: 움직임 예측부
112: 움직임 보상부 120 : 인트라 예측부
115 : 스위치 125 : 감산기
130 : 변환부 140 : 양자화부
150 : 엔트로피 부호화부 160 : 역양자화부
170 : 역변환부 180 : 필터부
100: video encoding device 111: motion prediction unit
112: motion compensation unit 120: intra prediction unit
115: switch 125: subtractor
130: transform unit 140: quantization unit
150: entropy encoding unit 160: inverse quantization unit
170: inverse transform unit 180: filter unit

Claims (20)

삭제delete 삭제delete 삭제delete 삭제delete 복수의 계층을 지원하는 영상의 복호화 방법에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 단계와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 단계를 포함하고,
상기 기본 계층간 참조 픽쳐의 정보를 생성하는 단계는,
제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐를 생성하는 단계와;
상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 생성하는 단계를 포함하고,
상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는,
상기 제2 계층 픽쳐의 참조 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여 상기 대상 블록에 대한 움직임 보상을 수행한 제1 참조 블록을 유도하는 단계와;
상기 제2 기본 계층간 참조 픽쳐 및 상기 움직임 벡터를 이용하여 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제2 참조 블록을 유도하는 단계와;
상기 제1 참조 블록과 상기 제2 참조 블록의 차이에 해당하는 차분 블록을 생성하는 단계와;
상기 차분 블록에 상기 계층간 대응 블록을 합하는 단계를 포함하고,
상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하는 단계를 더 포함하고,
상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층간 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상이 수행되는 것을 특징으로 하는 영상 복호화 방법.
In the video decoding method supporting a plurality of layers,
decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded;
generating information of a reference picture between base layers by using the information of the first layer picture;
generating enhanced inter-layer reference picture information by using the first layer picture information, the base inter-layer reference picture information, and the second layer picture information;
Using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture to generate a reference picture list in which the inter prediction of the second layer picture is used, and ,
The step of generating information of the reference picture between the base layers includes:
generating a first inter-layer reference picture in which a first layer picture size is mapped to a picture size of the second layer;
generating a second inter-layer reference picture in which the decoded temporal reference pictures of the first hierarchical picture are mapped to the size of the temporal reference picture of the second hierarchical picture,
The step of generating the enhanced inter-layer reference picture information comprises:
A first reference obtained by performing motion compensation on the target block using the reference picture of the second layer picture and the motion vector of the block of the first layer picture corresponding to the target block to be decoded of the second layer picture deriving a block;
deriving a second reference block obtained by performing motion compensation on the inter-layer corresponding block of the first inter-layer reference picture corresponding to the target block using the second inter-layer reference picture and the motion vector;
generating a difference block corresponding to a difference between the first reference block and the second reference block;
adding the inter-layer corresponding block to the residual block;
Further comprising the step of determining whether the reference picture index of the temporal reference picture of the first layer picture has a preset value,
When the reference picture index has the preset value, motion compensation using a motion interpolation filter is performed on the target block and the inter-layer corresponding block.
복수의 계층을 지원하는 영상의 복호화 방법에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 단계와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 단계를 포함하고,
상기 기본 계층간 참조 픽쳐의 정보를 생성하는 단계는,
제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐를 생성하는 단계와;
상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 생성하는 단계를 포함하고,
상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는,
상기 제2 계층 픽쳐의 참조 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여 상기 대상 블록에 대한 움직임 보상을 수행한 제1 참조 블록을 유도하는 단계와;
상기 제2 기본 계층간 참조 픽쳐 및 상기 움직임 벡터를 이용하여 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제2 참조 블록을 유도하는 단계와;
상기 제1 참조 블록과 상기 제2 참조 블록의 차이에 해당하는 차분 블록을 생성하는 단계와;
상기 차분 블록에 상기 계층간 대응 블록을 합하는 단계를 포함하고,상기 제1 참조 블록 및 상기 제2 참조 블록을 유도하기 위하여 수행되는 움직임 보상은 정수 화소 단위로 수행되는 것을 특징으로 하는 영상 복호화 방법.
In the video decoding method supporting a plurality of layers,
decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded;
generating information of a reference picture between base layers by using the information of the first layer picture;
generating enhanced inter-layer reference picture information by using the first layer picture information, the base inter-layer reference picture information, and the second layer picture information;
Using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture to generate a reference picture list in which the inter prediction of the second layer picture is used, and ,
The step of generating information of the reference picture between the base layers includes:
generating a first inter-layer reference picture in which a first layer picture size is mapped to a picture size of the second layer;
generating a second inter-layer reference picture in which the decoded temporal reference pictures of the first hierarchical picture are mapped to the size of the temporal reference picture of the second hierarchical picture,
The step of generating the enhanced inter-layer reference picture information comprises:
A first reference obtained by performing motion compensation on the target block using the reference picture of the second layer picture and the motion vector of the block of the first layer picture corresponding to the target block to be decoded of the second layer picture deriving a block;
deriving a second reference block obtained by performing motion compensation on the inter-layer corresponding block of the first inter-layer reference picture corresponding to the target block using the second inter-layer reference picture and the motion vector;
generating a difference block corresponding to a difference between the first reference block and the second reference block;
and adding the inter-layer corresponding block to the residual block, wherein motion compensation performed to derive the first reference block and the second reference block is performed in units of integer pixels.
삭제delete 삭제delete 복수의 계층을 지원하는 영상의 복호화 방법에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 단계와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 단계를 포함하고,
상기 기본 계층간 참조 픽쳐의 정보를 생성하는 단계는,
제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐를 생성하는 단계와;
상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 생성하는 단계를 포함하고,
상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는,
상기 제2 계층 픽쳐의 참조 픽쳐와 제2 기본 계층간 참조 픽쳐 간의 차분 픽쳐를 생성하는 단계와;
상기 차분 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여, 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제3 참조 블록을 유도하는 단계와;
상기 제3 참조 블록과 상기 계층간 대응 블록을 합하는 단계를 포함하고,
상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하는 단계를 더 포함하고,
상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층간 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상이 수행되는 것을 특징으로 하는 영상 복호화 방법.
In the video decoding method supporting a plurality of layers,
decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded;
generating information of a reference picture between base layers by using the information of the first layer picture;
generating enhanced inter-layer reference picture information by using the first layer picture information, the base inter-layer reference picture information, and the second layer picture information;
Using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture to generate a reference picture list in which the inter prediction of the second layer picture is used, and ,
The step of generating information of the reference picture between the base layers includes:
generating a first inter-layer reference picture in which a first layer picture size is mapped to a picture size of the second layer;
generating a second inter-layer reference picture in which the decoded temporal reference pictures of the first hierarchical picture are mapped to the size of the temporal reference picture of the second hierarchical picture,
The step of generating the enhanced inter-layer reference picture information comprises:
generating a difference picture between a reference picture of the second layer picture and a reference picture between a second base layer;
Inter-layer correspondence of the reference picture between the first base layers corresponding to the target block by using the motion vector of the block of the first hierarchical picture corresponding to the target block to be decoded of the differential picture and the second hierarchical picture deriving a third reference block on which motion compensation is performed on the block;
merging the third reference block and the inter-layer corresponding block;
Further comprising the step of determining whether the reference picture index of the temporal reference picture of the first layer picture has a preset value,
When the reference picture index has the preset value, motion compensation using a motion interpolation filter is performed on the target block and the inter-layer corresponding block.
복수의 계층을 지원하는 영상의 복호화 방법에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 단계와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하는 단계와;
상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 단계를 포함하고,상기 기본 계층간 참조 픽쳐의 정보를 생성하는 단계는,
제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐를 생성하는 단계와;
상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 생성하는 단계를 포함하고,
상기 향상된 계층간 참조 픽쳐 정보를 생성하는 단계는,
상기 제2 계층 픽쳐의 참조 픽쳐와 제2 기본 계층간 참조 픽쳐 간의 차분 픽쳐를 생성하는 단계와;
상기 차분 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여, 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제3 참조 블록을 유도하는 단계와;
상기 제3 참조 블록과 상기 계층간 대응 블록을 합하는 단계를 포함하고,
상기 제3 참조 블록을 유도하기 위하여 수행되는 움직임 보상은 정수 화소 단위로 수행되는 것을 특징으로 하는 영상 복호화 방법.
In the video decoding method supporting a plurality of layers,
decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded;
generating information of a reference picture between base layers by using the information of the first layer picture;
generating enhanced inter-layer reference picture information by using the first layer picture information, the base inter-layer reference picture information, and the second layer picture information;
Using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture to generate a reference picture list in which the inter prediction of the second layer picture is used, and , The step of generating the information of the reference picture between the base layer,
generating a first inter-layer reference picture in which a first layer picture size is mapped to a picture size of the second layer;
generating a second inter-layer reference picture in which the decoded temporal reference pictures of the first hierarchical picture are mapped to the size of the temporal reference picture of the second hierarchical picture,
The step of generating the enhanced inter-layer reference picture information comprises:
generating a difference picture between a reference picture of the second layer picture and a reference picture between a second base layer;
Inter-layer correspondence of the reference picture between the first base layers corresponding to the target block by using the motion vector of the block of the first hierarchical picture corresponding to the target block to be decoded of the differential picture and the second hierarchical picture deriving a third reference block on which motion compensation is performed on the block;
merging the third reference block and the inter-layer corresponding block;
The motion compensation performed to derive the third reference block is performed in units of integer pixels.
삭제delete 삭제delete 삭제delete 삭제delete 복수의 계층을 지원하는 영상의 복호화 장치에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 엔트로피 복호화부와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하고, 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하고, 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 예측부를 포함하고,
상기 예측부는 제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐와 상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 더 생성하고,
상기 예측부는 상기 제2 계층 픽쳐의 참조 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여 상기 대상 블록에 대한 움직임 보상을 수행한 제1 참조 블록과 상기 제2 기본 계층간 참조 픽쳐 및 상기 움직임 벡터를 이용하여 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제2 참조 블록을 유도하고, 상기 제1 참조 블록과 상기 제2 참조 블록의 차이에 해당하는 차분 블록을 생성하고, 상기 차분 블록에 상기 계층간 대응 블록을 합하여 상기 향상된 계층간 참조 픽쳐 정보를 생성하고,
상기 예측부는 상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하고,
상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층간 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상을 수행하는 것을 특징으로 하는 영상 복호화 장치.
In the video decoding apparatus supporting a plurality of layers,
an entropy decoding unit for decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded;
Inter-layer information is generated using the information of the first hierarchical picture, and information of the base inter-layer reference picture is improved using the information of the first hierarchical picture, the information of the base inter-layer reference picture, and the information of the second hierarchical picture. A reference picture in which inter-picture prediction of the second layer picture is generated by generating information of a reference picture, and using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture A prediction unit for generating a list,
The prediction unit converts the first inter-layer reference picture obtained by mapping the first layer picture size to the picture size of the second layer and the decoded temporal reference pictures of the first layer picture as the temporal reference picture of the second layer picture. Further create a second base inter-layer reference picture mapped to the size of
The prediction unit performs motion compensation on the target block by using the reference picture of the second layer picture and the motion vector of the block of the first layer picture corresponding to the target block to be decoded of the second layer picture. A second reference block obtained by performing motion compensation on the inter-layer corresponding block of the first inter-layer reference picture corresponding to the target block using the first reference block and the second inter-layer reference picture and the motion vector derivation, generating a residual block corresponding to the difference between the first reference block and the second reference block, and generating the enhanced inter-layer reference picture information by adding the inter-layer corresponding block to the residual block;
The prediction unit determines whether a reference picture index of a temporal reference picture of the first hierarchical picture has a preset value,
and performing motion compensation using a motion interpolation filter on the target block and the inter-layer corresponding block when the reference picture index has the preset value.
복수의 계층을 지원하는 영상의 복호화 장치에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 엔트로피 복호화부와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하고, 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하고, 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 예측부를 포함하고,
상기 예측부는 제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐와 상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 더 생성하고,
상기 예측부는 상기 제2 계층 픽쳐의 참조 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여 상기 대상 블록에 대한 움직임 보상을 수행한 제1 참조 블록과 상기 제2 기본 계층간 참조 픽쳐 및 상기 움직임 벡터를 이용하여 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제2 참조 블록을 유도하고, 상기 제1 참조 블록과 상기 제2 참조 블록의 차이에 해당하는 차분 블록을 생성하고, 상기 차분 블록에 상기 계층간 대응 블록을 합하여 상기 향상된 계층간 참조 픽쳐 정보를 생성하고,상기 예측부는 상기 제1 참조 블록 및 상기 제2 참조 블록을 유도할 때, 정수 화소 단위로 움직임 보상을 수행하는 것을 특징으로 하는 영상 복호화 장치.
In the video decoding apparatus supporting a plurality of layers,
an entropy decoding unit for decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded;
Inter-layer information is generated using the information of the first hierarchical picture, and information of the base inter-layer reference picture is improved using the information of the first hierarchical picture, the information of the base inter-layer reference picture, and the information of the second hierarchical picture. A reference picture in which inter-picture prediction of the second layer picture is generated by generating information of a reference picture, and using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture A prediction unit for generating a list,
The prediction unit converts the first inter-layer reference picture obtained by mapping the first layer picture size to the picture size of the second layer and the decoded temporal reference pictures of the first layer picture as the temporal reference picture of the second layer picture. Further create a second base inter-layer reference picture mapped to the size of
The prediction unit performs motion compensation on the target block by using the reference picture of the second layer picture and the motion vector of the block of the first layer picture corresponding to the target block to be decoded of the second layer picture. A second reference block obtained by performing motion compensation on the inter-layer corresponding block of the first inter-layer reference picture corresponding to the target block using the first reference block and the second inter-layer reference picture and the motion vector derivation, generating a residual block corresponding to a difference between the first reference block and the second reference block, adding the inter-layer corresponding block to the residual block to generate the improved inter-layer reference picture information, and the prediction unit and performing motion compensation in units of integer pixels when deriving the first reference block and the second reference block.
삭제delete 삭제delete 복수의 계층을 지원하는 영상의 복호화 장치에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 엔트로피 복호화부와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하고, 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하고, 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 예측부를 포함하고,
상기 예측부는 제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐와 상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 더 생성하고,
상기 예측부는 상기 제2 계층 픽쳐의 참조 픽쳐와 제2 기본 계층간 참조 픽쳐 간의 차분 픽쳐를 생성하고, 상기 차분 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여, 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제3 참조 블록을 유도하고, 상기 제3 참조 블록과 상기 계층간 대응 블록을 합하여 상기 향상된 계층간 참조 픽쳐 정보를 생성하고,
상기 예측부는 상기 제1 계층 픽쳐의 시간 참조 픽쳐의 참조 픽쳐 인덱스가 기설정된 값을 갖는지 판단하고,
상기 참조 픽쳐 인덱스가 상기 기설정된 값을 가지는 경우, 상기 대상 블록 및 상기 계층간 대응 블록에 대하여 움직임 보간 필터를 이용한 움직임 보상을 수행하는 것을 특징으로 하는 영상 복호화 장치.
In the video decoding apparatus supporting a plurality of layers,
an entropy decoding unit for decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded;
Inter-layer information is generated using the information of the first hierarchical picture, and information of the base inter-layer reference picture is improved using the information of the first hierarchical picture, the information of the base inter-layer reference picture, and the information of the second hierarchical picture. A reference picture in which inter-picture prediction of the second layer picture is generated by generating information of a reference picture, and using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture A prediction unit for generating a list,
The prediction unit converts the first inter-layer reference picture obtained by mapping the first layer picture size to the picture size of the second layer and the decoded temporal reference pictures of the first layer picture as the temporal reference picture of the second layer picture. Further create a second base inter-layer reference picture mapped to the size of
The prediction unit generates a differential picture between a reference picture of the second hierarchical picture and a second inter-layer reference picture, and the first hierarchical picture corresponding to a target block to be decoded of the differential picture and the second hierarchical picture. A third reference block obtained by performing motion compensation on the inter-layer corresponding block of the first base inter-layer reference picture corresponding to the target block is derived using the motion vector of the block of , and the third reference block and the layer Generate the improved inter-layer reference picture information by summing the inter-corresponding blocks,
The prediction unit determines whether a reference picture index of a temporal reference picture of the first hierarchical picture has a preset value,
and performing motion compensation using a motion interpolation filter on the target block and the inter-layer corresponding block when the reference picture index has the preset value.
복수의 계층을 지원하는 영상의 복호화 장치에 있어서,
복호화 대상이 되는 제2 계층 픽쳐가 참조할 수 있는 제1 계층 픽쳐의 정보를 복호화하는 엔트로피 복호화부와;
상기 제1 계층 픽쳐의 정보를 이용하여 기본 계층간 참조 픽쳐의 정보를 생성하고, 상기 제1 계층 픽쳐의 정보, 상기 기본 계층간 참조 픽쳐의 정보 및 제2 계층 픽쳐의 정보를 이용하여 향상된 계층간 참조 픽쳐의 정보를 생성하고, 상기 기본 계층간 참조 픽쳐의 정보, 상기 향상된 계층간 참조 픽쳐의 정보 및 상기 제2 계층 픽쳐의 정보를 이용하여 상기 제2 계층 픽쳐의 화면 간 예측이 사용되는 참조 픽쳐 리스트를 생성하는 예측부를 포함하고,
상기 예측부는 제1 계층 픽쳐 크기를 상기 제2 계층의 픽쳐 크기로 매핑(mapping)한 제1 기본 계층간 참조 픽쳐와 상기 제1 계층 픽쳐의 복호화된 시간 참조 픽쳐들을 제2 계층 픽쳐의 시간 참조 픽쳐의 크기로 매핑한 제2 기본 계층간 참조 픽쳐를 더 생성하고,
상기 예측부는 상기 제2 계층 픽쳐의 참조 픽쳐와 제2 기본 계층간 참조 픽쳐 간의 차분 픽쳐를 생성하고, 상기 차분 픽쳐 및 상기 제2 계층 픽쳐의 복호화 대상이 되는 대상 블록에 대응하는 상기 제1 계층 픽쳐의 블록의 움직임 벡터를 이용하여, 상기 대상블록에 대응하는 제1 기본 계층간 참조 픽쳐의 계층간 대응 블록에 대한 움직임 보상을 수행한 제3 참조 블록을 유도하고, 상기 제3 참조 블록과 상기 계층간 대응 블록을 합하여 상기 향상된 계층간 참조 픽쳐 정보를 생성하고,상기 예측부는 상기 제3 참조 블록을 유도할 때, 정수 화소 단위로 움직임 보상을 수행하는 것을 특징으로 하는 영상 복호화 장치.
In the video decoding apparatus supporting a plurality of layers,
an entropy decoding unit for decoding information on a first hierarchical picture that can be referenced by a second hierarchical picture to be decoded;
Inter-layer information is generated using the information of the first hierarchical picture, and information of the base inter-layer reference picture is improved using the information of the first hierarchical picture, the information of the base inter-layer reference picture, and the information of the second hierarchical picture. A reference picture in which inter-picture prediction of the second layer picture is generated by generating information of a reference picture, and using the information of the base inter-layer reference picture, the information of the enhanced inter-layer reference picture, and the information of the second layer picture A prediction unit for generating a list,
The prediction unit converts the first inter-layer reference picture obtained by mapping the first layer picture size to the picture size of the second layer and the decoded temporal reference pictures of the first layer picture as the temporal reference picture of the second layer picture. Further create a second base inter-layer reference picture mapped to the size of
The prediction unit generates a differential picture between a reference picture of the second hierarchical picture and a second inter-layer reference picture, and the first hierarchical picture corresponding to a target block to be decoded of the differential picture and the second hierarchical picture. A third reference block obtained by performing motion compensation on the inter-layer corresponding block of the first base inter-layer reference picture corresponding to the target block is derived using the motion vector of the block of , and the third reference block and the layer The image decoding apparatus of claim 1, wherein the improved inter-layer reference picture information is generated by summing inter-corresponding blocks, and the prediction unit performs motion compensation in units of integer pixels when deriving the third reference block.
KR1020140066011A 2013-07-08 2014-05-30 Video decoding method and apparatus using the same KR102325977B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/324,974 US20150010083A1 (en) 2013-07-08 2014-07-07 Video decoding method and apparatus using the same
KR1020210087838A KR20210088478A (en) 2013-07-08 2021-07-05 Video decoding method and apparatus using the same

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20130079804 2013-07-08
KR1020130079804 2013-07-08
KR1020130089259 2013-07-29
KR20130089259 2013-07-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210087838A Division KR20210088478A (en) 2013-07-08 2021-07-05 Video decoding method and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20150007205A KR20150007205A (en) 2015-01-20
KR102325977B1 true KR102325977B1 (en) 2021-11-15

Family

ID=52570257

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020140066011A KR102325977B1 (en) 2013-07-08 2014-05-30 Video decoding method and apparatus using the same
KR1020210087838A KR20210088478A (en) 2013-07-08 2021-07-05 Video decoding method and apparatus using the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210087838A KR20210088478A (en) 2013-07-08 2021-07-05 Video decoding method and apparatus using the same

Country Status (1)

Country Link
KR (2) KR102325977B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039936A1 (en) 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102176539B1 (en) * 2011-10-26 2020-11-10 인텔렉추얼디스커버리 주식회사 Method and apparatus for scalable video coding using intra prediction mode

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039936A1 (en) 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A. Aminlou, et al. Non-CE3: Enhanced inter layer reference picture for RefIdx based scalability. JCT-VC of ITU-T and ISO/IEC. JCTVC-M0155 Ver.4, Apr. 23, 2013, pp.1-6*
Y. He, et al. Non-SCE3: ILR enhancement with differential coding for RefIdx framework. JCT-VC of ITU-T and ISO/IEC. JCTVC-M0189 Ver.3, Apr. 15, 2013, pp.1-5*
Y. Ye, et al. ILR enhancement with differential coding for SHVC reference index framework. JCT-VC of ITU-T and ISO/IEC. JCTVC-N0204 Ver.3, Jul. 23, 2013, pp.1-6

Also Published As

Publication number Publication date
KR20210088478A (en) 2021-07-14
KR20150007205A (en) 2015-01-20

Similar Documents

Publication Publication Date Title
CN111869212B (en) Video decoding method, device and readable medium
KR102062821B1 (en) Method and apparatus for image encoding/decoding using prediction of filter information
KR102209109B1 (en) Method and apparatus for image encoding/decoding
KR20210068439A (en) Improvements to the history-based motion vector predictor
KR102271877B1 (en) Video encoding and decoding method and apparatus using the same
KR102517340B1 (en) Video decoding method and apparatus using the same
US11032559B2 (en) Video encoding and decoding method and apparatus using the same
KR20140016823A (en) Video decoding method and apparatus using the same
JP6526574B2 (en) Interlayer syntax prediction control
KR20130045784A (en) Method and apparatus for scalable video coding using inter prediction mode
CN113196745A (en) Video coding and decoding method and device
KR102045983B1 (en) Method and apparatus for encoding and decoding based on merge
KR101553514B1 (en) Image decoding method and apparatus using same
WO2012044093A2 (en) Method and apparatus for video-encoding/decoding using filter information prediction
KR101561461B1 (en) Video encoding and decoding method and apparatus using the same
KR102356481B1 (en) Method and Apparatus for Video Encoding and Video Decoding
KR102325977B1 (en) Video decoding method and apparatus using the same
KR102602633B1 (en) Method and apparatus for image encoding/decoding
KR102400485B1 (en) Video decoding method and apparatus using the same
KR102334374B1 (en) Method and apparatus for image encoding/decoding
KR102271878B1 (en) Video encoding and decoding method and apparatus using the same
KR102219841B1 (en) Method and Apparatus for Video Encoding and Video Decoding
US20150010083A1 (en) Video decoding method and apparatus using the same
KR20140081682A (en) Method and apparatus for image encoding/decoding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
A107 Divisional application of patent
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant