KR102475242B1 - Method and apparatus for scalable video coding using intra prediction mode - Google Patents

Method and apparatus for scalable video coding using intra prediction mode Download PDF

Info

Publication number
KR102475242B1
KR102475242B1 KR1020220103812A KR20220103812A KR102475242B1 KR 102475242 B1 KR102475242 B1 KR 102475242B1 KR 1020220103812 A KR1020220103812 A KR 1020220103812A KR 20220103812 A KR20220103812 A KR 20220103812A KR 102475242 B1 KR102475242 B1 KR 102475242B1
Authority
KR
South Korea
Prior art keywords
block
layer
intra prediction
enhancement layer
unit
Prior art date
Application number
KR1020220103812A
Other languages
Korean (ko)
Other versions
KR20220121231A (en
Inventor
심동규
남정학
조현호
최효민
Original Assignee
돌비 레버러토리즈 라이쎈싱 코오포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 돌비 레버러토리즈 라이쎈싱 코오포레이션 filed Critical 돌비 레버러토리즈 라이쎈싱 코오포레이션
Publication of KR20220121231A publication Critical patent/KR20220121231A/en
Priority to KR1020220166484A priority Critical patent/KR102508989B1/en
Application granted granted Critical
Publication of KR102475242B1 publication Critical patent/KR102475242B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 인트라 예측 모드를 이용한 스케일러블 비디오 코딩 방법 및 장치에 관한 것이다. 복호화 방법은 향상 계층(enhancement layer)의 복호화 대상 블록에 대한 인트라 예측 모드(intra prediction mode)를 예측하기 위한 최대 확률 모드 집합을 참조 계층(reference layer)의 대응되는 블록에 대한 인트라 예측 모드를 포함하도록 구성하는 단계; 및 최대 확률 모드 집합에 포함된 인트라 예측 모드들 중 어느 하나를 사용하여 향상 계층의 복호화 대상 블록을 복원하는 단계를 포함한다.The present invention relates to a scalable video coding method and apparatus using an intra prediction mode. The decoding method is such that a set of maximum probability modes for predicting an intra prediction mode for a block to be decoded in an enhancement layer includes an intra prediction mode for a corresponding block in a reference layer. constructing; and restoring the decoding target block of the enhancement layer using one of intra prediction modes included in the maximum probability mode set.

Description

인트라 예측 모드 스케일러블 코딩 방법 및 장치 {METHOD AND APPARATUS FOR SCALABLE VIDEO CODING USING INTRA PREDICTION MODE}Intra prediction mode scalable coding method and apparatus {METHOD AND APPARATUS FOR SCALABLE VIDEO CODING USING INTRA PREDICTION MODE}

본 발명은 영상 처리 기술에 관한 것으로써, 보다 상세하게는 영상을 부호화/복호화하는 스케일러블 비디오 코딩 방법 및 장치에 관한 것이다.The present invention relates to image processing technology, and more particularly, to a scalable video coding method and apparatus for encoding/decoding an image.

최근 HD(High Definition) 해상도(1280x720 혹은 1920x1080)를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있으며 이에 따라 많은 기관들이 차세대 영상기기에 대한 개발에 박차를 가하고 있다. 또한, HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 동영상 표준화 단체들은 보다 높은 해상도, 고화질의 영상에 대한 압축기술의 필요성을 인식하게 되었다. 또한, 현재 HDTV, 휴대전화 등에 사용되는 동영상 압축 부호화 표준인 H.264/AVC(Advanced Video Coding)보다 높은 압축 효율을 통해, 기존 부호화 방식과 동일한 화질을 제공하면서도 주파수 대역이나 저장 측면에서 많은 이득을 제공할 수 있는 새로운 표준이 요구되고 있다. 현재 MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)은 공동으로 차세대 비디오 코덱인 HEVC(High Efficiency Video Coding)에 대한 표준화 작업을 진행하고 있다. HEVC의 개략적인 목표는 UHD 영상까지 포함한 영상을 H.264/AVC 대비 2배의 압축효율로 부호화하는 것이다. HEVC는 HD, UHD 영상뿐만 아니라 3D 방송 및 이동통신망에서도 현재보다 낮은 주파수로 고화질의 영상을 제공할 수 있다.Recently, as broadcasting services with HD (High Definition) resolution (1280x720 or 1920x1080) are expanding not only domestically but also globally, many users are getting used to high-resolution and high-definition images, and many organizations are spurring the development of next-generation video equipment. is applying In addition, as interest in UHD (Ultra High Definition), which has a resolution four times higher than that of HDTV, has increased along with HDTV, video standardization organizations have recognized the need for compression technology for higher resolution and higher quality images. In addition, through higher compression efficiency than H.264/AVC (Advanced Video Coding), a video compression coding standard currently used for HDTVs and mobile phones, it provides the same picture quality as the existing coding method, while providing many gains in terms of frequency band and storage. A new standard that can provide is required. Currently, Moving Picture Experts Group (MPEG) and Video Coding Experts Group (VCEG) are jointly working on standardization for High Efficiency Video Coding (HEVC), a next-generation video codec. The general goal of HEVC is to encode video, including UHD video, with twice the compression efficiency compared to H.264/AVC. HEVC can provide not only HD and UHD video, but also high-definition video at a lower frequency than the present in 3D broadcasting and mobile communication networks.

HEVC에서는 공간적 또는 시간적으로 영상에 대한 예측(prediction)이 수행되어 예측 영상이 생성될 수 있으며 원본 영상과 예측 영상과의 차이가 부호화될 수 있다. 이러한 예측 부호화에 의해 영상 부호화의 효율이 높아질 수 있다.In HEVC, a predicted image may be generated by spatially or temporally predicting an image, and a difference between an original image and a predicted image may be encoded. Efficiency of video encoding can be increased by such predictive encoding.

본 발명은 부호화/복호화 효율을 향상시킬 수 있는 스케일러블 비디오 코딩 방법 및 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a scalable video coding method and apparatus capable of improving coding/decoding efficiency.

상기 과제를 해결하기 위한 본 발명의 일실시예에 따른 스케일러블 비디오 복호화 방법은, 향상 계층(enhancement layer)의 복호화 대상 블록에 대한 인트라 예측 모드(intra prediction mode)를 예측하기 위한 최대 확률 모드 집합을 참조 계층(reference layer)의 대응되는 블록에 대한 인트라 예측 모드를 포함하도록 구성하는 단계; 및 상기 최대 확률 모드 집합에 포함된 인트라 예측 모드들 중 어느 하나를 사용하여 상기 향상 계층의 복호화 대상 블록을 복원하는 단계를 포함한다.In order to solve the above problem, a scalable video decoding method according to an embodiment of the present invention uses a maximum probability mode set for predicting an intra prediction mode for a decoding target block of an enhancement layer. configuring to include an intra prediction mode for a corresponding block of a reference layer; and restoring the decoding target block of the enhancement layer using one of intra prediction modes included in the maximum probability mode set.

본 발명의 일실시예에 따른 스케일러블 비디오 복호화 장치는, 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드를 예측하기 위한 최대 확률 모드 집합을 참조 계층의 대응되는 블록에 대한 인트라 예측 모드를 포함하도록 구성하는 모드 집합 구성부; 및 상기 최대 확률 모드 집합에 포함된 인트라 예측 모드들 중 어느 하나를 상기 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드로 선택하는 모드 선택부를 포함한다. A scalable video decoding apparatus according to an embodiment of the present invention is configured such that a maximum probability mode set for predicting an intra prediction mode for a decoding target block of an enhancement layer includes an intra prediction mode for a corresponding block of a reference layer. a mode set construction unit that does; and a mode selector selecting one of the intra prediction modes included in the maximum probability mode set as an intra prediction mode for a decoding object block of the enhancement layer.

본 발명의 일실시예에 따르면, 향상 계층의 인트라 예측 모드를 예측하기 위한 최대 확률 모드 집합을 참조 계층의 대응되는 블록에 대한 인트라 예측 모드를 포함하도록 구성함으로써, 부호화 및 복호화에 필요한 비트 수를 감소시켜 코딩 효율을 높일 수 있으며, 그에 따라 동일 비트율에서 보다 향상된 화질을 제공할 수 있다.According to an embodiment of the present invention, the maximum probability mode set for predicting the intra prediction mode of the enhancement layer is configured to include the intra prediction mode for the corresponding block of the reference layer, thereby reducing the number of bits required for encoding and decoding. Thus, coding efficiency can be increased, and thus, more improved picture quality can be provided at the same bit rate.

또한, 본 발명의 또 다른 실시예에 따르면, 향상 계층과 참조 계층에서 복원된 주변 픽셀 값들에 따라 구해진 상관 파라미터를 이용해 참조 계층의 대응되는 블록의 픽셀 값들을 보정하여 향상 계층의 복호화 대상 블록에 대한 예측 신호로 사용함으로써, 코딩 효율을 향상시킬 수 있다.In addition, according to another embodiment of the present invention, pixel values of a block corresponding to the reference layer are corrected using a correlation parameter obtained according to neighboring pixel values reconstructed in the enhancement layer and the reference layer, thereby determining the target block for decoding of the enhancement layer. By using it as a prediction signal, coding efficiency can be improved.

도 1은 본 발명이 적용되는 영상 부호화 장치의 일실시예에 따른 구성을 나타내는 블록도이다.
도 2는 본 발명이 적용되는 영상 복호화 장치의 일실시예에 따른 구성을 나타내는 블록도이다.
도 3은 본 발명의 일실시예에서 사용되는 인트라 예측 모드들을 나타내는 개념도이다.
도 4는 복수 계층 기반의 스케일러블 비디오 코딩 구조에 대한 일실시예를 개략적으로 나타내는 개념도이다.
도 5는 도 2에 도시된 인트라 예측부의 구성에 대한 제1 실시예를 나타내는 블록도이다.
도 6은 본 발명의 제1 실시예에 따른 스케일러블 비디오 코딩 방법을 나타내는 흐름도이다.
도 7은 계층 간 인트라 예측 방법에 대한 제1 실시예를 설명하기 위한 도면이다.
도 8은 블록 크기에 따라 선택 가능한 인트라 예측 모드들의 개수에 대한 일실시예를 나타내는 표이다.
도 9는 본 발명의 제2 실시예에 따른 스케일러블 비디오 코딩 방법을 나타내는 흐름도이다.
도 10은 본 발명의 제3 실시예에 따른 스케일러블 비디오 코딩 방법을 나타내는 흐름도이다.
도 11은 도 2에 도시된 인트라 예측부의 구성에 대한 제2 실시예를 나타내는 블록도이다.
도 12는 본 발명의 제4 실시예에 따른 스케일러블 비디오 코딩 방법을 나타내는 흐름도이다.
도 13은 계층 간 인트라 예측 방법에 대한 제2 실시예를 설명하기 위한 도면이다.
도 14는 향상 계층과 참조 계층의 블록 크기에 따라 향상 계층에서 추가적으로 선택 가능한 인트라 예측 모드에 대한 일실시예를 나타내는 표이다.
1 is a block diagram showing a configuration according to an embodiment of an image encoding apparatus to which the present invention is applied.
2 is a block diagram showing a configuration according to an embodiment of a video decoding apparatus to which the present invention is applied.
3 is a conceptual diagram illustrating intra prediction modes used in an embodiment of the present invention.
4 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure based on multiple layers.
FIG. 5 is a block diagram illustrating a first embodiment of a configuration of an intra prediction unit shown in FIG. 2 .
6 is a flowchart illustrating a scalable video coding method according to the first embodiment of the present invention.
7 is a diagram for explaining a first embodiment of an inter-layer intra prediction method.
8 is a table showing an embodiment of the number of selectable intra prediction modes according to the block size.
9 is a flowchart illustrating a scalable video coding method according to a second embodiment of the present invention.
10 is a flowchart illustrating a scalable video coding method according to a third embodiment of the present invention.
FIG. 11 is a block diagram illustrating a second embodiment of the configuration of an intra prediction unit shown in FIG. 2 .
12 is a flowchart illustrating a scalable video coding method according to a fourth embodiment of the present invention.
13 is a diagram for explaining a second embodiment of an inter-layer intra prediction method.
14 is a table showing an embodiment of intra prediction modes additionally selectable in the enhancement layer according to block sizes of the enhancement layer and the reference layer.

이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described concretely with reference to drawings. In describing the embodiments of the present specification, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present specification, the detailed description thereof will be omitted.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. It is understood that when a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. In addition, the description of "including" a specific configuration in the present invention does not exclude configurations other than the corresponding configuration, and means that additional configurations may be included in the practice of the present invention or the scope of the technical spirit of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

또한, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components appearing in the embodiments of the present invention are shown independently to represent different characteristic functions, and it does not mean that each component is made of separate hardware or a single software component unit. That is, each component is listed and included as each component for convenience of explanation, and at least two components of each component can be combined to form a single component, or one component can be divided into a plurality of components to perform a function, and each of these components can be divided into a plurality of components. Integrated embodiments and separated embodiments of components are also included in the scope of the present invention as long as they do not depart from the essence of the present invention.

또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components may be optional components for improving performance rather than essential components that perform essential functions in the present invention. The present invention can be implemented by including only components essential to implement the essence of the present invention, excluding components used for performance improvement, and a structure including only essential components excluding optional components used for performance improvement. Also included in the scope of the present invention.

도 1은 본 발명이 적용되는 영상 부호화 장치의 일실시예에 따른 구성을 나타내는 블록도이다.1 is a block diagram showing a configuration according to an embodiment of an image encoding apparatus to which the present invention is applied.

도 1을 참조하면, 상기 영상 부호화 장치(100)는 움직임 예측부(111), 움직임 보상부(112), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조영상 버퍼(190)를 포함한다. Referring to FIG. 1 , the video encoding apparatus 100 includes a motion estimation unit 111, a motion compensation unit 112, an intra prediction unit 120, a switch 115, a subtractor 125, and a transform unit 130. , a quantization unit 140, an entropy encoding unit 150, an inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a reference image buffer 190.

영상 부호화 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트스트림을 출력한다. 인트라 예측은 화면 내 예측, 인터 예측은 화면 간 예측을 의미한다. 인트라 모드인 경우 스위치(115)가 인트라로 전환되고, 인터 모드인 경우 스위치(115)가 인터로 전환된다. 영상 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성한 후, 입력 블록과 예측 블록의 차분을 부호화한다.The image encoding apparatus 100 encodes an input image in an intra mode or an inter mode and outputs a bitstream. Intra prediction means prediction within a picture, and inter prediction means prediction between pictures. In the intra mode, the switch 115 is switched to intra, and in the inter mode, the switch 115 is switched to inter. After generating a prediction block for an input block of an input image, the image encoding apparatus 100 encodes a difference between the input block and the prediction block.

인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성한다.In the case of the intra mode, the intra prediction unit 120 generates a prediction block by performing spatial prediction using pixel values of previously encoded blocks adjacent to the current block.

인터 모드인 경우, 움직임 예측부(111)는, 움직임 예측 과정에서 참조 영상 버퍼(190)에 저장되어 있는 참조 영상에서 입력 블록과 가장 매치가 잘 되는 영역을 찾아 움직임 벡터를 구한다. 움직임 보상부(112)는 움직임 벡터를 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성한다.In the case of the inter mode, the motion estimation unit 111 finds a region that best matches the input block in the reference image stored in the reference image buffer 190 in the motion estimation process and obtains a motion vector. The motion compensation unit 112 generates a prediction block by performing motion compensation using a motion vector.

감산기(125)는 입력 블록과 생성된 예측 블록의 차분에 의해 잔여 블록(residual block)을 생성한다. 변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력한다. 그리고 양자화부(140)는 입력된 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력한다. 엔트로피 부호화부(150)는 입력된 양자화된 계수를 확률 분포에 따라 엔트로피 부호화하여 비트스트림(bit stream)을 출력한다.The subtractor 125 generates a residual block by the difference between the input block and the generated prediction block. The transform unit 130 performs transform on the residual block and outputs a transform coefficient. The quantization unit 140 quantizes the input transform coefficient according to a quantization parameter and outputs a quantized coefficient. The entropy encoding unit 150 entropy-codes the input quantized coefficients according to a probability distribution and outputs a bit stream.

HEVC는 인터 예측 부호화, 즉 화면 간 예측 부호화를 수행하므로, 현재 부호화된 영상은 참조 영상으로 사용되기 위해 복호화되어 저장될 필요가 있다. 따라서 양자화된 계수는 역양자화부(160)에서 역양자화되고 역변환부(170)에서 역변환된다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성된다. Since HEVC performs inter-prediction encoding, that is, inter-prediction encoding, a currently encoded image needs to be decoded and stored in order to be used as a reference image. Therefore, the quantized coefficient is inversely quantized in the inverse quantization unit 160 and inversely transformed in the inverse transformation unit 170. The inverse quantized and inverse transformed coefficients are added to the prediction block through an adder 175, and a reconstructed block is generated.

복원 블록은 필터부(180)를 거치고, 필터부(180)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(180)는 적응적 인루프(in-loop) 필터로 불릴 수도 있다. 디블록킹 필터는 블록 간의 경계에 생긴 블록 왜곡을 제거할 수 있다. SAO는 코딩 에러를 보상하기 위해 화소값에 적정 오프셋(offset) 값을 더해줄 수 있다. ALF는 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있으며, 고효율이 적용되는 경우에만 수행될 수도 있다. 필터부(180)를 거친 복원 블록은 참조 영상 버퍼(190)에 저장된다.The reconstructed block passes through a filter unit 180, and the filter unit 180 applies at least one of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstructed block or the reconstructed picture. can do. The filter unit 180 may also be called an adaptive in-loop filter. The deblocking filter may remove block distortion generated at a boundary between blocks. SAO may add an appropriate offset value to a pixel value to compensate for a coding error. ALF may perform filtering based on a value obtained by comparing a reconstructed image with an original image, and may be performed only when high efficiency is applied. A reconstructed block that has passed through the filter unit 180 is stored in the reference image buffer 190 .

도 2는 본 발명이 적용되는 영상 복호화 장치의 일실시예에 따른 구성을 나타내는 블록도이다.2 is a block diagram showing a configuration according to an embodiment of a video decoding apparatus to which the present invention is applied.

도 2를 참조하면, 상기 영상 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 및 참조 영상 버퍼(270)를 포함한다.Referring to FIG. 2 , the image decoding apparatus 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, a motion compensation unit 250, and a filter unit. 260 and a reference image buffer 270.

영상 복호화 장치(200)는 부호화기에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력한다. 인트라 모드인 경우 스위치가 인트라로 전환되고, 인터 모드인 경우 스위치가 인터로 전환된다. 영상 복호화 장치(200)는 입력 받은 비트스트림으로부터 잔여 블록(residual block)을 얻고 예측 블록을 생성한 후 잔여 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성한다.The image decoding apparatus 200 receives the bitstream output from the encoder, performs decoding in an intra mode or inter mode, and outputs a reconstructed image, that is, a reconstructed image. In the intra mode, the switch is converted to intra, and in the case of inter mode, the switch is converted to inter. The image decoding apparatus 200 obtains a residual block from the input bitstream, generates a prediction block, and then adds the residual block and the prediction block to generate a reconstructed block, that is, a reconstructed block.

엔트로피 복호화부(210)는 입력된 비트스트림을 확률 분포에 따라 엔트로피 복호화하여 양자화된 계수(quantized coefficient)를 출력한다. 양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환되며, 양자화된 계수가 역양자화/역변환 된 결과, 잔여 블록(residual block)이 생성된다. The entropy decoding unit 210 entropy-decodes the input bitstream according to a probability distribution and outputs a quantized coefficient. The quantized coefficients are inversely quantized in the inverse quantization unit 220 and inversely transformed in the inverse transform unit 230, and as a result of the inverse quantization/inverse transformation of the quantized coefficients, a residual block is generated.

인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성한다. In the intra mode, the intra predictor 240 generates a prediction block by performing spatial prediction using pixel values of previously encoded blocks adjacent to the current block.

인터 모드인 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 영상 버퍼(270)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성한다. In the case of the inter mode, the motion compensation unit 250 generates a prediction block by performing motion compensation using a motion vector and a reference image stored in the reference image buffer 270 .

잔여 블록과 예측 블록은 가산기(255)를 통해 더해지고, 더해진 블록은 필터부(260)를 거친다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(260)는 재구성된 영상, 즉 복원 영상을 출력한다. 복원 영상은 참조 영상 버퍼(270)에 저장되어 화면 간 예측에 사용될 수 있다.The residual block and the prediction block are added through the adder 255, and the added block passes through the filter unit 260. The filter unit 260 may apply at least one of a deblocking filter, SAO, and ALF to a reconstructed block or a reconstructed picture. The filter unit 260 outputs a reconstructed image, that is, a restored image. The reconstructed image may be stored in the reference image buffer 270 and used for inter prediction.

*부호화/복호화 장치의 예측 성능을 향상시키기 위한 방법에는 보간(interpolation) 영상의 정확도를 높이는 방법과 차신호를 예측하는 방법이 있다. 여기서 차신호란 원본 영상과 예측 영상과의 차이를 나타내는 신호이다. 본 발명에서 "차신호"는 문맥에 따라 "차분 신호", "잔여 블록" 또는 "차분 블록"으로 대체되어 사용될 수 있으며, 해당 기술분야에서 통상의 지식을 가진 자는 발명의 사상, 본질에 영향을 주지 않는 범위 내에서 이를 구분할 수 있을 것이다.* Methods for improving the prediction performance of the encoding/decoding device include a method of increasing the accuracy of an interpolation image and a method of predicting a difference signal. Here, the difference signal is a signal indicating a difference between the original image and the predicted image. In the present invention, "difference signal" may be replaced with "difference signal", "residual block" or "difference block" depending on the context, and those skilled in the art may affect the spirit and essence of the invention. You will be able to distinguish them within the range not given.

보간 영상의 정확도가 높아져도 차신호는 발생할 수 밖에 없다. 따라서 차신호 예측의 성능을 향상시켜 부호화될 차신호를 최대한 줄임으로써 부호화 성능을 향상시킬 필요가 있다.Even if the accuracy of the interpolation image is increased, a difference signal is inevitable. Therefore, it is necessary to improve the encoding performance by reducing the difference signal to be encoded as much as possible by improving the performance of prediction of the difference signal.

차신호 예측 방법으로는 고정된 필터 계수를 이용한 필터링 방법이 사용될 수 있다. 그러나, 이러한 필터링 방법은 영상 특성에 따라 적응적으로 필터 계수가 사용될 수 없으므로, 예측 성능에 한계가 있다. 따라서 예측 블록마다 그 특성에 맞게 필터링이 수행되도록 함으로써 예측의 정확도를 향상시킬 필요가 있다.A filtering method using a fixed filter coefficient may be used as a difference signal prediction method. However, this filtering method has limitations in prediction performance because filter coefficients cannot be used adaptively according to image characteristics. Therefore, it is necessary to improve prediction accuracy by performing filtering according to the characteristics of each prediction block.

한편, 부호화 대상 블록은 현재 부호화 대상 영상 내의 공간적으로 연결된 화소들의 집합이다. 부호화 대상 블록은 부호화 및 복호화가 이루어지는 단위이며, 사각형 또는 임의의 모양일 수 있다. 주변 복원 블록은 현재 부호화 대상 영상 내에서 현재 부호화 대상 블록이 부호화되기 이전에 부호화 및 복호화가 완료된 블록이다.Meanwhile, the encoding object block is a set of spatially connected pixels in the current encoding object image. The encoding target block is a unit in which encoding and decoding is performed, and may have a rectangular shape or an arbitrary shape. The neighboring reconstruction block is a block that has been encoded and decoded before the current encoding target block is encoded in the current encoding target image.

예측 영상은 현재 부호화 대상 영상 내에서, 영상의 첫 번째 부호화 대상 블록에서부터 현재 부호화 대상 블록까지, 각 블록의 부호화에 사용되는 예측 블록을 모아놓은 영상이다. 여기서 예측 블록이란, 현재 부호화 대상 영상 내에서 각 부호화 대상 블록들의 부호화에 사용되는 예측 신호를 가지는 블록을 말한다. 즉, 예측 블록은 예측 영상 내에 있는 각각의 블록을 말한다. The predicted image is an image in which prediction blocks used for encoding each block from the first encoding target block of the image to the current encoding target block are collected in the current encoding target image. Here, the prediction block refers to a block having a prediction signal used for encoding each encoding target block in the current encoding target image. That is, a prediction block refers to each block in a prediction image.

주변 블록은 현재 부호화 대상 블록의 주변 복원 블록 및 각 주변 복원 블록의 예측 블록인 주변 예측 블록을 의미한다. 즉, 주변 블록은 주변 복원 블록과 주변 예측 블록을 함께 지칭한다.A neighboring block means a neighboring reconstruction block of a current encoding target block and a neighboring prediction block that is a prediction block of each neighboring reconstruction block. That is, a neighboring block refers to both a neighboring reconstruction block and a neighboring prediction block.

현재 부호화 대상 블록의 예측 블록은 도 1의 실시예에 따라 움직임 보상부(112) 또는 인트라 예측부(120)에서 생성된 예측 블록일 수 있다. 이 경우, 움직임 보상부(112) 또는 인트라 예측부(120)에서 생성된 예측 블록에 대한 예측 블록 필터링 과정이 수행된 후, 감산기(125)는 필터링된 최종 예측 블록과 원 블록의 차분을 수행할 수 있다.The prediction block of the current encoding object block may be a prediction block generated by the motion compensation unit 112 or the intra prediction unit 120 according to the embodiment of FIG. 1 . In this case, after the prediction block filtering process is performed on the prediction block generated by the motion compensation unit 112 or the intra prediction unit 120, the subtractor 125 performs the difference between the filtered final prediction block and the original block. can

주변 블록은 도 1의 실시예에서의 참조 영상 버퍼(190) 또는 별도의 메모리에 저장된 블록일 수 있다. 또한, 영상 부호화 과정에서 생성된 주변 복원 블록 또는 주변 예측 블록이 그대로 주변 블록으로 사용될 수도 있다.The neighboring block may be a block stored in the reference image buffer 190 in the embodiment of FIG. 1 or a separate memory. In addition, a neighboring reconstruction block or a neighboring prediction block generated in an image encoding process may be used as a neighboring block.

도 3은 본 발명의 일실시예에서 사용되는 인트라 예측 모드들을 나타내는 개념도이다.3 is a conceptual diagram illustrating intra prediction modes used in an embodiment of the present invention.

도 3을 참조하면, 부호화 유닛(CU)의 블록 크기에 따라 서로 다른 개수의 선택 가능한 인트라 예측 모드들이 존재할 수 있다.Referring to FIG. 3 , a different number of selectable intra prediction modes may exist according to a block size of a coding unit (CU).

즉, 상기 부호화 유닛(CU)의 크기에 따라 서로 다른 개수의 인트라 예측 모드를 사용함으로써, 부호화(또는 복호화) 대상 블록의 크기에 따라 인트라 예측 방향을 정하여 효율적인 인트라 예측이 수행될 수 있다.That is, by using different numbers of intra prediction modes according to the size of the coding unit (CU), efficient intra prediction can be performed by determining an intra prediction direction according to the size of a block to be encoded (or decoded).

예를 들어, H.264/AVC의 경우, 4x4 휘도 블록에 대해 9개의 선택 가능한 인트라 예측 모드들이 존재하고, 16x16 휘도 블록과 색차 성분에 대해서는 4개의 선택 가능한 인트라 예측 모드들이 존재한다.For example, in the case of H.264/AVC, there are 9 selectable intra prediction modes for a 4x4 luma block and 4 selectable intra prediction modes for a 16x16 luma block and chrominance component.

한편, HEVC의 경우, 4x4 휘도 블록에 대해 18개, 8x8/16x16/32x32 휘도 블록에 대해서는 35개, 그리고 64x64 휘도 블록에 대해서는 4개의 선택 가능한 인트라 예측 모드들이 존재할 수 있다.Meanwhile, in the case of HEVC, there may be 18 selectable intra prediction modes for a 4x4 luma block, 35 for an 8x8/16x16/32x32 luma block, and 4 selectable intra prediction modes for a 64x64 luma block.

상기 35개의 선택 가능한 인트라 예측 모드들은 각각 도 3에 도시된 바와 같은 방향 및 모드 값을 가질 수 있으며, 4x4 휘도 블록과 64x64 휘도 블록에 대해서는 도 3에 도시된 35개의 인트라 예측 모드들 중 일부가 선택 가능할 수 있다.Each of the 35 selectable intra prediction modes may have direction and mode values as shown in FIG. 3, and some of the 35 intra prediction modes shown in FIG. 3 are selected for a 4x4 luma block and a 64x64 luma block. It could be possible.

부호화 장치(100)는 상기 부호화 유닛(CU)의 블록 크기에 따른 선택 가능한 인트라 예측 모드들 중에서 예측 블록과 부호화 대상 블록 사이의 차이를 최소화하는 예측 모드를 선택하고, 상기 선택된 인트라 예측 모드를 복호화 장치(200)에 알리기 위해 인트라 예측 모드 신호를 시그널링 할 수 있다.The encoding apparatus 100 selects a prediction mode that minimizes a difference between a prediction block and an encoding target block among selectable intra prediction modes according to the block size of the coding unit (CU), and decodes the selected intra prediction mode. In order to notify 200, an intra prediction mode signal may be signaled.

또한, 부호화 대상 블록과 그 주변 블록들은 상기 인트라 예측 모드가 서로 연관성이 있을 수 있으므로, 상기 부호화 대상 블록의 인트라 예측 모드를 주변 블록들(예를 들어, 좌측 블록과 상측 블록)의 인트라 예측 모드들을 이용해 예측하여 복호화 장치로 시그널링할 수 있다.In addition, since the intra prediction modes of the encoding object block and its neighboring blocks may be correlated with each other, the intra prediction mode of the encoding object block is set to the intra prediction modes of the neighboring blocks (eg, the left block and the upper block). It can be predicted and signaled to the decoding device.

도 4는 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일실시예를 개략적으로 나타내는 개념도이다. 도 4에서 GOP(Group of Picture)는 픽쳐군 즉, 픽쳐의 그룹을 나타낸다.4 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using multiple layers to which the present invention can be applied. In FIG. 4, a group of pictures (GOP) represents a picture group, that is, a group of pictures.

영상 데이터를 전송하기 위해서는 전송 매체가 필요하며, 그 성능은 다양한 네트워크 환경에 따라 전송 매체별로 차이가 있다. 이러한 다양한 전송 매체 또는 네트워크 환경에의 적용을 위해 스케일러블 비디오 코딩 방법이 제공될 수 있다.In order to transmit image data, a transmission medium is required, and its performance varies depending on the transmission medium according to various network environments. A scalable video coding method may be provided for application to such various transmission media or network environments.

스케일러블 비디오 코딩 방법은 계층(layer) 간의 텍스쳐 정보, 움직임 정보, 잔여 신호 등을 활용하여 계층 간 중복성을 제거하여 부호화/복호화 성능을 높이는 코딩 방법이다. 스케일러블 비디오 코딩 방법은, 전송 비트율, 전송 에러율, 시스템 자원 등의 주변 조건에 따라, 공간적, 시간적, 화질적 관점에서 다양한 스케일러빌리티를 제공할 수 있다.A scalable video coding method is a coding method that improves encoding/decoding performance by removing redundancy between layers by utilizing texture information, motion information, residual signals, etc. between layers. The scalable video coding method can provide various scalability in terms of space, time, and quality according to surrounding conditions such as transmission bit rate, transmission error rate, and system resources.

스케일러블 비디오 코딩은, 다양한 네트워크 상황에 적용 가능한 비트스트림을 제공할 수 있도록, 복수 계층(multiple layers) 구조를 사용하여 수행될 수 있다. 예를 들어 스케일러블 비디오 코딩 구조는, 일반적인 영상 부호화 방법을 이용하여 영상 데이터를 압축하여 처리하는 기초 계층을 포함할 수 있고, 기초 계층의 부호화 정보 및 일반적인 영상 부호화 방법을 함께 사용하여 영상 데이터를 압축 처리하는 향상 계층을 포함할 수 있다.Scalable video coding may be performed using a multiple layer structure to provide a bitstream applicable to various network conditions. For example, the scalable video coding structure may include a base layer that compresses and processes image data using a general image encoding method, and compresses the image data using both encoding information of the base layer and a general image encoding method. An enhancement layer for processing may be included.

여기서, 계층(layer)은 공간(예를 들어, 영상 크기), 시간(예를 들어, 부호화 순서, 영상 출력 순서), 화질, 복잡도 등을 기준으로 구분되는 영상 및 비트스트림(bitstream)의 집합을 의미한다. 또한, 복수의 계층들은 서로 간에 종속성을 가질 수도 있다.Here, the layer is a set of images and bitstreams classified on the basis of space (eg, video size), time (eg, encoding order, video output order), quality, complexity, and the like. it means. Also, a plurality of layers may have dependencies on each other.

도 4를 참조하면, 예를 들어 기초 계층(base layer)은 QCIF(Quarter Common Intermediate Format), 15Hz의 프레임율, 3Mbps 비트율로 정의될 수 있고, 제1 향상 계층(enhanced layer)은 CIF(Common Intermediate Format), 30Hz의 프레임율, 0.7Mbps 비트율로 정의될 수 있으며, 제2 향상 계층은 SD(Standard Definition), 60Hz의 프레임율, 0.19Mbps 비트율로 정의될 수 있다. 상기 포맷(format), 프레임율, 비트율 등은 하나의 실시예로서, 필요에 따라 달리 정해질 수 있다. 또한, 사용되는 계층의 수도 본 실시예에 한정되지 않고 상황에 따라 달리 정해질 수 있다. Referring to FIG. 4, for example, a base layer may be defined as a Quarter Common Intermediate Format (QCIF), a frame rate of 15 Hz, and a bit rate of 3 Mbps, and a first enhanced layer may be defined as a Common Intermediate Format (CIF). Format), a frame rate of 30 Hz, and a bit rate of 0.7 Mbps, and the second enhancement layer may be defined as Standard Definition (SD), a frame rate of 60 Hz, and a bit rate of 0.19 Mbps. The format, frame rate, bit rate, etc. are one embodiment and may be determined differently as needed. Also, the number of layers used is not limited to the present embodiment and may be determined differently according to circumstances.

이 때, 만일 CIF 0.5Mbps 비트스트림(bit stream)이 필요하다면, 제1 향상 계층에서 비트율이 0.5Mbp가 되도록 비트스트림이 잘려서 전송될 수 있다. 스케일러블 비디오 코딩 방법은 상기 도 3의 실시예에서 상술한 방법에 의해 시간적, 공간적, 화질적 스케일러빌리티를 제공할 수 있다.At this time, if a CIF 0.5 Mbps bit stream is required, the bit stream may be cut and transmitted so that the bit rate becomes 0.5 Mbps in the first enhancement layer. The scalable video coding method can provide temporal, spatial, and quality scalability by the method described above in the embodiment of FIG. 3 .

이하, 대상 계층, 대상 영상, 대상 슬라이스, 대상 유닛, 대상 블록, 대상 심볼, 대상 빈은 각각 현재 부호화 또는 복호화되는 계층, 영상, 슬라이스, 유닛, 블록, 심볼 및 빈을 의미한다. 따라서 예를 들어, 대상 계층은 대상 심볼이 속한 계층일 수 있다. 또한, 다른 계층은 대상 계층을 제외한 계층으로서, 대상 계층에서 이용 가능한 계층을 의미한다. 즉, 다른 계층은 대상 계층에서의 복호화 수행에 이용될 수 있다. 대상 계층에서 이용 가능한 계층에는 예를 들어, 시간적, 공간적, 화질적 하위 계층이 있을 수 있다.Hereinafter, target layer, target image, target slice, target unit, target block, target symbol, and target bin refer to a layer, image, slice, unit, block, symbol, and bin currently encoded or decoded, respectively. Thus, for example, the target layer may be a layer to which the target symbol belongs. In addition, the other layer is a layer other than the target layer, and means a layer available in the target layer. That is, other layers may be used to perform decoding in the target layer. Layers usable in the target layer may include, for example, temporal, spatial, and quality sublayers.

또한 이하, 대응 계층, 대응 영상, 대응 슬라이스, 대응 유닛, 대응 블록, 대응 심볼, 대응 빈은 각각 대상 계층, 대상 영상, 대상 슬라이스, 대상 유닛, 대상 블록, 대상 심볼, 대상 빈에 대응되는 계층, 영상, 슬라이스, 유닛, 블록, 심볼 및 빈을 의미한다. 대응 영상이란, 대상 영상과 동일한 시간축에 존재하는 다른 계층의 영상을 의미한다. 대상 계층 내의 영상과 다른 계층 내의 영상의 디스플레이 순서(display order)가 동일하면, 대상 계층 내의 영상과 다른 계층 내의 영상은 동일한 시간축에 존재한다고 할 수 있다. 영상들이 동일한 시간축에 존재하는 지 여부는 POC (picture order count)와 같은 부호화 파라미터를 이용해서 식별될 수 있다. 대응 슬라이스는 상기 대응 영상 내에서, 대상 영상의 대상 슬라이스와 공간적으로 동일하거나 유사하게 대응되는 위치에 존재하는 슬라이스를 의미한다. 대응 유닛은 상기 대응 영상 내에서, 대상 영상의 대상 유닛과 공간적으로 동일하거나 유사하게 대응되는 위치에 존재하는 유닛을 의미한다. 대응 블록은 상기 대응 영상 내에서, 대상 영상의 대상 블록과 공간적으로 동일하거나 유사하게 대응되는 위치에 존재하는 블록을 의미한다.Corresponding layers, corresponding images, corresponding slices, corresponding units, corresponding blocks, corresponding symbols, and corresponding bins hereinafter refer to a layer corresponding to a target layer, a target image, a target slice, a target unit, a target block, a target symbol, and a target bin, respectively. It means image, slice, unit, block, symbol and bin. Corresponding video means an image of another layer existing on the same time axis as the target image. If the display order of an image in the target layer and an image in another layer are the same, it can be said that the image in the target layer and the image in the other layer exist on the same time axis. Whether images exist on the same time axis may be identified using an encoding parameter such as picture order count (POC). Corresponding slice means a slice existing in a corresponding position in the corresponding image, spatially identical to or similar to the target slice of the target image. The corresponding unit means a unit existing in a corresponding position in the corresponding image, spatially identical to or similar to the target unit of the target image. The corresponding block refers to a block existing in a corresponding position in the corresponding image, spatially identical to or similar to the target block of the target image.

또한 이하, 영상이 분할되는 단위를 나타내는 슬라이스는 타일(tile), 엔트로피 슬라이스(entropy slice) 등의 분할 단위를 통칭하는 의미로 사용된다. 각 분할된 단위 간에는 독립적인 영상 부호화 및 복호화가 가능하다.In addition, hereinafter, a slice representing a unit in which an image is divided is used as a generic term for division units such as a tile and an entropy slice. Independent image encoding and decoding is possible between each divided unit.

또한 이하, 블록은 영상 부호화 및 복호화의 단위를 의미한다. 영상 부호화 및 복호화 시 부호화 혹은 복호화 단위는, 하나의 영상을 세분화된 유닛으로 분할하여 부호화 혹은 복호화 할 때 그 분할된 단위를 말하므로, 매크로 블록, 부호화 유닛 (CU: Coding Unit), 예측 유닛 (PU: Prediction Unit), 변환 유닛(TU: Transform Unit), 변환 블록(transform block) 등으로 불릴 수 있다. 하나의 블록은 크기가 더 작은 하위 블록으로 더 분할될 수 있다.Hereinafter, a block means a unit of video encoding and decoding. When encoding and decoding an image, the encoding or decoding unit refers to the divided unit when one image is divided into subdivided units and encoded or decoded. : Prediction Unit), Transform Unit (TU), Transform Block, and the like. One block may be further divided into smaller sub-blocks.

상기한 바와 같은 스케일러블 비디오 코딩의 특성을 고려하여, 계층 간 중복성을 제거하기 위해 계층 간 인트라 예측, 계층 간 인터 예측 또는 계층 간 차분 신호 예측 등이 수행될 수 있다.Considering the characteristics of scalable video coding as described above, inter-layer intra prediction, inter-layer inter prediction, or inter-layer differential signal prediction may be performed to remove redundancy between layers.

상기 계층 간 인트라 예측은 참조 계층(reference layer)의 복원된 픽셀 값을 향상 계층의 해상도에 알맞게 확대한 뒤, 예측 신호로 사용하는 방법으로서, 이에 대한 상세한 설명은 이하에서 상세히 기술하기로 한다.The inter-layer intra prediction is a method of enlarging a reconstructed pixel value of a reference layer to suit the resolution of an enhancement layer and then using it as a prediction signal, which will be described in detail below.

이하, 도 5 내지 도 10을 참조하여 본 발명의 일실시예에 따른 스케일러블 비디오 코딩 방법에 대해 상세히 설명하기로 한다. 한편, 이하에서는 도 4를 참조하여 설명한 바와 같은 향상 계층을 코딩하는 방법에 대해 설명한다.Hereinafter, a scalable video coding method according to an embodiment of the present invention will be described in detail with reference to FIGS. 5 to 10 . Meanwhile, a method of coding an enhancement layer as described with reference to FIG. 4 will be described below.

도 5는 본 발명의 일실시예에 따른 복호화 장치의 구성을 간략하게 블록도로 도시한 것으로, 도 2에 도시된 인트라 예측부(240)의 구체적인 구성을 나타낸 것이다.FIG. 5 is a block diagram briefly illustrating the configuration of a decoding apparatus according to an embodiment of the present invention, and shows a specific configuration of the intra prediction unit 240 shown in FIG. 2 .

도 5를 참조하면, 인트라 예측 모드 조정부(241)는 향상 계층의 복호화 대상 블록에 대응되는 참조 계층의 블록에 대한 인트라 예측 모드를 조정할 수 있다.Referring to FIG. 5 , the intra prediction mode adjusting unit 241 may adjust the intra prediction mode of a block of a reference layer corresponding to a block to be decoded of an enhancement layer.

모드 집합 구성부(242)는 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드를 예측하기 위해 최대 확률 모드 집합을 구성할 수 있다.The mode set configuration unit 242 may configure a maximum probability mode set to predict an intra prediction mode for a decoding target block of an enhancement layer.

상기 최대 확률 모드 집합은 상기 향상 계층의 복호화 대상 블록에 대해 사용될 가능성이 높은 인트라 예측 모드들을 포함하며, 예를 들어 가장 가능성이 높은 2개의 인트라 예측 모드들을 포함할 수 있다.The maximum probability mode set includes intra prediction modes that are highly likely to be used for the decoding target block of the enhancement layer, and may include, for example, two intra prediction modes with the highest probability.

본 발명의 일실시예에 따르면, 인트라 예측 모드 조정부(241)는 향상 계층의 복호화 대상 블록에 대응되는 참조 계층의 블록이 인트라 예측 모드를 가질 때, 해당 인트라 예측 모드를 향상 계층의 인트라 예측 모드의 개수 및 블록 크기에 맞춰 조정할 수 있다. According to an embodiment of the present invention, when a block of a reference layer corresponding to a block to be decoded of an enhancement layer has an intra prediction mode, the intra prediction mode adjusting unit 241 converts the corresponding intra prediction mode to that of the intra prediction mode of the enhancement layer. It can be adjusted according to the number and block size.

예를 들어, 향상 계층의 복호화 대상 블록에 대응되는 참조 계층의 블록이 갖는 인트라 예측 모드가 향상 계층의 복호화 대상 블록의 인트라 예측 모드 개수보다 큰 경우, 해당 값이 향상 계층의 인트라 예측 모드에 대한 예측 값으로 사용될 수 있도록 그 값이 향상 계층의 인트라 예측 모드 개수보다 작은 값으로 조정된다. 그렇지 않은 경우, 참조 계층의 대응되는 블록에 대한 인트라 예측 모드 값은 변경되지 않는다. For example, when the intra prediction mode of a block of the reference layer corresponding to the decoding object block of the enhancement layer is greater than the number of intra prediction modes of the decoding object block of the enhancement layer, the corresponding value is predicted for the intra prediction mode of the enhancement layer. The value is adjusted to a value smaller than the number of intra prediction modes of the enhancement layer so that it can be used as a value. Otherwise, the intra prediction mode value for the corresponding block of the reference layer is not changed.

본 발명의 일실시예에 따르면, 모드 집합 구성부(242)는 상기 향상 계층의 복호화 대상 블록을 위한 최대 확률 모드 집합이 참조 계층의 대응되는 블록에 대한 조정된 인트라 예측 모드를 포함하도록 구성할 수 있다.According to an embodiment of the present invention, the mode set configuration unit 242 may configure the maximum probability mode set for the decoding target block of the enhancement layer to include an adjusted intra prediction mode for the corresponding block of the reference layer. have.

예를 들어, 상기 참조 계층은 기초 계층(base layer)일 수 있다.For example, the reference layer may be a base layer.

한편, 모드 선택부(243)는 상기와 같이 구성된 최대 확률 모드 집합에 속하는 인트라 예측 모드들 중 어느 하나를 상기 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드에 대한 예측 값으로 선택할 수 있다. 즉, 향상 계층에 대해 인트라 예측을 수행하는 인트라 예측부(240)는 참조 계층의 대응되는 블록에 대한 인트라 예측 모드를 가져와 참조하여 상기 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드를 더 효과적으로 예측할 수 있게 한다. Meanwhile, the mode selector 243 may select one of the intra prediction modes belonging to the maximum probability mode set configured as described above as a prediction value for the intra prediction mode of the decoding target block of the enhancement layer. That is, the intra prediction unit 240 that performs intra prediction on the enhancement layer can more effectively predict the intra prediction mode of the decoding target block of the enhancement layer by referring to the intra prediction mode of the corresponding block of the reference layer. let it be

인트라 예측부(240)는 부호화 장치(100)에 의해 시그널링된 인트라 예측 모드 비트를 이용해 상기와 같이 구성된 최대 확률 모드 집합에 속하는 인트라 예측 모드를 사용하여, 상기 향상 계층의 복호화 대상 블록에 적용될 최종 인트라 예측 모드를 선택하고 인트라 예측을 통해 예측 신호를 생성할 수 있다.The intra prediction unit 240 uses an intra prediction mode belonging to the maximum probability mode set configured as described above using the intra prediction mode bit signaled by the encoding apparatus 100, and uses the final intra prediction mode to be applied to the decoding target block of the enhancement layer. A prediction mode can be selected and a prediction signal can be generated through intra prediction.

이는, 향상 계층과 참조 계층(예를 들어, 기초 계층) 사이의 대응되는 블록간 연관성에 따라, 상기 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드가 상기 참조 계층의 대응되는 블록에 대한 인트라 예측 모드와 일치할 가능성이 높기 때문이다. 그로 인해, 부호화/복호화 효율이 향상될 수 있다.This means that the intra prediction mode of the decoding target block of the enhancement layer is the intra prediction mode of the corresponding block of the reference layer according to the association between the corresponding blocks between the enhancement layer and the reference layer (eg, the base layer). because it is likely to coincide with As a result, encoding/decoding efficiency can be improved.

도 6은 본 발명의 제1 실시예에 따른 스케일러블 비디오 코딩 방법을 흐름도로 도시한 것으로, 도시된 비디오 코딩 방법을 도 5에 도시된 본 발명의 일실시예에 따른 복호화 장치의 구성을 나타내는 블록도와 결부시켜 설명하기로 한다.FIG. 6 is a flowchart illustrating a scalable video coding method according to the first embodiment of the present invention, and blocks showing the configuration of the decoding apparatus according to the embodiment shown in FIG. 5 for the video coding method shown in FIG. Let's help and explain.

도 6을 참조하면, 인트라 예측부(240) 중 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드를 예측하기 위해 참조 계층의 모드를 조정하는 인트라 예측 모드 조정부(241)는 참조 계층의 대응되는 블록에 대한 인트라 예측 모드를 향상 계층의 문맥 정보에 기반하여 조정한다(S300 단계).Referring to FIG. 6 , an intra prediction mode adjusting unit 241 configured to adjust a mode of a reference layer in order to predict an intra prediction mode for a block to be decoded in an enhancement layer among the intra prediction unit 240 corresponds to a block corresponding to the reference layer. The intra prediction mode for is adjusted based on the context information of the enhancement layer (step S300).

모드 집합 구성부(242)는 참조 계층의 대응되는 블록에 대한 조정된 인트라 예측 모드를 추론(derivation)한다(S310 단계).The mode set configuration unit 242 infers the adjusted intra prediction mode for the corresponding block of the reference layer (step S310).

그 후, 모드 집합 구성부(242)는 상기 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드를 예측하기 위한 최대 확률 모드 집합을 상기 참조 계층의 대응되는 블록에 대한 인트라 예측 모드를 포함하도록 구성한다(S320 단계).After that, the mode set configuration unit 242 configures a maximum probability mode set for predicting an intra prediction mode for a decoding object block of the enhancement layer to include an intra prediction mode for a corresponding block of the reference layer ( Step S320).

모드 선택부(243)는 상기 구성된 최대 확률 모드 집합에 포함된 인트라 예측 모드들 중 어느 하나를 부호화 장치(100)에서 시그널링된 인트라 예측 모드 신호에 따라 선택한다(S320 단계).The mode selection unit 243 selects one of the intra prediction modes included in the configured maximum probability mode set according to the intra prediction mode signal signaled from the encoding apparatus 100 (step S320).

인트라 예측부(240)는 상기한 바와 같은 단계들에 의해 선택된 인트라 예측 모드와 인트라 예측 모드 예측에 관한 플래그를 사용하여 상기 향상 계층의 인트라 예측 모드를 생성하고, 이를 사용하여 상기 향상 계층의 복호화 대상 블록을 복원할 수 있다.The intra prediction unit 240 generates an intra prediction mode of the enhancement layer using the intra prediction mode selected by the above steps and a flag related to intra prediction mode prediction, and uses the intra prediction mode to be decoded by the enhancement layer. Blocks can be restored.

도 7을 참조하면, 모드 집합 구성부(242)는 향상 계층의 복호화 대상 블록(B1)에 대한 인트라 예측 모드를 예측하기 위해, 기초 계층의 대응되는 블록(B2)에 대한 조정된 인트라 예측 모드를 포함하도록 상기 최대 확률 모드 집합을 재구성할 수 있다.Referring to FIG. 7 , the mode set configuration unit 242 selects an adjusted intra prediction mode for a corresponding block B2 of the base layer in order to predict the intra prediction mode of the decoding object block B1 of the enhancement layer. The maximum probability mode set can be reconstructed to include.

예를 들어, 상기 기초 계층의 대응되는 블록(B2)은, 상기 기초 계층에 존재하는 블록들 중 상기 향상 계층의 복호화 대상 블록(B1)과 가장 잘 매치되는 블록이거나, 또는 상기 향상 계층의 복호화 대상 블록(B1)과 대응되는 위치를 가지는 블록(co-located block)일 수 있다.For example, the corresponding block B2 of the base layer is a block that best matches the decoding target block B1 of the enhancement layer among blocks existing in the base layer, or a block to be decoded of the enhancement layer. It may be a block (co-located block) having a position corresponding to the block B1.

도 8을 참조하면, 인트라 예측 모드 조정부(241)는 향상 계층의 복호화 대상 블록의 크기가 64x64일 때, 참조 계층의 인트라 모드가 3(=64x64 블록의 인트라 예측 모드 개수-1)보다 큰 값을 갖는 경우, 해당 인트라 모드를 0~3의 범위로 조정한다. Referring to FIG. 8 , when the size of the decoding target block of the enhancement layer is 64x64, the intra prediction mode adjusting unit 241 sets a value greater than 3 (= the number of intra prediction modes in the 64x64 block - 1) of the reference layer. If there is, adjust the corresponding intra mode in the range of 0 to 3.

또 다른 예로, 향상 계층의 복호화 대상 블록의 크기가 4x4일 때, 참조 계층의 인트라 모드가 17(=4x4 블록의 인트라 예측 모드 개수-1)보다 큰 값을 갖는 경우, 해당 인트라 모드를 0~18의 범위로 조정한다. As another example, when the size of the decoding target block of the enhancement layer is 4x4, and the intra mode of the reference layer has a value greater than 17 (= the number of intra prediction modes of the 4x4 block - 1), the corresponding intra mode is set to 0 to 18. adjusted to the range of

이하, 도 9를 참조하여 상기 S310 단계에서 최대 확률 모드 집합을 구성하는 방법에 대한 일실시예를 상세히 설명하기로 한다.Hereinafter, with reference to FIG. 9, an embodiment of a method for constructing a maximum probability mode set in step S310 will be described in detail.

도 9를 참조하면, 모드 집합 구성부(242)는 먼저 상기 향상 계층의 주변 블록들에 참조 가능한 2개의 인트라 예측 모드들이 존재하는지 여부를 확인한다(S400 단계).Referring to FIG. 9 , the mode set configuration unit 242 first checks whether two intra prediction modes referable to neighboring blocks of the enhancement layer exist (step S400).

예를 들어, 상기 향상 계층의 복호화 대상 블록의 좌측 블록과 상측 블록에 대해 서로 다른 인트라 예측 모드들이 각각 사용된 경우, 참조 가능한 2개의 인트라 예측 모드들이 존재하는 것으로 판단될 수 있다.For example, when different intra prediction modes are used for the left block and the upper block of the decoding target block of the enhancement layer, it can be determined that there are two referable intra prediction modes.

그와 달리, 상기 좌측 블록과 상측 블록 중 어느 하나가 인트라 예측을 사용하지 않거나(예를 들어, 인터 예측을 사용하거나), 또는 상기 좌측 블록과 상측 블록에 대해 동일한 인트라 예측 모드가 사용된 경우, 참조 가능한 2개의 인트라 예측 모드들이 존재하지 않는 것으로 판단될 수 있다.Alternatively, if either of the left block and the above block does not use intra prediction (eg, uses inter prediction), or the same intra prediction mode is used for the left block and the above block, It may be determined that two referable intra prediction modes do not exist.

참조 가능한 2개의 인트라 예측 모드들이 존재하는 경우, 모드 집합 구성부(242)는 참조 계층의 대응되는 블록에 대한 인트라 예측 모드와 상기 참조 가능한 2개의 인트라 예측 모드들 중 최소값으로 상기 최대 확률 모드 집합을 구성한다(S410 단계).When there are two referable intra prediction modes, the mode set construction unit 242 sets the maximum probability mode set as the minimum value among the intra prediction mode for the corresponding block of the reference layer and the two referable intra prediction modes. Configure (step S410).

참조 가능한 2개의 인트라 예측 모드들이 존재하지 않는 경우, 모드 집합 구성부(242)는 상기 향상 계층의 주변 블록들에 참조 가능한 인트라 예측 모드가 하나라도 존재하는지 여부를 확인한다(S420 단계).If two referable intra prediction modes do not exist, the mode set configuration unit 242 checks whether at least one referable intra prediction mode exists in neighboring blocks of the enhancement layer (S420).

예를 들어, 상기 좌측 블록과 상측 블록 중 어느 하나가 인트라 예측을 사용하거나, 또는 상기 좌측 블록과 상측 블록에 대해 동일한 인트라 예측 모드가 사용된 경우, 참조 가능한 1개의 인트라 예측 모드가 존재하는 것으로 판단될 수 있다.For example, if one of the left block and the upper block uses intra prediction, or the same intra prediction mode is used for the left block and the upper block, it is determined that there is one intra prediction mode that can be referred to. It can be.

그와 달리, 상기 좌측 블록과 상측 블록 모두가 인트라 예측을 사용하지 않는 경우, 참조 가능한 인트라 예측 모드가 하나도 존재하지 않는 것으로 판단될 수 있다.In contrast, when neither the left block nor the upper block uses intra prediction, it may be determined that there is no intra prediction mode that can be referred to.

참조 가능한 인트라 예측 모드가 하나 존재하는 경우, 모드 집합 구성부(242)는 상기 주변 블록의 인트라 예측 모드와 상기 참조 계층의 대응되는 블록에 대한 인트라 예측 모드를 포함하도록 상기 최대 확률 모드 집합을 구성한다(S430 단계).If there is one intra prediction mode that can be referenced, the mode set configuration unit 242 configures the maximum probability mode set to include the intra prediction mode of the neighboring block and the intra prediction mode of the corresponding block of the reference layer. (Step S430).

한편, 참조 가능한 인트라 예측 모드가 하나도 존재하지 않는 경우, 모드 집합 구성부(242)는 상기 참조 계층의 대응되는 블록에 대한 인트라 예측 모드와 DC 모드를 포함하도록 상기 최대 확률 모드 집합을 구성한다(S440 단계).Meanwhile, when there is no intra prediction mode available for reference, the mode set configuration unit 242 configures the maximum probability mode set to include the DC mode and the intra prediction mode for the corresponding block of the reference layer (S440). step).

이 경우, 부호화 장치(100)는 상기한 바와 같이 구성된 최대 확률 모드 집합 중 하나의 인트라 예측 모드를 상기 향상 계층의 복호화 대상 블록에 대한 인트라 예측 모드로 선택한 후, 상기 선택된 인트라 예측 모드에 대한 정보를 인트라 예측 모드 신호로 시그널링 할 수 있다.In this case, the encoding apparatus 100 selects one intra prediction mode among the set of maximum probability modes configured as described above as the intra prediction mode for the decoding target block of the enhancement layer, and then transmits information on the selected intra prediction mode. It can be signaled with an intra prediction mode signal.

이하, 도 10을 참조하여, 참조 계층의 인트라 예측 모드를 사용하지 않는 경우 상기 최대 확률 모드 집합을 구성하는 방법에 대한 일실시예를 상세히 설명하기로 한다.Hereinafter, referring to FIG. 10, an embodiment of a method of constructing the maximum probability mode set when the intra prediction mode of the reference layer is not used will be described in detail.

도 10을 참조하면, 모드 집합 구성부(242)는 먼저 상기 향상 계층의 주변 블록들에 참조 가능한 2개의 인트라 예측 모드들이 존재하는지 여부를 확인한다(S500 단계).Referring to FIG. 10 , the mode set configuration unit 242 first checks whether two intra prediction modes available for reference exist in neighboring blocks of the enhancement layer (step S500).

참조 가능한 2개의 인트라 예측 모드들이 존재하는 경우, 모드 집합 구성부(242)는 상기 참조 가능한 2개의 인트라 예측 모드들의 최소값과 최대값으로 상기 최대 확률 모드 집합을 구성한다(S510 단계).If there are two referable intra prediction modes, the mode set construction unit 242 configures the maximum probability mode set with the minimum and maximum values of the two referable intra prediction modes (step S510).

참조 가능한 2개의 인트라 예측 모드들이 존재하지 않는 경우, 모드 집합 구성부(242)는 상기 향상 계층의 주변 블록들에 참조 가능한 인트라 예측 모드가 하나라도 존재하는지 여부를 확인한다(S520 단계).If there are no two referenceable intra prediction modes, the mode set configuration unit 242 checks whether there is at least one referenceable intra prediction mode in neighboring blocks of the enhancement layer (step S520).

참조 가능한 인트라 예측 모드가 하나 존재하는 경우, 모드 집합 구성부(242)는 상기 주변 블록의 인트라 예측 모드와 DC 모드 또는 Planar 모드를 포함하도록 상기 최대 확률 모드 집합을 구성한다(S530 단계).If there is one referable intra prediction mode, the mode set configuration unit 242 configures the maximum probability mode set to include the intra prediction mode of the neighboring block and a DC mode or a planar mode (step S530).

한편, 참조 가능한 인트라 예측 모드가 하나도 존재하지 않는 경우, 모드 집합 구성부(242)는 DC 모드와 Planar 모드를 포함하도록 상기 최대 확률 모드 집합을 구성한다(S540 단계).On the other hand, if there is no referenceable intra prediction mode, the mode set configuration unit 242 configures the maximum probability mode set to include the DC mode and the planar mode (step S540).

본 발명의 또 다른 실시예에 따르면, 향상 계층의 복호화 대상 블록을 복원하기 위한 인트라 예측부(240)는 참조 계층의 대응되는 블록에 대해 복원된 픽셀 값들을 사용하여 향상 계층을 위한 예측 신호를 생성할 수 있다.According to another embodiment of the present invention, the intra prediction unit 240 for reconstructing the decoding target block of the enhancement layer generates a prediction signal for the enhancement layer using pixel values reconstructed for a corresponding block of the reference layer. can do.

예를 들어, 인트라 예측부(240)는, 복호화 대상 블록에 대응되는 참조 계층의 복원된 픽셀 값들을 향상 계층의 해상도에 맞게 확대하기 전에, 상기 참조 계층의 대응되는 블록 주변의 복원된 픽셀 값들과 상기 향상 계층의 복원된 주변 픽셀 값들 사이의 문맥(context)을 기반으로 상기 대응되는 참조 계층의 복원된 픽셀 값들을 필터링하여 향상시킬 수 있다. 이후, 상기 필터링된 참조 계층의 픽셀 값을 해상도에 맞게 확대한 텍스쳐(texture)가 상기 향상 계층의 복호화 대상 블록에 대한 예측 신호로 사용될 수 있다.For example, before enlarging the reconstructed pixel values of the reference layer corresponding to the decoding object block to match the resolution of the enhancement layer, the intra predictor 240 determines the reconstructed pixel values around the corresponding block of the reference layer and Based on the context between the reconstructed neighboring pixel values of the enhancement layer, the corresponding reconstructed pixel values of the reference layer may be filtered and enhanced. Thereafter, a texture obtained by enlarging the pixel values of the filtered reference layer according to the resolution may be used as a prediction signal for the decoding target block of the enhancement layer.

이하, 도 11 내지 도 13을 참조하여 본 발명의 또 다른 실시예에 따른 스케일러블 비디오 코딩 방법에 대해 상세히 설명하기로 한다.Hereinafter, a scalable video coding method according to another embodiment of the present invention will be described in detail with reference to FIGS. 11 to 13.

도 11은 도 2에 도시된 인트라 예측부의 구성에 대한 제2 실시예를 블록도로 도시한 것으로, 도시된 인트라 예측부(240)는 문맥 기반 파라미터 계산부(245) 및 텍스처 생성부(246)를 포함할 수 있다.FIG. 11 is a block diagram of a second embodiment of the configuration of the intra prediction unit shown in FIG. can include

도 11을 참조하면, 문맥 기반 파라미터 계산부(245)는 상기 향상 계층의 복호화 대상 블록에 대한 복원된 주변 픽셀 값들과 상기 참조 계층의 대응되는 블록에 대한 복원된 주변 픽셀 값과 같은 문맥 정보를 기반으로 계층 간 복원된 픽셀 값들 사이의 상관 파라미터(예를 들어, α와 β)를 구할 수 있다.Referring to FIG. 11, the context-based parameter calculation unit 245 is based on context information such as reconstructed neighboring pixel values of the decoding target block of the enhancement layer and reconstructed neighboring pixel values of the corresponding block of the reference layer. Correlation parameters (eg, α and β) between inter-layer reconstructed pixel values can be obtained with .

한편, 텍스처 생성부(246)는 상기 구해진 상관 파라미터를 이용해 상기 참조 계층의 대응되는 블록에 대한 복원된 픽셀 값들을 보정하여, 상기 향상 계층의 복호화 대상 블록에 대한 예측 신호를 생성할 수 있다.Meanwhile, the texture generator 246 may generate a prediction signal for the decoding object block of the enhancement layer by correcting the reconstructed pixel values of the corresponding block of the reference layer using the obtained correlation parameter.

도 12는 본 발명의 또 다른 실시예에 따른 스케일러블 비디오 코딩 방법을 흐름도로 도시한 것으로, 도시된 비디오 코딩 방법을 도 11에 도시된 본 발명의 또 다른 실시예에 따른 복호화 장치의 구성을 나타내는 블록도와 결부시켜 설명하기로 한다.FIG. 12 is a flowchart illustrating a scalable video coding method according to another embodiment of the present invention, and the shown video coding method is a flowchart showing the configuration of a decoding apparatus according to another embodiment of the present invention shown in FIG. It will be explained in conjunction with a block diagram.

도 12를 참조하면, 복호화 장치(200)는 먼저 향상 계층의 복호화 대상 블록과 대응되는 참조 계층의 블록이 인트라 블록인지 여부를 확인한다(S600 단계).Referring to FIG. 12 , the decoding apparatus 200 first checks whether a block of a reference layer corresponding to a block to be decoded of an enhancement layer is an intra block (step S600).

상기 확인 결과, 상기 참조 계층의 대응되는 블록이 인트라 블록이 아닌 경우, 복호화 장치(200)에 구비된 움직임 보상부(250)가 상기 향상 계층의 복호화 대상 블록에 대해 인터 예측을 수행할 수 있다.As a result of the check, if the corresponding block of the reference layer is not an intra block, the motion compensation unit 250 provided in the decoding apparatus 200 may perform inter prediction on the decoding target block of the enhancement layer.

한편, 상기 참조 계층의 대응되는 블록이 인트라 블록인 경우, 복호화 장치(200)는 상기 향상 계층의 복호화 대상 블록에 대해 인트라 예측을 수행하기 위하여 참조 계층의 정보를 사용할 것인지 여부를 확인한다(S620 단계).Meanwhile, when the corresponding block of the reference layer is an intra block, the decoding apparatus 200 checks whether information of the reference layer is to be used to perform intra prediction on the decoding target block of the enhancement layer (step S620). ).

상기 참조 계층의 정보를 사용하지 않는 경우, 복호화 장치(200)에 구비된 인트라 예측부(240)가 상기 향상 계층에서의 정보만을 이용하여 상기 향상 계층의 복호화 대상 블록에 대해 인트라 예측을 수행한다(S630 단계).When the information of the reference layer is not used, the intra prediction unit 240 provided in the decoding apparatus 200 performs intra prediction on the decoding target block of the enhancement layer using only the information of the enhancement layer ( Step S630).

예를 들어, 상기 S630 단계에서, 인트라 예측부(240)는 특정 인트라 예측 모드에 따라 상기 향상 계층의 현재 복호화 대상 블록 주변의 이미 부호화된 블록의 화소 값들 이용해 공간적 예측을 수행하여 예측 블록을 생성할 수 잇다.For example, in step S630, the intra prediction unit 240 generates a prediction block by performing spatial prediction using pixel values of an already encoded block around the current decoding target block of the enhancement layer according to a specific intra prediction mode. can be

한편, 상기 참조 계층의 정보를 사용하는 경우, 복호화 장치(200)는 텍스처예측이 가능한지 여부를 확인한다(S640 단계).Meanwhile, when using the information of the reference layer, the decoding apparatus 200 checks whether texture prediction is possible (step S640).

예를 들어, 참조 계층이 인터 슬라이스인 경우, 상기 참조 계층의 대응되는 블록에 대해 픽셀 값이 복원되지 않으며, 그에 따라 참조 계층의 복원된 픽셀 값을 사용해 향상 계층의 복호화 대상 블록에 대한 예측 신호를 생성하거나, 계층 간 복원된 픽셀 값들 사이의 문맥을 나타내는 상관 파라미터를 이용해 텍스쳐를 예측하는 것이 가능하지 않을 수 있다.For example, when the reference layer is an inter-slice, pixel values are not reconstructed for a block corresponding to the reference layer, and accordingly, a prediction signal for a block to be decoded in the enhancement layer is generated using the reconstructed pixel values of the reference layer. It may not be possible to generate or predict a texture using a correlation parameter representing the context between reconstructed pixel values between layers.

텍스처 예측이 가능하지 않은 경우, 인트라 예측부(240)는 상기 참조 계층의 대응되는 블록에 대한 인트라 예측 모드를 추가하여 최대 확률 모드 집합을 재구성하고(S650 단계), 부호화 장치(100)로부터 시그널링되는 인트라 예측 모드 신호에 따라 상기 재구성된 최대 확률 모드 집합 중에서 하나를 선택하여 인트라 예측을 수행한다(S660 단계).If texture prediction is not possible, the intra prediction unit 240 reconstructs a maximum probability mode set by adding an intra prediction mode for the corresponding block of the reference layer (step S650), and is signaled from the encoding device 100 Intra prediction is performed by selecting one of the reconstructed maximum probability mode sets according to the intra prediction mode signal (S660).

즉, 상기 텍스처 예측이 가능하지 않은 경우에 있어서의 인트라 예측 방법은 도 5 내지 도 10을 참조하여 설명한 바와 같은 방법이 사용될 수 있다.That is, the method described with reference to FIGS. 5 to 10 may be used as an intra prediction method when the texture prediction is not possible.

한편, 텍스처 예측이 가능한 경우, 인트라 예측부(240)에 구비된 문맥 기반파라미터 계산부(245)는 상기 향상 계층과 참조 계층의 복원된 주변 픽셀 값을 이용하여 상관 파라미터를 구한다(S670 단계).On the other hand, if texture prediction is possible, the context-based parameter calculation unit 245 provided in the intra prediction unit 240 obtains a correlation parameter using the reconstructed neighboring pixel values of the enhancement layer and the reference layer (step S670).

그 후, 텍스처 생성부(246)는 상기 구해진 상관 파라미터를 이용해 상기 참조 계층의 대응되는 블록에 대한 복원된 픽셀 값들을 보정한다(S680 단계).Then, the texture generator 246 corrects the restored pixel values of the corresponding block of the reference layer using the obtained correlation parameter (step S680).

도 13에 도시된 예를 참조하면, 문맥 기반 파라미터 계산부(245)는 참조 계층의 복원된 주변 픽셀 값들(711)과 향상 계층의 복원된 주변 픽셀 값들(701) 같은 문맥 정보를 기반으로, 계층 간 복원된 픽셀 값들 사이의 상관 관계를 파라미터들(예를 들어, α, β)로 표현할 수 있다.Referring to the example shown in FIG. 13 , the context-based parameter calculation unit 245 based on context information such as reconstructed neighboring pixel values 711 of the reference layer and reconstructed neighboring pixel values 701 of the enhancement layer, A correlation between inter-reconstructed pixel values may be expressed as parameters (eg, α and β).

텍스처 생성부(246)는 상기 문맥 기반 파라미터 계산부(245)에서 출력되는 파라미터들과 참조 계층의 대응되는 블록에 대한 복원된 픽셀 값들(710)을 이용하여, 향상 계층의 해상도에 맞으며 계층 간 픽셀 문맥 유사성을 반영한 텍스쳐(700)를 생성할 수 있으며, 상기 생성된 텍스쳐(700)는 상기 향상 계층의 복호화 대상 블록에 대한 예측 신호로 사용된다.The texture generation unit 246 uses the parameters output from the context-based parameter calculation unit 245 and the reconstructed pixel values 710 for the corresponding block of the reference layer to match the resolution of the enhancement layer and inter-layer pixels. A texture 700 reflecting context similarity may be generated, and the generated texture 700 is used as a prediction signal for a decoding target block of the enhancement layer.

예를 들어, 텍스처 생성부(246)는 다음과 같은 수학식 1을 사용하여 상기 향상 계층의 복호화 대상 블록에 대한 예측 신호로 사용되는 텍스쳐(700)를 생성할 수 있다.For example, the texture generator 246 may generate the texture 700 used as a prediction signal for the decoding target block of the enhancement layer using Equation 1 below.

Figure 112022086760128-pat00001
Figure 112022086760128-pat00001

상기 수학식 1에서, Predc[x,y]는 텍스처 생성부(246)에 의해 예측되는 텍스쳐(700)이며, α, β는 문맥 기반 파라미터 계산부(245)에서 구해진 파라미터 값들이고, RecL[x,y]은 참조 계층의 대응되는 블록에 대한 복원된 픽셀 값들(710)이며, RecL'[x,y]은 상기 참조 계층의 대응되는 블록에 대한 복원된 픽셀 값들(710)이 향상 계층과 참조 계층의 해상도 차이에 따라 스케일링된 값들이다.In Equation 1, Pred c [x,y] is the texture 700 predicted by the texture generator 246, α and β are parameter values obtained by the context-based parameter calculator 245, and Rec L [x,y] is the reconstructed pixel values 710 of the corresponding block of the reference layer, and Rec L '[x,y] is the reconstructed pixel values 710 of the corresponding block of the reference layer. These are values scaled according to the resolution difference between the layer and the reference layer.

본 발명의 또 다른 실시예에 따르면, 향상 계층의 복호화 대상 블록을 복원하기 위한 인트라 예측부(240)는 참조 계층의 대응되는 블록의 인트라 예측 모드를 향상 계층에서 재 사용할 수 있다. According to another embodiment of the present invention, the intra prediction unit 240 for reconstructing the decoding target block of the enhancement layer may reuse the intra prediction mode of the corresponding block of the reference layer in the enhancement layer.

예를 들어, 인트라 예측부(240)는, 복호화 대상 블록에 대응되는 참조 계층의 대응되는 블록이 인트라 모드이면서 향상 계층의 복호화하려는 블록 더 세분화된 모드를 사용하는 경우, 참조 계층의 대응되는 블록의 인트라 모드를 향상 계층의 인트라 모드 선택 과정에서 추가적으로 사용할 수 있다. For example, the intra predictor 240 determines the corresponding block of the reference layer when the corresponding block of the reference layer corresponding to the decoding target block is an intra mode and the block to be decoded more refined mode of the enhancement layer is used. The intra mode may be additionally used in the intra mode selection process of the enhancement layer.

이하, 도 14를 참조하여 본 발명의 또 다른 실시예에 따른 스케일러블 비디오 코딩 방법에 대해 상세히 설명하기로 한다.Hereinafter, a scalable video coding method according to another embodiment of the present invention will be described in detail with reference to FIG. 14 .

도 14는 도 2에 도시된 인트라 예측부의 구성에 대한 제3 실시예의 동작을 나타낸 것이다. FIG. 14 illustrates an operation of the third embodiment of the configuration of the intra prediction unit shown in FIG. 2 .

도 14을 참조하면, 향상 계층의 복호화 대상 블록의 크기가 4x4거나 64x64이고, 참조 계층의 복호화 대상 블록의 크기가 8x8/16x32/32x32 중 어느 하나인 경우, 상기 미리 정해진 선택 가능한 인트라 예측 모드들에 상기 참조 계층의 대응되는 블록에 대한 인트라 예측 모드가 추가되어, 상기 향상 계층의 복호화 대상 블록에 대해 선택 가능한 인트라 예측 모드들의 개수가 하나씩 증가될 수 있다.Referring to FIG. 14, when the size of the decoding object block of the enhancement layer is 4x4 or 64x64 and the size of the decoding object block of the reference layer is any one of 8x8/16x32/32x32, the predetermined selectable intra prediction modes By adding an intra prediction mode for a corresponding block of the reference layer, the number of selectable intra prediction modes for the decoding target block of the enhancement layer may be increased by one.

상기한 바와 같이 미리 정해진 선택 가능한 인트라 예측 모드들에 상기 참조 계층의 대응되는 블록에 대한 인트라 예측 모드를 추가하는 것은, 향상 계층의 복호화 대상 블록에 대해 선택 가능한 인트라 예측 모드들의 개수가 상기 참조 계층의 대응되는 블록에 대해 선택 가능한 인트라 예측 모드들의 개수보다 작은 경우 수행될 수 있다.Adding the intra prediction mode for the corresponding block of the reference layer to the predetermined selectable intra prediction modes as described above means that the number of selectable intra prediction modes for the decoding target block of the enhancement layer It may be performed when the number of intra prediction modes selectable for the corresponding block is smaller than the number.

상기에서는 비디오 복호화 방법 및 장치를 중심으로 본 발명의 일실시예에 따른 스케일러블 비디오 코딩 방법 및 장치에 대해 설명하였으나, 본 발명의 일실시예에 따른 스케일러블 비디오 부호화 방법은 도 5, 도 13, 도 14를 참조하여 설명한 바와 같은 복호화 방법에 따른 일련의 단계들을 수행함에 의해 구현될 수 있다.In the above, the scalable video coding method and apparatus according to an embodiment of the present invention have been described with a focus on the video decoding method and apparatus, but the scalable video coding method according to an embodiment of the present invention is illustrated in FIGS. It can be implemented by performing a series of steps according to the decoding method as described with reference to FIG. 14 .

구체적으로, 본 발명의 실시예에 따른 스케일러블 비디오 부호화 방법 및 장치는 도 5 내지 도 13을 참조하여 설명한 바와 같은 복호화 방법 및 장치와 동일한 구성의 인트라 예측을 수행하여 향상 계층의 부호화 대상 블록에 대한 인트라 예측 모드를 선택하고, 상기 선택된 인트라 예측 모드에 따라 예측 신호를 생성할 수 있다.Specifically, a scalable video encoding method and apparatus according to an embodiment of the present invention performs intra prediction having the same configuration as the decoding method and apparatus described with reference to FIGS. An intra prediction mode may be selected, and a prediction signal may be generated according to the selected intra prediction mode.

상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the foregoing embodiments, the methods are described on the basis of a flow chart as a series of steps or blocks, but the present invention is not limited to the order of steps, and some steps may occur in a different order or concurrently with other steps as described above. have. In addition, those skilled in the art will understand that the steps shown in the flow chart are not exclusive, that other steps may be included, or that one or more steps of the flow chart may be deleted without affecting the scope of the present invention. You will understand.

상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The foregoing embodiment includes examples of various aspects. It is not possible to describe all possible combinations to represent the various aspects, but those skilled in the art will recognize that other combinations are possible. Accordingly, it is intended that the present invention cover all other substitutions, modifications and variations falling within the scope of the following claims.

Claims (3)

비디오 복호화 장치의 인터 레이어 텍스처 예측을 이용한 비디오 복호화 방법에 있어서,
향상 레이어의 현재 픽처에 대해 인터 레이어 텍스처 예측이 수행되는지 여부를 결정하는 단계;
상기 향상 레이어와 참조 레이어 간의 해상도 차이에 기초하여, 상기 인터 레이어 텍스처 예측에 사용될 참조 레이어의 참조 픽처를 필터링하는 단계;
상기 필터링된 참조 픽처의 참조 블록의 복원 픽셀 값에 상관 파라미터를 적용함으로써 상기 현재 픽처의 현재 블록의 예측 픽셀 값을 획득하는 단계, 상기 상관 파라미터는 알파 파라미터에 의해 결정된 가중 값 및 베타 파라미터에 의해 결정된 오프셋 값을 모두 포함하고, 상기 상관 파라미터는 상기 참조 레이어의 상기 참조 픽처에 기초하여 계산되고, 상기 현재 블록의 예측 픽셀 값은 상기 참조 블록의 복원 픽셀 값에 상기 가중 값을 곱한 값에 상기 오프셋 값을 더함으로써 획득되는 것을 특징으로 함; 및
상기 획득된 예측 픽셀 값을 사용하여 상기 현재 블록을 복호화하는 단계를 포함하는 비디오 복호화 방법.
In a video decoding method using inter-layer texture prediction of a video decoding apparatus,
determining whether inter-layer texture prediction is performed for a current picture of an enhancement layer;
Filtering a reference picture of a reference layer to be used for inter-layer texture prediction based on a resolution difference between the enhancement layer and the reference layer;
obtaining a predicted pixel value of a current block of the current picture by applying a correlation parameter to a reconstructed pixel value of a reference block of the filtered reference picture, wherein the correlation parameter is determined by a weight value determined by an alpha parameter and a beta parameter includes all offset values, the correlation parameter is calculated based on the reference picture of the reference layer, and the prediction pixel value of the current block is the offset value obtained by multiplying the reconstructed pixel value of the reference block by the weight value Characterized in that it is obtained by adding; and
and decoding the current block using the obtained prediction pixel value.
비디오 부호화 장치의 인터 레이어 텍스처 예측을 이용한 비디오 부호화 방법에 있어서,
향상 레이어의 현재 픽처에 대해 인터 레이어 텍스처 예측이 수행되는지 여부를 결정하는 단계;
상기 향상 레이어와 참조 레이어 간의 해상도 차이에 기초하여, 상기 인터 레이어 텍스처 예측에 사용될 참조 레이어의 참조 픽처를 필터링하는 단계;
상기 필터링된 참조 픽처의 참조 블록의 복원 픽셀 값에 상관 파라미터를 적용함으로써 상기 현재 픽처의 현재 블록의 예측 픽셀 값을 획득하는 단계, 상기 상관 파라미터는 알파 파라미터에 의해 결정된 가중 값 및 베타 파라미터에 의해 결정된 오프셋 값을 모두 포함하고, 상기 상관 파라미터는 상기 참조 레이어의 상기 참조 픽처에 기초하여 계산되고, 상기 현재 블록의 예측 픽셀 값은 상기 참조 블록의 복원 픽셀 값에 상기 가중 값을 곱한 값에 상기 오프셋 값을 더함으로써 획득되는 것을 특징으로 함; 및
상기 획득된 예측 픽셀 값을 사용하여 상기 현재 블록을 부호화하는 단계를 포함하는 비디오 부호화 방법.
In a video encoding method using inter-layer texture prediction of a video encoding apparatus,
determining whether inter-layer texture prediction is performed for a current picture of an enhancement layer;
Filtering a reference picture of a reference layer to be used for inter-layer texture prediction based on a resolution difference between the enhancement layer and the reference layer;
obtaining a predicted pixel value of a current block of the current picture by applying a correlation parameter to a reconstructed pixel value of a reference block of the filtered reference picture, wherein the correlation parameter is determined by a weight value determined by an alpha parameter and a beta parameter includes all offset values, the correlation parameter is calculated based on the reference picture of the reference layer, and the prediction pixel value of the current block is the offset value obtained by multiplying the reconstructed pixel value of the reference block by the weight value Characterized in that it is obtained by adding; and
and encoding the current block using the obtained predicted pixel values.
비디오 복호화 방법에 의하여 복호화되는 비트스트림을 저장한 컴퓨터로 판독가능한 기록매체에 있어서,
상기 비디오 복호화 방법은,
향상 레이어의 현재 픽처에 대해 인터 레이어 텍스처 예측이 수행되는지 여부를 결정하는 단계;
상기 향상 레이어와 참조 레이어 간의 해상도 차이에 기초하여, 상기 인터 레이어 텍스처 예측에 사용될 참조 레이어의 참조 픽처를 필터링하는 단계;
상기 필터링된 참조 픽처의 참조 블록의 복원 픽셀 값에 상관 파라미터를 적용함으로써 상기 현재 픽처의 현재 블록의 예측 픽셀 값을 획득하는 단계, 상기 상관 파라미터는 알파 파라미터에 의해 결정된 가중 값 및 베타 파라미터에 의해 결정된 오프셋 값을 모두 포함하고, 상기 상관 파라미터는 상기 참조 레이어의 상기 참조 픽처에 기초하여 계산되고, 상기 현재 블록의 예측 픽셀 값은 상기 참조 블록의 복원 픽셀 값에 상기 가중 값을 곱한 값에 상기 오프셋 값을 더함으로써 획득되는 것을 특징으로 함; 및
상기 획득된 예측 픽셀 값을 사용하여 상기 현재 블록을 복호화하는 단계를 포함하는 것을 특징으로 하는 컴퓨터로 판독가능한 기록매체.
In a computer-readable recording medium storing a bitstream decoded by a video decoding method,
The video decoding method,
determining whether inter-layer texture prediction is performed for a current picture of an enhancement layer;
Filtering a reference picture of a reference layer to be used for inter-layer texture prediction based on a resolution difference between the enhancement layer and the reference layer;
obtaining a predicted pixel value of a current block of the current picture by applying a correlation parameter to a reconstructed pixel value of a reference block of the filtered reference picture, wherein the correlation parameter is determined by a weight value determined by an alpha parameter and a beta parameter includes all offset values, the correlation parameter is calculated based on the reference picture of the reference layer, and the prediction pixel value of the current block is the offset value obtained by multiplying the reconstructed pixel value of the reference block by the weight value Characterized in that it is obtained by adding; and
and decoding the current block using the obtained prediction pixel value.
KR1020220103812A 2011-10-26 2022-08-19 Method and apparatus for scalable video coding using intra prediction mode KR102475242B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220166484A KR102508989B1 (en) 2011-10-26 2022-12-02 Method and apparatus for scalable video coding using intra prediction mode

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161551442P 2011-10-26 2011-10-26
US61/551,442 2011-10-26
KR1020210150300A KR102435739B1 (en) 2011-10-26 2021-11-04 Method and apparatus for scalable video coding using intra prediction mode

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210150300A Division KR102435739B1 (en) 2011-10-26 2021-11-04 Method and apparatus for scalable video coding using intra prediction mode

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220166484A Division KR102508989B1 (en) 2011-10-26 2022-12-02 Method and apparatus for scalable video coding using intra prediction mode

Publications (2)

Publication Number Publication Date
KR20220121231A KR20220121231A (en) 2022-08-31
KR102475242B1 true KR102475242B1 (en) 2022-12-07

Family

ID=48657729

Family Applications (8)

Application Number Title Priority Date Filing Date
KR1020110131155A KR102176539B1 (en) 2011-10-26 2011-12-08 Method and apparatus for scalable video coding using intra prediction mode
KR1020110131156A KR101979284B1 (en) 2011-10-26 2011-12-08 Method and apparatus for scalable video coding using inter prediction mode
KR1020200145267A KR102324462B1 (en) 2011-10-26 2020-11-03 Method and apparatus for scalable video coding using intra prediction mode
KR1020210150300A KR102435739B1 (en) 2011-10-26 2021-11-04 Method and apparatus for scalable video coding using intra prediction mode
KR1020220103812A KR102475242B1 (en) 2011-10-26 2022-08-19 Method and apparatus for scalable video coding using intra prediction mode
KR1020220166484A KR102508989B1 (en) 2011-10-26 2022-12-02 Method and apparatus for scalable video coding using intra prediction mode
KR1020230029992A KR102616143B1 (en) 2011-10-26 2023-03-07 Method and apparatus for scalable video coding using intra prediction mode
KR1020230183038A KR20240000416A (en) 2011-10-26 2023-12-15 Method and apparatus for scalable video coding using intra prediction mode

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020110131155A KR102176539B1 (en) 2011-10-26 2011-12-08 Method and apparatus for scalable video coding using intra prediction mode
KR1020110131156A KR101979284B1 (en) 2011-10-26 2011-12-08 Method and apparatus for scalable video coding using inter prediction mode
KR1020200145267A KR102324462B1 (en) 2011-10-26 2020-11-03 Method and apparatus for scalable video coding using intra prediction mode
KR1020210150300A KR102435739B1 (en) 2011-10-26 2021-11-04 Method and apparatus for scalable video coding using intra prediction mode

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020220166484A KR102508989B1 (en) 2011-10-26 2022-12-02 Method and apparatus for scalable video coding using intra prediction mode
KR1020230029992A KR102616143B1 (en) 2011-10-26 2023-03-07 Method and apparatus for scalable video coding using intra prediction mode
KR1020230183038A KR20240000416A (en) 2011-10-26 2023-12-15 Method and apparatus for scalable video coding using intra prediction mode

Country Status (1)

Country Link
KR (8) KR102176539B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102176539B1 (en) * 2011-10-26 2020-11-10 인텔렉추얼디스커버리 주식회사 Method and apparatus for scalable video coding using intra prediction mode
WO2014163418A1 (en) * 2013-04-04 2014-10-09 한국전자통신연구원 Image encoding/decoding method and device
KR102418524B1 (en) * 2013-04-04 2022-07-07 한국전자통신연구원 Method and apparatus for image encoding/decoding
KR20140121315A (en) * 2013-04-04 2014-10-15 한국전자통신연구원 Method and apparatus for image encoding and decoding based on multi-layer using reference picture list
CN105247869B (en) * 2013-05-24 2019-05-10 株式会社Kt The method and apparatus of decoding multi-layer video
KR102325977B1 (en) * 2013-07-08 2021-11-15 한국전자통신연구원 Video decoding method and apparatus using the same
WO2015053598A1 (en) 2013-10-12 2015-04-16 삼성전자 주식회사 Method and apparatus for encoding multilayer video, and method and apparatus for decoding multilayer video
CN105959611B (en) * 2016-07-14 2018-09-21 同观科技(深圳)有限公司 A kind of the interframe fast transcoding method and device of adaptive slave H264 to HEVC

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012846A (en) 2011-06-28 2013-01-17 Sony Corp Image processing device and image processing method
KR102176539B1 (en) 2011-10-26 2020-11-10 인텔렉추얼디스커버리 주식회사 Method and apparatus for scalable video coding using intra prediction mode

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060153295A1 (en) * 2005-01-12 2006-07-13 Nokia Corporation Method and system for inter-layer prediction mode coding in scalable video coding
KR100878812B1 (en) * 2005-05-26 2009-01-14 엘지전자 주식회사 Method for providing and using information on interlayer prediction of a video signal
ZA200800261B (en) * 2005-07-11 2009-08-26 Thomson Licensing Method and apparatus for macroblock adaptive inter-layer intra texture prediction
KR100891662B1 (en) * 2005-10-05 2009-04-02 엘지전자 주식회사 Method for decoding and encoding a video signal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012846A (en) 2011-06-28 2013-01-17 Sony Corp Image processing device and image processing method
KR102176539B1 (en) 2011-10-26 2020-11-10 인텔렉추얼디스커버리 주식회사 Method and apparatus for scalable video coding using intra prediction mode
KR102324462B1 (en) 2011-10-26 2021-11-12 인텔렉추얼디스커버리 주식회사 Method and apparatus for scalable video coding using intra prediction mode

Also Published As

Publication number Publication date
KR20130045784A (en) 2013-05-06
KR20220121231A (en) 2022-08-31
KR101979284B1 (en) 2019-05-17
KR102176539B1 (en) 2020-11-10
KR20220165710A (en) 2022-12-15
KR20240000416A (en) 2024-01-02
KR20230037527A (en) 2023-03-16
KR20210134590A (en) 2021-11-10
KR102324462B1 (en) 2021-11-12
KR102508989B1 (en) 2023-03-10
KR102435739B1 (en) 2022-08-24
KR20200128375A (en) 2020-11-12
KR20130045783A (en) 2013-05-06
KR102616143B1 (en) 2023-12-20

Similar Documents

Publication Publication Date Title
KR102508989B1 (en) Method and apparatus for scalable video coding using intra prediction mode
KR102442894B1 (en) Method and apparatus for image encoding/decoding using prediction of filter information
US10334258B2 (en) Scalable video coding method and apparatus using inter prediction mode
US9936218B2 (en) Scalable video coding method and apparatus using intra prediction mode
KR102273183B1 (en) Method and apparatus for inter-layer prediction based on temporal sub-layer information
KR20200023501A (en) Image processing device and method
KR101850152B1 (en) Method for applying adaptive loop filter and scalable video coding apparatus
KR102307406B1 (en) Video decoding method and apparatus using the same

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant