KR20230133775A - 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 - Google Patents

영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 Download PDF

Info

Publication number
KR20230133775A
KR20230133775A KR1020230028852A KR20230028852A KR20230133775A KR 20230133775 A KR20230133775 A KR 20230133775A KR 1020230028852 A KR1020230028852 A KR 1020230028852A KR 20230028852 A KR20230028852 A KR 20230028852A KR 20230133775 A KR20230133775 A KR 20230133775A
Authority
KR
South Korea
Prior art keywords
motion vector
block
current
prediction block
reference picture
Prior art date
Application number
KR1020230028852A
Other languages
English (en)
Inventor
허진
박승욱
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to PCT/KR2023/003020 priority Critical patent/WO2023172002A1/ko
Publication of KR20230133775A publication Critical patent/KR20230133775A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명에서, 제1 참조 픽처에 대한 현재 블록의 제1 기초 움직임 벡터 및 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터를 결정하는 단계, 제1 기초 움직임 벡터를 제1 차분 움직임 벡터만큼 보정함으로써, 제1 보정 움직임 벡터를 결정하고, 제2 기초 움직임 벡터를 제2 차분 움직임 벡터만큼 보정함으로써, 제2 보정 움직임 벡터를 결정하는 단계, 제1 보정 움직임 벡터 및 제2 보정 움직임 벡터에 기초하여, 현재 블록의 제1 예측 블록 및 제2 예측 블록을 결정하는 단계 및 제1 예측 블록 및 제2 예측 블록의 가중합에 기초하여, 현재 블록에 대한 최종 예측 블록을 결정하는 단계를 포함하는 비디오 복호화 방법이 제공된다.

Description

영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 {METHOD AND APPARATUS FOR ENCODING/DECODING IMAGE AND RECORDING MEDIUM FOR STORING BITSTREAM}
본 발명은 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체에 관한 것이다. 구체적으로, 본 발명은 복호화측 움직임 벡터 보정 방법(Decoder side motion vector refinement, DMVR)을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체에 관한 것이다.
최근 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 더 높은 해상도 및 화질을 갖는 영상에 대한 고효율 영상 부호화(encoding)/복호화(decoding) 기술이 요구된다.
화면 간 예측 모드 중 머지 모드 (Merge mode)에서, 현재 블록의 주변 블록으로부터 움직임 벡터, 참조 픽처 정보 등의 움직임 정보가 현재 블록의 예측에 사용될 수 있다. 만약 머지 모드에서, 두 개의 참조 픽처를 참조하는 양방향 화면 간 예측이 적용될 경우, 복호화측 움직임 벡터 보정(Decoder side motion vector refinement, DMVR)이 적용될 수 있다. 복호화측 움직임 벡터 보정을 통해, 머지 모드에서도 주변 블록으로부터 획득된 움직임 벡터가 보정됨으로써, 현재 블록의 예측 정확도가 향상될 수 있다.
본 발명은 부호화/복호화 효율이 향상된 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 본 발명에서 제공된 영상 복호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체를 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 영상 복호화 방법은, 제1 참조 픽처에 대한 현재 블록의 제1 기초 움직임 벡터 및 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터를 결정하는 단계, 제1 참조 픽처에 대한 상기 현재 블록의 제1 기초 움직임 벡터 및 상기 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터를 결정하는 단계, 상기 제1 기초 움직임 벡터를 제1 차분 움직임 벡터만큼 보정함으로써, 제1 보정 움직임 벡터를 결정하고, 상기 제2 기초 움직임 벡터를 제2 차분 움직임 벡터만큼 보정함으로써, 제2 보정 움직임 벡터를 결정하는 단계, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터에 기초하여, 상기 현재 블록의 제1 예측 블록 및 제2 예측 블록을 결정하는 단계, 및 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합에 기초하여, 상기 현재 블록에 대한 최종 예측 블록을 결정하는 단계를 포함한다.
일 실시 예에 따르면, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터를 결정하는 단계에 있어서, 상기 현재 블록이 포함된 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리가 다른 경우, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은, 상기 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 따라 결정된 가중 값에 의하여 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록에 적용되는 제1 가중 값은 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 비례하고, 상기 제2 예측 블록에 적용되는 제2 가중 값은 상기 현재 픽처와 상기 제1 참조 픽처의 거리에 비례할 수 있다.
일 실시 예에 따르면, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터를 결정하는 단계에 있어서, 상기 제1 차분 움직임 벡터의 크기와 상기 제2 차분 움직임 벡터의 크기의 비는 상기 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리의 비에 비례할 수 있다.
일 실시 예에 따르면, 상기 제1 차분 움직임 벡터 및 상기 제2 차분 움직임 벡터의 크기는 소정의 범위 내로 한정될 수 있다.
일 실시 예에 따르면, 상기 제1 보정 움직임 벡터가 가리키는 상기 제1 예측 블록과 상기 제2 보정 움직임 벡터가 가리키는 상기 제2 예측 블록 간의 왜곡이 최소가 되도록, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 보정 움직임 벡터가 가리키는 상기 제1 예측 블록의 제1 템플릿, 상기 제2 보정 움직임 벡터가 가리키는 상기 제2 예측 블록의 제2 템플릿, 및 상기 현재 블록의 현재 템플릿 간의 왜곡이 최소가 되도록, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정될 수 있다.
일 실시 예에 따르면, 상기 왜곡은, 상기 제1 템플릿과 상기 제2 템플릿을 가중 평균함으로써 결정된 최종 템플릿과 상기 현재 템플릿에 기초하여 계산될 수 있다.
일 실시 예에 따르면, 상기 제1 템플릿과 상기 제2 템플릿을 가중 평균함에 있어서, 상기 제1 템플릿에 적용되는 제1 가중 값은 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 비례하고, 상기 제2 템플릿에 적용되는 제2 가중 값은 상기 현재 픽처와 상기 제1 참조 픽처의 거리에 비례할 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록에 적용되는 제1 가중 값은 상기 제2 템플릿과 상기 현재 템플릿의 왜곡에 비례하고, 상기 제2 예측 블록에 적용되는 제2 가중 값은 상기 제1 템플릿과 상기 현재 템플릿의 왜곡에 비례할 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은, 상기 현재 블록이 포함된 현재 픽처의 픽처 타입에 기초하여 결정된 가중 값에 의하여 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은, 비트스트림을 파싱함으로써 생성된 가중 값 정보에 기초하여 결정된 가중 값에 의하여 결정될 수 있다.
본 발명의 일 실시예에 따른 영상 부호화 방법은, 제1 참조 픽처에 대한 현재 블록의 제1 기초 움직임 벡터 및 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터를 결정하는 단계, 상기 제1 기초 움직임 벡터를 제1 차분 움직임 벡터만큼 보정함으로써, 제1 보정 움직임 벡터를 결정하고, 상기 제2 기초 움직임 벡터를 제2 차분 움직임 벡터만큼 보정함으로써, 제2 보정 움직임 벡터를 결정하는 단계, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터에 기초하여, 상기 현재 블록의 제1 예측 블록 및 제2 예측 블록을 결정하는 단계, 및 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합에 기초하여, 상기 현재 블록에 대한 최종 예측 블록을 결정하는 단계를 포함한다.
본 발명의 일 실시예에 따른 비 일시적 컴퓨터 판독가능한 기록 매체는, 상기 비디오 부호화 방법에 의하여 생성된 비트스트림을 저장한다.
본 발명의 일 실시예에 따른 전송 방법은, 상기 비디오 부호화 방법에 의하여 생성된 비트스트림을 전송한다.
본 발명에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.
본 발명은 복호화측 움직임 벡터 보정 방법(Decoder side motion vector refinement, DMVR)을 개선하는 방법을 제안한다.
본 발명에서, 복호화측 움직임 벡터 보정 방법의 적용 조건을 변경하여 복호화측 움직임 벡터 보정 방법의 적용 빈도를 높일 수 있다.
또한 복호화측 움직임 벡터 보정 방법에 있어서, 양방향 움직임 벡터에 동일한 가중 값을 적용하는 대신 서로 다른 가중 값을 적용하는 방법이 제안된다.
또한 복호화측 움직임 벡터 보정 방법에 있어서, 쌍방 일치 대신 템플릿 매칭 방법을 기반으로 움직임 벡터를 보정하는 방법이 제안된다.
제안하는 방법을 사용하여 복호화측 움직임 벡터 보정 방법의 정확도를 높이고 최종 예측 블록의 정확도를 높여 부호화 효율이 향상될 수 있다.
도 1은 본 발명이 적용되는 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 2는 본 발명이 적용되는 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 3은 본 발명이 적용될 수 있는 비디오 코딩 시스템을 개략적으로 나타내는 도면이다.
도 4는 화면 간 예측 모드에 있어서, 다양한 화면 간 예측 방법 중 하나를 결정하는 방법의 일 실시 예를 도시한다.
도 5는 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일한 경우, 복호화측 움직임 벡터 보정의 일 실시 예를 나타낸다.
도 6은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우, 복호화측 움직임 벡터 보정을 도시한다.
도 7은 템플릿 매칭 방법 기반의 복호화측 움직임 벡터 보정을 설명한다.
도 8는 일 실시 예에 따른 복호화측 움직임 벡터 보정 방법의 순서도이다.
도 9는 본 발명에 따른 실시예가 적용될 수 있는 컨텐츠 스트리밍 시스템을 예시적으로 나타낸다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 예시적으로 제공될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.
본 발명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
실시예에서 용어 "적어도 하나(at least one)"는 1, 2, 3 및 4와 같은 1 이상의 개수들 중 하나를 의미할 수 있다. 실시예에서 용어 "복수(a plurality of)"는 2, 3 및 4와 같은 2 이상의 개수들 중 하나를 의미할 수 있다.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
용어 설명
이하에서, “영상”은 동영상(video)을 구성하는 하나의 픽처(picture)를 의미할 수 있으며, 동영상 자체를 나타낼 수도 있다. 예를 들면, "영상의 부호화 및/또는 복호화"는 "동영상의 부호화 및/또는 복호화"를 의미할 수 있으며, "동영상을 구성하는 영상들 중 하나의 영상의 부호화 및/또는 복호화"를 의미할 수도 있다.
이하에서, "동영상" 및 "비디오"는 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. 또한, 대상 영상은 부호화의 대상인 부호화 대상 영상 및/또는 복호화의 대상인 복호화 대상 영상일 수 있다. 또한, 대상 영상은 부호화 장치로 입력된 입력 영상일 수 있고, 복호화 장치로 입력된 입력 영상일 수 있다. 여기서, 대상 영상은 현재 영상과 동일한 의미를 가질 수 있다.
이하에서, "영상(image)", "픽처(picture)", "프레임(frame)" 및 "스크린(screen)"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, “대상 블록”은 부호화의 대상인 부호화 대상 블록 및/또는 복호화의 대상인 복호화 대상 블록일 수 있다. 또한, 대상 블록은 현재 부호화 및/또는 복호화의 대상인 현재 블록일 수 있다. 예를 들면, "대상 블록" 및 "현재 블록"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, "블록" 및 "유닛"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. 또한, “유닛”은 블록과 구분하여 지칭하기 위해 휘도(Luma) 성분 블록과 그에 대응하는 색차(Chroma) 성분 블록을 포함한 것을 의미할 수 있다. 일 예로, 부호화 트리 유닛(Coding Tree Unit, CTU)은 하나의 휘도 성분(Y) 부호화 트리 블록(Coding Tree Block, CTB)과 관련된 두 색차 성분(Cb, Cr) 부호화 트리 블록들로 구성될 수 있다.
이하에서, “샘플”, “화소” 및 “픽셀”은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. 여기서, 샘플은 블록을 구성하는 기본 단위를 나타낼 수 있다.
이하에서, “인터” 및 “화면 간”은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, “인트라” 및 “화면 내”는 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
도 1은 본 발명이 적용되는 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
부호화 장치(100)는 인코더, 비디오 부호화 장치 또는 영상 부호화 장치일 수 있다. 비디오는 하나 이상의 영상들을 포함할 수 있다. 부호화 장치(100)는 하나 이상의 영상들을 순차적으로 부호화할 수 있다.
도 1을 참조하면, 부호화 장치(100)는 영상 분할부(110), 인트라 예측부(120), 움직임 예측부(121), 움직임 보상부(122), 스위치(115), 감산기(113), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(117), 필터부(180) 및 참조 픽처 버퍼(190)를 포함할 수 있다.
또한, 부호화 장치(100)는 입력 영상에 대한 부호화를 통해 부호화된 정보를 포함하는 비트스트림을 생성할 수 있고, 생성된 비트스트림을 출력할 수 있다. 생성된 비트스트림은 컴퓨터 판독가능한 기록 매체에 저장될 수 있거나, 유/무선 전송 매체를 통해 스트리밍될 수 있다.
영상 분할부(110)는 동영상 부호화/복호화의 효율을 높이기 위해, 입력 영상을 다양한 형태로 분할할 수 있다. 즉, 입력 동영상은 다수의 픽처로 구성되어 있고 하나의 픽처는 압축 효율, 병렬처리 등을 위하여 계층적으로 분할되어 처리될 수 있다. 예를 들어, 하나의 픽처를 하나 또는 다수개의 타일(tile) 또는 슬라이스(slice)로 분할하고 다시 다수개의 CTU (Coding Tree Unit)로 분할할 수 있다. 또 다른 방식으로, 먼저 하나의 픽처를 직사각형 모양의 슬라이스의 그룹으로 정의되는 다수개의 서브픽처(sub-picture)로 분할하고, 각 서브픽처를 상기 타일/슬라이스로 분할할 수도 있다. 여기서, 서브픽처는 픽처를 부분적으로 독립 부호화/복호화 및 전송하는 기능을 지원하기 위하여 활용될 수 있다. 여러 개의 서브픽처는 각각 개별적으로 복원 가능하기에 멀티 채널 입력을 하나의 픽처로 구성하는 응용에 있어서 편집이 용이하다는 장점을 가지게 된다. 또한, 타일을 횡방향으로 분할하여 브릭(brick)을 생성할 수도 있다. 여기서, 브릭(brick)은 픽처내 병렬처리의 기본 단위로 활용할 수 있다. 또한, 하나의 CTU는 쿼드 트리(QT: Quadtree)로 재귀적으로 분할될 수 있고, 분할의 말단 노드를 CU (Coding Unit)라고 정의할 수 있다. CU는 예측 단위인 PU(Prediction Unit)와 변환 단위인 TU (Transform Unit)로 분할되어 예측과 분할이 수행될 수 있다. 한편, CU는 예측 단위 및/또는 변환 단위 그 자체로 활용할 수 있다. 여기서, 유연한 분할을 위하여 각 CTU는 쿼드 트리(QT) 뿐만 아니라 멀티타입 트리(MTT: Multi-Type Tree)로 재귀적으로 분할될 수도 있다. CTU는 QT의 말단 노드에서 멀티타입 트리로 분할이 시작될 수 있으며 MTT는 BT(Binary Tree)와 TT(Triple Tree)로 구성될 수 있다. 예를 들어, MTT구조에는 수직 이진 분할모드(SPLIT_BT_VER), 수평 이진 분할모드(SPLIT_BT_HOR), 수직 삼항 분할모드(SPLIT_TT_VER), 수평 삼항 분할모드(SPLIT_TT_HOR)로 구분될 수 있다. 또한, 분할 시 휘도 블록의 쿼드 트리의 최소 블록 크기(MinQTSize)는 16x16이고 바이너리 트리의 최대블록 크기(MaxBtSize)는 128x128, 트리플 트리의 최대 블록 크기(MaxTtSize)는 64x64로 설정할 수 있다. 또한, 바이너리 트리의 최소 블록 크기(MinBtSize)와 트리플 트리의 최소 블록 크기(MinTtSize)는 4x4, 멀티 타입 트리의 최대 깊이(MaxMttDepth)는 4로 지정할 수 있다. 또한 I 슬라이스의 부호화 효율을 높이기 위하여 휘도와 색차 성분의 CTU 분할 구조를 서로 다르게 사용하는 듀얼 트리(dual tree)를 적용할 수도 있다. 반면 P와 B슬라이스에서는 CTU 내의 휘도와 색차 CTB (Coding Tree Block)들이 코딩 트리 구조를 공유하는 싱글 트리(single tree)로 분할할 수 있다.
부호화 장치(100)는 입력 영상에 대해 인트라 모드 및/또는 인터 모드로 부호화를 수행할 수 있다. 또는, 부호화 장치(100)는 입력 영상에 대해 상기 인트라 모드 및 인터 모드가 아닌 제3의 모드 (예, IBC 모드, Palette 모드 등)로 부호화를 수행할 수도 있다. 단, 상기 제3의 모드가 인트라 모드 또는 인터 모드와 유사한 기능적 특징을 가지는 경우, 설명의 편의를 위해 인트라 모드 또는 인터 모드로 분류하기도 한다. 본 발명에서는 상기 제3의 모드에 대한 구체적인 설명이 필요한 경우에만 이를 별도로 분류하여 기술할 것이다.
예측 모드로 인트라 모드가 사용되는 경우 스위치(115)는 인트라로 전환될 수 있고, 예측 모드로 인터 모드가 사용되는 경우 스위치(115)는 인터로 전환될 수 있다. 여기서 인트라 모드는 화면 내 예측 모드를 의미할 수 있으며, 인터 모드는 화면 간 예측 모드를 의미할 수 있다. 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성할 수 있다. 또한, 부호화 장치(100)는 예측 블록이 생성된 후, 입력 블록 및 예측 블록의 차분(residual)을 사용하여 잔여 블록을 부호화할 수 있다. 입력 영상은 현재 부호화의 대상인 현재 영상으로 칭해질 수 있다. 입력 블록은 현재 부호화의 대상인 현재 블록 혹은 부호화 대상 블록으로 칭해질 수 있다.
예측 모드가 인트라 모드인 경우, 인트라 예측부(120)는 현재 블록의 주변에 이미 부호화/복호화된 블록의 샘플을 참조 샘플로서 이용할 수 있다. 인트라 예측부(120)는 참조 샘플을 이용하여 현재 블록에 대한 공간적 예측을 수행할 수 있고, 공간적 예측을 통해 입력 블록에 대한 예측 샘플들을 생성할 수 있다. 여기서 인트라 예측은 화면 내 예측을 의미할 수 있다.
인트라 예측 방식으로, DC 모드, Planar 모드와 같은 무방향성 예측 모드와 방향성 예측 모드 (예, 65개 방향)가 적용될 수 있다. 여기서, 인트라 예측 방식은 인트라 예측 모드 또는 화면 내 예측 모드로 표현될 수 있다.
예측 모드가 인터 모드인 경우, 움직임 예측부(121)는, 움직임 예측 과정에서 참조 영상으로부터 입력 블록과 가장 매치가 잘 되는 영역을 검색할 수 있고, 검색된 영역을 이용하여 움직임 벡터를 도출할 수 있다. 이때, 상기 영역으로 탐색 영역을 사용할 수 있다. 참조 영상은 참조 픽처 버퍼(190)에 저장될 수 있다. 여기서, 참조 영상에 대한 부호화/복호화가 처리되었을 때 참조 픽처 버퍼(190)에 저장될 수 있다.
움직임 보상부(122)는 움직임 벡터를 이용하는 움직임 보상을 수행함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다. 여기서 인터 예측은 화면 간 예측 혹은 움직임 보상을 의미할 수 있다.
상기 움직임 예측부(121)과 움직임 보상부(122)는 움직임 벡터의 값이 정수 값을 가지지 않을 경우에 참조 영상 내의 일부 영역에 대해 보간 필터(Interpolation Filter)를 적용하여 예측 블록을 생성할 수 있다. 화면 간 예측 혹은 움직임 보상을 수행하기 위해 부호화 유닛을 기준으로 해당 부호화 유닛에 포함된 예측 유닛의 움직임 예측 및 움직임 보상 방법이 스킵 모드(Skip Mode), 머지 모드(Merge Mode), 향상된 움직임 벡터 예측(Advanced Motion Vector Prediction; AMVP) 모드, 인트라 블록 카피(Intra Block Copy; IBC) 모드 중 어떠한 방법인지 여부를 판단할 수 있고, 각 모드에 따라 화면 간 예측 혹은 움직임 보상을 수행할 수 있다.
또한, 상기 화면 간 예측 방법을 기초로, sub-PU 기반 예측의 AFFINE 모드, SbTMVP (Subblock-based Temporal Motion Vector Prediction) 모드, 및 PU 기반 예측의 MMVD(Merge with MVD) 모드, GPM(Geometric Partitioning Mode) 모드를 적용할 수도 있다. 또한, 각 모드의 성능 향상을 위하여 HMVP(History based MVP), PAMVP(Pairwise Average MVP), CIIP(Combined Intra/Inter Prediction), AMVR(Adaptive Motion Vector Resolution), BDOF(Bi-Directional Optical-Flow), BCW(Bi-predictive with CU Weights), LIC (Local Illumination Compensation), TM(Template Matching), OBMC(Overlapped Block Motion Compensation) 등을 적용할 수도 있다.
감산기(113)는 입력 블록 및 예측 블록의 차분을 사용하여 잔여 블록을 생성할 수 있다. 잔여 블록은 잔여 신호로 칭해질 수도 있다. 잔여 신호는 원 신호 및 예측 신호 간의 차이(difference)를 의미할 수 있다. 또는, 잔여 신호는 원신호 및 예측 신호 간의 차이를 변환(transform)하거나, 양자화하거나, 또는 변환 및 양자화함으로써 생성된 신호일 수 있다. 잔여 블록은 블록 단위의 잔여 신호일 수 있다.
변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 생성할 수 있고, 생성된 변환 계수를 출력할 수 있다. 여기서, 변환 계수는 잔여 블록에 대한 변환을 수행함으로써 생성된 계수 값일 수 있다. 변환 생략(transform skip) 모드가 적용되는 경우, 변환부(130)는 잔여 블록에 대한 변환을 생략할 수도 있다.
변환 계수 또는 잔여 신호에 양자화를 적용함으로써 양자화된 레벨(quantized level)이 생성될 수 있다. 이하, 실시예들에서는 양자화된 레벨도 변환 계수로 칭해질 수 있다.
일 예로, 화면내 예측을 통해 생성된 4x4 휘도 잔차 블록은 DST(Discrete Sine Transform) 기반 기저 벡터를 통해 변환하며, 나머지 잔차 블록에 대해서는 DCT(Discrete Cosine Transform) 기반의 기저 벡터를 사용하여 변환을 수행할 수 있다. 또한 RQT(Residual Quad Tree) 기술을 통하여 하나의 블록에 대하여 변환 블록을 쿼드 트리 형태로 분할하며 RQT를 통해 분할된 각 변환 블록에 대하여 변환과 양자화를 수행하고 난 후 모든 계수가 0이 되는 경우의 부호화 효율을 높이기 위해 cbf(coded block flag)를 전송할 수 있다.
또 다른 대안으로는, 여러 변환 기저를 선택적으로 사용하여 변환을 수행하는 MTS(Multiple Transform Selection) 기술을 적용할 수도 있다. 즉, CU를 RQT를 통해 TU로 분할하지 않고, SBT(Sub-block Transform) 기술을 통해 TU분할과 유사한 기능을 수행할 수 있다. 구체적으로, SBT는 화면 간 예측 블록에만 적용되며 RQT와 달리 현재 블록을 수직 혹은 수평 방향으로 ½ 혹은 ¼ 크기로 분할한 뒤 그 중 하나의 블록에 대해서만 변환을 수행할 수 있다. 예를 들어, 수직으로 분할된 경우 맨 왼쪽 혹은 맨 오른쪽 블록에 대해 변환을 수행하고, 수평으로 분할된 경우 맨 위쪽 혹은 맨 아래쪽 블록에 대하여 변환을 수행할 수 있다.
또한 DCT 또는 DST를 통해 주파수 영역으로 변환된 잔차 신호를 추가 변환하는 2차 변환 (secondary transform) 기술인 LFNST(Low Frequency Non-Separable Transform)를 적용할 수도 있다. LFNST는 좌측 상단의 4x4 또는 8x8의 저주파수 영역에 대해서 변환을 추가적으로 수행하여 잔차 계수를 좌측 상단으로 집중시킬 수 있게 된다.
양자화부(140)는 변환 계수 또는 잔여 신호를 양자화 매개변수 (QP, Quantization parameter)에 따라 양자화함으로써 양자화된 레벨을 생성할 수 있고, 생성된 양자화된 레벨을 출력할 수 있다. 이때, 양자화부(140)에서는 양자화 행렬을 사용하여 변환 계수를 양자화할 수 있다.
일 예로, 0~51 QP 값을 사용하는 양자화기를 사용할 수 있다. 또는, 영상의 크기가 보다 크고 높은 부호화 효율이 요구되는 경우에는, 0~63 QP를 사용할 수도 있다. 또한 하나의 양자화기를 사용하는 것이 아닌 두 개의 양자화기를 사용하는 DQ(Dependent Quantization) 방법을 적용할 수도 있다. DQ는 두개의 양자화기(예, Q0, Q1)를 사용하여 양자화를 수행하되, 특정 양자화기 사용에 대한 정보를 시그널링 하지 않더라도, 상태 전이 모델을 통해 현재 상태에 기반하여 다음 변환 계수에 사용할 양자화기가 선택되도록 적용할 수 있다.
엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터(Coding Parameter) 값들 등에 대하여 확률 분포에 따른 엔트로피 부호화를 수행함으로써 비트스트림(bitstream)을 생성할 수 있고, 비트스트림을 출력할 수 있다. 엔트로피 부호화부(150)는 영상의 샘플에 관한 정보 및 영상의 복호화를 위한 정보에 대한 엔트로피 부호화를 수행할 수 있다. 예를 들면, 영상의 복호화를 위한 정보는 구문 요소(syntax element) 등을 포함할 수 있다.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼(symbol)에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 엔트로피 부호화부(150)는 엔트로피 부호화를 위해 지수 골롬(exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법을 사용할 수 있다. 예를 들면, 엔트로피 부호화부(150)는 가변 길이 부호화(Variable Length Coding/Code; VLC) 테이블을 이용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(150)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법, 확률 모델, 문맥 모델(Context Model)을 사용하여 산술 부호화를 수행할 수도 있다.
관련하여, CABAC을 적용함에 있어서, 복호화 장치에서 저장되는 확률 테이블의 크기를 줄이고자, 테이블 확률 업데이트 방식을 간단한 수식을 통한 테이블 업데이트 방식으로 변경하여 적용할 수도 있다. 또한 더 정확한 심볼의 확률 값을 얻기 위하여 2개의 서로 다른 확률 모델을 사용할 수도 있다.
엔트로피 부호화부(150)는 변환 계수 레벨(양자화된 레벨)을 부호화하기 위해 변환 계수 스캐닝(Transform Coefficient Scanning) 방법을 통해 2차원의 블록 형태(form) 계수를 1차원의 벡터 형태로 변경할 수 있다.
부호화 파라미터(Coding Parameter)는 구문 요소 (syntax element)와 같이 부호화 장치(100)에서 부호화되어 복호화 장치(200)로 시그널링되는 정보(플래그, 색인 등)뿐만 아니라, 부호화 과정 혹은 복호화 과정에서 유도되는 정보를 포함할 수 있으며, 영상을 부호화하거나 복호화할 때 필요한 정보를 의미할 수 있다.
여기서, 플래그 혹은 색인을 시그널링(signaling)한다는 것은 인코더에서는 해당 플래그 혹은 색인을 엔트로피 부호화(Entropy Encoding)하여 비트스트림(Bitstream)에 포함하는 것을 의미할 수 있고, 디코더에서는 비트스트림으로부터 해당 플래그 혹은 색인을 엔트로피 복호화(Entropy Decoding)하는 것을 의미할 수 있다.
부호화된 현재 영상은 이후에 처리되는 다른 영상에 대한 참조 영상으로서 사용될 수 있다. 따라서, 부호화 장치(100)는 부호화된 현재 영상을 다시 복원 또는 복호화할 수 있고, 복원 또는 복호화된 영상을 참조 영상으로 참조 픽처 버퍼(190)에 저장할 수 있다.
양자화된 레벨은 역양자화부(160)에서 역양자화(dequantization)될 수 있고. 역변환부(170)에서 역변환(inverse transform)될 수 있다. 역양자화 및/또는 역변환된 계수는 가산기(117)를 통해 예측 블록과 합해질 수 있다, 역양자화 및/또는 역변환된 계수와 예측 블록을 합함으로써 복원 블록(reconstructed block)이 생성될 수 있다. 여기서, 역양자화 및/또는 역변환된 계수는 역양자화 및 역변환 중 적어도 하나 이상이 수행된 계수를 의미하며, 복원된 잔여 블록을 의미할 수 있다. 상기 역양자화부(160) 및 역변환부(170)는 양자화부(140) 및 변환부(130)의 역과정으로 수행될 수 있다.
복원 블록은 필터부(180)를 거칠 수 있다. 필터부(180)는 디블록킹 필터(deblocking filter), 샘플 적응적 오프셋(Sample Adaptive Offset; SAO), 적응적 루프 필터(Adaptive Loop Filter; ALF), 양방향 필터 (Bilateral filter; BIF), LMCS (Luma Mapping with Chroma Scaling) 등을 복원 샘플, 복원 블록 또는 복원 영상에, 전부 또는 일부 필터링 기술로 적용할 수 있다. 필터부(180)는 인-루프 필터(in-loop filter)로 칭해질 수도 있다. 이때, 인-루프 필터(in-loop filter)는 LMCS를 제외하는 명칭으로 사용하기도 한다.
디블록킹 필터는 블록들 간의 경계에서 발생한 블록 왜곡을 제거할 수 있다. 디블록킹 필터를 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 샘플을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 서로 다른 필터를 적용할 수 있다.
샘플 적응적 오프셋을 이용하여 부호화 에러를 보상하기 위해 샘플 값에 적정 오프셋(offset) 값을 더할 수 있다. 샘플 적응적 오프셋은 디블록킹을 수행한 영상에 대해 샘플 단위로 원본 영상과의 오프셋을 보정할 수 있다. 영상에 포함된 샘플을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 샘플의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.
양방향 필터 (Bilateral filter; BIF) 또한 디블록킹을 수행한 영상에 대해 샘플 단위로 원본 영상과의 오프셋을 보정할 수 있다.
적응적 루프 필터는 복원 영상 및 원래의 영상을 비교한 값에 기반하여 필터링을 수행할 수 있다. 영상에 포함된 샘플을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. 적응적 루프 필터를 적용할지 여부에 관련된 정보는 부호화 유닛(Coding Unit, CU) 별로 시그널링될 수 있고, 각각의 블록에 따라 적용될 적응적 루프 필터의 모양 및 필터 계수는 달라질 수 있다.
LMCS(Luma Mapping with Chroma Scaling)에서, 루마 매핑(LM, Luma-mapping)은 piece-wise 선형 모델을 통해 휘도 값을 재맵핑 하는 것을 의미하고, 크로마 스케일링(CS, Chroma scaling)은 예측 신호의 평균 휘도 값에 따라 색차 성분의 잔차 값을 스케일링해주는 기술을 의미한다. 특히, LMCS는 HDR(High Dynamic Range) 영상의 특성을 반영한 HDR 보정 기술로 활용될 수 있다.
필터부(180)를 거친 복원 블록 또는 복원 영상은 참조 픽처 버퍼(190)에 저장될 수 있다. 필터부(180)를 거친 복원 블록은 참조 영상의 일부일 수 있다. 말하자면, 참조 영상은 필터부(180)를 거친 복원 블록들로 구성된 복원 영상일 수 있다. 저장된 참조 영상은 이후 화면 간 예측 혹은 움직임 보상에 사용될 수 있다.
도 2는 본 발명이 적용되는 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
복호화 장치(200)는 디코더, 비디오 복호화 장치 또는 영상 복호화 장치일 수 있다.
도 2를 참조하면, 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 가산기(201), 스위치 (203), 필터부(260) 및 참조 픽처 버퍼(270)를 포함할 수 있다.
복호화 장치(200)는 부호화 장치(100)에서 출력된 비트스트림을 수신할 수 있다. 복호화 장치(200)는 컴퓨터 판독가능한 기록 매체에 저장된 비트스트림을 수신하거나, 유/무선 전송 매체를 통해 스트리밍되는 비트스트림을 수신할 수 있다. 복호화 장치(200)는 비트스트림에 대하여 인트라 모드 또는 인터 모드로 복호화를 수행할 수 있다. 또한, 복호화 장치(200)는 복호화를 통해 복원된 영상 또는 복호화된 영상을 생성할 수 있고, 복원된 영상 또는 복호화된 영상을 출력할 수 있다.
복호화에 사용되는 예측 모드가 인트라 모드인 경우 스위치(203)가 인트라로 전환될 수 있다. 복호화에 사용되는 예측 모드가 인터 모드인 경우 스위치(203)가 인터로 전환될 수 있다.
복호화 장치(200)는 입력된 비트스트림을 복호화하여 복원된 잔여 블록(reconstructed residual block)을 획득할 수 있고, 예측 블록을 생성할 수 있다. 복원된 잔여 블록 및 예측 블록이 획득되면, 복호화 장치(200)는 복원된 잔여 블록과 및 예측 블록을 더함으로써 복호화 대상이 되는 복원 블록을 생성할 수 있다. 복호화 대상 블록은 현재 블록으로 칭해질 수 있다.
엔트로피 복호화부(210)는 비트스트림에 대한 확률 분포에 따른 엔트로피 복호화를 수행함으로써 심볼들을 생성할 수 있다. 생성된 심볼들은 양자화된 레벨 형태의 심볼을 포함할 수 있다. 여기에서, 엔트로피 복호화 방법은 상술된 엔트로피 부호화 방법의 역과정일 수 있다.
엔트로피 복호화부(210)는 변환 계수 레벨(양자화된 레벨)을 복호화하기 위해 변환 계수 스캐닝 방법을 통해 1차원의 벡터 형태 계수를 2차원의 블록 형태로 변경할 수 있다.
양자화된 레벨은 역양자화부(220)에서 역양자화될 수 있고, 역변환부(230)에서 역변환될 수 있다. 양자화된 레벨은 역양자화 및/또는 역변환이 수행된 결과로서, 복원된 잔여 블록으로 생성될 수 있다. 이때, 역양자화부(220)는 양자화된 레벨에 양자화 행렬을 적용할 수 있다. 복호화 장치에 적용되는 역양자화부(220) 및 역변환부(230)는 전술한 부호화 장치에 적용되는 역양자화부(160) 및 역변환부(170)와 동일한 기술을 적용할 수 있다.
인트라 모드가 사용되는 경우, 인트라 예측부(240)는 복호화 대상 블록 주변의 이미 복호화된 블록의 샘플 값을 이용하는 공간적 예측을 현재 블록에 대해 수행함으로써 예측 블록을 생성할 수 있다. 복호화 장치에 적용되는 인트라 예측부(240)는 전술한 부호화 장치에 적용되는 인트라 예측부(120)와 동일한 기술을 적용할 수 있다.
인터 모드가 사용되는 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 픽처 버퍼(270)에 저장되어 있는 참조 영상을 이용하는 움직임 보상을 현재 블록에 대해 수행함으로써 예측 블록을 생성할 수 있다. 상기 움직임 보상부(250)는 움직임 벡터의 값이 정수 값을 가지지 않을 경우에 참조 영상 내의 일부 영역에 대해 보간 필터를 적용하여 예측 블록을 생성할 수 있다. 움직임 보상을 수행하기 위해 부호화 유닛을 기준으로 해당 부호화 유닛에 포함된 예측 유닛의 움직임 보상 방법이 스킵 모드, 머지 모드, AMVP 모드, 현재 픽처 참조 모드 중 어떠한 방법인지 여부를 판단할 수 있고, 각 모드에 따라 움직임 보상을 수행할 수 있다. 복호화 장치에 적용되는 움직임 보상부(250)는 전술한 부호화 장치에 적용되는 움직임 보상부(122)와 동일한 기술을 적용할 수 있다.
가산기(201)는 복원된 잔여 블록 및 예측 블록을 가산하여 복원 블록을 생성할 수 있다. 필터부(260)는 Inverse-LMCS, 디블록킹 필터, 샘플 적응적 오프셋 및 적응적 루프 필터 등 적어도 하나를 복원 블록 또는 복원 영상에 적용할 수 있다. 복호화 장치에 적용되는 필터부(260)는 전술한 부호화 장치에 적용되는 필터부(180)에 적용된 필터링 기술과 동일한 기술을 적용할 수 있다.
필터부(260)는 복원 영상을 출력할 수 있다. 복원 블록 또는 복원 영상은 참조 픽처 버퍼(270)에 저장되어 인터 예측에 사용될 수 있다. 필터부(260)를 거친 복원 블록은 참조 영상의 일부일 수 있다. 말하자면, 참조 영상은 필터부(260)를 거친 복원 블록들로 구성된 복원 영상일 수 있다. 저장된 참조 영상은 이후 화면 간 예측 혹은 움직임 보상에 사용될 수 있다.
도 3은 본 발명이 적용될 수 있는 비디오 코딩 시스템을 개략적으로 나타내는 도면이다.
일 실시예에 따른 비디오 코딩 시스템은 부호화 장치(10) 및 복호화 장치(20)를 포함할 수 있다. 부호화 장치(10)는 부호화된 비디오(video) 및/또는 영상(image) 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 복호화 장치(20)로 전달할 수 있다.
일 실시예에 따른 부호화 장치(10)는 비디오 소스 생성부(11), 부호화부(12), 전송부(13)를 포함할 수 있다. 일 실시예에 따른 복호화 장치(20)는 수신부(21), 복호화부(22) 및 렌더링부(23)를 포함할 수 있다. 상기 부호화부(12)는 비디오/영상 부호화부라고 불릴 수 있고, 상기 복호화부(22)는 비디오/영상 복호화부라고 불릴 수 있다. 전송부(13)는 부호화부(12)에 포함될 수 있다. 수신부(21)는 복호화부(22)에 포함될 수 있다. 렌더링부(23)는 디스플레이부를 포함할 수도 있고, 디스플레이부는 별개의 디바이스 또는 외부 컴포넌트로 구성될 수도 있다.
비디오 소스 생성부(11)는 비디오/영상의 캡쳐, 합성 또는 생성 과정 등을 통하여 비디오/영상을 획득할 수 있다. 비디오 소스 생성부(11)는 비디오/영상 캡쳐 디바이스 및/또는 비디오/영상 생성 디바이스를 포함할 수 있다. 비디오/영상 캡쳐 디바이스는 예를 들어, 하나 이상의 카메라, 이전에 캡쳐된 비디오/영상을 포함하는 비디오/영상 아카이브 등을 포함할 수 있다. 비디오/영상 생성 디바이스는 예를 들어 컴퓨터, 타블렛 및 스마트폰 등을 포함할 수 있으며 (전자적으로) 비디오/영상을 생성할 수 있다. 예를 들어, 컴퓨터 등을 통하여 가상의 비디오/영상이 생성될 수 있으며, 이 경우 관련 데이터가 생성되는 과정으로 비디오/영상 캡쳐 과정이 갈음될 수 있다.
부호화부(12)는 입력 비디오/영상을 부호화할 수 있다. 부호화부(12)는 압축 및 부호화 효율을 위하여 예측, 변환, 양자화 등 일련의 절차를 수행할 수 있다. 부호화부(12)는 부호화된 데이터(부호화된 비디오/영상 정보)를 비트스트림(bitstream) 형태로 출력할 수 있다. 상기 부호화부(12)의 상세 구성은 전술한 도 1의 부호화 장치(100)와 동일하게 구성하는 것도 가능하다.
전송부(13)는 비트스트림 형태로 출력된 부호화된 비디오/영상 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 복호화 장치(20)의 수신부(21)로 전달할 수 있다. 디지털 저장 매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장 매체를 포함할 수 있다. 전송부(13)는 미리 정해진 파일 포맷을 통하여 미디어 파일을 생성하기 위한 엘리먼트를 포함할 수 있고, 방송/통신 네트워크를 통한 전송을 위한 엘리먼트를 포함할 수 있다. 수신부(21)는 상기 저장매체 또는 네트워크로부터 상기 비트스트림을 추출/수신하여 복호화부(22)로 전달할 수 있다.
복호화부(22)는 부호화부(12)의 동작에 대응하는 역양자화, 역변환, 예측 등 일련의 절차를 수행하여 비디오/영상을 복호화할 수 있다. 상기 복호화부(22)의 상세 구성은 전술한 도 2의 복호화 장치(200)와 동일하게 구성하는 것도 가능하다.
렌더링부(23)는 복호화된 비디오/영상을 렌더링할 수 있다. 렌더링된 비디오/영상은 디스플레이부를 통하여 디스플레이될 수 있다.
도 4는 화면 간 예측 모드에 있어서, 다양한 화면 간 예측 방법 중 하나를 결정하는 방법의 일 실시 예(400)를 도시한다.
일 실시 예(400)에 따르면, 현재 블록이 화면 간 예측에 의하여 예측 부호화 또는 복호화되는 경우, 단계 410에서, 현재 블록의 화면 간 예측 모드가 머지(merge) 모드인지 또는 AMVP (Advanced Motion Vector Prediction) 모드인지 여부가 판단된다.
머지 모드는 현재 블록의 움직임 벡터 및 참조 픽처 등의 움직임 정보를 현재 블록의 인접 블록으로부터 획득하는 화면 간 예측 모드이다. 반면, AMVP 모드에 따르면, 현재 블록의 주변 블록으로부터 예측 움직임 벡터가 획득되고, 예측 움직임 벡터를 제외한 차분 움직임 벡터 및 참조 픽처 정보 등 다른 움직임 정보는 비트스트림을 파싱함으로써 획득된다. 따라서, AMVP 모드는 주변 블록의 움직임 정보가 모두 현재 블록의 예측에 이용되는 머지 모드와 차이가 있다.
만약 현재 블록의 화면 간 예측 모드가 머지 모드일 경우, 단계 420에서 현재 블록의 화면 간 예측 모드가 서브 블록 머지 (Subblock Merge) 모드인지 여부가 판단된다. 만약 현재 블록의 화면 간 예측 모드가 서브 블록 머지 모드인 경우, 단계 422에서, 현재 블록은 서브 블록 머지 모드에 따라 복수의 서브 블록으로 분할되고, 각 서브 블록은 어파인 (Affine) 변환에 따른 움직임 벡터에 기초하여 예측될 수 있다.
만약 현재 블록의 화면 간 예측 모드가 서브 블록 머지 모드가 아닌 경우, 단계 430에서, 현재 블록의 화면 간 예측 모드가 일반 머지 (Regular Merge) 모드인지 여부가 판단된다. 만약 현재 블록의 화면 간 예측 모드가 일반 머지 모드가 아닌 경우, 단계 432에서 현재 블록의 화면 간 예측 모드가 결합한 화면 내 화면 간 예측(combined intra inter prediction, CIIP) 모드인지 여부가 판단된다.
만약 현재 블록의 화면 간 예측 모드가 화면 내 화면 간 예측 모드가 아닌 경우, 단계 434에서, 현재 블록의 화면 간 예측 모드는 기하 파티션 (Geometric Partition) 모드로 결정된다. 기하 파티션 모드는 현재 블록을 소정의 경계를 기준으로 두 개의 파티션으로 분할하고, 두 개의 파티션에 대한 두 개의 예측 블록을 조합하여 현재 블록의 최종 예측 블록을 결정하는 화면 간 예측 모드이다. 단계 436에서, 현재 블록의 화면 간 예측 모드는 결합한 화면 내 화면 간 예측 모드로 결정된다. 결합한 화면 내 화면 간 예측 모드에 따르면, 현재 블록의 화면 내 예측에 따른 예측 블록과 현재 블록의 화면 간 예측에 따른 예측 블록을 조합함으로써 현재 블록의 최종 예측 블록이 결정될 수 있다.
만약 현재 블록의 화면 간 예측 모드가 일반 머지 모드인 경우, 단계 440에서 현재 블록의 화면 간 예측 모드가 차분 움직임 벡터 머지 모드 (Merge mode with Motion Vector Difference, MMVD) 인지 여부가 판단된다. 차분 움직임 벡터 머지 모드에 의하면, 주변 블록으로부터 획득된 움직임 벡터에 차분 움직임 벡터를 더함으로써, 현재 블록의 최종 움직임 벡터가 결정된다. 차분 움직임 벡터 머지 모드에서, 차분 움직임 벡터의 방향은 +x, -x, +y, -y 중 하나로 제한될 수 있다. 또한 차분 움직임 벡터 머지 모드에서, 차분 움직임 벡터의 크기는 제한된 개수의 소정의 크기 후보 중에서 선택되는 것으로 제한될 수 있다
만약 현재 블록의 화면 간 예측 모드가 차분 움직임 벡터 머지 모드일 경우, 현재 블록은 차분 움직임 벡터 머지 모드에 따라 예측된다. 그리고 현재 블록이 양방향 예측된 경우, 단계 446에서 양방향 옵티컬 플로우 (Bi-Directional Optical Flow, BDOF) 모드에 의하여, 현재 블록의 예측 블록이 조정될 수 있다.
만약 현재 블록의 화면 간 예측 모드가 차분 움직임 벡터 머지 모드가 아닐 경우, 단계 444에서, 현재 블록에 일반 머지 모드가 적용된다. 그리고 현재 블록이 양방향 예측된 경우, 단계 450에서 복호화측 움직임 벡터 보정 모드에 따라, 현재 블록의 움직임 벡터가 보정될 수 있다. 그리고 단계 452에서, 단계 446과 마찬가지로, 양방향 옵티컬 플로우 모드에 의하여, 현재 블록의 예측 블록이 조정될 수 있다.
복호화측 움직임 벡터 보정은, 일반 머지 모드에서 유도한 양방향 움직임 벡터의 복호화에 있어서, 추가 정보를 파싱하지 않고, 쌍방 일치 기반의 움직임 벡터 탐색 과정을 통해 움직임 벡터를 보정하는 방법이다. 복호화측 움직임 벡터 보정에 따라, 일반 머지 모드에서 움직임 벡터의 정확도가 향상될 수 있다. 그리고, 이에 따라 일반 머지 모드의 부호화 효율이 향상될 수 있다.
도 4에서는 복호화측 움직임 벡터 보정 모드가 일반 머지 모드에서만 적용되는 것으로 설명되었지만, 실시 예에 따라, 서브 블록 머지 모드, 기하 파티션 모드, 결합한 화면 내 화면 간 예측 모드, 차분 움직임 벡터 머지 모드에도 복호화측 움직임 벡터 보정 모드가 적용될 수 있다.
비트스트림으로부터 파싱된 플래그 정보에 기초하여, 도 4의 단계 410, 420, 430, 432, 및 440에서 현재 블록의 화면 간 예측 모드가 결정될 수 있다. 예를 들어, 단계 410에서, 머지 플래그, 단계 420에서 서브 블록 머지 플래그, 단계 430에서 일반 머지 플래그, 단계 432에서 결합한 화면 내 화면 간 예측 플래그, 단계 440에서 차분 움직임 벡터 머지 플래그가 비트스트림으로부터 각각 파싱될 수 있다.
이하, 본 발명에서, 단계 450에서 설명된 복호화측 움직임 벡터 보정에 대한 실시 예들이 자세히 설명된다. 본 발명에서, 복호화측 움직임 벡터 보정의 수행 조건에 대한 다양한 실시 예가 제공된다. 또한 복호화측 움직임 벡터 보정에서 쌍방 일치를 기반으로 움직임 벡터를 탐색하는 대신, 템플릿 매칭(template matching, TM)을 기반으로 움직임 벡터가 탐색하는 실시 예가 제공된다. 그리고 복호화측 움직임 벡터 보정에서 서로 다른 부호화 단위 가중 값이 사용되는 실시 예가 제공된다.
도 4에 따른 복호화측 움직임 벡터 보정 (DMVR)의 일 실시 예에서, 일반 머지 모드로 예측된 양방향 움직임 벡터는 쌍방 일치 (Bilateral matching, BM) 기반의 움직임 탐색을 통해 보정된다. 일 실시 예에 따르면, 최적의 참조 블록을 찾기 위하여 초기 움직임 벡터로부터 참조 블록의 주변 블록들이 탐색될 수 있다. 이 때, 쌍방 일치(Bilateral Matching, BM)를 기반으로 두 참조 픽처에 위치한 두 참조 블록 간의 왜곡 (Distortion) 정도를 최소화하는 움직임 벡터가 초기 움직임 벡터로부터 탐색된다.
복호화측 움직임 벡터 보정은 일반 머지 모드로 예측된 모든 양방향 움직임 벡터에 적용하지 않고 하나 이상의 소정의 조건이 모두 만족되는 경우에 대해서만 적용될 수 있다. 상기 소정의 조건이 이하 설명된다.
일 실시 예에 따르면, 부호화 단위 (coding unit, CU) 블록이 머지 모드일 때, 복호화측 움직임 벡터 보정이 적용될 수 있다. 또한, 부호화 단위 블록이 어파인 변환에 따른 화면 간 예측이 적용되는 서브 블록 머지 모드가 아닐 때, 복호화측 움직임 벡터 보정이 적용될 수 있다. 또한, 부호화 단위 블록에 대하여 차분 움직임 벡터 머지 모드(merge mode with motion vector difference, MMVD)가 적용되지 않을 때, 복호화측 움직임 벡터 보정이 적용될 수 있다.
일 실시 예에 따르면, 부호화 단위 블록은 쌍예측 모드(Bi-prediction mode)일 때, 복호화측 움직임 벡터 보정이 적용될 수 있다. 또한 일 실시 예에 따르면, 부호화 단위 블록이 참조하는 2개의 참조 픽처가 각각 현재 픽처로부터 시간적으로 반대 방향에 위치할 때, 복호화측 움직임 벡터 보정이 적용될 수 있다. 예를 들어, 2개의 참조 픽처 중 제1 참조 픽처가 현재 픽처로부터 시간적으로 선행하고, 제2 참조 픽처가 현재 픽처로부터 시간적으로 후행할 때, 복호화측 움직임 벡터 보정이 적용될 수 있다.
일 실시 예에 따르면, 두 참조 픽처와 현재 픽처 간의 시간적 거리가 동일할 때, 복호화측 움직임 벡터 보정이 적용될 수 있다. 상기 시간적 거리는 참조 픽처와 현재 픽처 간의 POC (Picture Order Count) 차이의 크기를 의미할 수 있다. 본 발명에서 픽처 간의 거리는 상기 시간적 거리 및 POC 차이의 크기를 나타낸다.
실시 예에 따라, 두 참조 픽처와 현재 픽처 간의 시간적 거리가 다를 경우에도, 복호화측 움직임 벡터 보정이 적용될 수 있다. 시간적 거리 동일 조건을 적용하지 않음으로써, 일반 머지 모드에서 복호화측 움직임 벡터 보정이 더 많이 적용될 수 있다. 따라서, 상기 수행 조건의 완화로 복호화측 움직임 벡터 보정이 더 많이 수행됨에 따라 부호화 효율이 향상될 수 있다.
일 실시 예에 따르면, 두 참조 픽처는 단기 참조 픽처 (short-term reference picture)일 때, 복호화측 움직임 벡터 보정이 적용될 수 있다.
일 실시 예에 따르면, 부호화 단위 블록의 크기에 따라 복호화측 움직임 벡터 보정의 적용 여부가 결정될 수 있다. 예를 들어, 부호화 단위 블록의 크기가 소정의 크기보다 클 때, 복호화측 움직임 벡터 보정이 적용될 수 있다. 소정의 크기는 부호화 단위 블록에 포함된 휘도 샘플의 개수로 표현될 수 있다. 그리고 소정의 크기는 64, 128, 256, 512, 1024 와 같이 2의 제곱수일 수 있다.
일 실시 예에 따르면, 부호화 단위 블록의 너비와 높이에 따라 복호화측 움직임 벡터 보정의 적용 여부가 결정될 수 있다. 예를 들어, 부호화 단위 블록의 높이 및/또는 너비가 소정의 값보다 클 때, 복호화측 움직임 벡터 보정이 적용될 수 있다. 상기 소정의 값은 4, 8, 16, 32 와 같이 2의 제곱수일 수 있다.
일 실시 예에 따르면, 부호화 단위 블록의 두 개의 예측 블록에 적용되는 양방향 부호화 단위 가중 값들이 서로 동일할 때, 복호화측 움직임 벡터 보정이 적용될 수 있다. 부호화 단위 블록의 최종 예측 블록은 양방향 예측으로부터 획득되는 두 개의 예측 블록의 가중 평균으로 결정된다. 이 때, 양방향 부호화 단위 가중 값은, 두 개의 예측 블록의 가중 평균을 결정하기 위하여 사용된다. 다만 실시 예에 따라, 두 개의 예측 블록에 적용되는 양방향 부호화 단위 가중 값들이 서로 다른 경우에도 복호화측 움직임 벡터 보정이 적용되도록 설정될 수 있다.
일 실시 예에 따르면, 결합한 화면 내 화면 간 예측(combined intra inter prediction, CIIP)이 적용되지 않는 경우에, 복호화측 움직임 벡터 보정이 적용될 수 있다. 결합한 화면 내 화면 간 예측에 따르면, 하나의 블록에 대하여 화면 내 예측으로부터 도출된 제1 예측 블록과 화면 간 예측으로부터 도출된 제2 예측 블록을 가중 평균함으로써, 최종 예측 블록을 결정하는 예측 방법이다.
일 실시 예에 따르면, 복호화측 움직임 벡터 보정이 수행되기 위한 조건에 상기 설명된 복수의 조건 중 적어도 하나가 포함될 수 있다.
복호화측 움직임 벡터 보정이 수행되기 위한 조건이 증가할 수록 복호화측 움직임 벡터 보정의 빈도가 감소할 수 있다. 반대로, 복호화측 움직임 벡터 보정이 수행되기 위한 조건이 감소할 수록 복호화측 움직임 벡터 보정의 빈도가 증가할 수 있다. 따라서, 복호화측 움직임 벡터 보정의 조건에 따라, 움직임 벡터 보정의 빈도 및 그에 따른 머지 모드의 부호화 효율이 결정될 수 있다.
도 5는 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일한 경우, 복호화측 움직임 벡터 보정의 일 실시 예를 나타낸다.
도 5에서 현재 블록(500)과 L0 참조 픽처(520)는 N의 POC 거리를 가진다. 그리고 현재 블록(500)과 L1 참조 픽처(540) 역시 N의 POC 거리를 가진다. 따라서, 현재 블록(500)과 L0 참조 픽처(520) 간의 거리와 현재 블록(500)과 L1 참조 픽처(540) 간의 거리는 동일하다.
현재 블록(500)은 주변 블록의 움직임 정보에 기초하여, L0 및 L1 방향의 초기 움직임 벡터 MV0 (522)과 MV1 (542)를 획득할 수 있다. MV0 (522)과 MV1 (542)은 각각 최초 참조 블록(524, 544)를 가리킨다. 경우에 따라, 최초 참조 블록(524, 544) 주변에 현재 블록의 예측에 더 적합한 참조 블록이 있을 수 있는 바, 쌍방 일치에 기반하여 더 적합한 참조 블록을 가리키는 움직임 벡터가 탐색된다.
앞서 설명된 바와 같이, MV0 (522)과 MV1 (542)은 각각 일반 머지 모드에서 유도한 L0 및 L1 방향의 초기 움직임 벡터이다. MV0' (528)는 L0 방향의 초기 움직임 벡터인 MV0 (522)를 MVdiff (526)만큼 보정한 움직임 벡터이다. 그리고 MV1' (548)은 L1 방향의 초기 움직임 벡터인 MV1 (542)을 - MVdiff (546)만큼 보정한 움직임 벡터이다. MVdiff (526)와 - MVdiff (546)는 각각 L0 차분 움직임 벡터와 L1 차분 움직임 벡터이다. L0 차분 움직임 벡터와 L1 차분 움직임 벡터는 크기가 동일하나, 방향은 반대로 설정된다.
L0 참조 픽처(520)에서 MV0'(528)이 지시하는 참조 블록(530)과 L1 참조 픽처(540)에서 MV1'(548)이 지시하는 참조 블록(550) 간의 왜곡이 최소가 될 경우, MV0'(528)과 MV1'(548)이 현재 블록(502)의 최종 움직임 벡터로 결정될 수 있다. 이 때, 두 참조 블록 간의 절대 차이의 합 (sum of absolute difference, SAD) 혹은 제곱 오차의 합 (sum of squared error, SSE) 등 다양한 왜곡 (Distortion) 측정 방법이 사용될 수 있다.
최종적으로, MV0'(528)과 MV1'(548)가 왜곡이 최소가 되는 최종 움직임 벡터일 때, 최종 움직임 벡터 MV0' (528)과 MV1' (548)을 사용하여 두 예측 블록 PL0(530)과 PL1(550)이 결정된다.
이하, 부호화 단위 가중 값을 사용하는 양방향 예측 (Bi-prediction with Coding Unit-level weight, BCW)이 설명된다.
부호화 단위 가중 값을 사용하는 양방향 예측 (Bi-prediction with Coding Unit-level weight, BCW)에서, L0 방향과 L1 방향의 움직임 벡터로부터 유도된 두 개의 예측 블록에 적응적 가중 값을 적용함으로써 예측 블록이 생성될 수 있다. 부호화 단위 가중 값을 사용하는 양방향 예측에서, 수학식 1을 사용하여 예측 블록이 계산될 수 있다.
Figure pat00001
여기서, P0과 P1은 각각 L0 참조 픽처로부터 움직임 보상된 예측 블록과 L1 참조 픽처로부터 움직임 보상된 예측 블록을 나타낸다. w는 각 참조 블록에 적용되는 가중 값을 의미하고, w의 값은 현재 픽처가 저지연 (low delay) 픽처인지 아닌지에 따라 다르게 결정된다. 만약 현재 픽처가 저지연 픽처이면 5개의 가중 값(w ∈ {-2, 3, 4, 5, 10})이 사용될 수 있다. 만약 현재 픽처가 저지연 픽처가 아니면 3개의 가중 값(w ∈ {3, 4, 5})이 사용될 수 있다.
부호화 단위 가중 값을 사용하는 양방향 예측에서, 현재 부호화 단위 (coding unit, CU) 블록이 머지 모드(merge mode)일 경우, 가중 값 정보는 머지 후보 블록으로부터 유도될 수 있다. 현재 블록이 머지 모드가 아닌 경우, 움직임 벡터 차분 정보가 파싱된 후, 가중 값 정보가 파싱될 수 있다.
수학식 2는 복호화측 움직임 벡터 보정 방법을 사용하여 최종 예측 블록을 생성하는 방법을 나타낸다.
Figure pat00002
수학식 2에서 PL0, PL1 그리고 PredFinal는 각각 L0 참조 픽처에서 MV0' 움직임 벡터가 지시하는 예측 블록, L1 참조 픽처에서 MV1' 움직임 벡터가 지시하는 예측 블록 그리고 두 예측 블록을 사용하여 생성한 최종 예측 블록을 나타낸다. 도 5에서 보듯이 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하므로 각각의 참조 픽처에서 생성한 예측 블록(PL0과 PL1)에 동일한 가중 값을 할당하여 최종 예측 블록이 생성될 수 있다.
일 실시 예에 따른 복호화측 움직임 벡터 보정 방법에 따라 예측 블록을 생성하는 방법은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일한 경우에만 사용될 수 있다. 이 때, 두 참조 픽처로부터 생성한 두 예측 블록을 평균하여 예측 블록이 생성될 수 있다. 하지만, 모든 경우에 대해 평균을 사용하여 예측 블록을 생성할 경우, 부호화 효율에 한계가 있을 수 있다. 따라서 최종 예측 블록을 생성할 때, L0의 예측 블록 PL0와 L1의 예측 블록 PL1에 서로 다른 가중 값을 할당하여 최종 예측 블록이 생성될 수 있다. 이 때, 두 예측 블록에 적응적 가중 값을 할당하여 최종 예측 블록을 생성하기 위하여, 부호화 단위 가중 값을 사용하는 양방향 예측(Bi-prediction with CU-level weight, BCW)에서 최종 예측 블록을 생성하기 위한 수학식 1이 사용될 수 있다.
부호화 단위 가중 값을 사용하는 양방향 예측에 있어서, 현재 픽처가 저지연 (low delay) 픽처인지 여부에 따라 서로 다른 가중 값이 사용될 수 있다. 부호화 단위 가중 값을 사용하는 양방향 예측에서, 가중 값 결정은 현재 부호화 단위 (coding unit, CU) 블록이 머지 모드인 경우, 가중 값 정보는 머지 후보 블록으로부터 유도될 수 있다. 그렇지 않은 경우, 머지 모드가 아닌 경우 가중 값 정보가 비트스트림으로부터 파싱될 수 있다.
일 실시 예에 따르면, 부호화 단위 가중 값을 사용하는 양방향 예측에 있어서, 상기 결정된 가중 값에 따라 예측 블록이 생성될 수 있다. 예를 들어, 예측 블록 생성에 저지연 픽처에서 사용하는 5개의 가중 값(w ∈ {-2, 3, 4, 5, 10})이 사용될 수 있다. 또는 예측 블록 생성에 저지연 픽처가 아닌 경우에 사용하는 3개의 가중 값(w ∈ {3, 4, 5})이 사용될 수 있다. 또는 미리 정한 임의의 가중 값을 사용할 수 있다. 이 때 사용되는 가중 값의 개수는 임의로 결정될 수 있다.
일 실시 예에 따르면, 부호화기에서 결정된 가중 값 정보는 전송 및 파싱된다. 이 때, 가중 값 정보의 전송/파싱 방법은 사용한 가중 값을 고려하여 고정 길이 코드(fixed length code, FLC), 단항 코드(unary code), 혹은 절삭형 이진 코드(truncated binary code) 등의 방법이 사용될 수 있다.
대신, 양방향 부호화 단위 가중 값은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리에 기초하여 결정될 수 있다.
이하, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우, 복호화측 움직임 벡터 보정을 적용하는 방법 및 최종 예측 블록을 생성하는 방법이 설명된다.
만약 복호화측 움직임 벡터 보정 방법의 적용 조건에 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일할 조건이 요구된다면, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우, 현재 블록에 복호화측 움직임 벡터 보정이 적용되지 않는다. 하지만, 복호화측 움직임 벡터 보정 방법의 적용 조건에 상기 조건이 제외된다면, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우에도 현재 블록에 복호화측 움직임 벡터 보정 방법이 적용될 수 있다.
따라서, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우, 복호화측 움직임 벡터 보정 및 최종 예측 블록 도출을 위한, 다양한 실시 예가 논의될 수 있다. 본 발명에서, 복호화측 움직임 벡터 보정을 위하여, L0 차분 움직임 벡터와 L1 차분 움직임 벡터의 관계에 대한 실시 예가 이하 논의된다. 또한, 본 발명에서 최종 예측 블록을 결정함에 있어서 필요한 가중 값에 대한 실시 예가 이하 논의된다.
이하, 도 6은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우, 복호화측 움직임 벡터 보정을 도시한다.
도 6에서 현재 픽처(600)는 t 시간의 픽처이고 L0 참조 픽처(620)와 L1 참조 픽처(640)는 각각 t-M 시간(t-M > 0)과 t+N 시간(t+N > 0)의 픽처이다(t-M < t+N). 여기서 M과 N은 서로 다른 (M < N) 임의의 양의 정수 값이다. 따라서 도 6에서 보듯이 L0 참조 픽처(620)와 현재 픽처(600) 간의 시간적 거리와 L1 참조 픽처(640)와 현재 픽처(600) 간의 시간적 거리는 동일하지 않다.
도 6에 따르면, 일반 머지 모드에서 유도한 L0 방향 움직임 벡터 MV0 (622) 및 L1 방향 움직임 벡터 MV1 (642)는 초기 움직임 벡터이다. MV0 (622)과 MV1 (642)은 각각 최초 참조 블록(624, 644)를 가리킨다. 그리고 MV0 (622)을 MVdiff_L0 (626)만큼 보정함으로써 움직임 벡터 MV0' (628)이 결정된다. 그리고 MV1 (642)을 MVdiff_L1 (646)만큼 보정함으로써 움직임 벡터 MV1' (648)가 결정된다. MVdiff_L1 (646)은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비를 고려하여 MVdiff_L0 (626)로부터 결정될 수 있다. 상기 움직임 벡터 MV0' (628)와 MV1' (648)는 블록 PL0 (630)와 블록 PL1 (650) 간의 왜곡이 가장 작을 경우, 각각 L0 방향과 L1 방향의 최종 움직임 벡터로 유도될 수 있다. 수학식 3은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비를 고려하여 MVdiff_L0에 대응하는 MVdiff_L1을 계산하는 방법을 나타낸다.
수학식 3에서, M과 N은 각각 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리를 의미한다. 여기서 M과 N은 서로 다른 임의의 양의 정수 값이다. 또한 수학식 3에서, MVdiff_L1_x, MVdiff_L1_y, MVdiff_L0_x, 그리고 MVdiff_L0_y는 각각 MVdiff_L1의 x 방향 움직임 정보, MVdiff_L1의 y 방향 움직임 정보, MVdiff_L0의 x 방향 움직임 정보 그리고 MVdiff_L0의 y 방향 움직임 정보를 나타낸다. 수학식 3에서 보듯이 MVdiff_L0에 대응하는 MVdiff_L1은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비(M : N)를 고려하여 대칭으로 계산한다. 최종 L1 방향의 움직임 벡터인 MV1에 계산된 MVdiff_L1 (MVdiff_L1_x 와 MVdiff_L1_y)만큼 보정한 움직임 벡터 MV1'을 L1 방향의 최종 움직임 벡터로 유도할 수 있다. 수학식 3에서는 MVdiff_L0의 움직임 정보에 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비를 반영하여 MVdiff_L1의 움직임 정보를 계산하였지만, 반대로 MVdiff_L1의 움직임 정보에 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비를 반영하여 MVdiff_L0의 움직임 정보를 계산할 수도 있다.
수학식 3에서 결정된 MVdiff_L1_x 및 MVdiff_L1_y는 MVdiff_L0_x 및 MVdiff_L0_y N/M을 곱하여 결정되는 바, MVdiff_L1_x 및 MVdiff_L1_y 의 값은 정수가 아닌 값일 수 있다. 따라서 일 실시 예에 따르면, MVdiff_L1_x 및 MVdiff_L1_y는 정수 단위의 값으로 조정될 수 있다. 이 때, MVdiff_L1_x 와 MVdiff_L1_y는 반올림 또는 버림 프로세스에 따라 정수화될 수 있다. 또는 MVdiff_L1_x 및 MVdiff_L1_y는 반올림 또는 버림 프로세스에 따라 정수 단위가 아닌 소정의 정밀도로 조정될 수 있다. 상기 소정의 정밀도는 1/2, 1/4 등일 수 있다.
일 실시 예에 따르면, MVdiff_L1_x, MVdiff_L1_y, MVdiff_L0_x, 그리고 MVdiff_L0_y의 절대값은 소정의 범위로 제한될 수 있다. 상기 소정의 범위는 1, 2, 4, 8 정수 샘플 단위 등으로 결정될 수 있다. 또한 MVdiff_L1_x 및 MVdiff_L1_y의 소정의 범위는 M과 N의 비율을 고려하여 MVdiff_L0_x 및 MVdiff_L0_y 의 소정의 범위와 다르게 결정될 수 있다. 예를 들어, MVdiff_L1_x, MVdiff_L1_y, MVdiff_L0_x, 그리고 MVdiff_L0_y의 절대값은 1, 2, 4, 8 중 하나보다 같거나 작도록 설정될 수 있다.
앞서 설명된 바와 같이, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비를 고려하여 움직임 벡터를 보정함으로써, 움직임 벡터 정확도가 향상될 수 있다.
이하, 최종 예측 블록을 결정함에 있어서 필요한 가중 값에 대한 실시 예가 이하 논의된다.
도 6과 같이 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우, 복호화측 움직임 벡터 보정 방법을 적용할 때, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리를 고려하여 양방향 부호화 단위 가중 값이 결정될 수 있다. 그리고, 상기 결정된 가중 값에 따라 최종 예측 블록이 생성될 수 있다.
일 실시 예에 따르면, 도 5와 같이, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일한 경우, 수학식 2과 같이, 보정된 움직임 벡터 MV0' 및 MV1'이 지시하는 예측 블록 PL0과 PL1에 동일한 가중 값을 사용하여 현재 블록에 대한 최종 예측 블록이 생성될 수 있다.
그러나 도 6과 같이 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리를 고려하여 각각의 예측 블록에 적용할 가중 값이 결정될 수 있다.
앞서 설명된 바와 같이, L0 및 L1 방향 움직임 벡터 MV0과 MV1가 초기 움직임 벡터로 결정될 수 있다. 그리고 L0 방향의 움직임 벡터인 MV0을 MVdiff_L0 만큼 보정한 움직임 벡터 MV0'과 L1 방향의 움직임 벡터인 MV1을 MVdiff_L1 만큼 보정한 움직임 벡터 MV1'을 사용하여, L0 방향의 예측 블록 PL0과 L1 방향의 예측 블록 PL1이 결정될 수 있다.
최종 예측 블록은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비율에 따른 서로 다른 가중 값을 사용하여 계산된다. 이하, 수학식 4는 복호기에서 보정된 움직임 벡터를 사용하여 각 예측 블록을 생성하고 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리를 고려하여 각각의 예측 블록에 서로 다른 가중 값을 할당하여 최종 예측 블록을 생성하는 방법을 나타낸다.
Figure pat00004
수학식 4에서 M과 N은 각각 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리를 의미한다. 여기서 M과 N은 서로 다른 (M < N) 임의의 양의 정수 값이다. 수학식 4에서 보듯이 PL0의 가중 값()과 PL1의 가중 값()은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비를 고려하여 계산한다. 수학식 4에 따르면, 현재 픽처와 더 가까운 참조 픽처의 예측 블록(PL0)에는 더 큰 가중 값( > )이 할당된다. 반대로, 현재 픽처와 더 먼 참조 픽처의 예측 블록(PL1)에는 더 작은 가중 값( > )이 할당된다. 수학식 4에서 사용한 가중 값은 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비를 고려하여 유도하므로 비트스트림으로부터 명시적으로 가중 값 정보를 획득할 필요가 없다.
일 실시 예에 의하면, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 동일하지 않은 경우에도 가중 값 정보가 비트스트림으로부터 파싱될 수 있다. 실시 예에 따라, 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리가 서로 다른 경우에도, 픽처들의 특성을 고려하여 가중 값이 결정되거나, 비트스트림으로부터 가중 값 정보를 획득하여 가중 값이 결정될 수 있다.
또한 예측 블록 생성을 위하여 미리 정한 임의의 가중 값이 사용될 수 있다. 즉, 저지연 픽처에서 사용하는 가중 값이 적용될 수도 있고, 또는 저지연 픽처가 아닌 경우에 사용하는 가중 값이 적용될 수 있다. 또는 미리 정한 임의의 가중 값이 적용될 수 있다. 이 때 사용하는 가중 값의 수도 임의로 결정될 수 있다.
부호화기에서 결정된 가중 값 정보는 비트스트림으로부터 파싱될 수 있다. 이 때, 가중 값 정보의 전송/파싱 방법은 사용한 가중 값을 고려하여 고정 길이 코드(fixed length code, FLC), 단항 코드(unary code), 혹은 절삭형 이진 코드(truncated binary code) 등 임의의 효율적인 방법이 사용될 수 있다.
일 실시 예에 따르면, 템플릿 매칭 방법을 사용하여 복호화측 움직임 벡터 보정 및 최종 예측 블록 생성이 수행될 수 잇다.
복호화측 움직임 벡터 보정 방법에 있어서, 쌍방 일치 (Bilateral matching, BM) 방법 대신 템플릿 매칭 (Template matching, TM) 방법이 적용될 수 있다. 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 동일성 여부와 상관없이, 템플릿 매칭 방법이 복호화측 움직임 벡터 보정 방법에 적용될 수 있다.
도 7은 템플릿 매칭 방법 기반의 복호화측 움직임 벡터 보정 방법을 설명한다.
도 7에서 현재 픽처(700)는 t 시간의 픽처이고 L0 참조 픽처(720)와 L1 참조 픽처(740)는 각각 t-M 시간(t-M > 0)과 t+N 시간(t+N > 0)의 픽처이다(t-M < t+N). 여기서 M과 N은 서로 다른 (M < N) 임의의 양의 정수 값이다. 따라서 도 7에서 보듯이 L0 참조 픽처(720)와 현재 픽처(700) 간의 시간적 거리와 L1 참조 픽처(740)와 현재 픽처(700) 간의 시간적 거리는 각각 M과 N으로 동일하지 않다.
도 7에서, 템플릿 매칭 방법을 기반으로 현재 템플릿(current template) (704), L0 참조 템플릿 (L0 reference template) (732), L1 참조 템플릿 (L1 reference template) (752)을 비교함으로써 최종 움직임 벡터 MV0' (728) 및 MV1' (748)이 결정될 수 있다. 그리고 결정된 최종 움직임 벡터 MV0' (728) 및 MV1' (748)로부터 유도된 예측 블록 PL0 (730) 및 PL1 (750)에 기초하여, 최종 예측 블록이 생성될 수 있다.
템플릿 매칭 기반 복호화측 움직임 벡터 보정 방법에서, 일반 머지 모드에서 유도한 L0 방향의 움직임 벡터 MV0 (722)과 L1 방향의 움직임 벡터 MV1 (742)는 초기 움직임 벡터로 결정된다. 그리고 현재 템플릿 (704), L0 참조 템플릿 (732), 및 L1 참조 템플릿 (752)의 왜곡 정도를 최소화하는 움직임 벡터가 상기 두 초기 움직임 벡터를 중심으로 탐색될 수 있다. 그리고 상기 왜곡이 가장 적은 움직임 벡터들이 최종 움직임 벡터 MV0' (728) 및 MV1' (748)로 결정될 수 있다.
상기 MVdiff_L1는 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비를 고려하여 MVdiff_L0로부터 계산될 수 있다. MVdiff_L1은 앞서 설명된 수학식 3에 따라 계산될 수 있다. 수학식 3과 반대로, MVdiff_L0이 MVdiff_L1와 현재 픽처와 L0 참조 픽처의 시간적 거리와 현재 픽처와 L1 참조 픽처의 시간적 거리의 비에 기초하여 계산될 수도 있다.
본 발명의 템플릿 매칭 기반 복호화측 움직임 벡터 보정 방법에 따르면, 초기 움직임 벡터 MV0과 MV1를 중심으로 템플릿간 왜곡이 최소화되는 움직임 벡터가 두 참조 픽처에서 검색된다. 이 때, 상기 검색은 초기 움직임 벡터의 보정 움직임 벡터를 나타내는 MVdiff_L0와 MVdiff_L1에 기초하여 수행된다. 상기 MVdiff_L0와 MVdiff_L1는 서로 반대의 부호를 가지며, L0 참조 픽처와 현재 픽처 간의 시간적 거리와 L1 참조 픽처와 현재 픽처 간의 시간적 거리의 비율에 따라, MVdiff_L0와 MVdiff_L1의 크기의 비율이 결정될 수 있다. 상기 MVdiff_L0와 MVdiff_L1를 각각 MV0과 MV1에 더함으로써, 보정된 움직임 벡터 MV0'과 MV1'가 결정된다.
보정된 움직임 벡터 MV0'과 MV1'에 의한 왜곡을 구하기 위하여, MV0'이 지시하는 블록의 참조 템플릿(L0 reference template)과 MV1'이 지시하는 블록의 참조 템플릿(L1 reference template)을 사용하여 최종 템플릿(final template)이 생성된다. 그리고 생성된 최종 템플릿과 현재 템플릿 (current template) 간의 왜곡의 정도가 결정된다. 일정 범위의 MVdiff_L0와 MVdiff_L1에 대한 MV0'과 MV1' 후보들에 대하여 왜곡의 정도가 각각 계산된다. 그리고 왜곡이 최소가 되는 MV0'과 MV1'이 최종 움직임 벡터로 결정된다. 이 때, 절대 차이의 합 (sum of absolute difference, SAD) 혹은 오차의 제곱 합 (sum of squared error, SSE) 등 임의의 왜곡 측정 방법이 사용될 수 있다. 수학식 5와 수학식 6은 L0 참조 템플릿(L0 reference template)과 L1 참조 템플릿(L1 reference template)으로부터 최종 템플릿(final template)을 계산하는 방법을 나타낸다.
Figure pat00011
Figure pat00012
수학식 5과 수학식 6에서 TemplateL0, TemplateL1, 그리고 Templatefinal은 각각 L0 참조 템플릿(L0 reference template), L1 참조 템플릿(L1 reference template), 그리고 최종 템플릿을 나타낸다. 수학식 5에 따르면, L0 참조 픽처와 현재 픽처 간의 시간적 거리와 L1 참조 픽처와 현재 픽처 간의 시간적 거리의 비율과 상관없이 두 참조 픽처의 템플릿의 평균으로 최종 템플릿이 계산된다. 반면, 수학식 6에 따르면, L0 참조 픽처와 현재 픽처 간의 시간적 거리와 L1 참조 픽처와 현재 픽처 간의 시간적 거리의 비율에 따라, L0 참조 템플릿과 L1 참조 템플릿으로부터 최종 템플릿이 계산된다. 최종 템플릿은 수학식 5 및 수학식 6 중 임의의 방법을 사용하여 계산될 수 있다.
템플릿 매칭 기반 복호화측 움직임 벡터 보정 방법은 일반 머지 모드로 예측된 양방향 움직임 벡터의 보정에 적용될 수 있다.
이하, 템플릿 매칭 기반 가중 값 결정 방법의 실시 예들이 설명된다.
도 7에 따르면, L0 방향의 초기 움직임 벡터 MV0 (722)과 L1 방향의 초기 움직임 벡터 MV1 (742)로부터 MV0 (722)을 MVdiff_L0 (726)만큼 보정한 움직임 벡터 MV0' (728)와 MV1 (742)을 MVdiff_L1 (746)만큼 보정한 움직임 벡터 MV1' (748)이 획득된다. 그리고 L0 참조 픽처(720)에서 움직임 벡터 MV0' (728)가 나타내는 블록의 L0 참조 템플릿 (732)과 및 L1 참조 픽처(740)에서 움직임 벡터 MV1' (748)가 나타내는 블록의 L1 참조 템플릿 (752)이 결정된다. L0 참조 템플릿(732)과 현재 템플릿(704) 간의 왜곡을 DL0라 하고 L1 참조 템플릿(752)과 현재 템플릿(704) 간의 왜곡을 DL1이라 정의하면 최종 예측 블록은 수학식 7을 사용하여 계산될 수 있다.
Figure pat00013
수학식 7에 따르면, L0 방향의 예측 블록 PL0의 가중 값()은 L1 참조 템플릿과 현재 템플릿 간의 왜곡 DL1을 사용하여 계산된다. 그리고 반대로 L1 방향의 예측 블록 PL1의 가중 값()은 L0 참조 템플릿과 현재 템플릿 간의 왜곡 DL0를 사용하여 계산된다. 이러한 가중 값의 차이는 왜곡 값이 작을수록 현재 신호와 참조 신호의 유사도가 크고, 반대로 왜곡 값이 클수록 현재 신호와 참조 신호의 유사도가 작은 것에서 기인한다. 현재 템플릿과 참조 템플릿의 왜곡은 절대 차이의 합 (sum of absolute difference, SAD) 혹은 오차의 제곱 합 (sum of squared error, SSE) 등 임의의 왜곡 측정 방법에 기초하여 결정될 수 있다.
상기 설명된 복호화측 움직임 벡터 보정 방법에 관한 실시예들은 서로 상충되지 않는 범위 내에서 조합될 수 있다.
복호화측 움직임 벡터 보정 방법에 있어서, 두 참조 픽처와 현재 픽처의 거리 비가 고려될 수 있다. 또는 두 참조 픽처와 현재 픽처의 거리 비를 고려하지 않고 복호화측 움직임 벡터 보정 방법이 수행될 수 있다. 또한 복호화측 움직임 벡터 보정 방법에 있어서, 쌍방 일치 방법 또는 템플릿 매칭 방법이 사용될 수 있다.
움직임 벡터 보정을 위한 가중 값 결정 방법에 있어서, 두 참조 픽처와 현재 픽처 간의 거리 정보가 고려될 수 있다. 또는 비트스트림으로부터 가중 값 정보를 전송/파싱함으로써 가중 값이 결정될 수 있다. 또는 템플릿 매칭 기반 왜곡 값을 기반으로 가중 값이 결정될 수 있다.
따라서 움직임 벡터 보정을 위해 앞에서 언급한 다양한 방법 중 임의의 방법이 사용될 수 있고, 또한 가중 값 결정을 위해 앞에서 언급한 다양한 방법 중 임의의 방법이 사용될 수 있다. 즉, 움직임 벡터 보정 방법과 가중 값 결정 방법은 서로 독립적으로 선택하여 사용될 수 있다.
그러므로 복호기에서 양방향 예측 블록을 선택하기 위한 복호화측 움직임 벡터 보정 방법과 최종 예측 블록을 생성하기 위해 가중 값을 결정하는 방법의 임의의 조합이 구현될 수 있다.
도 8는 일 실시 예에 따른 복호화측 움직임 벡터 보정 방법의 순서도이다.
단계 802에서, 제1 참조 픽처에 대한 현재 블록의 제1 기초 움직임 벡터 및 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터가 결정된다. 일 실시예에 따르면, 상기 제1 참조 픽처와 상기 제2 참조 픽처는 상기 현재 블록으로부터 서로 다른 시간적 방향에 위치한다.
단계 804에서, 상기 제1 기초 움직임 벡터를 제1 차분 움직임 벡터만큼 보정함으로써, 제1 보정 움직임 벡터가 결정되고, 상기 제2 기초 움직임 벡터를 제2 차분 움직임 벡터만큼 보정함으로써, 제2 보정 움직임 벡터가 결정된다.
일 실시 예에 따르면, 상기 현재 블록이 포함된 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리가 다른 경우, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정될 수 있다. 또는 상기 현재 블록이 포함된 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리의 관계와 상관 없이, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 차분 움직임 벡터의 크기와 상기 제2 차분 움직임 벡터의 크기의 비는 상기 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리의 비에 비례하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 제1 차분 움직임 벡터 및 상기 제2 차분 움직임 벡터의 크기는 소정의 범위 내로 한정된다.
일 실시 예에 따르면, 쌍방 일치 기반의 움직임 벡터 탐색에 따라, 상기 제1 보정 움직임 벡터가 가리키는 상기 제1 예측 블록과 상기 제2 보정 움직임 벡터가 가리키는 상기 제2 예측 블록 간의 왜곡이 최소가 되도록, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정될 수 있다.
일 실시 예에 따르면, 템플릿 일치 기반의 움직임 벡터 탐색에 따라, 상기 제1 보정 움직임 벡터가 가리키는 상기 제1 예측 블록의 제1 템플릿, 상기 제2 보정 움직임 벡터가 가리키는 상기 제2 예측 블록의 제2 템플릿, 및 상기 현재 블록의 현재 템플릿 간의 왜곡이 최소가 되도록, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정될 수 있다. 상기 왜곡은, 상기 제1 템플릿과 상기 제2 템플릿을 가중 평균함으로써 결정된 최종 템플릿과 상기 현재 템플릿에 기초하여 계산될 수 있다.
일 실시 예에 따르면, 상기 제1 템플릿과 상기 제2 템플릿을 가중 평균함에 있어서, 상기 제1 템플릿에 적용되는 제1 가중 값은 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 비례하고, 상기 제2 템플릿에 적용되는 제2 가중 값은 상기 현재 픽처와 상기 제1 참조 픽처의 거리에 비례하도록 설정될 수 있다. 그리고 상기 설정된 제1 가중 값과 제2 가중 값에 기초하여 상기 제1 템플릿과 상기 제2 템플릿의 가중 평균 값이 결정될 수 있다.
단계 806에서, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터에 기초하여, 상기 현재 블록의 제1 예측 블록 및 제2 예측 블록이 결정된다.
단계 808에서, 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합에 기초하여, 상기 현재 블록에 대한 최종 예측 블록이 결정된다.
일 실시 예에 따르면, 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은, 상기 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 따라 결정된 가중 값에 의하여 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록에 적용되는 제1 가중 값은 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 비례하고, 상기 제2 예측 블록에 적용되는 제2 가중 값은 상기 현재 픽처와 상기 제1 참조 픽처의 거리에 비례하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록에 적용되는 제1 가중 값은 상기 제2 템플릿과 상기 현재 템플릿의 왜곡에 비례하고, 상기 제2 예측 블록에 적용되는 제2 가중 값은 상기 제1 템플릿과 상기 현재 템플릿의 왜곡에 비례하도록 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은, 상기 현재 블록이 포함된 현재 픽처의 픽처 타입에 기초하여 결정된 가중 값에 의하여 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은, 비트스트림을 파싱함으로써 생성된 가중 값 정보에 기초하여 결정된 가중 값에 의하여 결정될 수 있다.
복호화기에서, 도 8의 복호화측 움직임 벡터 보정 방법에 따라 복원된 현재 블록의 최종 예측 블록에 기초하여, 현재 블록이 복원될 수 있다. 부호화기에서, 도 8의 복호화측 움직임 벡터 보정 방법에 따라 복원된 현재 블록의 최종 예측 블록에 기초하여, 현재 블록이 부호화될 수 있다.
도 8의 복호화측 움직임 벡터 보정 방법에 적용된 비디오 부호화 방법에 의하여 생성된 비트스트림이 저장된 컴퓨터로 판독가능한 기록매체가 제공될 수 있다. 도 8의 복호화측 움직임 벡터 보정 방법에 적용된 비디오 부호화 방법에 의하여 생성된 비트스트림은 컴퓨터로 기록가능한 기록매체에 저장될 수 있다. 또한 도 8의 복호화측 움직임 벡터 보정 방법에 적용된 비디오 부호화 방법에 의하여 생성된 비트스트림은 비디오 부호화 장치에서 비디오 복호화 장치로 전송될 수 있다.
컴퓨터로 기록가능한 기록매체에 저장된 비디오 데이터에 대한 비트스트림은 도 8의 복호화측 움직임 벡터 보정 방법에 적용된 비디오 복호화 방법에 의하여 복호화 될 수 있다. 또한, 비디오 부호화 장치로부터 비디오 복호화 장치로 전송된 비트스트림은 도 8의 복호화측 움직임 벡터 보정 방법에 적용된 비디오 복호화 방법에 의하여 복호화 될 수 있다.
도 9는 본 발명에 따른 실시예가 적용될 수 있는 컨텐츠 스트리밍 시스템을 예시적으로 나타내는 도면이다.
도 9에 도시된 바와 같이, 본 발명의 실시예가 적용된 컨텐츠 스트리밍 시스템은 크게 인코딩 서버, 스트리밍 서버, 웹 서버, 미디어 저장소, 사용자 장치 및 멀티미디어 입력 장치를 포함할 수 있다.
상기 인코딩 서버는 스마트폰, 카메라, CCTV 등과 같은 멀티미디어 입력 장치들로부터 입력된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. 다른 예로, 스마트폰, 카메라, CCTV 등과 같은 멀티미디어 입력 장치들이 비트스트림을 직접 생성하는 경우, 상기 인코딩 서버는 생략될 수도 있다.
상기 비트스트림은 본 발명의 실시예가 적용된 영상 부호화 방법 및/또는 영상 부호화 장치에 의해 생성될 수 있고, 상기 스트리밍 서버는 상기 비트스트림을 전송 또는 수신하는 과정에서 일시적으로 상기 비트스트림을 저장할 수 있다.
상기 스트리밍 서버는 웹 서버를 통한 사용자 요청에 기반하여 멀티미디어 데이터를 사용자 장치에 전송하고, 상기 웹 서버는 사용자에게 어떠한 서비스가 있는지를 알려주는 매개체 역할을 할 수 있다. 사용자가 상기 웹 서버에 원하는 서비스를 요청하면, 상기 웹 서버는 이를 스트리밍 서버에 전달하고, 상기 스트리밍 서버는 사용자에게 멀티미디어 데이터를 전송할 수 있다. 이때, 상기 컨텐츠 스트리밍 시스템은 별도의 제어 서버를 포함할 수 있고, 이 경우 상기 제어 서버는 상기 컨텐츠 스트리밍 시스템 내 각 장치 간 명령/응답을 제어하는 역할을 수행할 수 있다.
상기 스트리밍 서버는 미디어 저장소 및/또는 인코딩 서버로부터 컨텐츠를 수신할 수 있다. 예를 들어, 상기 인코딩 서버로부터 컨텐츠를 수신하는 경우, 상기 컨텐츠를 실시간으로 수신할 수 있다. 이 경우, 원활한 스트리밍 서비스를 제공하기 위하여 상기 스트리밍 서버는 상기 비트스트림을 일정 시간동안 저장할 수 있다.
상기 사용자 장치의 예로는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)), 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 있을 수 있다.
상기 컨텐츠 스트리밍 시스템 내 각 서버들은 분산 서버로 운영될 수 있으며, 이 경우 각 서버에서 수신하는 데이터는 분산 처리될 수 있다.
상기의 실시 예들은 부호화 장치 및 복호화 장치에서 동일한 방법 또는 상응하는 방법으로 수행될 수 있다. 또한, 상기 실시 예들 중 적어도 하나 혹은 적어도 하나의 조합을 이용해서 영상을 부호화/복호화할 수 있다.
상기 실시 예들이 적용되는 순서는 부호화 장치와 복호화 장치에서 상이할 수 있다. 또는, 상기 실시 예들이 적용되는 순서는 부호화 장치와 복호화 장치에서 동일할 수 있다.
상기 실시 예들은 휘도 및 색차 신호 각각에 대하여 수행될 수 있다. 또는, 휘도 및 색차 신호에 대한 상기 실시예들이 동일하게 수행될 수 있다.
상기 실시 예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상기 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
상기 실시예에 따른 부호화 방법에 의해 생성된 비트스트림은 비 일시적인 컴퓨터 판독 가능한 기록 매체에 저장될 수 있다. 또한, 상기 비 일시적인 컴퓨터 판독 가능한 기록 매체에 저장되는 비트스트림은 상기 실시예에 따른 복호화 방법에 의해 복호화될 수 있다.
여기서, 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (16)

  1. 비디오 복호화 방법에 있어서,
    제1 참조 픽처에 대한 현재 블록의 제1 기초 움직임 벡터 및 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터를 결정하는 단계;
    상기 제1 기초 움직임 벡터를 제1 차분 움직임 벡터만큼 보정함으로써, 제1 보정 움직임 벡터를 결정하고, 상기 제2 기초 움직임 벡터를 제2 차분 움직임 벡터만큼 보정함으로써, 제2 보정 움직임 벡터를 결정하는 단계;
    상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터에 기초하여, 상기 현재 블록의 제1 예측 블록 및 제2 예측 블록을 결정하는 단계; 및
    상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합에 기초하여, 상기 현재 블록에 대한 최종 예측 블록을 결정하는 단계를 포함하는 비디오 복호화 방법.
  2. 제1 항에 있어서,
    상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터를 결정하는 단계에 있어서,
    상기 현재 블록이 포함된 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리가 다른 경우, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  3. 제1 항에 있어서,
    상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은,
    상기 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 따라 결정된 가중 값에 의하여 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  4. 제3 항에 있어서,
    상기 제1 예측 블록에 적용되는 제1 가중 값은 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 비례하고, 상기 제2 예측 블록에 적용되는 제2 가중 값은 상기 현재 픽처와 상기 제1 참조 픽처의 거리에 비례하는 것을 특징으로 하는 비디오 복호화 방법.
  5. 제1 항에 있어서,
    상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터를 결정하는 단계에 있어서,
    상기 제1 차분 움직임 벡터의 크기와 상기 제2 차분 움직임 벡터의 크기의 비는 상기 현재 픽처와 상기 제1 참조 픽처의 거리와 상기 현재 픽처와 상기 제2 참조 픽처의 거리의 비에 비례하는 것을 특징으로 하는 비디오 복호화 방법.
  6. 제1 항에 있어서,
    상기 제1 차분 움직임 벡터 및 상기 제2 차분 움직임 벡터의 크기는 소정의 범위 내로 한정되는 것을 특징으로 하는 비디오 복호화 방법.
  7. 제1 항에 있어서,
    상기 제1 보정 움직임 벡터가 가리키는 상기 제1 예측 블록과 상기 제2 보정 움직임 벡터가 가리키는 상기 제2 예측 블록 간의 왜곡이 최소가 되도록, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  8. 제1 항에 있어서,
    상기 제1 보정 움직임 벡터가 가리키는 상기 제1 예측 블록의 제1 템플릿, 상기 제2 보정 움직임 벡터가 가리키는 상기 제2 예측 블록의 제2 템플릿, 및 상기 현재 블록의 현재 템플릿 간의 왜곡이 최소가 되도록, 상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터가 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  9. 제8 항에 있어서,
    상기 왜곡은,
    상기 제1 템플릿과 상기 제2 템플릿을 가중 평균함으로써 결정된 최종 템플릿과 상기 현재 템플릿에 기초하여 계산되는 것을 특징으로 하는 비디오 복호화 방법.
  10. 제9 항에 있어서,
    상기 제1 템플릿과 상기 제2 템플릿을 가중 평균함에 있어서,
    상기 제1 템플릿에 적용되는 제1 가중 값은 상기 현재 픽처와 상기 제2 참조 픽처의 거리에 비례하고, 상기 제2 템플릿에 적용되는 제2 가중 값은 상기 현재 픽처와 상기 제1 참조 픽처의 거리에 비례하는 것을 특징으로 하는 비디오 복호화 방법.
  11. 제8 항에 있어서,
    상기 제1 예측 블록에 적용되는 제1 가중 값은 상기 제2 템플릿과 상기 현재 템플릿의 왜곡에 비례하고, 상기 제2 예측 블록에 적용되는 제2 가중 값은 상기 제1 템플릿과 상기 현재 템플릿의 왜곡에 비례하는 것을 특징으로 하는 비디오 복호화 방법.
  12. 제1 항에 있어서,
    상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은,
    상기 현재 블록이 포함된 현재 픽처의 픽처 타입에 기초하여 결정된 가중 값에 의하여 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  13. 제1 항에 있어서,
    상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합은,
    비트스트림을 파싱함으로써 생성된 가중 값 정보에 기초하여 결정된 가중 값에 의하여 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  14. 비디오 부호화 방법에 있어서,
    제1 참조 픽처에 대한 현재 블록의 제1 기초 움직임 벡터 및 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터를 결정하는 단계;
    상기 제1 기초 움직임 벡터를 제1 차분 움직임 벡터만큼 보정함으로써, 제1 보정 움직임 벡터를 결정하고, 상기 제2 기초 움직임 벡터를 제2 차분 움직임 벡터만큼 보정함으로써, 제2 보정 움직임 벡터를 결정하는 단계;
    상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터에 기초하여, 상기 현재 블록의 제1 예측 블록 및 제2 예측 블록을 결정하는 단계; 및
    상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합에 기초하여, 상기 현재 블록에 대한 최종 예측 블록을 결정하는 단계를 포함하는 비디오 부호화 방법.
  15. 비디오 부호화 방법에 의하여 생성된 비트스트림을 저장한 컴퓨터로 판독가능한 기록매체에 있어서,
    상기 비디오 부호화 방법은,
    제1 참조 픽처에 대한 현재 블록의 제1 기초 움직임 벡터 및 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터를 결정하는 단계;
    상기 제1 기초 움직임 벡터를 제1 차분 움직임 벡터만큼 보정함으로써, 제1 보정 움직임 벡터를 결정하고, 상기 제2 기초 움직임 벡터를 제2 차분 움직임 벡터만큼 보정함으로써, 제2 보정 움직임 벡터를 결정하는 단계;
    상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터에 기초하여, 상기 현재 블록의 제1 예측 블록 및 제2 예측 블록을 결정하는 단계; 및
    상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합에 기초하여, 상기 현재 블록에 대한 최종 예측 블록을 결정하는 단계를 포함하는 기록매체.
  16. 비디오 부호화 방법에 의하여 생성된 비트스트림을 전송하는 비트스트림 전송 방법에 있어서,
    상기 비디오 부호화 방법에 기초하여 영상을 부호화하는 단계; 및
    상기 부호화된 영상이 포함된 비트스트림을 전송하는 단계를 포함하고,
    상기 비디오 부호화 방법은,
    제1 참조 픽처에 대한 현재 블록의 제1 기초 움직임 벡터 및 제2 참조 픽처에 대한 상기 현재 블록의 제2 기초 움직임 벡터를 결정하는 단계;
    상기 제1 기초 움직임 벡터를 제1 차분 움직임 벡터만큼 보정함으로써, 제1 보정 움직임 벡터를 결정하고, 상기 제2 기초 움직임 벡터를 제2 차분 움직임 벡터만큼 보정함으로써, 제2 보정 움직임 벡터를 결정하는 단계;
    상기 제1 보정 움직임 벡터 및 상기 제2 보정 움직임 벡터에 기초하여, 상기 현재 블록의 제1 예측 블록 및 제2 예측 블록을 결정하는 단계; 및
    상기 제1 예측 블록 및 상기 제2 예측 블록의 가중합에 기초하여, 상기 현재 블록에 대한 최종 예측 블록을 결정하는 단계를 포함하는 비트스트림 전송 방법.
KR1020230028852A 2022-03-11 2023-03-06 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 KR20230133775A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/003020 WO2023172002A1 (ko) 2022-03-11 2023-03-06 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220030592 2022-03-11
KR1020220030592 2022-03-11

Publications (1)

Publication Number Publication Date
KR20230133775A true KR20230133775A (ko) 2023-09-19

Family

ID=88196714

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230028852A KR20230133775A (ko) 2022-03-11 2023-03-06 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Country Status (1)

Country Link
KR (1) KR20230133775A (ko)

Similar Documents

Publication Publication Date Title
CN113196752B (zh) 对视频数据进行解码的方法、装置及存储介质
KR102638336B1 (ko) 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
KR20190046704A (ko) 비대칭 서브 블록 기반 영상 부호화/복호화 방법 및 장치
KR102619133B1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US20220060687A1 (en) Method and apparatus for processing video data
US20200404302A1 (en) Method and device for processing video signal
KR20210100196A (ko) Dmvr 기반의 인터 예측 방법 및 장치
JP7477536B2 (ja) ビデオ/映像コーディングシステムにおけるマージデータシンタックスのシグナリング方法及び装置
CN113892264A (zh) 使用非矩形预测模式来减少用于视频数据预测的运动场存储
CN111903123B (zh) 基于帧间预测模式的图像处理方法和用于该方法的装置
KR102594692B1 (ko) 크로마 성분에 대한 영상 디코딩 방법 및 그 장치
CN112868233B (zh) 编码器、解码器及相应的帧间预测方法
KR20210148367A (ko) 인터 예측에 기반한 영상 코딩 방법 및 장치
KR20210148366A (ko) 움직임 예측에 기반한 영상 코딩 방법 및 장치
KR20210150585A (ko) 비디오/영상 코딩 시스템에서 신택스 시그널링 방법 및 장치
CN116636213A (zh) 视频译码中的模板匹配
KR20230133775A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20240026871A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20240102871A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20230168602A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20240001677A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20230146470A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN115118978B (zh) 运动信息存储方法及装置
KR20230133770A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
KR20240052698A (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체