KR20230156004A - 인터 예측 방법 및 영상 복호화 장치 - Google Patents

인터 예측 방법 및 영상 복호화 장치 Download PDF

Info

Publication number
KR20230156004A
KR20230156004A KR1020230147156A KR20230147156A KR20230156004A KR 20230156004 A KR20230156004 A KR 20230156004A KR 1020230147156 A KR1020230147156 A KR 1020230147156A KR 20230147156 A KR20230147156 A KR 20230147156A KR 20230156004 A KR20230156004 A KR 20230156004A
Authority
KR
South Korea
Prior art keywords
block
area
motion vector
picture
reference picture
Prior art date
Application number
KR1020230147156A
Other languages
English (en)
Inventor
임정연
손세훈
이선영
나태영
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180142487A external-priority patent/KR20190140387A/ko
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Publication of KR20230156004A publication Critical patent/KR20230156004A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

인터 예측 방법 및 영상 복호화 장치를 개시한다.
본 발명의 일 실시예에 의하면, 영상 복호화 장치에서 수행되는 인터(Inter) 예측 방법으로서, 비트스트림으로부터 복호화된 움직임정보에 기초하여, 현재블록의 움직임벡터를 유도하는 단계; 상기 움직임벡터를 이용하여 제1참조블록의 참조샘플을 획득하되, 상기 제1참조블록 중 참조픽처의 외부에 위치하는 외부 영역의 참조샘플을, 상기 참조픽처 내에서 상기 외부 영역에 대응되는 대응 영역으로부터 획득하는 단계; 및 상기 획득된 참조샘플을 기반으로 상기 현재블록을 예측하는 단계를 포함하는 것을 특징으로 하는 인터 예측 방법을 제공한다.

Description

인터 예측 방법 및 영상 복호화 장치{INTER PREDICTION METHOD AND APPARATUS}
본 발명은 영상의 부호화 및 복호화에 관한 것으로서, 부호화 및 복호화의 효율을 향상시킨 인터 예측 방법 및 영상 복호화 장치에 관한 것이다.
동영상 데이터는 음성 데이터나 정지 영상 데이터 등에 비하여 많은 데이터량을 가지기 때문에, 압축을 위한 처리 없이 그 자체를 저장하거나 전송하기 위해서는 메모리를 포함하여 많은 하드웨어 자원을 필요로 한다.
따라서, 통상적으로 동영상 데이터를 저장하거나 전송할 때에는 부호화기를 사용하여 동영상 데이터를 압축하여 저장하거나 전송하며, 복호화기에서는 압축된 동영상 데이터를 수신하여 압축을 해제하고 재생한다. 이러한 동영상 압축 기술로는 H.264/AVC를 비롯하여, H.264/AVC에 비해 약 40% 정도의 부호화 효율을 향상시킨 HEVC(High Efficiency Video Coding)가 존재한다.
그러나, 영상의 크기 및 해상도, 프레임율이 점차 증가하고 있고, 이에 따라 부호화해야 하는 데이터량도 증가하고 있으므로 기존의 압축 기술보다 더 부호화 효율이 좋고 화질 개선 효과도 높은 새로운 압축 기술이 요구된다.
이러한 요구에 부응하기 위해 본 발명은 개선된 영상 부호화 및 복호화 기술을 제공하는 것을 목적으로 하며, 특히, 본 발명의 일 측면은 움직임 정보를 표현하는데 소요되는 비트(bit) 수를 감소시킴으로써 부호화 및 복호화의 효율을 향상시키는 기술과 관련된다.
본 발명의 일 측면은, 영상 복호화 장치에서 수행되는 인터(Inter) 예측 방법으로서, 비트스트림으로부터 복호화된 움직임정보에 기초하여, 현재블록의 움직임벡터를 유도하는 단계; 상기 움직임벡터를 이용하여 제1참조블록의 참조샘플을 획득하되, 상기 제1참조블록 중 참조픽처의 외부에 위치하는 외부 영역의 참조샘플을, 상기 참조픽처 내에서 상기 외부 영역에 대응되는 대응 영역으로부터 획득하는 단계; 및 상기 획득된 참조샘플을 기반으로 상기 현재블록을 예측하는 단계를 포함하는 것을 특징으로 하는 인터 예측 방법을 제공한다.
본 발명의 다른 일 측면은, 영상 복호화 장치로서, 비트스트림으로부터 복호화된 움직임정보에 기초하여 현재블록의 움직임벡터를 유도하는 움직임 유도부; 상기 움직임벡터를 이용하여 제1참조블록의 참조샘플을 획득하되, 상기 제1참조블록 중 참조픽처의 외부에 위치하는 외부 영역의 참조샘플을, 상기 참조픽처 내에서 상기 외부 영역에 대응되는 대응 영역으로부터 획득하는 샘플 획득부; 및 상기 획득된 참조샘플을 기반으로 상기 현재블록을 예측하는 예측 실행부를 포함하는 것을 특징으로 하는 영상 복호화 장치를 제공한다.
이상에서 설명한 바와 같이 본 발명의 일 실시예에 의하면, 참조 픽처를 벗어나는 특정 영역을 참조 픽처 내 다른 영역으로 대체할 수 있으므로 360도 영상의 움직임 정보를 효율적으로 추정할 수 있게 된다.
또한, 본 발명의 다른 일 실시예에 의하면, 참조 픽처 내 다른 영역은 참조 픽처를 벗어나는 특정 영역과 동일한 영역에 해당하므로 예측의 정확성을 향상시킬 수 있다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다.
도 2는 QTBTTT 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다.
도 3은 복수의 인트라 예측 모드들을 설명하기 위한 도면이다.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다.
도 5는 본 개시의 기술들을 구현할 수 있는 인터 예측부의 예시적인 블록도이다.
도 6은 현재블록을 예측하는 본 발명의 일 예를 설명하기 위한 순서도이다.
도 7은 현재블록을 예측하는 본 발명의 일 예를 설명하기 위한 도면이다.
도 8은 현재블록을 예측하는 본 발명의 다른 일 예를 설명하기 위한 도면이다.
도 9는 움직임벡터를 조정하는 본 발명의 실시예를 설명하기 위한 도면이다.
도 10 내지 도 12는 참조블록 사이의 방향 관계를 기준으로 참조샘플을 획득하는 본 발명의 다양한 실시예를 설명하기 위한 도면이다.
도 13은 다른 포맷을 가지는 참조픽처에 본 발명이 적용되는 일 실시예를 설명하기 위한 도면이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성 요소들에 식별 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다. 이하에서는 도 1을 참조하여 영상 부호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.
영상 부호화 장치는 블록 분할부(110), 예측부(120), 감산기(130), 변환부(140), 양자화부(145), 부호화부(150), 역양자화부(160), 역변환부(165), 가산기(170), 필터부(180) 및 메모리(190)를 포함하여 구성될 수 있다.
영상 부호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
하나의 영상(비디오)는 복수의 픽처들로 구성된다. 각 픽처들은 복수의 영역으로 분할되고 각 영역마다 부호화가 수행된다. 예를 들어, 하나의 픽처는 하나 이상의 타일(Tile) 또는/및 슬라이스(Slice)로 분할된다. 여기서, 하나 이상의 타일을 타일 그룹(Tile Group)으로 정의할 수 있다. 각 타일 또는/슬라이스는 하나 이상의 CTU(Coding Tree Unit)로 분할된다. 그리고 각 CTU는 트리 구조에 의해 하나 이상의 CU(Coding Unit)들로 분할된다. 각 CU에 적용되는 정보들은 CU의 신택스로서 부호화되고, 하나의 CTU에 포함된 CU들에 공통적으로 적용되는 정보는 CTU의 신택스로서 부호화된다. 또한, 하나의 타일 내의 모든 블록들에 공통적으로 적용되는 정보는 타일의 신택스로서 부호화되거나 다수 개의 타일을 모아 놓은 타일 그룹의 신택스로서 부호화되며, 하나의 픽처들을 구성하는 모든 블록들에 적용되는 정보는 픽처 파라미터 셋(PPS, Picture Parameter Set) 혹은 픽처 헤더에 부호화된다. 나아가, 복수의 픽처가 공통으로 참조하는 정보들은 시퀀스 파라미터 셋(SPS, Sequence Parameter Set)에 부호화된다. 그리고, 하나 이상의 SPS가 공통으로 참조하는 정보들은 비디오 파라미터 셋(VPS, Video Parameter Set)에 부호화된다.
블록 분할부(110)는 CTU(Coding Tree Unit)의 크기를 결정한다. CTU의 크기에 대한 정보(CTU size)는 SPS 또는 PPS의 신택스로서 부호화되어 영상 복호화 장치로 전달된다.
블록 분할부(110)는 영상을 구성하는 각 픽처(picture)를 미리 결정된 크기를 가지는 복수의 CTU(Coding Tree Unit)들로 분할한 이후에, 트리 구조(tree structure)를 이용하여 CTU를 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU(coding unit)가 된다.
트리 구조로는 상위 노드(혹은 부모 노드)가 동일한 크기의 네 개의 하위 노드(혹은 자식 노드)로 분할되는 쿼드트리(QuadTree, QT), 또는 상위 노드가 두 개의 하위 노드로 분할되는 바이너리트리(BinaryTree, BT), 또는 상위 노드가 1:2:1 비율로 세 개의 하위 노드로 분할되는 터너리트리(TernaryTree, TT), 또는 이러한 QT 구조, BT 구조 및 TT 구조 중 둘 이상을 혼용한 구조일 수 있다. 예컨대, QTBT(QuadTree plus BinaryTree) 구조가 사용될 수 있고, 또는 QTBTTT(QuadTree plus BinaryTree TernaryTree) 구조가 사용될 수 있다. 여기서, BTTT를 합쳐서 MTT(Multiple-Type Tree)라 칭할 수 있다.
도 2는 QTBTTT 분할 트리 구조를 보인다. 도 2에서 보는 바와 같이, CTU는 먼저 QT 구조로 분할될 수 있다. 쿼드트리 분할은 분할 블록(splitting block)의 크기가 QT에서 허용되는 리프 노드의 최소 블록 크기(MinQTSize)에 도달할 때까지 반복될 수 있다. QT 구조의 각 노드가 하위 레이어의 4개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)는 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. QT의 리프 노드가 BT에서 허용되는 루트 노드의 최대 블록 크기(MaxBTSize)보다 크지 않은 경우, BT 구조 또는 TT 구조 중 어느 하나 이상으로 더 분할될 수 있다. BT 구조 및/또는 TT 구조에서는 복수의 분할 방향이 존재할 수 있다. 예컨대, 해당 노드의 블록이 가로로 분할되는 방향과 세로로 분할되는 방향 두 가지가 존재할 수 있다. 도 2와 같이, MTT 분할이 시작되면, 노드들이 분할되었는지 여부를 지시하는 제2 플래그(mtt_split_flag)와, 분할이 되었다면 추가적으로 분할 방향(vertical 혹은 horizontal)을 나타내는 플래그 및/또는 분할 타입(Binary 혹은 Ternary)을 나타내는 플래그가 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 시그널링된다.
트리 구조의 다른 예로서, QTBTTT 구조를 사용하여 블록을 분할하는 경우, 먼저 분할 되었음을 나타내는 CU 분할 플래그(split_cu_flag) 및 분할 타입이 QT 분할인지를 지시하는 QT 분할 플래그(split_qt_flag) 정보가 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. CU 분할 플래그(split_cu_flag) 값이 분할되지 않았음을 지시하지 않는 경우, 해당 노드의 블록이 분할 트리 구조에서의 리프 노드(leaf node)가 되어 부호화의 기본 단위인 CU(coding unit)가 된다. CU 분할 플래그(split_cu_flag) 값이 분할되었음을 지시하지 않는 경우, QT 분할 플래그(split_qt_flag) 값을 통해 분할 타입이 QT 혹은 MTT인지를 구분한다. 분할 타입이 QT인 경우에는 더 이상의 추가 정보가 없으며, 분할 타입이 MTT인 경우에는 추가적으로 MTT 분할 방향(vertical 혹은 horizontal)을 나타내는 플래그(mtt_split_cu_vertical_flag) 및/또는 MTT 분할 타입(Binary 혹은 Ternary)을 나타내는 플래그(mtt_split_cu_binary_flag)가 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 시그널링된다.
트리 구조의 다른 예시로서 QTBT가 사용되는 경우, 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입(즉, symmetric horizontal splitting)과 세로로 분할하는 타입(즉, symmetric vertical splitting) 두 가지가 존재할 수 있다. BT 구조의 각 노드가 하위 레이어의 블록으로 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할되는 타입을 지시하는 분할 타입 정보가 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 전달된다. 한편, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태에는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태가 포함될 수 있고, 혹은 해당 노드의 블록을 대각선 방향으로 분할하는 형태가 포함될 수도 있다.
CU는 CTU로부터의 QTBT 또는 QTBTTT 분할에 따라 다양한 크기를 가질 수 있다. 이하에서는, 부호화 또는 복호화하고자 하는 CU(즉, QTBTTT의 리프 노드)에 해당하는 블록을 '현재블록'이라 칭한다.
예측부(120)는 현재블록을 예측하여 예측블록을 생성한다. 예측부(120)는 인트라 예측부(122)와 인터 예측부(124)를 포함한다.
일반적으로, 픽처 내 현재블록들은 각각 예측적으로 코딩될 수 있다. 일반적으로 현재블록의 예측은 (현재블록을 포함하는 픽처로부터의 데이터를 사용하는) 인트라 예측 기술 또는 (현재블록을 포함하는 픽처 이전에 코딩된 픽처로부터의 데이터를 사용하는) 인터 예측 기술을 사용하여 수행될 수 있다. 인터 예측은 단방향 예측과 양방향 예측 모두를 포함한다.
인트라 예측부(122)는 현재블록이 포함된 현재 픽처 내에서 현재블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재한다. 예컨대, 도 3에서 보는 바와 같이, 복수의 인트라 예측모드는 planar 모드와 DC 모드를 포함하는 비방향성 모드와 65개의 방향성 모드를 포함할 수 있다. 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다.
인트라 예측부(122)는 현재블록을 부호화하는데 사용할 인트라 예측 모드를 결정할 수 있다. 일부 예들에서, 인트라 예측부(122)는 여러 인트라 예측 모드들을 사용하여 현재블록을 인코딩하고, 테스트된 모드들로부터 사용할 적절한 인트라 예측 모드를 선택할 수도 있다. 예를 들어, 인트라 예측부(122)는 여러 테스트된 인트라 예측 모드들에 대한 레이트 왜곡(rate-distortion) 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중 최선의 레이트 왜곡 특징들을 갖는 인트라 예측 모드를 선택할 수도 있다.
인트라 예측부(122)는 복수의 인트라 예측 모드 중에서 하나의 인트라 예측 모드를 선택하고, 선택된 인트라 예측 모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재블록을 예측한다. 선택된 인트라 예측 모드에 대한 정보가 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 전달된다.
인터 예측부(124)는 움직임 보상 과정을 통해 현재블록에 대한 예측블록을 생성한다. 현재 픽처보다 먼저 부호화 및 복호화된 참조픽처 내에서 현재블록과 가장 유사한 블록을 탐색하고, 그 탐색된 블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 그리고, 현재 픽처 내의 현재블록과 참조픽처 내의 예측블록 간의 변위(displacement)에 해당하는 움직임벡터(motion vector)를 생성한다. 일반적으로, 움직임 추정은 루마(luma) 성분에 대해 수행되고, 루마 성분에 기초하여 계산된 모션 벡터는 루마 성분 및 크로마 성분 모두에 대해 사용된다. 현재블록을 예측하기 위해 사용된 참조픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 전달된다.
감산기(130)는 현재블록으로부터 인트라 예측부(122) 또는 인터 예측부(124)에 의해 생성된 예측블록을 감산하여 잔차블록을 생성한다.
변환부(140)는 공간 영역의 픽셀 값들을 가지는 잔차블록 내의 잔차 신호를 주파수 도메인의 변환 계수로 변환한다. 변환부(140)는 잔차블록의 전체 크기를 변환 단위로 사용하여 잔차블록 내의 잔차 신호들을 변환할 수 있으며, 또는 잔차블록을 변환 영역 및 비변환 영역인 두 개의 서브블록으로 구분하여, 변환 영역 서브블록만 변환 단위로 사용하여 잔차 신호들을 변환할 수 있다. 여기서, 변환 영역 서브블록은 가로축 (혹은 세로축) 기준 1:1의 크기 비율을 가지는 두 개의 직사각형 블록 중 하나일 수 있다. 이런 경우, 서브블록 만을 변환하였음을 지시하는 플래그(cu_sbt_flag), 방향성(vertical/horizontal) 정보(cu_sbt_horizontal_flag) 및/또는 위치 정보(cu_sbt_pos_flag)가 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. 또한, 변환 영역 서브블록의 크기는 가로축 (혹은 세로축) 기준 1:3의 크기 비율을 가질 수 있으며, 이런 경우 해당 분할을 구분하는 플래그(cu_sbt_quad_flag)가 추가적으로 부호화부(150)에 의해 부호화되어 영상 복호화 장치로 시그널링된다.
양자화부(145)는 변환부(140)로부터 출력되는 변환 계수들을 양자화하고, 양자화된 변환 계수들을 부호화부(150)로 출력한다.
부호화부(150)는 양자화된 변환 계수들을 CABAC(Context-based Adaptive Binary Arithmetic Code) 등의 부호화 방식을 사용하여 부호화함으로써 비트스트림을 생성한다. 부호화부(150)는 블록 분할과 관련된 CTU size, CU 분할 플래그, QT 분할 플래그, MTT 분할 방향, MTT 분할 타입 등의 정보를 부호화하여, 영상 복호화 장치가 영상 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다.
또한, 부호화부(150)는 현재블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보(즉, 인트라 예측 모드에 대한 정보) 또는 인터 예측정보(참조픽처 및 움직임벡터에 대한 정보)를 부호화한다.
역양자화부(160)는 양자화부(145)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(165)는 역양자화부(160)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차블록을 복원한다.
가산부(170)는 복원된 잔차블록과 예측부(120)에 의해 생성된 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 다음 순서의 블록을 인트라 예측할 때 참조 픽셀로서 사용된다.
필터부(180)는 블록 기반의 예측 및 변환/양자화로 인해 발생하는 블록킹 아티팩트(blocking artifacts), 링잉 아티팩트(ringing artifacts), 블러링 아티팩트(blurring artifacts) 등을 줄이기 위해 복원된 픽셀들에 대한 필터링을 수행한다. 필터부(180)는 디블록킹 필터(182)와 SAO(Sample Adaptive Offset) 필터(184)를 포함할 수 있다.
디블록킹 필터(180)는 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해 복원된 블록 간의 경계를 필터링하고, SAO 필터(184)는 디블록킹 필터링된 영상에 대해 추가적인 필터링을 수행한다. SAO 필터(184)는 손실 부호화(lossy coding)로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해 사용되는 필터이다.
디블록킹 필터(182) 및 SAO 필터(184)를 통해 필터링된 복원블록은 메모리(190)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다.
도 4는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다. 이하에서는 도 4를 참조하여 영상 복호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.
영상 복호화 장치는 복호화부(410), 역양자화부(420), 역변환부(430), 예측부(440), 가산기(450), 필터부(460) 및 메모리(470)를 포함하여 구성될 수 있다.
도 1의 영상 부호화 장치와 마찬가지로, 영상 복호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.
복호화부(410)는 영상 부호화 장치로부터 수신한 비트스트림을 복호화하여 블록 분할과 관련된 정보를 추출함으로써 복호화하고자 하는 현재블록을 결정하고, 현재블록을 복원하기 위해 필요한 예측정보와 잔차신호에 대한 정보 등을 추출한다.
복호화부(410)는 SPS(Sequence Parameter Set) 또는 PPS(Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 그리고, CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, CTU에 대한 분할정보를 추출함으로써 트리 구조를 이용하여 CTU를 분할한다.
예컨대, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 MTT의 분할과 관련된 제2 플래그(MTT_split_flag) 및 분할 방향(vertical / horizontal) 및/또는 분할 타입(binary / ternary) 정보를 추출하여 해당 리프 노드를 MTT 구조로 분할한다. 이를 통해 QT의 리프 노드 이하의 각 노드들을 BT 또는 TT 구조로 반복적으로(recursively) 분할한다.
또 다른 예로서, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 CU의 분할 여부를 지시하는 CU 분할 플래그(split_cu_flag)를 추출하고, 해당 블록이 분할된 경우, QT 분할 플래그(split_qt_flag)를 추출한다. 분할 타입이 QT가 아니고 MTT인 경우, MTT 분할 방향(vertical 혹은 horizontal)을 나타내는 플래그(mtt_split_cu_vertical_flag) 및/또는 MTT 분할 타입(Binary 혹은 Ternary)을 나타내는 플래그(mtt_split_cu_binary_flag)를 추가적으로 추출한다. 분할 과정에서 각 노드는 0번 이상의 반복적인 QT 분할 후에 0번 이상의 반복적인 MTT 분할이 발생할 수 있다. 예컨대, CTU는 바로 MTT 분할이 발생하거나, 반대로 다수 번의 QT 분할만 발생할 수도 있다.
다른 예로서, QTBT 구조를 사용하여 CTU를 분할하는 경우, QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 BT로 더 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할 방향 정보를 추출한다.
한편, 복호화부(410)는 트리 구조의 분할을 통해 복호화하고자 하는 현재블록을 결정하게 되면, 현재블록이 인트라 예측되었는지 아니면 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다. 예측 타입 정보가 인트라 예측을 지시하는 경우, 복호화부(410)는 현재블록의 인트라 예측정보(인트라 예측 모드)에 대한 신택스 요소를 추출한다. 예측 타입 정보가 인터 예측을 지시하는 경우, 복호화부(410)는 인터 예측정보에 대한 신택스 요소, 즉, 움직임벡터 및 그 움직임벡터가 참조하는 참조픽처를 나타내는 정보를 추출한다.
한편, 복호화부(410)는 잔차신호에 대한 정보로서 현재블록의 양자화된 변환계수들에 대한 정보를 추출한다.
역양자화부(420)는 양자화된 변환계수들을 역양자화하고, 역변환부(430)는 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차신호들을 복원함으로써 현재블록에 대한 잔차블록을 생성한다.
또한, 역변환부(430)는 변환블록의 일부 영역(서브블록)만 역변환하는 경우, 변환블록의 서브블록만을 변환하였음을 지시하는 플래그(cu_sbt_flag), 서브블록의 방향성(vertical/horizontal) 정보(cu_sbt_horizontal_flag) 및/또는 서브블록의 위치 정보(cu_sbt_pos_flag)를 추출하여, 해당 서브블록의 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환함으로써 잔차신호들을 복원하고, 역변환되지 않은 영역에 대해서는 잔차신호로 "0"값을 채움으로써 현재블록에 대한 최종 잔차블록을 생성한다.
예측부(440)는 인트라 예측부(442) 및 인터 예측부(444)를 포함할 수 있다. 인트라 예측부(442)는 현재블록의 예측 타입이 인트라 예측일 때 활성화되고, 인터 예측부(444)는 현재블록의 예측 타입이 인터 예측일 때 활성화된다.
인트라 예측부(442)는 복호화부(410)로부터 추출된 인트라 예측 모드에 대한 신택스 요소로부터 복수의 인트라 예측 모드 중 현재블록의 인트라 예측 모드를 결정하고, 인트라 예측 모드에 따라 현재블록 주변의 참조 픽셀들을 이용하여 현재블록을 예측한다.
인터 예측부(444)는 복호화부(410)로부터 추출된 인트라 예측 모드에 대한 신택스 요소를 이용하여 현재블록의 움직임벡터와 그 움직임벡터가 참조하는 참조픽처를 결정하고, 움직임벡터와 참조픽처를 이용하여 현재블록을 예측한다.
가산기(450)는 역변환부로부터 출력되는 잔차블록과 인터 예측부 또는 인트라 예측부로부터 출력되는 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 이후에 복호화할 블록을 인트라 예측할 때의 참조픽셀로서 활용된다.
필터부(460)는 디블록킹 필터(462) 및 SAO 필터(464)를 포함할 수 있다. 디블록킹 필터(462)는 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)를 제거하기 위해, 복원된 블록 간의 경계를 디블록킹 필터링한다. SAO 필터(464)는 손실 부호화(lossy coding)으로 인해 발생하는 복원된 픽셀과 원본 픽셀 간의 차이를 보상하기 위해, 디블록킹 필터링 이후의 복원된 블록에 대해 추가적인 필터링을 수행한다. 디블록킹 필터(462) 및 SAO 필터(464)를 통해 필터링된 복원블록은 메모리(470)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조 픽처로 사용된다.
도 5는 본 개시의 기술들을 구현할 수 있는 인터 예측부(444)의 예시적인 블록도이며, 도 6은 인터 예측부(444)가 현재블록을 예측하는 방법을 설명하기 위한 순서도이고, 도 7은 인터 예측부(444)가 현재블록을 예측하는 본 발명의 일 실시예를 설명하기 위한 도면이다. 이하에서는, 도 5 내지 도 7을 참조하여 360도 영상에 대한 현재블록의 예측을 더욱 정확하고 효율적으로 구현하는 본 발명의 기술적 특징에 대하여 상세히 설명하도록 한다.
화면 간 예측 부호화 방법(인터 예측 방법)에는 skip 모드, merge 모드 및 AMVP 모드(adaptive(or advanced) motion vector predictor)가 포함될 수 있다. skip 모드에서는 주변블록의 움직임정보 후보들 중 어느 하나의 움직임정보만이 시그널링되고, merge 모드에서는 주변블록의 움직임정보 후보들 중 어느 하나의 움직임정보 및 예측 후의 잔차(residual)를 부호화한 정보가 시그널링되며, AMVP 모드에서는 현재블록의 움직임정보 및 예측 후의 잔차를 부호화한 정보가 시그널링된다.
skip 모드 및 merge 모드의 움직임정보는 후보들 중 어느 하나를 지시하는 인덱스 값에 해당하며, HEVC 표준에서 인덱스 값은 merge_idx 신택스를 통해 표현될 수 있다. AMVP 모드의 움직임정보는 주변블록의 움직임정보 및 현재블록의 움직임정보 사이의 차이 값(mvd: mv difference)에 해당하며, HEVC 표준에서 mvd 값은 아래 표 1에 나타난 바와 같이 다양한 신택스를 통해 표현될 수 있다.
위 표 1에서, [0]은 가로축 성분(x)을 나타내고, [1]은 세로축 성분(y)을 나타낸다.
skip 모드 및 merge 모드에서는 시그널링된 merge_idx 값에 의해 지시되는 주변블록의 움직임정보를 통해 현재블록의 움직임벡터를 유도할 수 있고, AMVP 모드에서는 주변블록의 움직임정보를 통해 얻은 mvp(motion vector predictor) 값과 시그널링된 mvd 값을 합산하여 현재블록의 움직임벡터를 유도할 수 있다.
종래 방법은 현재블록의 움직임벡터가 지시하는 참조블록의 일부 또는 전부 영역(이하 '외부 영역'이라 지칭한다)이 참조픽처의 외부에 위치하는 경우, 이 참조픽처의 경계(boundary) 또는 최외각에 위치하는 샘플들 중 외부 영역과 가장 인접하게 위치하는 샘플들로 외부 영역의 샘플들을 대체(padding)하는 방법을 통해 참조샘플을 획득한다.
예를 들어, 종래 방법은 현재블록의 가로축 방향 위치(x 좌표)와 움직임벡터의 가로축 방향 크기(x 좌표)를 합산한 값이 참조픽처 밖으로 벗어나는 경우, 가장 가까운 참조픽처 내 끝단 값으로 이를 대체한다. 이 예를 수학식으로 표현하면, 아래 수학식 1과 같다.
위 수학식 1에서, xPb는 현재블록의 가로축 방향 위치(x 좌표)를 나타내며, mvLX[0]은 quarter-pixel 움직임벡터의 가로축 방향 크기(x 좌표)를 나타낸다. xL은 0으로부터 (width-1)까지의 범위를 나타내는 데, width는 현재블록의 너비 또는 폭에 해당한다. xIntL은 움직임벡터가 참조픽처 내에서 지시하는 integer pixel의 위치를 나타낸다. 또한, xAi는 k-tap interpolation filter에 필요한 주변 integer pixel(i)의 상대적 위치를, xIntL에 합산한 최종 integer sample의 위치를 나타낸다. 즉, xAi는 k-tap interpolation filter를 위해 필요한 xIntL 주변의 가로축으로 배열된 정수 픽셀들의 위치를 나타낸다. xIntL과 관련하여, 움직임벡터 값인 mvLX[0]가 quarter(1/4)-pixel인 경우에는 수학식 1에 표현된 바와 같이 해당 움직임벡터 값에 4배에 해당하는 (mvLX[0] >> 2) 연산이 수행될 수 있다. mvLX[0]가 1/16-pixel인 경우에는 해당 움직임벡터 값에 16배에 해당하는 (mvLX[0] >> 4) 연산이 수행될 수 있다.
수학식 1에 표현된 바와 같이, xIntL+i의 위치가 참조픽처 밖으로 벗어나는 경우, clipping 함수를 사용하여 xAi 값을 참조픽처 내 좌측 또는 우측 끝단 위치의 값으로 대체하게 된다.
다른 예로, 종래 방법은 현재블록의 세로축 방향 위치(y 좌표)와 움직임벡터의 세로축 방향 크기(y 좌표)를 합산한 값이 참조픽처 밖으로 벗어나는 경우, 가장 가까운 참조픽처 내 끝단 값으로 이를 대체한다. 이 예를 수학식으로 표현하면, 아래 수학식 2와 같다.
위 수학식 2에서, yPb는 현재블록의 세로축 방향 위치(y 좌표)를 나타내며, mvLX[1]은 quarter-pixel 움직임벡터의 세로축 방향 크기(y 좌표)를 나타낸다. yL은 0으로부터 (height-1)까지의 범위를 나타내는 데, height는 현재블록의 높이에 해당한다. yIntL은 움직임벡터가 참조픽처 내에서 지시하는 integer pixel의 위치를 나타낸다. 또한, yAi는 k-tap interpolation filter에 필요한 주변 integer pixel(i)의 상대적 위치를, yIntL에 합산한 최종 integer sample의 위치를 나타낸다. 즉, yIntL은 k-tap interpolation filter를 위해 필요한 yIntL 주변의 세로축으로 배열된 정수 픽셀들의 위치를 나타낸다. yIntL과 관련하여, 움직임벡터 값인 mvLX[1]가 quarter(1/4)-pixel인 경우에는 수학식 2에 표현된 바와 같이 해당 움직임벡터 값에 4배에 해당하는 (mvLX[1] >> 2) 연산이 수행될 수 있다. mvLX[1]가 1/16-pixel인 경우에는 해당 움직임벡터 값에 16배에 해당하는 (mvLX[1] >> 4) 연산이 수행될 수 있다.
수학식 2에 표현된 바와 같이, yIntL+i의 위치가 참조픽처 밖으로 벗어나는 경우, clipping 함수를 사용하여 yAi 값을 참조픽처 내 상측 또는 하측 끝단 위치의 값으로 대체하게 된다.
이러한, 종래 방법은 참조픽처의 영역을 외부 영역까지 확장하는 것이므로 추가적인 메모리 리소스가 요구되며, 참조픽처 내 최외각에 위치하는 샘플들을 이용하여 외부 영역의 샘플들을 근사하는 것이므로 움직임 보상에 대한 정확성을 저하시킬 수 있다.
한편, 2D 이미지로 투영된 360도 영상의 경계들은 360도 영상의 3차원 구조를 기준으로 서로 맞닿아(서로 연결되어) 있을 수 있다. 예를 들어, 2D 이미지로 투영된 360도 영상의 좌측 및 우측은 3차원 구조에서 서로 맞닿아 있으며, 중심 수직선을 기준으로 상측의 좌측과 상측의 우측은 서로 맞닿아 있고, 중심 수직선을 기준으로 하측의 좌측과 하측의 우측도 서로 맞닿아 있다. 본 발명은 이러한 360도 영상의 특성에 착안하여, 참조픽처 외부에 위치하는 외부 영역에 대한 보다 효율적인 인터 예측 방법을 제안한다.
본 발명에서 언급되는 현재픽처와 참조픽처는 3차원 구조의 360도 영상을 Equirectangular Projection(ERP) 포맷, Cube Map Projection(CMP) 포맷, Icosahedral Projection(ISP) 포맷 등 다양한 형태의 2차원 포맷으로 변환한 픽처에 해당할 수 있다. 다만, 이하에서는, 3차원 구조의 360도 영상을 2차원의 ERP 포맷으로 변환한 현재픽처와 참조픽처를 중심으로 하여 본 발명에 대해 설명하도록 한다.
영상 부호화 장치는 부호화 대상인 현재블록에 대응되는 참조블록인 제1참조블록을 탐색한다. 여기서, 제1참조블록은 현재블록과 가장 유사한 블록일 수 있다. 또한, 영상 부호화 장치는 현재블록을 예측하기 위하여 제1참조블록으로부터 참조샘플들을 획득하는 데, 제1참조블록 중 참조픽처의 외부에 위치하는 외부 영역의 참조샘플을 외부 영역과 대응되는 대응 영역으로부터 획득할 수 있다. 대응 영역은 참조픽처 내에 위치하는 영역일 수 있다. 나아가, 영상 부호화 장치는 획득된 참조샘플들을 기반으로 현재블록을 예측할 수 있다.
영상 부호화 장치를 통해 설명된 제1참조블록, 외부 영역 및 대응 영역 각각은 이하 영상 복호화 장치를 통해 설명될 제1참조블록(740), 외부 영역(742) 및 대응 영역(752) 각각과 동일한 의미를 가질 수 있다. 영상 복호화 장치에서 수행되는 것으로 설명되는 이하의 각 과정들은 영상 부호화 장치에서도 동일하게 수행될 수 있다.
도 5에 도시된 바와 같이, 인터 예측부(444)는 움직임 유도부(510), 샘플 획득부(520), 예측 실행부(530), 움직임 조정부(540) 및 관계 지시부(550)를 포함하여 구성될 수 있다.
먼저, 복호화 대상인 현재픽처(710)에 포함된 현재블록(720)에 대하여, 움직임 유도부(510)는 영상 부호화 장치로부터 전송된(비트스트림으로부터 복호화된) 움직임정보에 기초하여 현재블록(720)의 움직임벡터를 유도한다(S610).
Skip 모드 또는 Merge 모드의 경우, 움직임 유도부(510)는 주변블록의 움직임정보 후보들 중 어느 하나에 대한 인덱스 값에 해당하는 merge_idx 값을 이용하여 현재블록(720)의 움직임벡터(도 7의 실선 화살표)를 유도할 수 있다. AMVP 모드의 경우, 움직임 유도부(510)는 주변블록들의 움직임정보 값들을 통해 얻은 예측 움직임벡터(mvp)와 복호화부(410)에서 복호화된(영상 부호화 장치로부터 전송된) 차분 움직임벡터(mvd)를 합산하여 현재블록(720)의 움직임벡터를 유도할 수 있다.
움직임벡터가 유도되면, 샘플 획득부(520)는 유도된 움직임벡터를 이용하여 도출 또는 유도되는 참조블록인 제1참조블록(740)의 참조샘플을 획득한다(S640). 구체적으로, 샘플 획득부(520)는 움직임벡터 및 현재블록의 위치/크기를 통해 얻어진 정수(integer)샘플의 위치가 참조픽처를 벗어난 경우, 참조픽처 내 적절한 위치로부터 해당 정수샘플을 획득한다(S640). 여기서, 제1참조블록(740)은 정수 샘플을 포함한다.
제1참조블록(740)의 위치와 관련하여, 제1참조블록(740)의 일부만이 참조픽처(730)의 외부에 위치하거나(도 7 (A)), 제1참조블록(740)의 전부가 참조픽처(730)의 외부에 위치할 수도 있다(도 7 (B)).
도 7 (A)의 (b) 및 (c)에 도시된 바와 같이, 제1참조블록(740)의 일부만이 참조픽처(730)의 외부에 위치하는 경우, 제1참조블록(740)은 참조픽처(730)의 외부에 위치하는 외부 영역(742)과 참조픽처(730)의 내부에 위치하는 내부 영역(744)으로 구성될 수 있다. 즉, 제1참조블록(740)은 참조픽처(730)의 외부에 위치하는 샘플들과 내부에 위치하는 샘플들로 이루어질 수 있다.
이와 같은 경우, 샘플 획득부(520)는 참조픽처(730)의 우측 경계가 이 참조픽처(730)의 좌측 경계와 360도 영상에서 상호 맞닿아 있는 점에 착안하여, 외부 영역(742)에 해당하는 참조샘플을 참조픽처(730) 내 다른 영역으로부터 획득하도록 구성될 수 있다. 구체적으로, 샘플 획득부(520)는 내부 영역(744)에 해당하는 참조샘플을 내부 영역(744) 자체로부터 획득하며, 외부 영역(742)에 해당하는 참조샘플을 참조픽처(730)의 내부 중 외부 영역(742)과 대응되는 영역인 대응 영역(752)으로부터 획득할 수 있다. 여기서, 외부 영역(742)과 대응 영역(752)이 대응된다는 것은 외부 영역(742)과 대응 영역(752)이 360도 영상을 기준으로 상호 동일한 영역에 해당함을 의미할 수 있다.
참조픽처(730)를 기준으로 하여 참조샘플이 획득되는 위치를 다시 설명하면, 내부 영역(744)에 해당하는 참조샘플은 참조픽처(730)의 우측 부분에서 획득되며, 외부 영역(742)에 해당하는 참조샘플은 참조픽처(730)의 좌측 부분에서 획득될 수 있다.
도 7 (B)의 (b) 및 (c)에 도시된 바와 같이, 제1참조블록(740)의 전부가 참조픽처(730)의 외부에 위치하는 경우, 제1참조블록(740)은 참조픽처(730)의 외부에 위치하는 외부 영역(742)만으로 구성될 수 있다. 즉, 제1참조블록(740)은 참조픽처(730)의 외부에 위치하는 샘플들로만 이루어질 수 있다.
이와 같은 경우, 샘플 획득부(520)는 외부 영역(742)에 해당하는 참조샘플을 참조픽처(730)의 내부 중 대응 영역(752)으로부터 획득할 수 있다. 여기서, 외부 영역(742)과 대응 영역(752)은 360도 영상을 기준으로 상호 동일한 영역에 해당한다.
본 발명이 움직임 보상을 위해 k(k는 자연수)-tap 보간(interpolation) 필터를 사용하는 경우, 참조샘플이 획득되는 대응 영역(752) 및/또는 내부 영역(744)은 도 8에 실선으로 표현된 영역보다 가로 방향을 기준으로 k만큼(좌측으로 k/2 및 우측으로 k/2), 세로 방향을 기준으로 k만큼(상측으로 k/2 및 하측으로 k/2) 확장된 영역(점선으로 표현된 영역)일 수 있다.
샘플 획득부(520)는 내부 영역(744)으로부터 참조샘플을 획득하는 경우에는 도 8에 도시된 내부 영역(744)의 좌측, 상측 및 하측 외곽으로부터 각각 k/2만큼 확장된 영역에서 참조샘플을 획득할 수 있다. 또한, 샘플 획득부(520)는 대응 영역(752)으로부터 참조샘플을 획득하는 경우에는 도 8에 도시된 대응 영역(752)의 우측, 상측 및 하측 외곽으로부터 각각 k/2만큼 확장된 영역에서 참조샘플을 획득할 수 있다.
내부 영역(744)과 대응 영역(752)을 확장할지 여부는 움직임벡터의 resolution을 통해 결정될 수 있다. 예를 들어, 움직임벡터의 소수 부분이 0인 경우에 내부 영역(744)과 대응 영역(752)을 확장하지 않고, 움직임벡터의 소수 부분이 0인 아닌 경우에 내부 영역(744)과 대응 영역(752)을 확장할 수 있다.
내부 영역(744) 또는 대응 영역(752)으로부터 참조샘플을 획득하는 이하의 설명은 내부 영역(744) 또는 대응 영역(752) 자체로부터 참조샘플을 획득하는 것과, 내부 영역(744) 또는 대응 영역(752)보다 k만큼 확장된 영역으로부터 참조샘플을 획득하는 것 모두를 포함하는 것으로 이해되어야 한다.
대응 영역(752)은 제1참조블록(740)을 ERP width 혹은 참조픽처(730)의 너비만큼 좌측 또는 우측으로 이동시키고, 이동된 위치의 참조블록(이하, '제2참조블록'이라 지칭한다, 750) 중 참조픽처(730)의 내부에 위치하는 영역(대응 영역)을 선별하는 방법을 통해 탐색될 수 있다. 이를 수학식으로 표현하면, 아래 수학식 3과 같다.
위 수학식 3에서, xPb는 현재블록(720)의 가로축 방향 위치(x 좌표)를 나타내며, mvLX[0]은 sub-pixel 움직임벡터의 가로축 방향 크기(x 좌표)를 나타낸다. xL은 0으로부터 (width-1)까지의 범위를 나타내는 데, width는 현재블록(720)의 너비 또는 폭에 해당한다. xIntL은 움직임벡터가 참조픽처(730) 내에서 지시하는 integer pixel의 위치를 나타내며, picWidth는 참조픽처(730)의 너비, 패딩되지 않은 ERP의 너비, 패딩된 ERP의 너비, 오프셋 등과 같이 다양한 의미를 가질 수 있다. 또한, xAi는 k-tap interpolation filter에 필요한 주변 integer pixel(i)의 상대적 위치를, xIntL에 합산한 최종 integer sample의 위치를 나타낸다. 즉, xAi는 k-tap interpolation filter를 위해 필요한 xIntL 주변의 가로축으로 배열된 정수 픽셀들의 위치를 나타낸다. xIntL과 관련하여, 움직임벡터 값인 mvLX[0]가 quarter(1/4)-pixel인 경우에는 해당 움직임벡터 값에 4배에 해당하는 (mvLX[0] >> 2) 연산이 수행될 수 있다. mvLX[0]가 1/16-pixel인 경우에는 수학식 3에 표현된 바와 같이 해당 움직임벡터 값에 16배에 해당하는 (mvLX[0] >> 4) 연산이 수행될 수 있다.
수학식 3에 표현된 바와 같이, 움직임벡터가 지시하는 정수 샘플이 참조픽처(730)의 좌측 외부에 위치하는 경우(xIntL+i<0), 정수 샘플의 가로축 좌표에 picWidth를 가산하여 대응되는 최종 정수 샘플(xAi)이 선별될 수 있다. 움직임벡터가 지시하는 정수 샘플이 참조픽처(730)의 우측 외부에 위치하는 경우(xIntL+i>picWidth-1), 정수 샘플의 가로축 좌표에 picWidth를 감산하여 대응되는 최종 정수 샘플(xAi)이 선별될 수 있다.
한편, picWidth는 일반적으로 참조픽처(730)의 너비, 복원픽처의 너비 또는 복호화 대상픽처의 너비와 동일할 수 있다. 다만, ERP 원본픽처의 너비(w)에 일정 영역(α)을 패딩(padding)하여 부호화하는 경우, picWidth는 ERP 원본픽처(패딩되지 않은 참조픽처)의 너비(w)와 동일하며, 복호화 대상픽처의 너비, 복원픽처의 너비 및 참조픽처(730)의 너비는 (w + α)와 동일할 수 있다. 여기서, α는 패딩된 영역의 너비를 의미한다.
이 경우, 대응 영역(752)은 제1참조블록(740)을 패딩된 참조픽처(730)의 너비(w + α)가 아닌, w만큼 좌측으로 이동시키고, 이동된 위치의 제2참조블록(750) 중 참조픽처(730) 내부에 위치하는 영역(대응 영역)을 선별하는 방법을 통해 탐색될 수 있다.
대응 영역(752)의 탐색을 위한 너비를 정리하면, 원본픽처가 패딩되지 않은 경우에는 원본픽처의 너비(w) 또는 참조픽처(730)의 너비가 되며, 원본픽처가 패딩된 경우에는 원본픽처의 너비(w)가 될 수 있다. 결국, 원본픽처가 패딩된 경우와 패딩되지 않은 경우 모두에서, 대응 영역(752)의 탐색을 위한 너비는 원본픽처의 너비(w)와 동일할 수 있다.
picWidth는 오프셋을 의미할 수 있다. 오프셋이란, 대응 영역(752)의 위치를 파악하기 위해(계산하기 위해) 사용되는 값으로서, 영상 부호화 장치로부터 시그널링된 정보(오프셋 정보)에 의해 파악 또는 지시될 수 있다. 오프셋은 원본픽처의 너비(w) 또는 참조픽처(730)의 너비와 동일할 수 있다.
영상 복호화 장치는 원본픽처의 너비(w) 정보 또는 오프셋 정보를 비트스트림으로부터 획득하고, 원본픽처의 너비(w) 정보 또는 오프셋 정보를 이용하여 원본픽처의 너비(w) 또는 오프셋을 유도 또는 도출한 후, 유도된 원본픽처의 너비(w) 또는 오프셋만큼 외부 영역(외부 영역의 참조샘플들)(742)을 이동시켜 대응 영역(대응 영역의 참조샘플들)(752)을 파악할 수 있다.
대응 영역(752) 및/또는 내부 영역(744)으로부터 제1참조블록(740)의 참조샘플이 획득되면, 예측 실행부(530)는 획득된 참조샘플을 기반으로 현재블록(720)을 예측할 수 있다(현재블록의 예측블록을 생성할 수 있다)(S650).
이와 같이, 본 발명은 외부 영역(742)을 근사하는 것이 아닌, 외부 영역(742)과 동일한 영역(대응 영역)으로부터 외부 영역(742)의 참조샘플을 획득하도록 구성되므로, 현재블록(720)의 예측에 대한 정확성을 향상시킬 수 있다.
도 9는 움직임벡터를 조정하는 본 발명의 실시예를 설명하기 위한 도면이다. 이하에서는 움직임벡터를 조정함으로써 대응 영역(752)의 탐색을 더욱 효율적으로 구현할 수 있는 본 발명의 기술적 특징에 대하여 설명하도록 한다.
도 9 (A)에 표현된 바와 같이, 현재블록(720)의 움직임벡터가 참조픽처(730)의 우측 외부를 지시하는 경우, 이 움직임벡터를 이용하여 도출되는 제1참조블록(740)의 전체 영역이 참조픽처(730)의 외부에 위치하게 된다. 즉, 움직임벡터가 참조픽처(730)의 우측 외부를 지시하면, 제1참조블록(740)은 내부 영역(744) 없이 외부 영역(742)으로만 구성되게 된다.
인터 예측부(444)는 움직임벡터가 참조픽처(730) 내부의 적절한 위치를 지시하도록, 움직임벡터 자체를 조정하는 과정(MV wrapping)을 더 수행하도록 구성될 수 있다(S620). MV wrapping 과정은 인터 예측부(444)의 하위 구성인 움직임 조정부(540)에서 수행될 수 있다. 이 경우, 참조픽처(730)의 resolution은 복원픽처의 resolution과 동일할 수도 있고, 복원픽처에 일정 패딩 영역을 포함한 resolution과 동일할 수도 있다.
MV wrapping 과정에 대한 일 예를 수학식으로 표현하면, 아래 수학식 4와 같다.
위 수학식 4에서, xPb는 현재블록(720)의 가로축 방향 위치(x 좌표)를 나타내며, mvLX[0]은 sub-pixel 움직임벡터의 가로축 방향 크기(x 좌표)를 나타낸다. picWidth는 수학식 3에서 설명된 바와 동일한 의미들을 가질 수 있다. 여기서, 움직임벡터 값인 mvLX[0]가 quarter(1/4)-pixel인 경우에는 해당 움직임벡터 값에 4배에 해당하는 (mvLX[0] >> 2) 연산이 수행될 수 있으며, mvLX[0]가 1/16-pixel인 경우에는 수학식 4에 표현된 바와 같이 해당 움직임벡터 값에 16배에 해당하는 (mvLX[0] >> 4) 연산이 수행될 수 있다.
수학식 4에 표현된 바와 같이, 움직임벡터가 참조픽처(730)의 좌측 외부를 지시하는 경우(xPb+(mvLX[0]>>4)<0)에는 해당 움직임벡터의 x좌표를 picWidth만큼 우측으로 이동시켜(picWidth+(mvLX[0]>>4)) 참조픽처(730)의 내부를 지시하는 움직임벡터로 조정한다. 또한, 움직임벡터가 참조픽처(730)의 우측 외부를 지시하는 경우(xPb+(mvLX[0]>>4)>picWidth-1)에는 해당 움직임벡터의 x좌표를 picWidth만큼 이동시켜((mvLX[0]>>4)-picWidth) 참조픽처(730)의 내부를 지시하는 움직임벡터로 조정한다.
제1참조블록(740)의 도출에 이용되는 움직임벡터와 MV wrapping 과정을 통해 조정된 움직임벡터 상호 간을 구별하기 위하여, 이하에서는 제1참조블록(740)의 도출에 이용되는 움직임벡터를 '제1움직임벡터'(도 9의 실선 화살표)로 지칭하고, MV wrapping 과정을 통해 조정된 움직임벡터를 '제2움직임벡터'(도 9의 일점 쇄선 화살표)로 지칭하도록 한다.
제1움직임벡터가 지시하는 외부 지점(제1참조블록의 특정 포인트)과 제2움직임벡터가 지시하는 내부 지점(제2참조블록의 특정 포인트)은 360도 영상을 기준으로 상호 동일한 지점에 해당한다. 또한, 제2움직임벡터가 지시하는(제2움직임벡터를 이용하여 도출되는) 제2참조블록(750)은 360도 영상을 기준으로 제1참조블록(740)과 동일한 영역에 해당한다.
도 9 (A)에 표현된 바와 같이, 제1참조블록(740) 전체가 참조픽처(730)의 외부에 위치하는 것(제1참조블록이 외부 영역만으로 이루어지는 것)에 대응하여, 제2참조블록(750) 전체가 참조픽처(730)의 내부에 위치한다(제2참조블록이 대응 영역만으로 이루어짐).
샘플 획득부(520)는 제1참조블록(740)에 해당하는 참조샘플을 제2참조블록(750)으로부터 획득한다(S640). 이와 같이, 인터 예측부(444)는 MV wrapping 과정을 통해 참조 픽처(730) 외부에 위치하는 외부 영역(742)을 360 구조 상에서 외부 영역(742)과 동일한 영역에 해당하는 대응 영역(752)으로 대체할 수 있게 된다.
실시형태에 따라, 영상 부호화 장치는 제2움직임벡터를 직접 부호화하여 시그널링할 수 있다. 그러나, 제1움직임벡터와 제2움직임벡터의 x축 좌표 크기 관계 상, 제2움직임벡터보다 제1움직임벡터를 부호화하기 위해 더욱 작은 비트가 요구되므로, 움직임벡터에 대한 부호화 효율 관점에서 제1움직임벡터를 부호화하는 것이 더욱 효율적일 수 있다.
따라서, 영상 부호화 장치가 부호화하는 움직임벡터(제1움직임벡터)가 참조픽처(730)의 외부를 지시하는 경우, 영상 복호화 장치는 상술된 MV wrapping 과정을 통해 참조픽처(730) 내부를 지시하는 움직임벡터(제2움직임벡터)를 획득할 수 있고, 제2움직임벡터가 지시하는 참조블록 즉, 제2참조블록(750)을 획득할 수 있다.
도 9 (B)에 표현된 바와 같이, 제1움직임벡터가 참조픽처(730)의 좌측 외부를 지시하는 경우, 이 제1움직임벡터를 이용하여 도출되는 제1참조블록(740)의 전체 또는 일부 영역이 참조픽처(730)의 외부에 위치하게 된다. 즉, 제1움직임벡터가 참조픽처(730)의 좌측 외부를 지시하면, 제1참조블록(740)은 전체가 외부 영역(742)으로 구성되거나 각각 일정한 크기의 면적을 가지는 내부 영역(744)과 외부 영역(742)으로 구성될 수 있다.
움직임 조정부(540)는 전술된 MV wrapping 과정을 수행하여 제1움직임벡터를 참조픽처(730)의 내부를 지시하는 제2움직임벡터로 조정할 수 있다(S620).
제1움직임벡터가 지시하는 참조픽처(730)의 외부 지점(제1참조블록의 특정 포인트)과 제2움직임벡터가 지시하는 참조픽처(730)의 내부 지점(제2참조블록의 특정 포인트)은 360도 영상을 기준으로 상호 동일한 지점에 해당한다. 또한, 제2움직임벡터를 이용하여 도출되는 참조블록인 제2참조블록(750)은 360도 영상을 기준으로 제1참조블록(740)과 동일한 영역에 해당하며, 대응 영역(752)은 이 제2참조블록(750)의 내부에 위치한다.
제1참조블록(740)이 각각 일정한 면적을 가지는 외부 영역(742)과 내부 영역(744)으로 구성되는 경우(도 9 (B)), 제2참조블록(750)은 각각 일정한 면적을 가지는 대응 영역(752)과 나머지 영역(754)으로 구성된다. 이하에서는, 제2참조블록(750)을 구성하는 나머지 영역(754)을 비대응 영역(754)이라 지칭하도록 한다.
이와 같은 상태에서, 샘플 획득부(520)는 제2참조블록(750)의 대응 영역(752)으로부터 외부 영역(742)에 해당하는 참조샘플을 획득한다(S640). 환언하면, 인터 예측부(444)는 MV wrapping 과정을 통해 참조픽처(730) 외부에 위치하는 외부 영역(742)을 이 영역과 동일한 영역에 해당하는 대응 영역(752)으로 대체할 수 있게 된다.
참조픽처(730)를 기준으로 하여 참조샘플이 획득되는 위치를 다시 설명하면, 내부 영역(744)에 해당하는 참조샘플은 참조픽처(730)의 좌측 부분에서 획득되며, 외부 영역(742)에 해당하는 참조샘플은 참조픽처(730)의 우측 부분에서 획득될 수 있다.
ERP 원본 픽처의 너비(w)에 일정 영역(α)을 패딩하여 부호화하는 경우, 참조픽처(730)의 너비는 ERP width(w)가 아닌, (w + α)으로 확장되게 되므로, 제2참조블록(750)의 비대응 영역(754)은 참조픽처(730)의 외부가 아닌, 내부에 위치할 수도 있다. 이와 같은 경우, 샘플 획득부(520)는 제1참조블록(740)의 외부 영역(742)에 해당하는 참조샘플을 제2참조블록(750)의 대응 영역(752)으로부터 획득하고, 제1참조블록(740)의 내부 영역(744)에 해당하는 참조샘플을 참조픽처(730)의 내부에 위치하는 비대응 영역(754)으로부터 획득할 수 있다.
이와 같이, 인터 예측부(444)가 MV wrapping 과정을 더 수행하도록 구성되면, 움직임벡터의 조정이라는 단일 번의 프로세싱을 통해 대응 영역(752)의 위치를 지시할 수 있게 되므로, 인터 예측에 소요되는 시간과 메모리 리소스에 대한 효율성을 더욱 향상시킬 수 있다.
이상에서 설명된 실시예에서는 제1움직임벡터가 참조픽처(730)의 외부를 지시하는 경우에 한하여 MV wrapping 과정이 수행되는 것으로 기술되었으나, 실시형태에 따라 제1움직임벡터가 참조픽처(730)의 내부를 지시하는 경우에도 MV wrapping 과정이 수행될 수도 있다.
도 10 내지 도 12는 제1참조블록(740)과 제2참조블록(750) 사이의 방향 관계에 따라 참조샘플을 획득하는 본 발명의 다양한 실시예를 설명하기 위한 도면이다. 이하에서는, 도 10 내지 도 12를 참조하여 제1참조블록(740)과 제2참조블록(750) 사이의 방향 관계를 지시하고, 지시된 방향 관계를 기준으로 참조샘플을 획득하는 본 발명의 기술적 특징에 대하여 설명하도록 한다.
제1참조블록(740) 내의 참조샘플들(제1참조샘플)에 대응하는 제2참조블록(750) 내의 참조샘플들(제2참조샘플)은 제1참조샘플과는 다른 방향으로 배열될 수 있다. 제1참조블록(740)과 제2참조블록(750) 사이의 방향 관계란, 제1참조샘플의 배열과 비교하여, 제2참조샘플들이 배열되는 방향을 의미한다.
도 10 (a)에 도시된 3차원 구(sphere) 형태의 360도 영상을 분할하면, 도 10 (b)에 도시된 2차원의 ERP 포맷을 가지는 참조픽처(730)로 변환될 수 있다. 3차원 구 형태를 기준으로 판단하면, 참조픽처(730)의 상측은 서로 맞닿아 있으므로 y3라인에 해당하는 실선 픽셀 1 내지 8은 y2라인에 해당하는 실선 픽셀 5 내지 4 각각과 동일한 픽셀에 해당하게 된다. 또한, y4라인에 해당하는 점선 픽셀 1 내지 8은 y1라인에 해당하는 점선 픽셀 5 내지 4 각각과 동일한 픽셀에 해당하게 된다. 참조픽처(730)의 하측 또한, 이와 동일한 특성 또는 성질을 가진다.
이와 같은 상태에서, 제1참조블록(740)이 y1라인의 점선 픽셀 5 내지 7, y2라인의 실선 픽셀 5 내지 7, y3라인의 실선 픽셀 1 내지 3 및 y4라인의 점선 픽셀 1 내지 3으로 구성되는 경우, y1라인의 점선 픽셀 5 내지 7과 y2라인의 실선 픽셀 5 내지 7이 외부 영역(742)에 해당하게 되고, 이에 대응되는 대응 영역(752)은 y3라인의 실선 픽셀 5 내지 7과 y4라인의 점선 픽셀 5 내지 7로 이루어질 수 있다.
또한, 외부 영역(742)을 포함하는 제1참조블록(740)과 대응 영역(752)을 포함하는 제2참조블록(750)은 참조픽처(730)의 세로 방향을 기준으로 상호 반대의 방향 관계를 가진다. 즉, 외부 영역(742)에 포함된 참조샘플의 배열 방향과 대응 영역(752)에 포함된 참조샘플의 배열 방향은 참조픽처(730)의 세로 방향을 기준으로 상호 역방향의 관계를 가진다.
따라서, 참조픽처(730)의 상단 외부 또는 하단 외부에 위치하는 외부 영역(742)의 참조샘플을 획득하는 경우, 제1참조블록(740)의 방향(외부 영역에 포함된 참조샘플이 배열된 방향과 반대 방향으로 참조샘플을 획득해야 한다.
본 발명은 이러한 점에 착안하여, 제1참조블록(740)과 제2참조블록(750) 사이의 방향 관계를 지시하는 관계 지시부(550)를 추가적으로 포함함으로써, 지시된 방향 관계에 따라 대응 영역(752)으로부터 참조샘플을 획득하도록 구성될 수 있다.
도 11 (A)는 제1참조블록(740)의 일부(외부 영역)가 참조픽처(730)의 상단 외부에 위치하는 경우를 나타내며, 도 11 (B)는 제1참조블록(740)의 전부(외부 영역)가 참조픽처(730)의 상단 외부에 위치하는 경우를 나타낸다.
두 경우 모두에서, 제1움직임벡터는 참조픽처(730)의 내부를 지시하도록 조정될 수 있으며, 관계 지시부(550)는 조정된 움직임벡터(제2움직임벡터)를 이용하여 도출되는 제2참조블록(750)과 제1참조블록(740)이 역방향 관계를 가짐을 지시할 수 있다.
샘플 획득부(520)는 내부 영역(744)의 참조샘플을 내부 영역(744) 자체로부터 획득할 수 있다(S640). 또한, 샘플 획득부(520)는 관계 지시부(550)가 지시하는 방향 관계에 따라, 참조픽처(730)의 세로 방향을 기준으로 외부 영역(742)의 참조샘플이 배열된 방향과 반대 방향으로, 대응 영역(752)으로부터 참조 샘플을 획득할 수 있다(S640).
MV wrapping 과정이 수행되지 않는 전술된 실시예의 경우, 관계 지시부(550)는 360 구조 상 제1참조블록(740)과 동일한 영역에 해당하는 제2참조블록(750) 및 제1참조블록(740) 사이의 방향 관계를 지시하고, 샘플 획득부(520)는 외부 영역(742)에 해당하는 참조샘플을 대응 영역(752)으로부터 획득하도록 구성될 수 있다.
도 12 (A)는 제1참조블록(740)의 일부(외부 영역)가 참조픽처(730)의 하단 외부에 위치하는 경우를 나타내며, 도 12 (B)는 제1참조블록(740)의 전부(외부 영역)가 참조픽처(730)의 하단 외부에 위치하는 경우를 나타낸다.
두 경우 모두에서, 제1움직임벡터는 제2참조블록(750)을 지시하도록 조정될 수 있다 조정될 수 있으며, 관계 지시부(550)는 제2참조블록(750)과 제1참조블록(740)이 역방향 관계를 가짐을 지시할 수 있다.
샘플 획득부(520)는 내부 영역(744)의 참조샘플을 내부 영역(744) 자체로부터 획득할 수 있다(S640). 또한, 샘플 획득부(520)는 관계 지시부(550)가 지시하는 방향 관계에 따라, 참조픽처(730)의 세로 방향을 기준으로 외부 영역(742)의 참조샘플이 배열된 방향과 반대 방향으로, 대응 영역(752)으로부터 참조샘플을 획득할 수 있다.
MV wrapping 과정이 수행되지 않는 전술된 실시예의 경우, 관계 지시부(550)는 제2참조블록(750) 및 제1참조블록(740) 사이의 방향 관계를 지시하고, 샘플 획득부(520)는 외부 영역(742)에 해당하는 참조샘플을 대응 영역(752)으로부터 획득하도록 구성될 수 있다.
도 13은 본 발명이 다른 포맷을 가지는 참조픽처(730)에 적용되는 일 예를 설명하기 위한 도면이다.
전술된 바와 같이, 참조픽처(730)는 3차원 구조의 360도 영상을 ERP 포맷, CMP 포맷, ISP 포맷 등 다양한 형태의 2차원 포맷으로 변환한 픽처에 해당할 수 있다. 이러한 다양한 형태의 포맷들 중 CMP 포맷으로 변환된 픽처가 도 13에 도시되어 있다.
CMP 포맷의 참조픽처(730)는 우측 면(right face), 정면(front face), 좌측 면(left face), 바닥 면(bottom face), 후면(back face) 및 상부 면(top face) 등 총 6개의 면으로 구성될 수 있다. 또한, 도 13에 도시된 바와 같이, 우측 면, 정면 및 좌측면으로 구성되는 그룹 1과 바닥 면, 후면 및 상부 면으로 구성되는 그룹 2는 서로 다른 방향으로 배열되며, 이러한 배열 관계에 따라 각 면에 포함된 참조샘플들 또한, 서로 다른 방향으로 배열되게 된다.
먼저, 움직임 유도부(510)는 영상 부호화 장치로부터 전송된 움직임정보에 기초하여 현재블록(720)의 움직임벡터(제1움직임벡터, 실선 화살표)를 유도하고, 샘플 획득부(520)는 제1참조블록(740) 및 또는 제2참조블록(750)으로부터 제1참조블록(740)의 참조샘플을 획득할 수 있다.
실시형태에 따라, 참조샘플을 획득하기 전 단계에서, 360도 영상을 기준으로 제1참조블록(740)과 동일한 영역에 해당하는 제2참조블록(750)을 지시하도록 제1움직임벡터를 조정하는 과정이 수행될 수 있다.
샘플 획득부(520)는 제1참조블록(740) 중 내부 영역(744)에 해당하는 참조샘플을 내부 영역(744) 자체로부터 획득하고, 외부 영역(742)에 해당하는 참조샘플을 제2참조블록(750)에 포함된 대응 영역(752)으로부터 획득할 수 있다.
실시형태에 따라, 관계 지시부(550)가 그룹 1과 그룹 2 사이의 방향 관계를 지시하는 경우, 샘플 획득부(520)는 지시된 방향 관계에 따라 대응 영역(752)으로부터 외부 영역(742)에 해당하는 참조샘플을 획득할 수 있다. 여기서, 방향 관계란, 각 면(face)들 사이의 위치 및 회전 관계를 포함할 수 있다.
도 13에 도시된 바와 같이, 외부 영역(742)의 픽셀들은 참조픽처(730)의 세로 방향을 기준으로 아래 방향으로 배열되며, 외부 영역(742)의 실선 픽셀과 점선 픽셀은 참조픽처(730)의 가로 방향을 기준으로 우측 방향으로 배열된다. 이와 달리, 대응 영역(752)의 픽셀들은 참조픽처(730)의 가로 방향을 기준으로 우측 방향으로 배열되며, 대응 영역(752)의 실선 픽셀과 점선 픽셀은 참조픽처(730)의 세로 방향을 기준으로 아래 방향으로 배열된다. 또한, 상기와 같은 픽셀들 사이의 방향 관계는 외부 영역(742)과 대응 영역(752) 사이의 방향 관계에 그대로 반영 또는 적용되며, 이에 더 나아가 제1참조블록(740)과 제2참조블록(750) 사이의 방향 관계에 그대로 반영 또는 적용될 수 있다.
따라서, 관계 지시부(550)는 상기와 같은 외부 영역(제1참조블록)과 대응 영역(제2참조블록) 사이의 방향 관계를 지시하고, 샘플 획득부(520)는 지시된 방향 관계에 따라 대응 영역(752)의 픽셀들을 획득할 수 있다.
이와 같이, 외부 영역(742)의 참조샘플을 대응 영역(752)으로부터 획득하고, 움직임벡터를 조정하며, 참조블록(740, 750) 사이의 방향 관계에 따라 참조샘플을 획득하는 본 발명의 기술적 특징은, 특정 projection 포맷에 한정되지 않고, 다양한 projection 포맷에 적용 가능하다. 따라서, 본 발명은 적용 가능성 측면에서 충분히 넓은 범용성을 가질 수 있다.
본 발명의 모든 실시예에서는 단 방향 예측에 따른 하나의 예측블록을 생성하는 것으로 언급하였으나, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면, 양방향에 대해 예측을 실행하여 두 개의 예측블록을 생성할 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
120: 예측부 130: 감산기
170: 가산기 180: 필터부
440: 예측부 460: 필터부
710: 현재 픽처 720: 현재블록
730: 참조 픽처 740: 제1참조블록
742: 대응 영역 744: 내부 영역
750: 제2참조블록 752: 대응 영역
754: 비대응 영역

Claims (10)

  1. 영상 복호화 장치에서 방법으로서,
    현재블록이 인터 예측을 사용하여 복호화됨을 결정하는 단계;
    비트스트림으로부터 복호화된 움직임정보에 기초하여, 상기 현재블록의 움직임벡터를 유도하는 단계;
    상기 움직임벡터를 이용하여 제1참조블록의 참조샘플을 획득하되, 상기 제1참조블록 중 참조픽처의 외부에 위치하는 외부 영역의 참조샘플을 상기 참조픽처 내에서 상기 외부 영역에 대응되는 대응 영역의 참조샘플로부터 획득하는 단계; 및
    상기 획득된 참조샘플을 기반으로 상기 현재블록을 예측하는 단계를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 움직임벡터를 유도하는 단계 후, 상기 제1참조블록에 대응되는 제2참조블록을 지시하도록, 상기 움직임벡터를 조정하는 단계를 더 포함하고,
    상기 대응 영역은,
    상기 제2참조블록에 포함된 영역인 것을 특징으로 하는 방법.
  3. 제2항에 있어서,
    상기 움직임벡터를 조정하는 단계는,
    상기 움직임벡터가 상기 참조픽처의 외부를 지시하는 경우에 수행되는 것을 특징으로 하는 방법.
  4. 제1항에 있어서,
    상기 움직임벡터를 유도하는 단계 후, 상기 제1참조블록과 제2참조블록 사이의 방향 관계를 지시하는 단계를 더 포함하고,
    상기 제2참조블록은,
    상기 제1참조블록에 대응되되, 상기 대응 영역을 포함하며,
    상기 참조샘플을 획득하는 단계는,
    상기 지시된 방향 관계에 따라, 상기 대응 영역으로부터 참조샘플을 획득하는 것을 특징으로 하는 방법.
  5. 제4항에 있어서,
    상기 참조픽처는,
    360도 영상에 대한 equirectangular projection 포맷이며,
    상기 지시하는 단계는,
    상기 외부 영역이 상기 참조픽처의 상단 외부 또는 하단 외부에 위치하는 경우, 상기 제1참조블록과 상기 제2참조블록이 상기 참조픽처의 세로 방향을 기준으로 상호 역방향 관계임을 지시하고,
    상기 참조샘플을 획득하는 단계는,
    상기 참조픽처의 세로 방향을 기준으로, 상기 외부 영역의 참조샘플이 배열된 방향과 반대 방향으로 상기 대응 영역의 참조샘플을 획득하는 것을 특징으로 하는 방법.
  6. 제1항에 있어서,
    상기 대응 영역의 참조샘플은, 상기 외부 영역 내의 참조샘플의 위치를 픽처 너비에 근거하여 결정된 오프셋만큼 참조픽처의 내부를 향해 이동(shift)시킴으로써, 결정되는 것을 특징으로 하는 방법.
  7. 제1항에 있어서,
    상기 대응 영역은,
    상기 외부 영역을, 상기 비트스트림에 포함된 오프셋정보가 지시하는 오프셋만큼 가로축 방향으로 이동시킨 영역인 것을 특징으로 하는 방법.
  8. 제7항에 있어서,
    상기 대응 영역은,
    상기 외부 영역이 상기 참조픽처의 좌측 외부에 위치하는 경우, 상기 외부 영역을 상기 오프셋만큼 우측 방향으로 이동시킨 영역이며,
    상기 외부 영역이 상기 참조픽처의 우측 외부에 위치하는 경우, 상기 외부 영역을 상기 오프셋만큼 좌측 방향으로 이동시킨 영역인 것을 특징으로 하는 방법.
  9. 영상 부호화 장치에 의해 수행되는 방법으로서,
    현재블록이 인터 예측에 의해 부호화됨을 결정하는 단계;
    상기 현재블록의 움직임벡터를 결정하는 단계;
    상기 움직임벡터와 관련된 제1참조블록의 참조샘플을 획득하되, 상기 제1참조블록 중 참조픽처의 외부에 위치하는 외부 영역의 참조샘플을, 상기 참조픽처 내에서 상기 외부 영역에 대응되는 대응 영역의 참조샘플로부터 획득하는 단계; 및
    상기 획득된 참조샘플을 기반으로 상기 현재블록을 예측하는 단계
    를 포함하는 것을 특징으로 하는 방법.
  10. 비디오 데이터 블록에 대한 부호화 데이터를 포함하는 비트스트림을 저장하는, 디코더에 의해 판독 가능한, 기록매체에 있어서,
    상기 부호화 데이터는 인터 예측 부호화 방법에 의해 부호화되고,
    상기 방법은,
    현재블록이 인터 예측에 의해 부호화됨을 결정하는 단계;
    상기 현재블록의 움직임벡터를 결정하는 단계;
    상기 움직임벡터와 관련된 제1참조블록의 참조샘플을 획득하되, 상기 제1참조블록 중 참조픽처의 외부에 위치하는 외부 영역의 참조샘플을, 상기 참조픽처 내에서 상기 외부 영역에 대응되는 대응 영역의 참조샘플로부터 획득하는 단계; 및
    상기 획득된 참조샘플을 기반으로 상기 현재블록을 예측하는 단계
    포함하는 것을 특징으로 하는, 기록매체.
KR1020230147156A 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치 KR20230156004A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020180066694 2018-06-11
KR20180066694 2018-06-11
KR1020180142487 2018-11-19
KR1020180142487A KR20190140387A (ko) 2018-06-11 2018-11-19 360도 영상의 인터 예측 방법 및 이를 이용한 영상 복호화 장치
KR1020190065415A KR20190140399A (ko) 2018-06-11 2019-06-03 인터 예측 방법 및 영상 복호화 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190065415A Division KR20190140399A (ko) 2018-06-11 2019-06-03 인터 예측 방법 및 영상 복호화 장치

Publications (1)

Publication Number Publication Date
KR20230156004A true KR20230156004A (ko) 2023-11-13

Family

ID=68842879

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020230147156A KR20230156004A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치
KR1020230147158A KR20230155384A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치
KR1020230147157A KR20230154413A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치
KR1020230147159A KR20230153350A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020230147158A KR20230155384A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치
KR1020230147157A KR20230154413A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치
KR1020230147159A KR20230153350A (ko) 2018-06-11 2023-10-30 인터 예측 방법 및 영상 복호화 장치

Country Status (3)

Country Link
US (4) US11849121B2 (ko)
KR (4) KR20230156004A (ko)
WO (1) WO2019240425A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019240425A1 (ko) * 2018-06-11 2019-12-19 에스케이텔레콤 주식회사 인터 예측 방법 및 영상 복호화 장치
WO2020130730A1 (ko) * 2018-12-21 2020-06-25 삼성전자 주식회사 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2023101990A1 (en) * 2021-11-30 2023-06-08 Beijing Dajia Internet Information Technology Co., Ltd. Motion compensation considering out-of-boundary conditions in video coding
CN114745548B (zh) * 2022-06-13 2022-08-12 山东交通学院 适用于船舶疏浚作业远程视频监控的图像处理方法
EP4354870A1 (en) * 2022-10-12 2024-04-17 Beijing Xiaomi Mobile Software Co., Ltd. Encoding/decoding video picture data

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858706B2 (en) * 2015-09-22 2018-01-02 Facebook, Inc. Systems and methods for content streaming
US10096130B2 (en) 2015-09-22 2018-10-09 Facebook, Inc. Systems and methods for content streaming
KR102432085B1 (ko) 2015-09-23 2022-08-11 노키아 테크놀로지스 오와이 360도 파노라마 비디오를 코딩하는 방법, 장치 및 컴퓨터 프로그램 제품
US11069025B2 (en) 2016-02-17 2021-07-20 Samsung Electronics Co., Ltd. Method for transmitting and receiving metadata of omnidirectional image
KR20180000279A (ko) * 2016-06-21 2018-01-02 주식회사 픽스트리 부호화 장치 및 방법, 복호화 장치 및 방법
US20170374364A1 (en) 2016-06-23 2017-12-28 Mediatek Inc. Method and Apparatus of Face Independent Coding Structure for VR Video
KR20180029315A (ko) * 2016-09-12 2018-03-21 삼성전자주식회사 가상 현실 컨텐트의 영상을 투영하기 위한 영상 처리 방법 및 장치
CN114531590A (zh) 2016-10-04 2022-05-24 有限公司B1影像技术研究所 图像数据编码/解码方法、介质和发送比特流的方法
KR20180042098A (ko) 2016-10-17 2018-04-25 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
US10432856B2 (en) 2016-10-27 2019-10-01 Mediatek Inc. Method and apparatus of video compression for pre-stitched panoramic contents
WO2018191224A1 (en) 2017-04-11 2018-10-18 Vid Scale, Inc. 360-degree video coding using face continuities
KR20190140387A (ko) * 2018-06-11 2019-12-19 에스케이텔레콤 주식회사 360도 영상의 인터 예측 방법 및 이를 이용한 영상 복호화 장치
WO2019240425A1 (ko) * 2018-06-11 2019-12-19 에스케이텔레콤 주식회사 인터 예측 방법 및 영상 복호화 장치

Also Published As

Publication number Publication date
US11838516B2 (en) 2023-12-05
US11849121B2 (en) 2023-12-19
US20220360791A1 (en) 2022-11-10
KR20230155384A (ko) 2023-11-10
KR20230154413A (ko) 2023-11-08
WO2019240425A1 (ko) 2019-12-19
KR20230153350A (ko) 2023-11-06
US11838515B2 (en) 2023-12-05
US20220353510A1 (en) 2022-11-03
US20220353511A1 (en) 2022-11-03
US20220360790A1 (en) 2022-11-10
US11849122B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
KR101986588B1 (ko) 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
US11849121B2 (en) Inter-prediction method and image decoding device
US11425391B2 (en) Inter-prediction method and image decoding device
CN113812147B (zh) 使用块内复制的图像编码和解码
KR20200110164A (ko) 인트라 블록 복사를 이용하는 영상 부호화 및 복호화
KR20230160171A (ko) 혼합 성분간 예측을 사용하는 비디오 코딩방법 및 장치
KR20230160170A (ko) 기하학적 움직임 예측을 사용하는 비디오 코딩방법 및 장치
KR20240074642A (ko) 기하학적 분할에 기반하여 크로마 블록을 인트라 예측하는 비디오 코딩방법 및 장치
KR20240076678A (ko) 인트라 서브분할 예측과 변환생략을 이용하는 비디오 코딩방법 및 장치
KR20240078343A (ko) 코딩트리유닛의 분할구조를 예측하고 수정하는 비디오 부호화/복호화 방법 및 장치
KR20230105647A (ko) 개선된 차분 움직임벡터 머지를 이용하는 비디오 코딩 방법 및 장치
KR20200081186A (ko) 시간적 후보의 움직임 벡터 유도 방법 및 이를 이용한 영상 복호화 장치
CN116097648A (zh) 用于预测视频编码/解码装置中使用的量化参数的方法
CN116982310A (zh) 使用具有对于每个分量的自适应空间分辨率的运动矢量的视频编码方法和设备

Legal Events

Date Code Title Description
A107 Divisional application of patent