KR102572012B1 - 시점 간 움직임 병합 후보 유도 방법 및 장치 - Google Patents

시점 간 움직임 병합 후보 유도 방법 및 장치 Download PDF

Info

Publication number
KR102572012B1
KR102572012B1 KR1020220179606A KR20220179606A KR102572012B1 KR 102572012 B1 KR102572012 B1 KR 102572012B1 KR 1020220179606 A KR1020220179606 A KR 1020220179606A KR 20220179606 A KR20220179606 A KR 20220179606A KR 102572012 B1 KR102572012 B1 KR 102572012B1
Authority
KR
South Korea
Prior art keywords
inter
block
view
reference block
view reference
Prior art date
Application number
KR1020220179606A
Other languages
English (en)
Other versions
KR20230002235A (ko
Inventor
박광훈
허영수
Original Assignee
돌비 레버러토리즈 라이쎈싱 코오포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 돌비 레버러토리즈 라이쎈싱 코오포레이션 filed Critical 돌비 레버러토리즈 라이쎈싱 코오포레이션
Priority to KR1020220179606A priority Critical patent/KR102572012B1/ko
Publication of KR20230002235A publication Critical patent/KR20230002235A/ko
Priority to KR1020230111043A priority patent/KR20230129320A/ko
Application granted granted Critical
Publication of KR102572012B1 publication Critical patent/KR102572012B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명에서는 시점 간 움직임 병합 후보 유도 방법 및 장치를 제안한다. 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 유도 방법은 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록의 부호화 정보를 기초로 상기 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단하는 단계와, 상기 현재 블록에 대한 시점 간 움직임 병합이 불가능한 경우, 상기 시점 간 참조 블록과 공간적으로 인접한 인접 블록의 부호화 정보를 이용하여 상기 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계를 포함할 수 있다.

Description

시점 간 움직임 병합 후보 유도 방법 및 장치{METHOD AND DEVICE FOR CREATING INTER-VIEW MERGE CANDIDATES}
본 발명은 시점 간 움직임 병합 후보 유도 방법 및 장치에 관한 것으로서, 보다 상세하게는, 현재 블록에 대한 움직임 병합 후보 유도를 위해서 참조 블록의 부호화 정보를 이용하여 움직임 병합 후보를 유도하는 방법 및 장치에 관한 것이다.
MPEG (Moving Picture Expert Group)과 VCEG (Video Coding Expert Group)은 JCT-VC (Joint Collaborative Team on Video Coding)를 구성하여, 2010년 HEVC(High Efficiency Video Coding)라는 차세대 비디오 표준 기술을 개발을 시작하였다. HEVC 표준 기술은 2013년 1월에 완료되었으며, HEVC는 기존의 비디오 압축 표준 중 가장 높은 압축 성능을 보이는 것으로 알려져 있는 H.264/AVC High 프로파일에 비하여 약 50%의 압축 효율 향상을 달성하였다.
한편, 3차원 비디오는 3차원 입체 디스플레이 장치를 통해 사용자에게 실제 세계에서 보고 느끼는 것과 같은 입체감을 생생하게 제공한다. 이와 관련된 연구로써 ISO/IEC의 MPEG(Moving Picture Experts Group)과 ITU-T의 VCEG(Video Coding Experts Group)의 공동 표준화 그룹인 JCT-3V(The Joint Collaborative Team on 3D Video Coding Extension Development)에서 3차원 비디오 표준이 진행 중이다. 3차원 비디오 표준은 실제 영상과 그것의 깊이 정보 맵을 이용하여 스테레오스코픽 영상뿐만 아니라 오토스테레오스코픽 영상의 재생 등을 지원할 수 있는 진보된 데이터 형식과 그에 관련된 기술에 대한 표준을 포함하고 있다.
또한, HEVC의 3차원 확장규격으로서 표준화가 진행 중인 3D-HEVC에서는 예측 부호화 도구로서 움직임 병합(Merge)을 사용할 수 있다. 움직임 병합은 현재 블록의 주변 블록으로부터 유도된 움직임 정보를 그대로 상속 받아서 현재 블록의 움직임 정보로 이용하는 방법이다. 3D-HEVC의 움직임 병합은 HEVC를 기반으로 하고 있다.
또한, 3D-HEVC는 다수의 시점에서의 영상에 기초하여 시점 간 움직임 병합(Inter-view Motion Merge)을 사용할 수도 있다. 즉, 3D-HEVC에서는 인접한 시점의 블록 중 현재 블록과 상응하는 위치의 블록(이하, ‘참조 블록’이라 지칭함)으로부터 움직임 정보를 유도할 수 있다.
그러나 일정한 경우 참조 블록으로부터 현재 블록에 대한 움직임 정보를 유도할 수 없고, 이러한 경우 시점 간 움직임 병합을 사용할 수 없다는 문제점이 있었다.
한편, 한국공개특허 제10-2013-7027419호(발명의 명칭: 3D 비디오 코딩을 위한 움직임 벡터 및 변이 벡터의 예측과 보상 방법 및 장치)에서는 삼차원(3D) 비디오 코딩에서 현재 화면의 블록에 대한 스킵 모드, 병합 모드 또는 인터 모드와 연관된 MV(motion vector, 움직임 벡터)/MVP(motion vector predictor, 움직임 벡터 예측자) 또는 DV(disparity vector, 변이 벡터)/DVP(disparity vector predictor, 변이 벡터 예측자)를 얻는 방법을 개시하고 있다.
본 발명의 일부 실시예는 현재 블록에 대한 시점 간 움직임 병합 시, 참조 블록이 인트라 부호화(intra coded) 된 경우, 상기 참조 블록과 공간적으로 인접한 인접 블록으로부터 소정의 정보, 예를 들어 움직임 정보를 상기 참조 블록이 상속 받아서, 상기 현재 블록에 대한 움직임 병합 시 활용하는 것을 그 목적으로 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일실시예에 따른 움직임 병합 후보 생성 장치는 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록 및 상기 참조 블록과 공간적으로 인접한 적어도 하나의 인접 블록으로부터 부호화 정보를 각각 획득하는 블록 탐색부; 상기 시점 간 참조 블록의 부호화 정보를 기초로 상기 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단하는 정보 분석부; 및 상기 현재 블록에 대한 시점 간 움직임 병합이 불가능한 경우, 상기 인접 블록의 부호화 정보를 이용하여 상기 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 후보 생성부를 포함한다.
또한, 본 발명의 일실시예에 따른 움직임 병합 후보 생성 방법은 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록의 부호화 정보를 기초로 상기 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단하는 단계, 및 상기 현재 블록에 대한 시점 간 움직임 병합이 불가능한 경우, 상기 시점 간 참조 블록과 공간적으로 인접한 인접 블록의 부호화 정보를 이용하여 상기 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계를 포함한다.
전술한 본 발명의 과제 해결 수단에 의하면, 시점 간 움직임 병합후보를 유도할 수 없는 경우, 시점 간 참조 블록의 인접 블록으로부터 움직임 정보를 유도하는 방법을 사용함으로써, 3차원 비디오 부호화 시 움직임 병합의 부호화 효율을 증가시킬 수 있으며, 복호화 시 계산 복잡도와 메모리 복잡도를 감소시킬 수 있다.
도 1은 종래의 방법에서, 시점 간 움직임 병합 후보 생성이 불가능한 경우를 도시한 것이다.
도 2는 인트라 부호화되는 블록의 일 예를 도시한 것이다.
도 3은 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 생성 장치의 블록도이다.
도 4는 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 생성 방법을 적용시킨 모식도이다.
도 5는 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 생성 방법의 흐름도이다.
도 6은 본 발명의 다른 실시예에 따른 시점 간 움직임 병합 후보 생성 방법을 적용시킨 모식도이다.
도 7은 본 발명의 다른 실시예에 따른 시점 간 움직임 병합 후보 생성 방법의 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 발명의 구체적인 실시예를 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다. 다만, 본 발명의 사상은 제시되는 일 실시예에 제한되지 아니하며, 본 발명의 사상을 이해하는 동일한 사상의 범위 내에서 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시예를 쉽게 발명할 수 있을 것이나, 이 또한 본 발명의 사항의 범위 내에 포함된다고 할 것이다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 본원 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.
또한, 본 발명의 실시예들에서 개시되는 방법 및 장치는 영상 처리 과정에서 수행되는 부호화 과정과 복호화 과정에 모두 적용 가능하며, 본 명세서 전반에 사용된 ‘코딩’은 부호화 과정과 복호화 과정을 모두 포함하는 상위 개념이다. 덧붙여, 이 기술 분야에서 종사하는 당업자라면 부호화 과정으로 기술된 내용을 참조하여 복호화 과정을 쉽게 이해할 수 있을 것이고, 그 반대의 경우도 마찬가지일 것이다.
도 1은 종래의 방법에서, 시점 간 움직임 병합 후보 생성이 불가능한 경우를 도시한 것이다.
도 1을 참조하면, 종래의 시점 간 움직임 병합 후보 생성 방법에서는, 이전 시점 프레임(120) 내에 있는 현재 부호화 하려는 블록(이하 ‘현재 블록’이라 지칭함)에 대하여 서로 다른 시점의 프레임 상에서의 위치를 보정해주는 시차(Disparity)에 기초한 변이 벡터(130)(Disparity Vector)를 이용하여 현재 블록(121)에 상응하는 이전 시점 프레임(110) 상의 참조 블록(111)(Corresponding reference block)을 찾을 수 있으며, 참조 블록(111)의 움직임 정보로부터 상속받은 현재 블록(121)에 대한 시점 간 움직임 병합 후보로 사용할 수 있다.
하지만, 현재 블록(121)의 시점 간 움직임 병합 후보 생성 시, 대표적으로 참조 블록(111)이 인트라 부호화(Intra coded)된 경우에는 참조 블록(111)으로부터 움직임 정보를 상속 받을 수 없어, 시점 간 움직임 병합 방법을 사용할 수 없다.
한편, 도 2는 인트라 부호화되는 블록의 일 예에 대하여 도시한 것이다.
도 2를 참조하면, 현재 블록(X2')을 부호화 시, 현재 블록(X2')과 공간적으로 인접해 있는 인접 블록의 부호화 정보가 참조 될 수 있다. 특히, 현재 블록(X2')이전에 부호화된 블록들(A21, A22, A23, B21 및 C21) 이 참조될 수 있다.
다만, 도 2의 경우 해당 프레임(210) 상에서 위 블록들(A21, A22, A23, B21 및 C21) 이 속해 있는 객체 영역과, 현재 블록(X2')이 속해 있는 객체 영역(220)이 서로 다르기 때문에, 위의 블록들(A21, A22, A23, B21 및 C21)은 현재 블록(X2')과 상관도가 낮다.
그 결과 위의 블록들(A21, A22, A23, B21 및 C21)은 현재 블록(X2')이 참조할 수 있는 참조 블록이 될 수 없고, 현재 블록(X2')은 인트라 모드로 부호화 된다.
여기서 상기 상관도는 확률 통계 이론에서의 코릴레이션(Correlation) 개념과 동일하며, 비디오 코딩 분야에서는 블록 내에서 동일한 위치의 픽셀값 간의 유사도를 나타낼 수 있다.
예를 들어, 현재 블록의 픽셀값이 255, 255, 200, 및 200이고, 픽셀값이 255, 255, 180, 및 200인 제 1인접 블록이 존재하고 픽셀값이 0, 150, 40, 및 50인 제 2인접 블록이 존재한다면, 제 1인접 블록이 상술된 현재 블록과 상관도가 높다고 표현할 수 있다.
또한, 상술된 동일한 객체 영역은 깊이 카메라를 통해 획득되는 깊이 정보를 이용하여 판단될 수 있으나, 이와 같은 방식으로 제한되는 것은 아니다.
상술된 바와 같이 시점 간 움직임 병합 후보 생성 과정에서, 참조 블록이 인트라 부호화 되고 이로 인해 현재 블록이 움직임 정보를 상속받지 못하는 경우에 참조 블록의 인접 블록 중에서 움직임 정보를 상속 받아서 움직임 병합을 수행하는 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 생성 장치 및 방법에 의하면, 현재 블록에 대한 움직임 병합의 부호화 효율을 증가시킬 수 있으며 복호화 또는 부호화 시 계산 복잡도 및 메모리 복잡도를 감소시킬 수 있다.
여기서, 부호화 효율은 비디오를 압축하였을 때, 원본 영상과 화질 차이 및 압축된 비디오 스트림의 비트율을 고려한 수치일 수 있다.
또한, 화질 차이는 최대 신호대 잡음 비(Peak Signal-to-Noise Ratio, PSNR) 로 판단할 수 있으며, 최대 신호대 잡음 비가 높을수록 부호화 효율이 좋으며, 상술된 비트율이 낮을수록 부호화 효율이 좋다.
이하에서는 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 생성 장치 및 방법에 관하여 보다 상세하게 설명하기로 한다.
도 3은 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 유도 장치의 블록도이다.
도 3을 참조하면, 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 유도 장치는 블록 탐색부(310), 정보 분석부(320), 및 후보 생성부(330)를 포함할 수 있다.
블록 탐색부(310)는 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록 및 참조 블록과 공간적으로 인접한 적어도 하나의 인접 블록으로부터 부호화 정보를 각각 획득할 수 있다.
정보 분석부(320)는 시점 간 참조 블록의 부호화 정보를 기초로 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단할 수 있다.
상세하게 설명하면, 정보 분석부(320)는 시점 간 참조 블록의 부호화 정보를 기초로 시점 간 참조 블록이 인트라 부호화되었는지 판단할 수 있다.
예를 들어, 상기 부호화 정보의 사용 여부를 나타내는 플래그를 포함하는 헤더를 참조하여 판단할 수 있다.
여기서, 헤더는 비디오 파라미터 세트 익스텐션(Video Parameter Set Extension)일 수 있고, 상술된 참조 블록의 부호화 정보는 해당 참조 블록의 움직임 정보 및 깊이 정보를 포함할 수 있다.
또한 후보 생성부(330)는 현재 블록에 대한 시점 간 움직임 병합이 불가능한 경우, 인접 블록의 부호화 정보를 이용하여 현재 블록에 대한 시점 간 움직임 병합 후보를 생성할 수 있다.
여기서, 위의 인접 블록의 부호화 정보는 해당 인접 블록의 움직임 정보 및 깊이 정보를 포함할 수 있다.
또한 후보 생성부(330)는 현재 블록에 대한 시점 간 움직임 병합이 가능한 경우, 상기 시점 간 참조 블록의 부호화 정보를 이용하여 현재 블록에 대한 시점 간 움직임 병합 후보를 생성할 수 있다.
추가적으로 일예에 따른 후보 생성부(330)는 상기 시점 간 참조 블록과 공간적으로 인접한 복수의 인접 블록 중, 시점 간 참조 블록을 포함하는 객체 영역에 포함되는 고상관성 인접 블록의 부호화 정보를 이용하여 생성할 수 있다.
즉, 일예에 따를 때, 고상관성 인접 블록은 시점 간 참조 블록을 포함하는 객체 영역에 포함되는지 여부에 따라 결정될 수 있고, 이러한 객체 영역에 대한 판단 시 상술한 정보가 사용될 수 있다.
또한 시점 간 참조 블록과 공간적으로 인접한 복수의 인접 블록 중 상속 우선순위에 따라 결정된 고상관성 인접 블록의 부호화 정보를 이용하여 생성할 수 있다.
여기서, 상속 우선순위는 시점 간 참조 블록, 시점 간 참조 블록 이후에 부호화되는 인접 블록, 및 시점 간 참조 블록 이전에 부호화되는 인접 블록의 순서로 미리 설정될 수 있고, 다른 예에 따를 때 고상관성 인접 블록은 이러한 상속 우선순위에 따라 결정될 수 있다.
나아가 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보를 생성하는 방법에 대해서는 후술하는 과정에서 도 4 내지 도 7을 통해 상세히 설명하기로 한다.
도 4는 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 생성 방법을 적용시킨 모식도이다.
도 4를 참조하면, 현재 시점의 프레임(420)에 포함된 현재 블록(X4)에 대하여 시점 간 움직임 병합 후보 생성 시, 이전 시점의 프레임(410) 상의 참조 블록(X4')이 인트라 모드로 부호화 된 경우, 본 발명의 일실시예에 의해 현재 블록(X4)에 대한 움직임 정보를 유도할 수 있다.
여기서, 상술된 참조 블록(X4')은 현재 블록(X4)의 변이 벡터(430)를 통해 유도된 시점 간 참조 블록(X4')일 수 있다.
현재 시점 프레임(420) 상에서의 상기 현재 블록(X4)에 상응하는 이전 시점 프레임(410) 상에서의 참조 블록(X4')이 인트라 모드로 부호화 된 경우, 참조 블록(X4')에는 움직임 정보가 존재하지 않으며, 종래의 방법에서는 참조 블록(X4')으로부터 시점 간 움직임 정보를 유도할 수 없다.
그러나 본 발명의 일실시예에서 제안된 방법에 의하면, 참조 블록(X4')이 인트라 모드로 부호화 된 경우처럼 움직임 정보가 존재하지 않는 경우라도, 시점 간 움직임 병합을 사용할 수 있다.
또한, 참조 블록(X4') 이후에 부호화 되는 블록들 중에서 B43, C42 및 C43 블록의 경우 참조 블록(X4')과 동일한 객체에 속하므로 현재 블록(X4)의 움직임 정보와 상관도가 높다.
따라서 참조 블록(X4')로부터 움직임 정보를 유도할 수 없지만 참조 블록(X4')과 공간적으로 인접한 인접 블록 중에서, 참조 블록(X4')이 인트라 모드로 부호화 된 이후에 부호화되는 블록들(B43, C42, 및 C43블록) 즉, 참조 블록과 상관도가 높은 블록들(B43, C42, 및 C43블록)로부터 움직임 정보를 유도한다면 시점 간 움직임 병합 후보 생성 시, 부호화 효율이 높은 시점 간 움직임 병합 후보를 사용할 수 있다.
도 5는 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 생성 방법의 흐름도이다.
도 5를 참조하면, 본 발명의 일실시예에 따른 시점 간 움직임 병합 후보 유도 방법은 현재 시점에서 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록의 부호화 정보를 기초로 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단하는 단계(S520)와 현재 블록에 대한 시점 간 움직임 병합이 불가능한 경우, 시점 간 참조 블록과 공간적으로 인접한 인접 블록의 부호화 정보를 이용하여 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계(S550)를 포함할 수 있다.
또한 시점 간 움직임 병합 후보 유도 방법은 현재 시점의 현재 블록의 변이 벡터를 이용하여 현재 블록에 상응하는 이전 시점의 참조 블록의 위치를 계산하는 단계(S510)를 더 포함할 수 있다.
또한 시점 간 움직임 병합 후보 유도 방법은 현재 블록에 대한 시점 간 움직임 병합이 가능한 경우, 시점 간 참조 블록의 부호화 정보를 이용하여 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계(S530)를 더 포함할 수 있다.
예를 들면, 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록의 부호화 정보를 기초로 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단하는 단계(S520)는 시점 간 참조 블록의 부호화 정보를 기초로 시점 간 참조 블록이 인트라 부호화(Intra coded)되었는지 여부를 판단할 수 있다.
또한 시점 간 움직임 병합 후보 유도 방법은 상술된 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록의 부호화 정보를 기초로 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단하여, 참조 블록이 움직임 병합이 불가능한 경우, 인접 블록의 부호화 정보가 이용 가능한지 여부를 판단하는 단계(S540)를 더 포함할 수 있다.
도 6은 본 발명의 다른 실시예에 따른 시점 간 움직임 병합 후보 생성 방법을 도시한 것이다.
도 6을 참조하면, 현재 시점의 프레임(620)에 포함된 현재 블록(X6)에 대하여 시점 간 움직임 병합 후보 생성 시, 이전 시점의 프레임(610)에서 참조 블록(X6')이 인트라 모드로 부호화 된 경우, 본 발명의 시점 간 움직임 병합 후보 생성 방법에 따라서 현재 블록(X6)에 대한 움직임 정보를 유도할 수 있다.
현재 블록(X6)에 대하여 시점 간 움직임 병합 후보 생성 시, 현재 블록(X6)에 상응하는 참조 블록(X6')이 인트라 모드로 부호화 된 경우가 있다.
이러한 경우에 참조 블록(X6')과 공간적으로 인접한 인접 블록들 중에서, 참조 블록(X6')이 부호화된 이후에 부호화 되는 B63, C62 및 C63블록에 높은 우선 순위를 부여할 수 있다.
여기서, 상술된 참조 블록(X6')은 현재 블록(X6)의 변이 벡터(630)를 통해 유도된 시점 간 참조 블록일 수 있고, 각각의 블록에 표시된 화살표(612)는 상술된 각각의 블록에 포함된 움직임 정보일 수 있다.
추가로 음영 표시된 영역(611)은 소정의 정보를 이용하여 구분된 객체 영역일 수 있다. 예를 들어 소정의 정보는 깊이 카메라(Depth Camera)에 의해 입력되는 깊이 정보일 수 있다.
도 7은 본 발명의 다른 실시예에 따른 시점 간 움직임 병합 후보 생성 방법의 흐름도이다.
도 7을 참조하면, 본 발명의 다른 실시예에 따른 시점 간 움직임 병합 후보 유도 방법은 현재 시점의 현재 블록의 변이 벡터를 이용하여 현재 블록에 상응하는 이전 시점의 참조 블록의 위치를 계산하는 단계(S710)와 현재 시점에서 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록의 부호화 정보를 기초로 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단하는 단계(S720)와 현재 블록에 대한 시점 간 움직임 병합이 불가능한 경우, 시점 간 참조 블록과 공간적으로 인접한 인접 블록의 부호화 정보를 이용하여 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계(S750)를 포함할 수 있다.
또한 시점 간 움직임 병합 후보 유도 방법은 현재 블록에 대한 시점 간 움직임 병합이 가능한 경우, 시점 간 참조 블록의 부호화 정보를 이용하여 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계(S730)를 더 포함할 수 있다.
예를 들면, 현재 블록의 변이 벡터를 통해 유도된 시점 간 참조 블록의 부호화 정보를 기초로 현재 블록에 대한 시점 간 움직임 병합이 가능한지 판단하는 단계(S720)는 시점 간 참조 블록의 부호화 정보를 기초로 시점 간 참조 블륵이 인트라 부호화(Intra coded)되었는지 여부를 판단할 수 있다.
또한 시점 간 움직임 병합 후보 유도 방법은 상술된 S720단계에서 참조 블록이 움직임 병합이 불가능한 경우, 참조 블록 이후에 부호화 된 인접 블록 중 적어도 하나의 인접 블록이 움직임 병합이 가능한지 여부를 판단하는 단계(S740)를 더 포함할 수 있다.
또한 시점 간 움직임 병합 후보 유도 방법은 상술된 S740단계에서, 참조 블록 이후에 부호화 된 인접 블록 중 적어도 하나가 움직임 병합이 불가능한 경우, 참조 블록 이전에 부호화된 인접 블록 중 적어도 하나의 인접 블록이 움직임 병합이 가능한지 여부를 판단하는 단계(S760)를 더 포함할 수 있다.
또한 상술된 S760단계에서, 참조 블록 이전에 부호화 된 인접 블록 중 적어도 하나의 인접 블록이 움직임 병합이 가능한 경우, 인접 블록으로부터 시점 간 움직임 병합 후보를 생성(S770) 할 수 있다.
본 발명의 실시예에 포함되는 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
상술한 본 발명에 따른 시점 간 움직임 병합 후보 생성 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
310: 블록 탐색부 320: 정보 분석부
330: 후보 생성부

Claims (9)

  1. 영상 복호화 방법에 있어서,
    현재 블록에 대한 변이 벡터를 이용하여 상기 현재 블록에 대한 시점 간 참조 블록을 유도하는 단계;
    상기 시점 간 참조 블록에 움직임 정보가 존재하는지 여부를 판단하는 단계;
    상기 시점 간 참조 블록에 움직임 정보가 존재하는지 여부에 기초하여, 상기 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계; 및
    상기 시점 간 움직임 병합 후보를 이용하여 상기 현재 블록에 대한 병합 후보 리스트를 생성하는 단계를 포함하고,
    상기 시점 간 참조 블록에 움직임 정보가 존재하 것으로 판단된 경우, 상기 시점 간 움직임 병합 후보는 상기 시점간 참조 블록의 부호화 정보를 이용하여 생성되고,
    상기 시점 간 참조 블록에 움직임 정보가 존재하지 않는 것으로 판단된 경우, 상기 시점 간 움직임 병합 후보는 상기 시점 간 참조 블록의 인접 블록의 부호화 정보를 이용하여 생성되고,
    상기 인접 블록은 상기 시점 간 참조 블록을 포함하는 객체 영역의 중심에 위치한 블록인 것을 특징으로 하는 영상 복호화 방법.
  2. 제1항에 있어서,
    상기 시점 간 참조 블록의 부호화 정보에 기초하여 상기 시점 간 참조 블록이 화면 내 부호화되었는지 판단하는 단계를 더 포함하는 것을 특징으로 하는 영상 복호화 방법.
  3. 제1항에 있어서,
    상기 인접 블록은 상기 시점 간 참조 블록 다음에 부호화된 인접 블록인 것을 특징으로 하는 영상 복호화 방법.
  4. 영상 부호화 방법에 있어서,
    현재 블록에 대한 변이 벡터를 이용하여 상기 현재 블록에 대한 시점 간 참조 블록을 유도하는 단계;
    상기 시점 간 참조 블록에 움직임 정보가 존재하는지 여부를 판단하는 단계;
    상기 시점 간 참조 블록에 움직임 정보가 존재하는지 여부에 기초하여, 상기 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계; 및
    상기 시점 간 움직임 병합 후보를 이용하여 상기 현재 블록에 대한 병합 후보 리스트를 생성하는 단계를 포함하고,
    상기 시점 간 참조 블록에 움직임 정보가 존재하 것으로 판단된 경우, 상기 시점 간 움직임 병합 후보는 상기 시점간 참조 블록의 부호화 정보를 이용하여 생성되고,
    상기 시점 간 참조 블록에 움직임 정보가 존재하지 않는 것으로 판단된 경우, 상기 시점 간 움직임 병합 후보는 상기 시점 간 참조 블록의 인접 블록의 부호화 정보를 이용하여 생성되고,
    상기 인접 블록은 상기 시점 간 참조 블록을 포함하는 객체 영역의 중심에 위치한 블록인 것을 특징으로 하는 영상 부호화 방법.
  5. 제4항에 있어서,
    상기 시점 간 참조 블록의 부호화 정보에 기초하여 상기 시점 간 참조 블록이 화면 내 부호화되었는지 판단하는 단계를 더 포함하는 것을 특징으로 하는 영상 부호화 방법.
  6. 제4항에 있어서,
    상기 인접 블록은 상기 시점 간 참조 블록 다음에 부호화된 인접 블록인 것을 특징으로 하는 영상 부호화 방법.
  7. 비트스트림을 저장하는 비일시적 컴퓨터 판독가능한 기록매체에 있어서, 상기 비트스트림은 영상 부호화 방법에 의해 생성되고, 상기 부호화 방법은:
    현재 블록에 대한 변이 벡터를 이용하여 상기 현재 블록에 대한 시점 간 참조 블록을 유도하는 단계;
    상기 시점 간 참조 블록에 움직임 정보가 존재하는지 여부를 판단하는 단계;
    상기 시점 간 참조 블록에 움직임 정보가 존재하는지 여부에 기초하여, 상기 현재 블록에 대한 시점 간 움직임 병합 후보를 생성하는 단계; 및
    상기 시점 간 움직임 병합 후보를 이용하여 상기 현재 블록에 대한 병합 후보 리스트를 생성하는 단계를 포함하고,
    상기 시점 간 참조 블록에 움직임 정보가 존재하 것으로 판단된 경우, 상기 시점 간 움직임 병합 후보는 상기 시점간 참조 블록의 부호화 정보를 이용하여 생성되고,
    상기 시점 간 참조 블록에 움직임 정보가 존재하지 않는 것으로 판단된 경우, 상기 시점 간 움직임 병합 후보는 상기 시점 간 참조 블록의 인접 블록의 부호화 정보를 이용하여 생성되고,
    상기 인접 블록은 상기 시점 간 참조 블록을 포함하는 객체 영역의 중심에 위치한 블록인 것을 특징으로 하는 비일시적 컴퓨터 판독가능한 기록매체.
  8. 제7항에 있어서,
    상기 시점 간 참조 블록의 부호화 정보에 기초하여 상기 시점 간 참조 블록이 화면 내 부호화되었는지 판단하는 단계를 더 포함하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능한 기록매체.
  9. 제7항에 있어서,
    상기 인접 블록은 상기 시점 간 참조 블록 다음에 부호화된 인접 블록인 것을 특징으로 하는 비일시적 컴퓨터 판독가능한 기록매체.
KR1020220179606A 2014-03-31 2022-12-20 시점 간 움직임 병합 후보 유도 방법 및 장치 KR102572012B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220179606A KR102572012B1 (ko) 2014-03-31 2022-12-20 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020230111043A KR20230129320A (ko) 2014-03-31 2023-08-24 시점 간 움직임 병합 후보 유도 방법 및 장치

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020140038097A KR102260146B1 (ko) 2014-03-31 2014-03-31 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020220017709A KR102480955B1 (ko) 2014-03-31 2022-02-10 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020220179606A KR102572012B1 (ko) 2014-03-31 2022-12-20 시점 간 움직임 병합 후보 유도 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220017709A Division KR102480955B1 (ko) 2014-03-31 2022-02-10 시점 간 움직임 병합 후보 유도 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230111043A Division KR20230129320A (ko) 2014-03-31 2023-08-24 시점 간 움직임 병합 후보 유도 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20230002235A KR20230002235A (ko) 2023-01-05
KR102572012B1 true KR102572012B1 (ko) 2023-08-28

Family

ID=54240785

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020140038097A KR102260146B1 (ko) 2014-03-31 2014-03-31 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020210068860A KR102363415B1 (ko) 2014-03-31 2021-05-28 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020220017709A KR102480955B1 (ko) 2014-03-31 2022-02-10 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020220179606A KR102572012B1 (ko) 2014-03-31 2022-12-20 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020230111043A KR20230129320A (ko) 2014-03-31 2023-08-24 시점 간 움직임 병합 후보 유도 방법 및 장치

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020140038097A KR102260146B1 (ko) 2014-03-31 2014-03-31 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020210068860A KR102363415B1 (ko) 2014-03-31 2021-05-28 시점 간 움직임 병합 후보 유도 방법 및 장치
KR1020220017709A KR102480955B1 (ko) 2014-03-31 2022-02-10 시점 간 움직임 병합 후보 유도 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230111043A KR20230129320A (ko) 2014-03-31 2023-08-24 시점 간 움직임 병합 후보 유도 방법 및 장치

Country Status (4)

Country Link
US (3) US10616602B2 (ko)
KR (5) KR102260146B1 (ko)
CN (2) CN106464898B (ko)
WO (1) WO2015152504A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102260146B1 (ko) 2014-03-31 2021-06-03 인텔렉추얼디스커버리 주식회사 시점 간 움직임 병합 후보 유도 방법 및 장치
WO2020098813A1 (en) * 2018-11-16 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Usage for history-based affine parameters
WO2020169109A1 (en) 2019-02-22 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Sub-table for history-based affine mode

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
KR20070069615A (ko) * 2005-12-28 2007-07-03 삼성전자주식회사 움직임 추정장치 및 움직임 추정방법
CN101473655B (zh) * 2006-06-19 2011-06-08 Lg电子株式会社 用于处理多视点视频信号的方法和装置
CN101491096B (zh) * 2006-07-12 2012-05-30 Lg电子株式会社 信号处理方法及其装置
KR101370899B1 (ko) * 2006-10-24 2014-03-10 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
WO2011037420A2 (ko) * 2009-09-25 2011-03-31 에스케이텔레콤 주식회사 인접 화소를 이용한 인터 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
CN102823248B (zh) * 2010-04-08 2015-06-24 株式会社东芝 图像编码方法以及图像编码装置
KR101506446B1 (ko) * 2010-12-15 2015-04-08 에스케이 텔레콤주식회사 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
CN106878742B (zh) * 2011-01-12 2020-01-07 太阳专利托管公司 动态图像编解码装置
KR102287971B1 (ko) * 2011-02-09 2021-08-09 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
EP2721825A4 (en) * 2011-06-15 2014-12-24 Mediatek Inc METHOD AND DEVICE FOR MOTION AND DISPARITY VECTOR PREDICTION AND COMPENSATION IN 3D VIDEO CODING
KR20240027889A (ko) * 2011-11-11 2024-03-04 지이 비디오 컴프레션, 엘엘씨 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩
KR101806341B1 (ko) 2011-12-14 2017-12-08 연세대학교 산학협력단 예측 움직임 벡터 선정에 따른 영상 부호화 방법 및 장치, 및 영상 복호화 방법 및 장치
WO2013159326A1 (en) * 2012-04-27 2013-10-31 Mediatek Singapore Pte. Ltd. Inter-view motion prediction in 3d video coding
CN102769748B (zh) * 2012-07-02 2014-12-24 华为技术有限公司 运动矢量预测方法、装置及系统
WO2014005280A1 (en) * 2012-07-03 2014-01-09 Mediatek Singapore Pte. Ltd. Method and apparatus to improve and simplify inter-view motion vector prediction and disparity vector prediction
WO2014005548A1 (en) * 2012-07-05 2014-01-09 Mediatek Inc. Method and apparatus of unified disparity vector derivation for 3d video coding
US9924168B2 (en) * 2012-10-05 2018-03-20 Hfi Innovation Inc. Method and apparatus of motion vector derivation 3D video coding
CN102946536B (zh) * 2012-10-09 2015-09-30 华为技术有限公司 候选矢量列表构建的方法及装置
WO2014056423A1 (en) * 2012-10-09 2014-04-17 Mediatek Inc. Method and apparatus for motion information prediction and inheritance in video coding
WO2014077573A2 (ko) * 2012-11-13 2014-05-22 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
EP2941867A4 (en) * 2013-01-07 2016-07-06 Mediatek Inc METHOD AND DEVICE FOR DERIVING A PREDICTION OF SPATIAL MOTION VECTORS FOR DIRECT AND SKIP MODES IN A THREE-DIMENSIONAL VIDEO-CORDING
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
US9800895B2 (en) * 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
US9554150B2 (en) * 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
KR102260146B1 (ko) 2014-03-31 2021-06-03 인텔렉추얼디스커버리 주식회사 시점 간 움직임 병합 후보 유도 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
E. MORA, JUNG 외 3명. "Modification of the merge candidate list for dependent views in 3D-HEVC". IEEE International Conference on Image Processing, 2013, 페이지 1709-1713.*

Also Published As

Publication number Publication date
US20170078698A1 (en) 2017-03-16
KR20210068338A (ko) 2021-06-09
CN106464898B (zh) 2020-02-11
US10616602B2 (en) 2020-04-07
KR20230002235A (ko) 2023-01-05
CN111343459A (zh) 2020-06-26
KR102363415B1 (ko) 2022-02-15
KR102480955B1 (ko) 2022-12-22
WO2015152504A1 (ko) 2015-10-08
CN106464898A (zh) 2017-02-22
KR20150113713A (ko) 2015-10-08
KR20230129320A (ko) 2023-09-08
CN111343459B (zh) 2023-09-12
KR20220024338A (ko) 2022-03-03
US11729421B2 (en) 2023-08-15
US20200195968A1 (en) 2020-06-18
KR102260146B1 (ko) 2021-06-03
US20230291931A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
US10791336B2 (en) Moving picture coding device, moving picture coding method, moving picture coding program, moving picture decoding device, moving picture decoding method, and moving picture decoding program
CN112956190B (zh) 仿射运动预测
TW202013966A (zh) 色度解碼器側運動向量細化
KR102572012B1 (ko) 시점 간 움직임 병합 후보 유도 방법 및 장치
US10021367B2 (en) Method and apparatus of inter-view candidate derivation for three-dimensional video coding
TW201817237A (zh) 在視頻寫碼中用於仿射運動模型之運動向量預測
CN112823518A (zh) 用于译码块的三角划分块的帧间预测的装置及方法
US20150085932A1 (en) Method and apparatus of motion vector derivation for 3d video coding
KR20200014913A (ko) 인터 예측 기반의 영상 처리 방법 및 이를 위한 장치
US9736498B2 (en) Method and apparatus of disparity vector derivation and inter-view motion vector prediction for 3D video coding
WO2014205343A1 (en) More accurate advanced residual prediction (arp) for texture coding
US9998760B2 (en) Method and apparatus of constrained disparity vector derivation in 3D video coding
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
CN115243039A (zh) 一种视频图像预测方法及装置
US20210105481A1 (en) Method and apparatus for processing video signal by using affine prediction
KR102622468B1 (ko) 인터 예측 기반 영상 코딩 방법 및 장치
US20220109883A1 (en) Signaling method and device for merge data syntax in video/image coding system
CN110944184B (zh) 视频解码方法及视频解码器
CN114342387A (zh) 基于运动预测的图像编译方法和装置
CN114270833A (zh) 用于在视频/图像编译系统中移除重叠信令的方法和装置
CN110958452A (zh) 视频解码方法及视频解码器
KR102622467B1 (ko) 움직임 벡터를 이용한 영상 코딩 방법 및 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant