KR101443169B1 - 비디오 이미지의 움직임 정보를 취득하는 방법, 장치, 및 기기, 그리고 템플릿 구성 방법 - Google Patents

비디오 이미지의 움직임 정보를 취득하는 방법, 장치, 및 기기, 그리고 템플릿 구성 방법 Download PDF

Info

Publication number
KR101443169B1
KR101443169B1 KR1020117029854A KR20117029854A KR101443169B1 KR 101443169 B1 KR101443169 B1 KR 101443169B1 KR 1020117029854 A KR1020117029854 A KR 1020117029854A KR 20117029854 A KR20117029854 A KR 20117029854A KR 101443169 B1 KR101443169 B1 KR 101443169B1
Authority
KR
South Korea
Prior art keywords
block
current
motion information
reference block
current block
Prior art date
Application number
KR1020117029854A
Other languages
English (en)
Other versions
KR20120026092A (ko
Inventor
시신 린
밍유안 양
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20120026092A publication Critical patent/KR20120026092A/ko
Application granted granted Critical
Publication of KR101443169B1 publication Critical patent/KR101443169B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비디오 이미지의 움직임 정보를 취득하는 방법, 장치 및 기기가 제공된다. 상기 방법은, 현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임에서 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록을 결정하는 단계; 제2 참조 프레임에서 상기 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정하는 단계; 제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합을 계산하는 단계; 및 최소 차의 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 상기 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하고, 상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 벡터에 따라 상기 현재 블록의 움직임 정보를 취득하는 단계를 포함한다. 템플릿 구성 방법도 제공된다. 상기 방법, 장치, 및 디바이스는 비디오 이미지의 인코딩 및 디코딩 효율을 향상시킬 수 있다.

Description

비디오 이미지의 움직임 정보를 취득하는 방법, 장치, 및 기기, 그리고 템플릿 구성 방법 {METHOD, APPARATUS AND DEVICE FOR OBTAINING VIDEO IMAGE MOTION INFORMATION AND TEMPLATE CONSTRUCTION METHOD}
본 발명은 비디오 기술에 관한 것이며, 구체적으로는 비디오 이미지 인코딩 및 디코딩 프로세스에서 비디오 이미지의 움직임 정보(motion information)를 취득하는 방법, 장치, 및 디바이스, 그리고 비디오 이미지 인코딩 및 디코딩 프로세스에 적용된 템플릿 구성 방법에 관한 것이다.
비디오 인코딩 기술의 계속적인 발전과 더불어, 프레임간(inter-frame) 움직임 검색 및 보상 기술은 비디오 컨텐츠의 시간 중복성을 효과적으로 제거할 수 있어, 인코딩 효율이 크게 향상된다. 움직임 정보는 움직임 추정을 통해 취득된 다음 디코딩 단에 전달되며, 디코딩 단은 움직임 보상 방법에 의해 비디오 이미지를 예측 및 재구성한다. 그러나, 움직임 보상 후에는 코드 스트림에서의 예측 잔차(prediction residual)의 비율은 상당히 감소하고 코드 스트림에서의 움직임 벡터 정보의 비율은 계속 증가하기 때문에, 움직임 정보를 효과적으로 압축하는 방법은 비디오 압축 효율을 더 향상시키기 위해 중요해진다.
종래 기술에는 비디오 이미지 인코딩 및 디코딩 프로세스에서 코드 스트림에서의 움직임 정보의 비율을 감소시킴으로써 움직임 정보를 취득하는 방법이 제공된다.
움직임 벡터는 템플릿 매칭(template matching)를 통해 취득된다. 구체적으로 설명하면, 도 1에 나타낸 바와 같이, 예로서 B 프레임에서 매크로 블록인 현재 블록을 취하면, 먼저, 템플릿(TM)이 재구성 값을 사용하여 현재 블록 주위에 구성되고, 그 후 블록의 전방 참조 프레임(forward reference frame, Ref List0) 및 후방 참조 프레임(backward reference frame, Ref List1)에서의 매칭 검색(matching search)을 수행하기 위해, 현재 블록의 움직임 벡터로 사용되는 움직임 벡터(MV0, MV1)가 템플릿(TM)과 동일한 형태의 템플릿을 사용하여 취득되는 한편, 현재 블록의 예측 값이 취득되고 예측 잔차 인코딩의 수행에 사용된다.
본 발명의 실시 중에, 본 발명자들은 종래기술이 적어도 아래와 같은 문제점이 있다는 것을 알았다.
움직임 정보를 취득할 때 큰 예측 에러가 도입되고, 그 결과 비디오 이미지의 인코딩 효율이 낮아진다.
본 발명의 실시예는,
비디오 이미지에서 움직임 정보를 취득하는 프로세스를 개선함으로써 비디오 이미지의 인코딩 및 디코딩 효율을 향상시킬 수 있는, 비디오 이미지의 움직임 정보를 취득하는 방법, 장치, 및 디바이스를 제공한다.
본 발명의 아래의 기술적 해결방안을 채택한다.
비디오 이미지의 움직임 정보를 취득하는 방법은,
현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임(reference frame)에서 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록(candidate reference block)을 결정하는 단계;
제2 참조 프레임에서 상기 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정하는 단계;
제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합(sum of difference)을 계산하는 단계; 및
최소 차의 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 상기 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하고, 상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 벡터에 따라 상기 현재 블록의 움직임 정보를 취득하는 단계를 포함한다.
비디오 이미지의 움직임 정보를 취득하는 장치는,
현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임에서 상기 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록을 결정하도록 구성된 제1 결정 유닛;
제2 참조 프레임에서 상기 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정하도록 구성된 제2 결정 유닛;
제1 후보 참조 블록과, 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합을 계산하도록 구성된 계산 유닛; 및
최소 차의 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 상기 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하고, 상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 정보에 따라 상기 현재 블록의 움직임 정보를 취득하도록 구성된 선택 유닛을 포함한다.
전자 기기(electronic device)는 전술한 비디오 이미지의 움직임 정보를 취득하는 장치 및 송수신 장치를 포함하고, 상기 송수신 장치는 비디오 정보를 수신하거나 송신하도록 구성된다.
비디오 이미지의 움직임 정보를 취득하는 방법은,
제1 참조 프레임에서 템플릿 매칭을 통해 현재 블록과 관련된 제1 움직임 정보를 취득하고, 상기 제1 움직임 정보에 따라 제1 참조 블록을 결정하는 단계;
제2 참조 프레임에서 템플릿 매칭을 통해 상기 제1 참조 블록과 관련된 제2 움직임 정보를 취득하고, 상기 제2 움직임 정보에 따라 제2 참조 블록을 결정하는 단계; 및
상기 제1 움직임 정보와 상기 제2 움직임 정보에 따라 현재 블록의 움직임 정보를 결정하는 단계를 포함한다.
비디오 이미지의 움직임 정보를 취득하는 장치는,
제1 참조 프레임에서 템플릿 매칭을 통해 현재 블록과 관련된 제1 움직임 정보를 취득하고, 상기 제1 움직임 정보에 따라 제1 참조 블록을 결정하도록 구성된 제1 매칭 유닛;
제2 참조 프레임에서 템플릿 매칭을 통해 상기 제1 참조 블록과 관련된 제2 움직임 정보를 취득하고, 상기 제2 움직임 정보에 따라 제2 참조 블록을 결정하도록 구성된 제2 매칭 유닛; 및
상기 제1 움직임 정보와 상기 제2 움직임 정보에 따라 현재 블록의 움직임 정보를 계산하도록 구성된 계산 유닛을 포함한다.
전자 기기는 전술한 비디오 이미지의 움직임 정보를 취득하는 장치 및 송수신 장치를 포함하고, 상기 송수신 장치는 비디오 정보를 수신하거나 송신하도록 구성된다.
본 발명의 실시예는 또한 비디오 인코딩 및 디코딩 프로세스에서 적용된 템플릿 구성 방법을 제공하며, 상기 방법은,
현재 블록의 이웃 블록 중 일부분의 재구성 값이 미지인 경우에, 미지의 재구성 값을 가지는 상기 이웃 블록 중 일부분에 대응하는 파싱(parsed) 움직임 정보에 따라 대응하는 참조 프레임에서 상기 이웃 블록 중 일부분의 예측 값(predicted value)를 취득하고, 상기 현재 블록의 상기 이웃 블록 중 일부분에 대한 상기 예측 값 및 상기 현재 블록의 상기 이웃 블록 중 다른 부분에 대한 기지의 재구성 값(known reconstruction value)을 사용하여 템플릿을 구성하는 단계를 포함한다.
본 발명의 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 방법 및 장치는 비디오 이미지의 움직임 정보를 취득하는 프로세스를 개선하기 위해 참조 블록을 결정하는 방법을 변경함으로써 비디오 이미지의 인코딩 및 디코딩 효율을 향상시킬 수 있다. 본 발명의 실시예에서 제공되는 템플릿 구성 방법은 현재 블록이 분할 블록(partition block)일 때 현재 블록의 이웃 블록 중 일부분의 미지의 재구성 값(unknown reconstruction value)을 교체하기 위해 현재 블록의 이웃 블록 중 일부분에 대응하는 예측 값을 사용할 수 있으므로, 현재 블록에 대한 템플릿 구성을 완성할 수 있다.
본 발명의 실시예에 따른 기술적 해결방안 또는 종래기술을 더욱 분명하게 설명하기 위해, 본 발명의 실시예 또는 종래기술의 설명에 필요한 첨부도면을 이하에 간략하게 소개한다. 분명한 것은, 아래에서 설명한 첨부도면은 본 발명의 실시예의 일부를 나타낼 뿐이고, 해당 기술분야의 당업자는 첨부도면에 따라 창의적인 노력없이 다른 도면들을 얻을 수 있다는 것이다.
도 1은 종래기술에서 템플릿 매칭을 통해 움직임 벡터를 취득하는 방법의 개략도이다.
도 2는 본 발명의 실시예 1에 따른 방법의 흐름도이다.
도 3은 본 발명의 실시예 1에 따른 장치의 개략도이다.
도 4는 본 발명의 실시예 2에 따른 방법의 흐름도이다.
도 5는 본 발명의 실시예 2에 따른 참조 프레임의 제1 개략 구조도이다.
도 6은 본 발명의 실시예 2에 따른 참조 프레임의 제2 개략 구조도이다.
도 7은 본 발명의 실시예 3에 따른 방법의 흐름도이다.
도 8은 본 발명의 실시예 3에 따른 참조 프레임의 제1 개략 구조도이다.
도 9는 본 발명의 실시예 3에 따른 참조 프레임의 제2 개략 구조도이다.
도 10은 본 발명의 실시예 4에 따른 장치의 개략도이다.
도 11은 본 발명의 실시예 5에 따른 방법의 흐름도이다.
도 12는 본 발명의 실시예 5에 따른 장치의 개략도이다.
도 13은 본 발명의 실시예 6에 따른 방법의 흐름도이다.
도 14는 본 발명의 실시예 6에 따른 참조 프레임의 개략 구조도이다.
도 15는 본 발명의 실시예 7에 따른 방법의 흐름도이다.
도 16은 본 발명의 실시예 8에 따른 장치의 개략도이다
도 17은 본 발명의 실시예 9에 따른 전자 기기의 개략도이다.
도 18은 본 발명의 실시예 10에 따른 B 프레임의 개략도이다.
도 19는 본 발명의 실시예 3에 따른 매크로 블록 분할의 경우에 템플릿 디코딩의 개략도이다.
도 20은 본 발명의 실시예 3에 따른 8x8 매크로 블록 분할의 경우에 템플릿 디코딩의 개략도이다.
이하에서는 본 발명의 실시예의 첨부도면을 참조하여 본 발명의 실시예의 기술적 해결방안을 명확하고도 완전하게 설명한다. 명백히, 설명하는 실시예는 본 발명의 모든 실시예가 아니라 일부에 불과하다. 해당 기술분야의 당업자가 본 발명의 실시예에 기초하여 창의적인 노력 없이 얻은 다른 모든 실시예도 본 발명의 보호 범위에 속한다.
실시예 1:
도 2에 나타낸 바와 같이, 본 실시예에 제공된 비디오 이미지의 움직임 정보를 취득하는 방법은 다음의 단계들을 포함한다.
201: 현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임에서 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록을 결정한다.
본 실시예에서, 현재 블록과 관련된 기지의 움직임 정보는 현재 블록과 시간상 또는 공간상 관련 인코딩된 블록 또는 디코딩된 블록의 움직임 벡터일 수 있다.
구체적으로 설명하면, 현재 블록과 관련된 인코딩된 블록/디코딩된 블록의 움직임 벡터의 전부 또는 일부를 선택하여 후보 움직임 벡터 세트를 형성한 다음, 각 후보 움직임 벡터에 따라 제1 참조 프레임에서 제1 후보 참조 블록을 그에 맞춰 결정하여, 제1 후보 참조 블록의 세트를 취득한다.
202: 제2 참조 프레임에서 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정한다.
현재 블록에 대한 제1 후보 참조 블록 각각의 움직임 벡터는 제1 후보 참조 블록과 현재 블록의 위치 관계(position relation)에 따라 결정되고, 각각의 제1 후보 참조 블록에 각각 대응하는 제2 후보 참조 블록 각각은 움직임 벡터에 따라 제2 참조 프레임에서 결정된다.
예를 들면, 본 실시예에서, 제2 참조 프레임에서 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록은 대칭성 검색(symmetry searching)을 통해 결정될 수 있다, 즉, 대칭성 검색 후에, 제1 후보 참조 블록과 찾아낸 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록은 현재 블록을 중심으로 하는 비례 대칭이다.
203: 제1 후보 참조 블록과 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합(sum of difference)을 계산한다.
차의 합은 절차 차의 합(sum of absolute difference, SAD), 절대 변환 차의 합(sum of absolue transformation difference), 또는 절대 제곱 차의 합(sum of absolue squared difference)일 수 있고, 물론, 두 개의 참조 블록 간의 유사성을 설명할 수 있는 기타 파라미터일 수도 있으며; 본 실시예 및 아래의 실시예에서는, 절대 차의 합을 예로 들어 본 발명이 제공하는 해결방안을 설명한다.
204: 최소 SAD에 대응하는 제1 후보 참조 블록과 제2 후보 참조 블록을 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하고, 이 제1 참조 블록 및 제2 참조 블록에 의해 결정된 움직임 벡터에 따라 현재 블록의 움직임 정보를 취득한다.
비디오 이미지의 움직임 정보를 취득하는 방법을 더욱 잘 실현하기 위해, 본 실시예는 또한 비디오 이미지의 움직임 정보를 취득하는 장치를 더 제공하며, 이 장치는 도 3에 나타낸 바와 같이, 제1 결정 유닛(301), 제2 결정 유닛(302), 계산 유닛(303) 및 선택 유닛(304)을 포함한다.
제1 결정 유닛(301)은 현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임에서 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록을 결정한다. 그 다음에 제2 결정 유닛(302)이 대칭성 검색을 통해 제2 참조 프레임에서 상기 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정한다. 그 후에 계산 유닛(303)이 제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합을 계산한다. 마지막으로, 선택 유닛(304)이 최소 차의 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하고, 이 제1 참조 블록 및 제2 참조 블록에 의해 결정된 움직임 벡터에 따라 현재 블록의 움직임 정보를 취득한다.
본 발명의 실시예에서 제공된 방법에 있어 단계들의 순서는 실제 요구사항에 따라 조정될 수 있다.
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 방법 및 장치에 따르면, 참조 블록 결정 프로세스에서 참조 블록을 결정하는 정책을 변경하고, 참조 블록 결정 프로세스의 구현 복잡도를 감소시킬 수 있는 한편 인코딩 성능은 기본적으로 변화되지 않고 유지할 수 있어, 비디오 이미지에서 움직임 정보를 취득하는 프로세스를 개선하고, 비디오 이미지의 인코딩 및 디코딩 효율을 향상시킨다.
실시예 2:
도 4에 나타낸 바와 같이, B 프레임 인코딩을 예로 들면, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 방법은 구체적으로 다음의 단계들을 포함한다.
401: 현재 블록 주위의 인코딩된 블록의 움직임 벡터를 사용하여 후보 움직임 벡터 세트를 형성한다, 이 후보 움직임 벡터 세트는 현재 블록과 관련된 인코딩된 블록의 움직임 벡터의 일부 또는 전부를 포함한다.
현재 블록은 완전한 매크로 블록이거나 매크로 블록의 분할 블록일 수 있으며, 여기서는 완전한 매크로 블록을 예로 든다.
후보 움직임 벡터 세트는 다음을 포함할 수 있다: 현재 블록(Curr_blk)과 공간상 관련된 이웃 블록의 움직임 벡터 MVL, MVU, MVR 및 MEAN(MVL, MVU, MVR); 순방향 참조 프레임(
Figure 112011099056162-pct00001
) 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록들의 움직임 벡터(도 5에 나타낸, col_MV1, col_MV2, col_MV3, col_MV4) 및 순방향 참조 프레임(
Figure 112011099056162-pct00002
) 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록들의 이웃 블록의 움직임 벡터(도 5에 나타낸, MV1, MV2, …, MV12); 그리고 역방향 참조 프레임(
Figure 112011099056162-pct00003
) 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록들의 움직임 벡터(도 5에 나타낸, col_MV1', col_MV2', col_MV3', col_MV4') 및 역방향 참조 프레임(
Figure 112011099056162-pct00004
) 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록들의 이웃 블록의 움직임 벡터(도 5에 나타낸, MV1', MV2', …, MV12')의 일부 또는 전부, 즉 현재 블록의 좌(左), 상(上), 좌상(左上), 및 우상(右上) 블록; 참조 프레임 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록들의 좌, 상, 좌상, 및 우상 블록; 그리고 참조 프레임 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록들의 일부 또는 전부를 포함한다.
402: 후보 움직임 벡터 세트에서 하나의 움직임 벡터를 선택하고, 이 움직임 벡터에 따라 제1 참조 프레임(본 실시예에서, 현재 프레임의 순방향 참조 프레임(
Figure 112011099056162-pct00005
)을 제1 참조 프레임으로서 취함)에서 제1 후보 참조 블록(blk 11)을 찾는다
403: 제1 후보 참조 블록(blk 11)과 현재 블록의 위치 관계에 따라, 제1 후보 참조 블록(blk 11)에서 현재 블록으로의 움직임 벡터를 취득하고; 이 움직임 벡터에 따라 제2 참조 프레임(본 실시예에서, 현재 프레임의 역방향 참조 프레임(
Figure 112011099056162-pct00006
)을 제2 참조 프레임으로서 취함)에서 제1 후보 참조 블록(blk11)에 대응하는 제2 후보 참조 블록(blk21)을 결정한다.
404: 제1 후보 참조 블록(blk 11)과 제2 후보 참조 블록(blk21)의 절대 차의 합(SAD1)을 계산한다.
단계 404를 실행한 후, 후보 움직임 벡터 세트 내의 선택되지 않은 움직임 벡터에서 움직임 벡터를 다시 선택하여, 단계 402 내지 404를 반복하여 실행하며; 후보 움직임 벡터 세트가 총 p개의 움직임 벡터를 포함하면, 위의 단계들은 p-1회 반복되어, 제1 후보 참조 블록들(blk12, blk13, … ) 및 대응하는 제2 후보 참조 블록들(blk22, blk23, …)을 차례로 결정하고, 두 개의 대응하는 후보 참조 블록간 마다 절대 차의 합(SAD2, SAD3, …)를 취득한다.
405: 절대 차의 합(SAD1, SAD2, SAD3, …) 중에서 최소 SAD에 대응하는 제1 후보 참조 블록과 제2 후보 참조 블록을 현재 블록의 제1 참조 블록과 제2 참조 블록으로 선택하고, 제1 참조 블록과 제2 참조 블록에 따라 결정되는 움직임 벡터(u, v)를 현재 블록의 움직임 벡터로서 취득한다.
406: 현재 블록의 움직임 벡터에 따라 현재 블록의 예측 값을 계산한다.
현재 프레임(
Figure 112011099056162-pct00007
)에서 순방향 예측 프레임(
Figure 112011099056162-pct00008
)과 역방향 예측 프레임(
Figure 112011099056162-pct00009
)까지의 거리가 동일하면, 현재 블록의 예측 값은 식 (1)을 사용하여 계산될 수 있다:
Figure 112011099056162-pct00010
(1)
현재 프레임(
Figure 112011099056162-pct00011
)에서 순방향 예측 프레임(
Figure 112011099056162-pct00012
)과 역방향 예측 프레임(
Figure 112011099056162-pct00013
)까지의 거리가 동일하지 않으면, 현재 블록의 예측 값은 식 (2)를 사용하여 계산될 수 있다:
Figure 112011099056162-pct00014
(2)
위 식에서, d1은 순방향 예측 프레임(
Figure 112011099056162-pct00015
)에서 현재 프레임(
Figure 112011099056162-pct00016
)까지의 거리이고, d2는 역방향 예측 프레임(
Figure 112011099056162-pct00017
)에서 현재 프레임(
Figure 112011099056162-pct00018
)까지의 거리이다.
이때 프로세스가 비디오 이미지 인코딩 단계로 진행되면, 단계 407가 실행되고; 프로세스가 비디오 이미지 디코딩 단계로 진행되면, 단계 408이 실행된다.
407: 현재 블록의 예측 값과 실제 값의 차를 계산하고, 비디오 이미지의 예측 잔차, 즉, 이미지 블록의 예측 값과 실제 값의 차에 대해 인코딩을 수행한다.
408: 수신된 코드 스트림을 디코딩하여 이미지 블록의 예측 값과 실제 값의 차를 취득하며, 현재 블록과 단계 406에서 취득된 예측 값에 대응하는 차의 합이 디코딩 후의 현재 블록의 실제 값이다.
본 실시예에서, 단계들의 일련 번호는 단계들의 실행 순서를 한정하는 것이 아니며, 본 발명의 실시에에서 제공되는 방법에서 단계들의 순서는 실제 요구사항에 따라 조정될 수 있다.
또, 디코딩 단이 더욱 정확한 움직임 정보를 취득할 수 있게 하기 위해, 본 실시예에서는, 인코딩 단이 또한 취득된 움직임 정보에 따라, 취득된 움직임 정보와 실제 움직임 정보의 차를 취득하고, 이 움직임 정보의 차를 디코딩 단에 전송할 수 있고; 또 현재 블록의 예측 값도 또한 실제 움직임 정보에 따라 계산될 수 있다, 즉 단계 405에서 취득된 제1 참조 블록과 제2 참조 블록에 따라 결정된 움직임 벡터(u, v)와 움직임 검색에 의해 취득된 현재 블록의 실제 움직임 벡터의 벡터 차가 계산되며, 이 움직임 벡터 차가 디코딩 단에 전송된다. 이렇게 하여, 인코딩 단에 의해 제공된 데이터를 수신한 후, 디코딩 단은 먼저 움직임 정보의 차에 따라 실제 움직임 정보를 복구하고, 실제 움직임 정보에 따라 현재 블록의 예측 값을 계산하고 나아가 현재 블록을 재구성한다.
도 6에 나타낸 바와 같이, 본 실시예에서 현재 블록이 매크로 블록의 부분 분할 블록(partial partition block)인 경우, 후보 움직임 벡터 세트를 결정할 때, 현재 블록의 Neighborhood_blk(즉, 현재 블록에 이웃하고 현재 블록과 동일한 매크로 블록 또는 서브블록(sub-block)에 속하는 이미지 블록)과 관련된 움직임 벡터는 고려될 수 없으므로, Neighborhood_blk의 영향으로 인해 현재 블록을 부정확하게 예측하는 것을 회피하며; 도 6에 나타낸 바와 같이, 이때, 후보 움직임 벡터 세트는 다음을 포함한다: 현재 블록과 공간상 관련된 이웃 블록의 움직임 벡터 MVLU, MVU 및 MVR; 순방향 참조 프레임(
Figure 112011099056162-pct00019
) 내의 움직임 벡터(col_MV1, col_MV2, MV1, MV2, …, MV7), 그리고 역방향 참조 프레임(
Figure 112011099056162-pct00020
) 내의, 움직임 벡터((col_MV1', col_MV2', MV1', MV2', …, MV7') 일부 또는 전부.
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 방법은 참조 블록 결정 프로세스에서 참조 블록을 결정하는 정책을 변경하는데, 이것이 참조 블록 결정 프로세스의 구현 복잡도를 감소시킬 수 있는 한편 인코딩/디코딩 성능은 기본적으로 변화되지 않고 유지할 수 있어, 비디오 이미지에서 움직임 정보를 취득하는 프로세스를 개선하고, 비디오 이미지의 인코딩 및 디코딩 효율을 향상시킨다.
실시예 3:
인코딩 및 디코딩 성능을 더욱 향상시키기 위해, 템플릿 비교 방법이 실시예에서 설명한 방법에 도입될 수 있으며; 도 7에 나타낸 바와 같이, B 프레임 인코딩을 예로 들면, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 방법은 구체적으로 아래의 단계들을 포함한다.
701: 재구성 값을 사용하여 현재 프레임(
Figure 112011099056162-pct00021
)의 현재 블록(Curr_blk) 주위에서 템플릿(TM1)을 구성한다.
702: 현재 블록 주위의 인코딩된 블록의 움직임 벡터를 사용하여 후보 움직임 벡터 세트를 형성하며, 이 후보 움직임 벡터 세트는 현재 블록과 관련된 인코딩된 블록의 움직임 벡터의 일부 또는 전부를 포함한다.
현재 블록은 완전한 매크로 블록이거나 매크로 블록의 분할 블록일 수 있으며, 본 실시예서는 계속하여 완전한 매크로 블록을 예로 든다.
703: 후보 움직임 벡터 세트에서 하나의 움직임 벡터를 선택하고, 이 움직임 벡터에 따라 제1 참조 프레임(본 실시예에서, 현재 프레임의 순방향 참조 프레임(
Figure 112011099056162-pct00022
)을 제1 참조 프레임으로서 취함)에서 제1 후보 참조 블록(blk 11)을 찾아내고, 도 8에 나타낸 바와 같이, 재구성 값을 사용하여 제1 후보 참조 블록(blk 11) 주위에서 템플릿(TM21)을 구성한다.
704: 제1 후보 참조 블록(blk 11)과 현재 블록 사이의 위치 관계에 따라, 제1 후보 참조 블록(blk 11)에서 현재 블록으로의 움직임 벡터를 취득하고; 이 움직임 벡터에 따라 제2 참조 프레임(본 실시예에서, 현재 프레임의 역방향 참조 프레임(
Figure 112011099056162-pct00023
)을 제2 참조 프레임으로서 취함)에서 제1 후보 참조 블록(blk11)에 대응하는 제2 후보 참조 블록(blk21)을 결정한다.
705: 제1 후보 참조 블록(blk 11)과 제2 후보 참조 블록(blk21)의 절대 차의 합(SAD1), 및 템플릿(TM1)과 템플릿(TM21)의 절대 차의 합(SAD1')을 계산한다.
단계 705를 실행한 후, 후보 움직임 벡터 세트 내의 선택되지 않은 움직임 벡터에서 하나의 움직임 벡터를 다시 선택하여, 단계 703 내지 705를 반복하여 실행하며; 후보 움직임 벡터 세트가 총 p개의 움직임 벡터를 포함하면, 위의 단계들은 p-1회 반복되어, 제1 후보 참조 블록들(blk12, blk13, … ) 및 대응하는 제2 후보 참조 블록들(blk22, blk23, …), 그리고 템플릿(TM22, TM23, …)을 차례로 결정하고, 두 개의 대응하는 후보 참조 블록간마다 절대 차의 합(SAD2, SAD3, …), 및 템플릿(TM1)과 템플릿(TM22, TM23, …)의 절대 차의 합(SAD2', SAD3', …)을 취득한다.
706:SADx와 SADx'의 가중 합((weighted sum): SUMx=(a*SAD x + b*SAD x')를 계산하며, 여기서 x는 1에서 p까지의 자연수이고, SAD x의 가중치(weight) a는 참조 블록 유사도(similarity)가 인코딩 성능에 미치는 영향의 정도를 나타내고, SAD x'의 가중치 b는 템플릿 유사도가 인코딩 성능에 미치는 영향의 정도를 나타낸다.
예를 들면, 가중치 a 및 b의 구체적인 값은 a와 b의 비가 현재 블록의 면적과 템플릿(TM1)의 면적의 비와 동일하다는 조건을 충족시키기만 하면 된다.
707: 가중합 SUMx 중에서 최소 가중 합에 대응하는 제1 후보 참조 블록과 제2 후보 참조 블록을 현재 블록의 제1 참조 블록과 현재 블록의 제2 참조 블록으로서 선택하고, 움직임 벡터(u, v)를 취득하며, 이 움직임 벡터(u, v)는 제1 참조 블록과 제2 참조 블록에 따라, 현재 블록의 움직임 벡터로서 결정된다.
708: 현재 블록의 움직임 벡터에 따라 현재 블록의 예측 값을 계산한다.
현재 프레임(
Figure 112011099056162-pct00024
)에서 순방향 예측 프레임(
Figure 112011099056162-pct00025
)과 역방향 예측 프레임(
Figure 112011099056162-pct00026
)까지의 거리가 동일하면, 현재 블록의 예측 값은 식 (1)을 사용하여 계산된다:
Figure 112011099056162-pct00027
(1)
현재 프레임(
Figure 112011099056162-pct00028
)에서 순방향 예측 프레임(
Figure 112011099056162-pct00029
)과 역방향 예측 프레임(
Figure 112011099056162-pct00030
)까지의 거리가 동일하지 않으면, 현재 블록의 예측 값은 식 (2)를 사용하여 계산된다:
Figure 112011099056162-pct00031
(2)
위 식에서, d1은 순방향 예측 프레임(
Figure 112011099056162-pct00032
)에서 현재 프레임(
Figure 112011099056162-pct00033
)까지의 거리이고, d2는 역방향 예측 프레임(
Figure 112011099056162-pct00034
)에서 현재 프레임(
Figure 112011099056162-pct00035
)까지의 거리이다.
이때 프로세스가 비디오 이미지 인코딩 단계로 진행되면, 단계 709가 실행되고; 프로세스가 비디오 이미지 디코딩 단계로 진행되면, 단계 7108이 실행된다.
709: 현재 블록의 예측 값과 현재 블록의 실제 값의 차를 계산하고, 비디오 이미지의 예측 잔차, 즉, 이미지 블록의 예측 값과 실제 값의 차에 대해 인코딩을 수행한다.
710: 수신된 코드 스트림을 디코딩하여 이미지 블록의 예측 값과 실제 값의 차를 취득하며, 현재 블록과 단계 708에서 취득된 예측 값에 대응하는 차의 합이 디코딩 후의 현재 블록의 실제 값이다.
본 실시예에서, 단계들의 일련 번호는 단계들의 실행 순서를 한정하는 것이 아니며, 본 발명의 실시에에서 제공되는 방법에서 단계들의 순서는 실제 요구사항에 따라 조정될 수 있다.
또, 디코딩 단이 더욱 정확한 움직임 정보를 취득할 수 있게 하기 위해, 본 실시예에서는, 인코딩 단이 또한 취득된 움직임 정보에 따라, 취득된 움직임 정보와 실제 움직임 정보의 차를 취득하고, 이 움직임 정보의 차를 디코딩 단에 전송할 수 있고; 또 현재 블록의 예측 값도 또한 실제 움직임 정보에 따라 계산될 수 있다. 이렇게 하여, 인코딩 단에 의해 제공된 데이터를 수신한 후, 디코딩 단은 먼저 움직임 정보의 차에 따라 실제 움직임 정보를 복구하고, 실제 움직임 정보에 따라 현재 블록의 예측 값을 계산하고 나아가 현재 블록을 재구성한다.
도 6에 나타낸 바와 같이, 본 실시예에서 현재 블록이 매크로 블록의 부분 분할 블록인 경우, 후보 움직임 벡터 세트를 결정할 때, 현재 블록의 Neighborhood_blk(즉, 현재 블록에 이웃하고, 현재 블록과 동일한 매크로 블록 또는 서브블록에 속하는 이미지 블록)과 관련된 움직임 벡터는 고려될 수 없으므로, Neighborhood_blk의 영향으로 인해 현재 블록을 부정확하게 예측하는 것을 회피한다.
또, 현재 블록에 대한 템플릿을 구성할 때, 도 9에 나타낸 바와 같이, 분할 블록(p2)에 대한 템플릿을 구성하는데, 이 분할 블록(p2)의 상반부(upper half)는 현재 분할 블록(p2) 주위의 이웃 분할 블록의 재구성 값을 사용하여 직접 구성될 수 있고, 좌반부(left half)(어두운 부분)에 대해서는, 이웃 분할 블록의 재구성 값을 직접 취득할 수 없기 때문에, 분할 블록(p1)의 움직임 정보를 사용하여 참조 프레임에서 대응하는 예측 부할 블록(pp1)을 찾아낸 다음, 어두운 부분에 대응하는 예측 분할 블록(pp1)에서의 예측 값을 분할 블록(p2)의 대응하는 템플릿의 좌반부의 값으로서 사용한다. 이렇게 하여, 본 발명의 실시예에서 제공되는 템플릿 구성 방법은 현재 블록이 분할 블록일 때, 현재 블록의 이웃 블록 중 일부에 대응하는 예측 값을 현재 블록의 이웃 블록 중 일부의 미지의 재구성 값을 대체(replace)하는 데 사용할 수 있어, 현재 블록에 대한 템플릿 구성을 완성하므로, 현재 블록이 분할 블록일 때 현재 블록의 모든 이웃 블록의 재구성 값을 취득할 수 없는 문제를 해결한다.
다른 실시예의 경우에, 디코딩에 의해 취득된, 현재 매크로 블록 분할 블록의 이웃 매크로 블록 분할 블록의 움직임 정보를 사용하여, 이웃 매크로 블록 분할 블록의 참조 프레임에서 예측 블록을 취득하여 현재 매크로 블록 분할 블록의 템플릿을 구성하고, 현재 매크로 블록 분할 블록의 템플릿에 따라 현재 매크로 블록 분할 블록의 참조 프레임에서 현재 매크로 블록 분할 블록의 매칭 참조 템플릿을 찾아내고, 현재 매크로 블록 분할 블록의 움직임 정보를 취득하며, 나아가 매칭 참조 템플릿에 대응하는 참조 블록을 사용하여 현재 매크로 블록 분할 블록의 잔차 데이터를 보상하도록 현재 매크로 블록 분할 블록을 재구성하거나, 또는 매칭 참조 템플릿에 대응하는 참조 블록을 사용하여 현재 매크로 블록 분할 블록을 예측한 후에 현재 매크로 블록 분할 블록의 잔차 데이터를 취득하며, 잔차 데이터는 디코딩 단이 현재 매크로 블록 분할 블록을 재구성하는 데 사용된다.
구체적으로는, 도 19에 나타낸 바와 같이, 16x8 매크로 블록 분할에 따른 현 매크로 블록의 인코딩을 예로 들면, 현재 매크로 블록(curr)을 디코딩할 때, 디코딩에 의해 현재 매크로 블록의 매크로 블록 분할(P1)의 움직임 정보(MV1) 및 매크로 블록 타입 정보가 취득된다. 템플릿 기술을 사용하여 현재 매크로 블록 분할(P2)을 인코딩하는 경우, P1의 취득된 움직임 정보(MV1)을 사용하여 매크로 블록 분할(P1)의 기준 프레임에서 대응하는 참조 블록을 찾아내고, 템플릿 형성에 필요한 충분한 예측 화소를 취득한다. 도 19에 나타낸 바와 같이, 점선의 화살표로 연결된 회색 블록으로 나타낸 예측 화소 블록들이 현재 매크로 블록 분할(P2)의 템플릿의 좌반부로서 사용되는 한편, 현재 매크로 블록 분할(P2) 위의 이웃하는 재구성 화소 블록이 현재 템플릿(TM)을 형성하는 데 사용된다. 그 후, 현재 템플릿(TM)의 최 근접 매칭 참조 템플릿을 참조 프레임에서 찾아낸다. 참조 템플릿에 대응하는 움직임 정보(MV2)가 현재 매크로 블록 분할(P2)의 움직임 벡터로 사용되는 동시에, 참조 벡터이 가리키는 참조 템플릿에 이웃하는 우하(右下) 참조 블록이 현재 매크로 블록 분할(P2)의 예측 블록으로서 사용되어 현재 매크로 블록 분할(P2)의 잔차 성분을 보상하여, 현재 매크로 블록 분할(P2)을 재구성한다.
도 20은 8x8 매크로 블록 분할의 경우에 템플릿 디코딩 프로세스를 보여주며, 네 번째(제4) 8x8 블록을 디코딩할 때, 이웃 서브블록의 움직임 벡터를 사용하여 참조 프레임에서 대응하는 예측 블록 1, 2, 및 3을 먼저 취득하고, 이들을 결합하여 현재 템플릿을 형성하며, 이 현재 템플릿을 사용하여 참조 프레임에서 참조 템플릿을 대조하여 검색에 의해 현재 블록의 예측 값을 찾아내고, 취득한 현재 블록의 예측 값을 사용하여 현재 블록의 잔차 값을 보상하여, 현재 블록을 재구성한다. 따라서, 인코딩 프로세스에서, 결합에 의해 취득된 현재 템플릿을 참조 템플릿과의 대조에 사용하여 검색에 의해 현재 블록의 예측 값을 찾아내고, 취득한 현재 블록의 예측 값을 사용하여 현재 블록의 잔차 값을 예측하고, 그 잔차 값을 인코딩한다.
다른 실시예의 경우에는, 도 20에 나타낸 바와 같이, 현재 매크로 블록을 8x8 매크로 블록 분할에 따라 인코딩한다. 현재 매크로 블록(curr)을 디코딩할 때, 디코딩에 의해 현재 매크로 블록의 매크로 블록 분할의 움직임 정보(MV1, MV2, MV3, MV4) 및 매크로 블록 타입 정보가 취득된다. 템플릿 기술을 사용하여 현재 매크로 블록 분할을 인코딩하는 경우, 매크로 블록 분할의 취득된 움직임 정보(MV1, MV2, MV3)를 사용하여 매크로 블록 분할의 기준 프레임에서 대응하는 참조 블록(도 20에 나타낸, 1, 2, 3)을 찾아내고, 템플릿 형성에 필요한 충분한 예측 화소를 취득한다. 도 20에 나타낸 바와 같이, 화살표로 연결된 황색 블록으로 나타낸 예측 화소 블록들이 현재 매크로 블록 분할의 템플릿의 좌반부 및 상반부로서 사용되어 현재 템플릿(TM)을 형성한다. 그 후, 현재 템플릿(TM)의 매칭 참조 템플릿(TMref)을 참조 프레임에서 찾아낸다. TM과 TMref를 사용하여 현재 매크로 블록 분할의 휘도 차(brightness difference)(IDCO)를 계산하며, IDCO=(TM-Tmref)/Nu 이고, 여기서 Num은 템플릿에 포함된 화소의 수이다. 한편, 휘도 차를 사용하여 현재 블록의 예측 값(pred)를 갱신하여 갱신된 예측 값(pred')을 얻으며, pred' (i, j) = pred (i, j) + IDCO 이고, 여기서 (i, j)는 화소점의 위치를 나타낸다. 갱신된 예측 값(pred')를 사용하여 잔차 값을 보상하여, 현재 매크로 블록 분할을 재구성한다.
전술한 구현은 디코더 하드웨어 설계의 모듈화 요구에 적합하여, 데이터 판독의 빈도를 줄이고, 데이터 판독 효율을 향상시키며, 모듈 스위칭 횟수를 줄이고, 매크로 블록 분할에 템플릿 기술을 적용할 수 있게 한다.
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 방법은 참조 블록 결정 프로세스에서 참조 블록을 결정하는 정책을 변경하고, 또한 참조 블록 유사도 비교 중에 템플릿 유사도 비교를 도입함으로써, 참조 블록 결정 프로세스를 더욱 정확하게 하고, 검색 프로세스의 구현 복잡도를 감소시킬 수 있는 한편 인코딩 성능은 기본적으로 변화되지 않고 유지할 수 있어, 비디오 이미지에서 움직임 정보를 취득하는 프로세스를 개선하고, 비디오 이미지의 인코딩 및 디코딩 효율을 향상시킨다.
실시예 4:
도 10에 나타낸 바와 같이, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 장치는 제1 결정 유닛(1001), 제2 결정 유닛(1002), 계산 유닛(1003), 및 선택 유닛(1004)을 포함한다.
제1 결정 유닛(1001)은 현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임에서 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록을 결정한다. 그 다음에, 제2 결정 유닛(1002)이 대칭성 검색을 통해 제2 참조 프레임에서 상기 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정한다. 그 후에 계산 유닛(1003)이 제1 후보 참조 블록과 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 절대 차의 합을 계산한다. 마지막으로, 선택 유닛(1004)이 최소 절대 차의 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하고, 이 제1 참조 블록 및 제2 참조 블록에 의해 결정된 움직임 벡터에 따라 현재 블록의 움직임 정보를 취득한다.
또한, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 장치는 제1 구성 유닛(1005) 및 제2 구성 유닛(1006)을 더 포함한다.
제1 구성 유닛(1005)은 재구성 값을 사용하여 현재 블록 주위에서 템플릿을 구성하도록 구성된다. 제2 구성 유닛(1006)은 재구성 값을 사용하여 제1 참조 프레임 내의 제1 후보 참조 블록 주위에서 하나 이상의 제1 후보 참조 블록의 제1 후보 참조 블록 각각에 대응하는 템플릿을 각각 구성하도록 구성된다. 이때, 계산 유닛(1003)은, 제1 후보 참조 블록과 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 절대 차의 합, 및 제1 후보 참조 블록에 대응하는 템플릿과 현재 블록에 대응하는 템플릿의 절대 차의 합을 계산하고, 이들 두 합의 가중 합을 계산하도록 구성된다. 선택 유닛(1004)은, 최소 가중 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하도록 구성된다. 제1 참조 블록과 제2 참조 블록 간의 움직임 정보는 현재 블록의 움직임 정보이다.
또, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 장치는, 제1 참조 블록과 제2 참조 블록에 의해 결정된 움직임 정보에 따라 취득되는, 현재 블록의 움직임 정보를 사용하여 현재 블록의 예측 값을 계산하고, 예측 잔차에 대해 인코딩을 수행하도록 구성된 인코딩 유닛(1007)을 더 포함할 수 있다.
다르게는, 상기 장치는 제1 참조 블록과 제2 참조 블록에 의해 결정된 움직임 정보에 따라 취득되는, 현재 블록의 움직임 정보를 사용하여 현재 블록 예측 값을 계산하고, 수신된 코드 스트림을 디코딩하도록 구성된 디코딩 유닛(1008)을 더 포함할 수 있다.
본 발명의 실시에에 따른 상기 장치는 회로, 집적회로 또는 칩의 형태로 구체적으로 구현될 수 있다.
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 장치는 참조 블록 결정 프로세스에서 참조 블록을 결정하는 정책을 변경함으로써, 참조 블록 결정 프로세스의 구현 복잡도를 감소시킬 수 있는 한편 인코딩 성능은 기본적으로 변화되지 않고 유지할 수 있어, 비디오 이미지에서 움직임 정보를 취득하는 프로세스를 개선하고, 비디오 이미지의 인코딩 및 디코딩 효율을 향상시킨다.
실시예 5:
도 11에 나타낸 바와 같이, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 방법은 다음의 단계들을 포함한다.
1101: 제1 참조 프레임에서 템플릿 매칭을 통해 현재 블록과 관련된 제1 움직임 정보를 취득하고, 제1 움직임 정보에 따라 제1 참조 블록을 결정한다.
1102: 제2 참조 프레임에서 템플릿 매칭을 통해 제1 참조 블록과 관련된 제2 움직임 정보를 취득하고, 제2 움직임 정보에 따라 제2 참조 블록을 결정한다.
1103: 제1 움직임 정보와 제2 움직임 정보에 따라 현재 블록의 움직임 정보를 결정한다.
비디오 이미지의 움직임 정보를 취득하는 방법을 더욱 잘 실현하기 위해, 본 실시예는 또한 비디오 이미지의 움직임 정보를 취득하는 장치를 더 제공하며, 이 장치는 도 12에 나타낸 바와 같이, 제1 매칭 유닛(1201), 제2 매칭 유닛(1202), 및 계산 유닛(1203)을 포함한다.
비디오 이미지의 움직임 정보를 취득하는 프로세스에서는, 먼저, 제1 매칭 유닛(1201)이 제1 참조 프레임에서 템플릿 매칭을 통해 현재 블록과 관련된 제1 움직임 정보를 취득하고, 제1 움직임 정보에 따라 제1 참조 블록을 결정한다. 그 다음에, 제2 매칭 유닛(1202)이 제2 참조 프레임에서 템플릿 매칭을 통해 제1 참조 블록과 관련된 제2 움직임 정보를 취득하고, 제2 움직임 정보에 따라 제2 참조 블록을 결정한다. 그 후에, 계산 유닛(1203)이 제1 움직임 정보와 제2 움직임 정보에 따라 현재 블록의 움직임 정보를 계산한다.
본 발명의 실시예에서 제공된 방법에 있어 단계들의 순서는 실제 요구사항에 따라 조정될 수 있다.
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 방법 및 장치는 템플릿 매칭을 통한 참조 블록의 검색 프로세스에서 움직임 추정 인자를 도입하여, 종래기술에 비해 더 정확한 움직임 정보를 취득한다.
실시예 6:
도 13 및 도 14에 나타낸 바와 같이, B 프레임 인코딩을 예로 들면, 본 실시예에서 제공되는 비디오 이미지의 움직임을 취득하는 방법은 구체적으로 다음의 단계들을 포함한다.
1301: 현재 블록 주위의 인코딩된 블록의 재구성 값을 사용하여 템플릿(TM1)을 구성한 다음, 제1 참조 프레임(예를 들면, 현재 프레임의 순방향 참조 프레임)에서 예측 움직임 벡터를 중심으로 하는 특정 검색 범위 내에서, 템플릿(TM1)과 동일한 형태의 템플릿(TM2)을 사용하여 검색하여 순방향 참조 프레임에 상대적인 현재 블록의 제1 움직임 벡터를 취득하고, 제1 움직임 벡터에 따라 순방향 참조 프레임에서 현재 블록에 대응하는 제1 참조 블록(blk1)을 결정한다.
본 실시예에서, 제1 참조 프레임은 현재 프레임의 순방향 참조 프레임(
Figure 112011099056162-pct00036
)으로 한정되지 않으며, 현재 프레임의 역방향 참조 프레임(
Figure 112011099056162-pct00037
)을 제1 참조 프레임으로서 취할 수도 있고, 현재 프레임의 순방향 참조 프레임(
Figure 112011099056162-pct00038
)을 제2 참조 프레임으로서 취할 수도 있다.
현재 블록은 완전한 매크로 블록이거나 매크로 블록의 분할 블록일 수 있으며, 여기서는 완전한 매크로 블록을 예로 든다.
또, 현재 블록과 연관된 제1 움직임 벡터(u1, v1)를 결정하는 프로세스는 다음과 같다: 예측된 움직임 벡터를 중심으로 하는 특정한 검색 범위 내에서, 템플릿 TM2와 TM1의 매칭 에러(템플릿 TM2와 TM1의 절대 차의 합(SAD)를 사용하여 측정될 수 있음)가 최소일 때, 템플릿(TM2)에서 템플릿(TM1)으로의 움직임 벡터(u1, v1)는 순방향 참조 프레임에 상대적인 현재 블록의 제1 움직임 벡터이고, 이때, 제1 움직임 벡터(u1, v1)에 따라 순방향 참조 프레임에서 찾아낸 블록이 현재 블록에 대응하는 제1 참조 블록(blk1)이다.
1302: 제2 참조 프레임(예를 들면, 역방향 참조 프레임)에서, 역방향 참조 프레임 상의 제1 참조 블록(blk1)의 매핑 점을 중심으로 하는 특정한 검색 범위 내에서, 템플릿 매칭을 통해 역방향 참조 프레임에 상대적인 제1 참조 블록의 제2 움직임 벡터(u, v)를 취득하고, 제2 움직임 벡터에 따라 역방향 참조 프레임에서 제1 참조 블록(blk1)에 대응하는 제2 참조 블록(blk2)을 결정한다,
1303: 제1 움직임 벡터(u1, v1) 및 제2 움직임 벡터(u, v)에 따라 후보 참조 블록에 상대적인 현재 블록의 움직임 벡터를 계산한다.
본 실시예에서, 현재 블록에서 제2 참조 블록(blk2)으로의 움직임 벡터는 역방향 참조 프레임에 상대적인 현재 블록의 움직임 정보이며; 구체적으로 설명하면, 역방향 참조 프레임에 상대적인 현재 블록의 움직임 벡터는 식 (3)과 같다:
Figure 112011099056162-pct00039
1304: 현재 블록의 움직임 벡터에 따라 현재 블록의 예측 값을 계산한다.
현재 블록의 움직임 벡터는 순방향 예측 프레임(
Figure 112011099056162-pct00040
)에 상대적인 현재 블록의 움직임 벡터(u1, v1) 및 역방향 예측 프레임(
Figure 112011099056162-pct00041
)에 상대적인 현재 블록의 움직임 벡터(u2, v2)를 포함한다. 현재 프레임(
Figure 112011099056162-pct00042
)에서 순방향 예측 프레임(
Figure 112011099056162-pct00043
)과 역방향 예측 프레임(
Figure 112011099056162-pct00044
)까지의 거리가 동일하면, 현재 블록(curr_blk)의 예측 값은 식 (4)에 따라 직접 계산될 수 있다:
Figure 112011099056162-pct00045
이와는 달리, 더욱 정확하게는, 현재 프레임(
Figure 112011099056162-pct00046
)에서 순방향 예측 프레임(
Figure 112011099056162-pct00047
)과 역방향 예측 프레임(
Figure 112011099056162-pct00048
)까지의 거리가 동일하지 않은 경우를 고려하면, 현재 블록(curr_blk)의 예측 값은 식 (5)에 따라 계산될 수 있다:
Figure 112011099056162-pct00049
위 식에서,
Figure 112011099056162-pct00050
Figure 112011099056162-pct00051
이다.
이때 프로세스가 비디오 이미지 인코딩 단계로 진행되면, 단계 1305가 실행되고; 프로세스가 비디오 이미지 디코딩 단계로 진행되면, 단계 1306이 실행된다.
1305: 현재 블록의 예측 값과 현재 블록의 실제 값의 차를 계산하고, 비디오 이미지의 예측 잔차, 즉, 이미지 블록의 예측 값과 실제 값의 차에 대해 인코딩을 수행한다.
1306: 수신된 코드 스트림을 디코딩하여 이미지 블록의 예측 값과 실제 값의 차를 취득하며, 여기서 현재 블록과 단계 1304에서 취득된 예측 값에 대응하는 차의 합이 디코딩 후의 현재 블록의 실제 값이다.
본 실시예에서, 단계들의 일련 번호는 단계들의 실행 순서를 한정하는 것이 아니며, 본 발명의 실시에에서 제공되는 방법에서 단계들의 순서는 실제 요구사항에 따라 조정될 수 있다.
또, 디코딩 단이 더욱 정확한 움직임 정보를 취득할 수 있게 하기 위해, 본 실시예에서는, 인코딩 단이 또한 취득된 움직임 정보에 따라, 취득된 움직임 정보와 실제 움직임 정보의 차를 취득하고, 이 움직임 정보의 차를 디코딩 단에 전송할 수 있다. 이렇게 하여, 인코딩 단에 의해 제공된 데이터를 수신한 후, 디코딩 단은 먼저 파싱(parsing)에 의해 움직임 정보의 차를 취득하고, 현재 블록의 예측 값에 따라 실제 움직임 정보를 복구하고, 나아가 실제 움직임 정보에 따라 현재 블록을 재구성한다.
본 실시예에서 현재 블록이 매크로 블록의 부분 분할 블록인 경우, 현재 블록에 대한 템플릿을 구성하는 방법은 실시예 3과 동일하므로, 여기서 상세하게 다시 설명하지 않는다.
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 방법은 템플릿 매칭을 통한 참조 블록의 검색 프로세스에서 움직임 추정 인자를 도입하여, 종래기술에 비해 더 정확한 움직임 정보를 취득한다.
실시예 7:
B 프레임 인코딩을 예로 들면, 인코딩 중에, 일반적으로 순방향 참조 프레임이 제1 참조 프레임으로서 사용되고, 역방향 참조 프레임이 제2 참조 프레임으로서 사용되지만; 때로는, 제1 참조 프레임으로서 역방향 참조 프레임을 사용함으로써 더 나은 인코딩 효과를 얻을 수 있다. 따라서, 따라서, 본 실시예에서는, 실시예 6를 더욱 개선하므로, 현재 프레임의 예측을 위해 제1 참조 프레임으로 사용되기에 가장 적합한 참조 프레임은 인코딩 이전에 먼저 결정된다.
구체적으로 설명하면, 도 15에 나타낸 바와 같이, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 방법은 다음의 단계들을 포함한다.
1501: 재구성 값을 사용하여 현재 프레임(
Figure 112011099056162-pct00052
)의 현재 블록 주위에서 템플릿(TM1)을 구성한다.
현재 블록은 완전한 매크로 블록이거나 매크로 블록의 분할 블록일 수 있으며, 본 실시예에서는 계속하여 완전한 매크로 블록을 예로 든다.
1502: 템플릿 매칭을 통해 현재 프레임의 순방향 참조 프레임에서 현재 블록의 최적 매칭 참조 블록(blk1) 및 템플릿(TM1)의 최적 매칭 템플릿(TM2)을 검색하고; 또 현재 블록과 참조 블록(blk1)의 절대 차의 합은 SAD1이고, 템플릿(TM1)과 템플릿(TM2)의 절대 차의 합은 SAD3이다.
1503: 템플릿 매칭을 통해 현재 프레임의 역방향 참조 프레임에서 현재 블록의 최적 매칭 참조 블록(blk2) 및 템플릿(TM1)의 최적 매칭 템플릿(TM3)을 검색하고; 또 현재 블록과 참조 블록(blk2)의 절대 차의 합은 SAD2이고, 템플릿(TM1)과 템플릿(TM3)의 절대 차의 합은 SAD4이다.
1504: 단계 1502 및 단계 1503에서 취득된 절대 차의 합에 따라 현재 프레임의 제1 참조 프레임을 결정한다.
구체적으로 설명하면, SAD1과 SAD2가 SAD1-SAD2≥0를 충족시키거나, 또는 SAD3과 SAD4가 SAD3-SAD4≥0을 충족시키는 경우, 현재 프레임의 순방향 참조 프레임을 제1 참조 프레임으로서 취하고, 매칭 방향 플래그 flag=0이 코드 스트림에 추가되고, 이에 따라 디코딩 단은 이 매칭 방향 플래그에 따라 순방향 참조 프레임에서 현재 블록의 제1 참조 프레임을 검색하고; 그렇지 않으면, 현재 프레임의 역방향 참조 프레임을 제1 참조 프레임으로서 취하고, 매칭 방향 플래그 flag=1이 코드 스트림에 추가되고, 이에 따라 디코딩 단은 이 매칭 방향 플래그에 따라 역방향 참조 프레임에서 현재 블록의 제1 참조 프레임을 검색한다.
현재 프레임의 순방향 참조 프레임이 제1 참조 프레임, 즉, flag=0인 예가 아래에 주어진다. 이 경우에, 현재 블록에서 참조 블록(blk1)으로의 제1 움직임 벡터는 (u1, v1)이고, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 방법은 다음의 단계들을 더 포함한다.
1505: 제2 참조 프레임(예를 들면, 역방향 참조 프레임)에서, 역방향 참조 프레임 상의 참조 블록(blk1)의 매핑 점을 중심으로 하는 특정한 검색 범위 내에서, 템플릿 매칭을 통해 역방향 참조 프레임에 상대적인 참조 블록의 제2 움직임 벡터(u, v)를 취득하고, 제2 움직임 벡터에 따라 역방향 참조 프레임에서 참조 블록(blk1)에 대응하는 제2 참조 블록(blk2')을 결정한다.
1506: 제1 움직임 벡터(u1, v1) 및 제2 움직임 벡터(u, v)에 따라 역방향 참조 프레임에 상대적인 현재 블록의 움직임 벡터를 계산한다.
본 실시예에서, 현재 블록에서 제2 참조 블록(blk2')으로의 움직임 벡터는 역방향 참조 프레임에 상대적인 현재 블록의 움직임 정보이며; 구체적으로 설명하면, 역방향 참조 프레임에 상대적인 현재 블록의 움직임 벡터는 식 (3)과 같다:
Figure 112011099056162-pct00053
1507: 현재 블록의 움직임 벡터에 따라 현재 블록의 예측 값을 계산한다.
현재 블록의 움직임 벡터는 순방향 예측 프레임(
Figure 112011099056162-pct00054
)에 상대적인 현재 블록의 움직임 벡터(u1, v1) 및 역방향 예측 프레임(
Figure 112011099056162-pct00055
)에 상대적인 현재 블록의 움직임 벡터(u2, v2)를 포함한다. 현재 프레임(
Figure 112011099056162-pct00056
)에서 순방향 예측 프레임(
Figure 112011099056162-pct00057
)과 역방향 예측 프레임(
Figure 112011099056162-pct00058
)까지의 거리가 동일하면, 현재 블록(curr_blk)의 예측 값은 식 (4)에 따라 직접 계산될 수 있다:
Figure 112011099056162-pct00059
이와는 달리, 더욱 정확하게는, 현재 프레임(
Figure 112011099056162-pct00060
)에서 순방향 예측 프레임(
Figure 112011099056162-pct00061
)과 역방향 예측 프레임(
Figure 112011099056162-pct00062
)까지의 거리가 동일하지 않은 경우를 고려하면, 현재 블록(curr_blk)의 예측 값은 식 (5)에 따라 계산될 수 있다:
Figure 112011099056162-pct00063
위 식에서,
Figure 112011099056162-pct00064
Figure 112011099056162-pct00065
이다.
이때 프로세스가 비디오 이미지 인코딩 단계로 진행되면, 단계 1508이 실행되고; 프로세스가 비디오 이미지 디코딩 단계로 진행되면, 단계 1509가 실행된다.
1508: 현재 블록의 예측 값과 현재 블록의 실제 값의 차를 계산하고, 비디오 이미지의 예측 잔차, 즉 이미지 블록의 예측 값과 실제 값의 차에 대해 인코딩을 수행한다.
1509: 수신된 코드 스트림을 디코딩하여 이미지 블록의 예측 값과 실제 값의 차를 취득하며, 현재 블록과 단계 1507에서 취득된 예측 값에 대응하는 차의 합이 디코딩 후의 현재 블록의 실제 값이다.
본 실시예에서, 단계들의 일련 번호는 단계들의 실행 순서를 한정하는 것이 아니며, 본 발명의 실시에에서 제공되는 방법에서 단계들의 순서는 실제 요구사항에 따라 조정될 수 있다.
또, 디코딩 단이 더욱 정확한 움직임 정보를 취득할 수 있게 하기 위해, 본 실시예에서는, 인코딩 단이 또한 취득된 움직임 정보에 따라, 취득된 움직임 정보와 실제 움직임 정보의 차를 취득하고, 이 움직임 정보의 차를 디코딩 단에 전송할 수 있다. 이렇게 하여, 인코딩 단에 의해 제공된 데이터를 수신한 후, 디코딩 단은 먼저 파싱에 의해 움직임 정보의 차를 취득하고, 현재 블록의 예측 정보에 따라 실제 움직임 정보를 계산하고, 나아가 현재 블록을 재구성한다.
본 실시예에서 현재 블록이 매크로 블록의 부분 분할 블록인 경우, 현재 블록에 대한 템플릿을 구성하는 방법은 실시예 3과 동일하므로, 여기서 상세하게 다시 설명하지 않는다.
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 방법은 템플릿 매칭을 통한 참조 블록의 검색 프로세스에서 움직임 추정 인자를 도입하여, 인코딩 이전에 현재 프레임과 다른 참조 프레임의 참조 블록 매칭 정도 또는 템플릿 매칭 정도에 따라 제1 참조 프레임을 결정하고, 이것이 비디오 이미지의 인코딩 및 디코딩을 더욱 최적화하므로, 종래기술에 비해 더 정확한 움직임 정보를 취득한다.
실시예 8:
도 16에 나타낸 바와 같이, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 장치는 제1 매칭 유닛(1601), 제2 매칭 유닛(1602), 및 계산 유닛(1603)을 포함한다.
비디오 이미지의 움직임 정보를 취득하는 프로세스에서는, 먼저, 제1 매칭 유닛(1601)이 제1 참조 프레임에서 템플릿 매칭을 통해 현재 블록과 관련된 제1 움직임 정보를 취득하고, 제1 움직임 정보에 따라 제1 참조 블록을 결정한다. 그 다음에, 제2 매칭 유닛(1602)이 제2 참조 프레임에서 템플릿 매칭을 통해 제1 참조 블록과 관련된 제2 움직임 정보를 취득하고, 제2 움직임 정보에 따라 제2 참조 블록을 결정한다. 그 후에, 계산 유닛(1603)이 제1 움직임 정보와 제2 움직임 정보에 따라 현재 블록의 움직임 정보를 계산한다.
본 실시예에서, 비디오 이미지의 움직임 정보를 취득하는 장치는 결정 유닛(1604)을 더 포함할 수 있으며, 이 결정 유닛(1604)은 인코딩 이전에 제1 참조 프레임을 결정하도록 구성된다.
구체적으로 설명하면, 본 실시예에서 제공되는 장치가 인코딩 단에 위치하는 경우, 순방향 참조 프레임에서 현재 블록의 참조 블록(blk1)과 현재 블록의 절대 차의 합은 SAD1이고, 역방향 참조 프레임에서 현재 블록의 참조 블록(blk2)과 현재 블록의 절대 차의 합은 SAD2이고; 순방향 참조 프레임에서 템플릿(TM1)의 매칭 템플릿(TM2)과 현재 블록에 대응하는 템플릿(TM1)의 절대 차의 합은 SAD3이고, 역방향 참조 프레임에서 템플릿(TM1)의 매칭 템플릿(TM3)과 현재 블록에 대응하는 템플릿(TM1)의 절대 차의 합은 SAD4이다. SAD1과 SAD2가 SAD1-SAD2≥0를 충족시키거나, 또는 SAD3과 SAD4가 SAD3-SAD4≥0을 충족시키는 경우, 현재 프레임의 순방향 참조 프레임을 제1 참조 프레임으로서 취하고, 매칭 방향 플래그 flag=0이 코드 스트림에 추가되고; 그렇지 않으면, 현재 프레임의 역방향 참조 프레임을 제1 참조 프레임으로서 취하고, 매칭 방향 플래그 flag=1이 코드 스트림에 추가된다.
본 발명에서 제공되는 장치가 디코딩 단에 위치하는 경우, 결정 유닛(1604)은 코드 스트림 내의 매칭 방향 플래그에 따라 직접 현재 프레임의 제1 참조 프레임을 판단할 수 있다.
또, 본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 장치는, 현재 블록의 움직임 정보에 따라 현재 블록의 예측 값을 계산하고, 예측 잔차에 대해 인코딩을 수행하도록 구성된 인코딩 유닛(1605)을 더 포함할 수 있다.
다르게는, 상기 장치는 현재 블록의 움직임 정보에 따라 현재 블록의 예측 값을 계산하고, 수신된 코드 스트림을 디코딩하도록 구성된 디코딩 유닛(1606)을 더 포함할 수 있다.
본 발명의 실시에에 따른 상기 장치는 회로, 집적회로 또는 칩의 형태로 구체적으로 구현될 수 있다.
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 장치는, 템플릿 매칭을 통한 참조 블록 검색 프로세스에서 움직임 추정 인자를 도입하여, 인코딩 이전에 현재 프레임과 다른 참조 프레임의 참조 블록 매칭 정도 또는 템플릿 매칭 정도에 따라 제1 참조 프레임을 결정하고, 이것이 비디오 이미지의 인코딩 및 디코딩을 더욱 최적화하므로, 종래기술에 비해 더 정확한 움직임 정보를 취득한다.
실시예 9:
도 17에 나타낸 바와 같이, 본 발명의 실시예는 또한 전자 기기를 제공하며, 이 전자 기기는 송수신 장치(1701)와, 실시예 4 또는 실시예 8에서 제공된 비디오 이미지의 움직임 정보를 취득하는 장치(1702)를 포함한다.
송수신 장치(1701)는 비디오 정보를 수신하거나 송신하도록 구성된다.
본 실시예에서 제공되는 비디오 이미지의 움직임 정보를 취득하는 장치(1702)의 기술적 해결방안은, 실시예 4 또는 실시예 8에서 제공된 기술적 해결방안을 참조할 수 있으므로, 여기서는 자세하게 설명하지 않는다.
본 발명의 실시예에 따른 전자 기기는 이동 전화, 비디오 처리 디바이스, 컴퓨터 또는 서버일 수 있다.
본 발명의 실시예에서 제공되는 전자 기기는 참조 블록을 결정하는 방법을 변경하여 비디오 이미지의 움직임 정보를 취득하는 프로세스를 개선함으로써, 비디오 이미지의 인코딩 및 디코딩 효율을 향상시킨다.
본 발명의 실시예는 모두 B 프레임 인코딩을 예로서 취하였으나, 본 발명의 실시예의 적용 범위는 B 프레임 인코딩으로 한정되지 않는다. 예를 들면, 실시예 6에서 제공된 방법은 또한 P 프레임 인코딩에도 적용할 수 있고, 한편 현재 프레임의 제1 참조 프레임과 제2 참조 프레임이 각각 현재 프레임의 순방향 예측 프레임(
Figure 112011099056162-pct00066
)과 순방향 예측 프레임(
Figure 112011099056162-pct00067
)인 경우에, 현재 블록의 예측 값은 식 (4')에 따라 취득되어야 한다:
Figure 112011099056162-pct00068
이와는 달리, 더욱 정확하게는, 현재 블록(curr_blk)의 예측 값은 식 (5')에 따라 계산될 수 있다:
Figure 112011099056162-pct00069
위 식에서,
Figure 112011099056162-pct00070
이고,
Figure 112011099056162-pct00071
이다.
실시예 10:
본 실시예에서 제공된 비디오 이미지의 움직임 정보를 취득하는 방법은 다음의 단계들을 포함한다.
단계 101: 현재 인코딩 블록의 후보 움직임 벡터 세트 내의 각 후보 움직임 벡터를 사용하여 현재 인코딩 블록에 대한 두 개 이상의 연관 참조 블록으로부터 움직임벡터 지시 세트를 각각 결정하며, 상기한 두 개 이상의 연관 참조 블록은 현재 인코딩 블록에 대응한다.
후보 움직임 벡터 세트는, 현재 인코딩 블록과 현재 인코딩 블록의 이웃 블록의 공간 상관성(space correlation), 및 현재 인코딩 블록과 참고 프레임에 가까운 위치의 블록의 시간 상관성(time correlation)에 따라, 현재 인코딩 블록 주위의 기지의 블록의 움직임 정보를 사용하여 취득된다. 현재 인코딩 블록 주위의 기지의 블록의 움직임 정보는 현재 인코딩 블록과 시간상 또는 공간상 관련된 인코딩된 블록 또는 디코딩된 블록의 움직임 벡터이거나, 움직임 벡터의 조합일 수 있다.
현재 인코딩 블록은 완전한 매크로 블록이거나 매크로 블록의 분할 블록일 수 있으며, 여기서는 완전한 매크로 블록을 예로 든다.
후보 움직임 벡터 세트는 다음을 포함할 수 있다: 현재 블록(Curr_blk)과 공간상 관련된 이웃 블록의 움직임 벡터 MVL, MVU, MVR 및 MEAN(MVL, MVU, MVR); 순방향 참조 프레임(
Figure 112011099056162-pct00072
) 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록의 움직임 벡터(도 5에 나타낸, col_MV1, col_MV2, col_MV3, col_MV4) 및 순방향 참조 프레임(
Figure 112011099056162-pct00073
) 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록의 이웃 블록의 움직임 벡터(도 5에 나타낸, MV1, MV2, …, MV12); 그리고 역방향 참조 프레임(
Figure 112011099056162-pct00074
) 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록의 움직임 벡터(도 5에 나타낸, col_MV1', col_MV2', col_MV3', col_MV4') 및 역방향 참조 프레임(
Figure 112011099056162-pct00075
) 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록의 이웃 블록의 움직임 벡터(도 5에 나타낸, MV1', MV2', …, MV12')의 일부 또는 전부, 즉 현재 인코딩 블록의 좌(左), 상(上), 좌상(左上), 및 우상(右上) 블록; 참조 프레임 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록의 좌, 상, 좌상, 및 우상 블록; 그리고 참조 프레임 내의, 현재 블록의 위치에 대응하는 위치에 있는 블록의 일부 또는 전부를 포함한다.
단계 101에서 취득된 현재 인코딩 블록의 후보 움직임 벡터 세트 중의 하나의 후보 움직임 벡터에 대해, 현재 인코딩 블록의 두 개 이상의 연관 참조 블록에서 현재 인코딩 블록으로의 한 세트의 움직임 벡터 세트가 취득된다. 각 후보 움직임 벡터는 한 세트의 움직임 벡터에 대응한다. 본 실시예에서는, 두 개의 연관 참조 블록, 예를 들면 현재 인코딩 블록의 순방향 및 역방향 참조 블록을 예로 들며, 각각의 움직임 벡터 세트는 현재 블록의 순방향 참조 블록의 순방향 움직임 벡터 및 현재 블록의 역방향 참조 블록의 역방향 움직임 벡터이다. 구체적으로 설명하면, 후보 움직임 벡터 각각에 대해, 대응하는 순방향 및 역방향 움직임 벡터가 취득된다. 도 18에 나타낸 바와 같이, B 프레임을 예로 들면, 가운데 있는 블록이 현재 인코딩 블록이고, L0 및 L1은 순방향 및 역방향 참조 프레임이고, L0 및 L1 내의 블록은 순방향 및 역방향 참조 블록이며,
Figure 112011099094063-pct00076
는 순방향 움직임 벡터이고
Figure 112011099094063-pct00077
는 역방향 움직임 벡터이다. 이 예에서, 현재 B 프레임에서 순방향 참조 프레임까지의 거리는
Figure 112011099094063-pct00078
이고, 현재 B 프레임에서 역방향 참조 프레임까지의 거리는
Figure 112011099094063-pct00079
이다. 검색 범위 내의 순방향 움직임 벡터와 역방향 움직임 벡터의 각 쌍은 다음의 관계를 충족시킨다:
Figure 112011099094063-pct00080
. 다수의 연관 참조 블록이 존재하는 경우, 검색 범위 내의 각 쌍의 움직임 벡터들 간의 관계는 전술한 바와 동일하다. 도 18은 B 프레임이 두 개의 참조 프레임에 바로 이웃하는 경우를 보여줄 뿐이다. 다수의 연속적인 B 프레임의 경우, 대응하는 순방향/역방향 움직임 벡터를 취득하는 방법은 전술한 바와 동일하므로, 여기서는 다시 상세하게 설명하지 않는다.
구체적인 구현 시에, 현재 인코딩 블록과 관련된 인코딩된 블록/디코딩된 블록의 움직임 벡터의 일부 또는 전부가 후보 움직임 벡터 세트의 형성을 위해 선택될 수 있으며, 그 후에 제1 후보 참조 블록이 각 후보 움직임 벡터에 따라 상응하게 제1 참조 프레임에서 결정하여, 한 세트의 제1 후보 참조 블록을 취득한다.
각각의 제1 후보 참조 블록에서 현재 인코딩 블록으로의 움직임 벡터는 제1 후보 참조 블록과 현재 인코딩 블록의 위치 관계에 따라 결정되고, 각 제1 후보 참조 블록에 각각 대응하는 각각의 제2 후보 참조 블록은 움직임 벡터에 따라 제2 참조 프레임에서 결정된다. 예를 들면, 본 실시예에서, 제2 참조 프레임에서 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록은 대칭성 검색을 통해 결정될 수 있다, 즉 대칭성 검색 후에, 제1 후보 참조 블록 및 찾아낸 제2 후보 참조 블록은 현재 인코딩 블록을 중심으로 하는 비례 대칭이다.
단계 102: 유사도 판단에 의해 움직임 벡터 세트로부터 한 세트의 움직임 벡터를 현재 인코딩 블록의 움직임 벡터의 예측 벡터로서 결정한다.
각 결정된 세트의 움직임 벡터들 간의 유사도가 계산된다. 유사도는 차의 합을 사용하여 판단될 수 있다. 구체적으로 설명하면, 차의 합은 절대 차의 합(SAD), 절대 변환 차의 합, 또는 절대 제곱 차의 합일 수 있고, 물론, 두 개의 참조 블록 간의 유사성을 설명할 수 있는 기타 파라미터일 수도 있으며; 본 실시예 서는, 절대 차의 합을 예로 들어 본 발명이 제공하는 해결방안을 설명한다. 최적의 유사도에 대응하는 한 세트의 움직임 벡터가 현재 인코딩 블록의 움직임 벡터의 예측 벡터로서 선택된다.
구체적인 구현 시에는, 제1 후보 참조 블록과 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합을 계산하고, 최소 SAD에 대응하는 제1 후보 참조 블록과 제2 후보 참조 블록을 현재 블록의 제1 참조 블록 및 제2 참조 블록으로서 선택하고, 이 제1 참조 블록과 제2 참조 블록에 의해 결정된 움직임 벡터를 현재 인코딩 블록의 움직임 정보의 예측 벡터로 사용한다.
단계 103: 현재 인코딩 블록에 대해 수행된 움직임 검색에 의해 취득된 움직임 벡터에 따라 움직임 벡터 차, 및 예측 벡터를 취득하며, 움직임 벡터 차는 디코딩 단에 의해 현재 인코딩 블록의 움직임 벡터를 복구하는 데 사용된다.
디코딩 단이 더욱 정확한 움직임 정보를 취득할 수 있게 하기 위해, 본 실시예에서는, 인코딩 단이 또한 취득된 움직임 정보에 따라, 취득된 움직임 정보와 실제 움직임 정보의 차를 취득하고, 이 움직임 정보의 차를 디코딩 단에 전송할 수 있다. 즉, 단계 102에서 취득된 예측 벡터와, 움직임 검색에 의해 취득된, 현재 인코딩 블록의 움직임 벡터의 움직임 벡터의 벡터 차가 계산되고 이 움직임 벡터 차가 디코딩 단에 전송된다. 이렇게 하여, 인코딩 단에 의해 제공된 데이터를 수신한 후, 디코딩 단은 먼저 움직임 정보의 차에 따라 실제 움직임 정보를 복구한다.
디코딩 단에서, 현재 인코딩 블록에 대응하는 두 개 이상의 연관 참조 블록에서 현재 인코딩 블록으로의 움직임 벡터의 세트 각각이 현재 인코딩 블록의 후보 움직임 벡터 내의 각 후보 움직임 벡터를 사용하여 결정되고, 후보 움직임 벡터 세트는 현재 인코딩 블록과 현재 인코딩 블록의 이웃 블록의 공간 상관성, 및 현재 인코딩 블록과 참조 프레임에 가까운 위치의 블록의 시간 상관성에 따라, 현재 인코딩 블록 주위의 기지의 블록의 움직임 정보를 사용하여 취득되며; 유사도 판단 기준을 사용하여 움직임 벡터 세트들로부터 한 세트의 움직임 벡터가 현재 블록의 움직임 벡터의 예측 세트로서 결정되고; 벡터 차가 코드 스트림 파싱에 의해 복구되고, 현재 인코딩 블록의 움직임 벡터가 예측 벡터 및 벡터 차를 사용하여 취득된다.
다른 실시예에서는, 단계 102에서, 유사도 판단에 의해 움직임 벡터 세트들에서 한 세트의 움직임 벡터를 현재 인코딩 블록의 움직임 벡터로서 결정할 수 있다.
해당 기술분야의 당업자라면 정보, 메시지, 및 신호가 여러 기술 중 어느 것이든 사용하여 표현될 수 있음을 알 것이다. 예를 들면, 전술한 메시지 및 정보는 전압, 전류, 전자기파, 자계나 자기 입자(magnetic particle), 광계(optical field), 또는 전압, 전류, 전자기파, 자계나 자기 입자 및 광계의 임의 조합으로서 표현될 수 있다.
해당 기술분야의 당업자라면, 본 명세서에 개시된 실시예를 통해 설명한 각 예의 유닛 및 알고리즘 단계가 전자 하드웨어, 컴퓨터 소프트웨어 또는 전자 하드웨어와 컴퓨터 소프트웨어의 조합으로 구현될 수 있음을 알 것이다. 하드웨어와 소프트웨어 간의 교체 가능성을 명확하게 설명하기 위해, 이상의 설명에서는 각 예의 구성 및 단계들을 기능에 따라 일반적으로 설명하였다. 기능을 하드웨어 방식으로 실행할 것이지 소프트웨어 방식으로 실행할 것인지는 특정한 애플리케이션 및 기술적 해결방안의 설계 제약 조건에 의존한다. 해당 기술분야의 당업자라면 특정한 애플리케이션마다 상이한 방법을 사용하여 전술한 기능을 구현할 수 있지만, 그 구현이 본 발명의 범위를 넘어서는 것으로 생각해서는 안 된다.
본 명세서 개시된 실시예를 통해 설명한 방법 및 알고리즘은 하드웨어, 프로세서에 의해 실행되는 소프트웨어 모듈, 또는 하드웨어와 소프트웨어 모듈의 조합을 사용하여 구현될 수 있다. 소프트웨어 모듈은 임의 접근 메모리(RAM), 메모리, 판독 전용 메모리(ROM), 전기적으로 프로그램 가능한 ROM, 전기적으로 소거/프로그램 가능한 ROM, 레지스터, 하드디스크, 탈착 가능한 자기 디스크, CD-ROM, 또는 해당 기술분야에 잘 알려져 있는 임의의 다른 형태의 저장 매체에 내장(built in)될 수 있다.
이상의 설명은 단지 본 발명의 예시적인 실시예에 관한 것이고, 본 발명의 보호 범위를 이상의 설명으로 한정하려는 것은 아니다. 해당 기술분야의 당업자가 본 발명의 기술적 범위 내에서 쉽게 생각해 낼 수 있는 수정 또는 변형은 본 발명의 보호 범위에 속한다. 그러므로, 본 발명의 보호 범위는 청구항의 보호범위에 의해 정해진다.

Claims (32)

  1. 현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임에서 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록을 결정하는 단계;
    제2 참조 프레임에서 상기 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정하는 단계;
    제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합을 계산하는 단계; 및
    최소 차의 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 상기 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하고, 상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 벡터에 따라 상기 현재 블록의 움직임 정보를 취득하는 단계
    를 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  2. 제1항에 있어서,
    상기 제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합을 계산하는 단계 이전에,
    재구성 값을 사용하여 상기 현재 블록 주위에서 템플릿을 구성하는 단계; 및
    재구성 값을 사용하여 상기 제1 참조 프레임의 상기 제1 후보 참조 블록 주위에서, 제1 후보 참조 블록 각각에 대응하는 템플릿을 각각 구성하는 단계를 더 포함하고;
    상기 제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합을 계산하는 단계는,
    제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합, 및 상기 제1 후보 참조 블록에 대응하는 템플릿과 상기 현재 블록에 대응하는 템플릿의 차의 합을 계산하고, 제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합과, 상기 제1 후보 참조 블록에 대응하는 템플릿과 상기 현재 블록에 대응하는 템플릿의 차의 합의 가중 합 계산하는 단계를 포함하고;
    상기 최소 차의 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 상기 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하는 단계는,
    최소 가중 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 상기 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하는 단계를 포함하는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 현재 블록과 관련된 상기 기지의 움직임 정보는, 상기 현재 블록과 시간상 또는 공간상 관련된 인코딩된 블록 또는 디코딩된 블록의 움직임 정보를 포함하는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  4. 제1항 또는 제2항에 있어서,
    상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 정보에 따라 취득된, 상기 현재 블록의 움직임 정보를 사용하여 상기 현재 블록 예측 값을 계산하고, 예측 잔차에 대해 인코딩을 수행하는 단계 - 상기 예측 잔차는 상기 현재 블록의 예측 값과 상기 현재 블록의 실제 값의 차를 포함하고, 잔차 인코딩 결과는 디코딩 단에 의해 상기 현재 블록의 재구성을 위해 사용됨 -; 또는
    상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 정보에 따라 취득된, 상기 현재 블록의 움직임 정보를 사용하여 상기 현재 블록의 예측 값을 계산하고, 상기 예측 값을 사용하여 상기 현재 블록을 취득하는 단계를 더 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  5. 현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임에서 상기 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록을 결정하도록 구성된 제1 결정 유닛;
    제2 참조 프레임에서 상기 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정하도록 구성된 제2 결정 유닛;
    제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합을 계산하도록 구성된 계산 유닛; 및
    최소 차의 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 상기 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하고, 상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 정보에 따라 상기 현재 블록의 움직임 정보를 취득하도록 구성된 선택 유닛
    을 포함하는 비디오 이미지의 움직임 정보를 취득하는 장치.
  6. 제5항에 있어서,
    재구성 값을 사용하여 상기 현재 블록 주위에서 템플릿을 구성하도록 구성된 제1 구성 유닛; 및
    재구성 값을 사용하여 상기 제1 참조 프레임 내의 상기 제1 후보 참조 블록 주위에서, 제1 후보 참조 블록 각각에 대응하는 템플릿을 각각 구성하도록 구성된 제2 구성 유닛을 더 포함하고;
    상기 계산 유닛은, 제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합, 및 상기 제1 후보 참조 블록에 대응하는 템플릿과 상기 현재 블록에 대응하는 템플릿의 차의 합을 계산하고, 제1 후보 참조 블록과 상기 제1 후보 참조 블록에 대응하는 제2 후보 참조 블록의 차의 합과, 상기 제1 후보 참조 블록에 대응하는 템플릿과 상기 현재 블록에 대응하는 템플릿의 차의 합의 가중 합을 계산하도록 구성되고;
    상기 선택 유닛은, 최소 가중 합을 가지는 제1 후보 참조 블록과 제2 후보 참조 블록을 상기 현재 블록의 제1 참조 블록과 제2 참조 블록으로서 선택하도록 구성되고;
    상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 정보는 상기 현재 블록의 움직임 정보인, 비디오 이미지의 움직임 정보를 취득하는 장치.
  7. 제5항에 있어서,
    상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 정보에 따라 취득된, 상기 현재 블록의 움직임 정보를 사용하여 상기 현재 블록의 예측 값을 계산하고, 예측 잔차에 대해 인코딩을 수행하도록 구성되며, 상기 예측 잔차는 상기 현재 블록의 예측 값과 상기 현재 블록의 실제 값의 차를 포함하고, 잔차 인코딩 결과는 디코딩 단에 의해 상기 현재 블록의 재구성을 위해 사용되는, 인코딩 유닛; 또는
    상기 제1 참조 블록과 상기 제2 참조 블록에 의해 결정된 움직임 정보에 따라 취득된, 상기 현재 블록의 움직임 정보를 사용하여 상기 현재 블록의 예측 값을 계산하고, 상기 예측 값을 사용하여 상기 현재 블록을 취득하도록 구성되며, 상기 현재 블록과 상기 현재 블록의 예측 값에 대응하는 차의 합이 디코딩 후의 상기 현재 블록의 실제 값인, 디코딩 유닛
    을 더 포함하는 비디오 이미지의 움직임 정보를 취득하는 장치.
  8. 현재 블록의 템플릿 및 제1 참조 블록의 참조 템플릿을 사용하여, 상기 현재 블록의 제1 참조 프레임에서 템플릿 매칭을 통해 상기 현재 블록과 관련된 제1 움직임 정보를 취득하고, 상기 제1 움직임 정보에 따라 제1 참조 블록을 결정하는 단계;
    상기 현재 블록의 제2 참조 프레임에서 템플릿 매칭을 통해 상기 제1 참조 블록과 관련된 제2 움직임 정보를 취득하고, 상기 제2 움직임 정보에 따라 제2 참조 블록을 결정하는 단계; 및
    상기 제1 움직임 정보와 상기 제2 움직임 정보에 따라 상기 현재 블록의 움직임 정보를 결정하는 단계
    를 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  9. 제8항에 있어서,
    상기 제1 참조 블록에서 템플릿 매칭을 통해 상기 현재 블록에 대응하는 제1 참조 블록을 찾아내기 전에,
    상기 제1 참조 프레임을 결정하는 단계를 더 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  10. 제8항 또는 제9항에 있어서,
    상기 현재 블록의 움직임 정보에 따라 상기 현재 블록의 예측 값을 계산하고, 예측 잔차에 대해 인코딩을 수행하는 단계 - 상기 예측 잔차는 상기 현재 블록의 예측 값과 상기 현재 블록의 실제 값의 차를 포함하고, 잔차 인코딩 결과는 디코딩 단에 의해 상기 현재 블록의 재구성을 위해 사용됨 -; 또는
    상기 현재 블록의 움직임 정보에 따라 상기 현재 블록의 예측 값을 계산하고, 상기 예측 값을 사용하여 상기 현재 블록을 취득하는 단계를 더 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  11. 제8항에 있어서,
    상기 템플릿 매칭 프로세스 동안에, 상기 현재 블록의 이웃 블록 중 일부분의 재구성 값이 미지인 경우, 미지의 재구성 값을 가지는 이웃 블록 중 일부분에 대응하는 파싱된 움직임 정보에 따라 대응하는 참조 프레임에서 상기 이웃 블록 중 일부분의 예측 값을 취득하고, 상기 현재 블록의 이웃 블록 중 일부분의 예측 값과
    상기 현재 블록의 이웃 블록 중 다른 부분의 기지의 재구성 값을 사용하여 템플릿을 구성하는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  12. 현재 블록의 템플릿 및 제1 참조 프레임의 참조 템플릿을 사용하여 상기 현재 블록의 상기 제1 참조 프레임에서 템플릿 매칭을 통해 상기 현재 블록과 관련된 제1 움직임 정보를 취득하고, 상기 제1 움직임 정보에 따라 제1 참조 블록을 결정하도록 구성된 제1 매칭 유닛;
    상기 현재 블록의 제2 참조 프레임에서 템플릿 매칭을 통해 상기 제1 참조 블록과 관련된 제2 움직임 정보를 취득하고, 상기 제2 움직임 정보에 따라 제2 참조 블록을 결정하도록 구성된 제2 매칭 유닛; 및
    상기 제1 움직임 정보와 상기 제2 움직임 정보에 따라 상기 현재 블록의 움직임 정보를 계산하도록 구성된 계산 유닛
    을 포함하는 비디오 이미지의 움직임 정보를 취득하는 장치.
  13. 제12항에 있어서,
    상기 제1 참조 프레임을 결정하도록 구성된 결정 유닛을 더 포함하는 비디오 이미지의 움직임 정보를 취득하는 장치.
  14. 제12항에 있어서,
    상기 현재 블록의 움직임 정보에 따라 상기 현재 블록의 예측 값을 계산하고, 예측 잔차에 대해 인코딩을 수행하도록 구성되며, 상기 예측 잔차는 상기 현재 블록의 예측 값과 상기 현재 블록의 실제 값의 차를 포함하고, 잔차 인코딩 결과는 디코딩 단에 의해 상기 현재 블록의 재구성을 위해 사용되는, 인코딩 유닛; 또는
    상기 현재 블록의 움직임 정보에 따라 상기 현재 블록의 예측 값을 계산하고, 수신된 코드 스트림을 디코딩하여 이미지 블록의 실제 값과 예측 값의 차를 취득하고, 상기 예측 값을 사용하여 상기 현재 블록을 취득하도록 구성되며, 상기 현재 블록과 상기 현재 블록의 예측 값에 대응하는 차의 합이 디코딩 후의 상기 현재 블록의 실제 값인, 디코딩 유닛
    을 더 포함하는 비디오 이미지의 움직임 정보를 취득하는 장치.
  15. 제5항 내지 제7항 중 어느 한 항에 따른 비디오 이미지의 움직임 정보를 취득하는 장치 및 송수신 장치를 포함하고, 상기 송수신 장치는 비디오 정보를 수신 또는 송신하도록 구성되는, 전자 기기.
  16. 제12항 내지 제14항 중 어느 한 항에 따른 비디오 이미지의 움직임 정보를 취득하는 장치 및 송수신 장치를 포함하고, 상기 송수신 장치는 비디오 정보를 수신 또는 송신하도록 구성되는, 전자 기기.
  17. 비디오 인코딩 및 디코딩 프로세스에서 적용되는 템플릿 구성 방법으로서,
    현재 매크로 분할 블록의 이웃 블록이 현재 매크로 블록 내에 있고 상기 이웃 블록 중 일부분의 재구성 값이 미지인 경우에, 미지의 재구성 값을 가지는 상기 이웃 블록 중 일부분에 대응하는 기지의 움직임 정보에 따라 대응하는 참조 프레임에서 상기 이웃 블록 중 일부분의 예측 값을 취득하는 단계; 및
    상기 현재 블록의 상기 이웃 블록 중 일부분에 대한 상기 예측 값 및 상기 현재 블록의 상기 이웃 블록 중 다른 부분에 대한 기지의 재구성 값을 사용하여 템플릿을 구성하는 단계
    를 포함하는 템플릿 구성 방법.
  18. 제17항에 있어서,
    상기 현재 매크로 블록 분할 블록의 템플릿을 사용하여 상기 현재 매크로 블록 분할 블록의 참조 프레임에서 상기 현재 매크로 블록 분할 블록의 템플릿의 매칭 참조 템플릿을 찾아내는 단계를 더 포함하는 템플릿 구성 방법.
  19. 디코딩에 의해 취득된, 현재 매크로 블록 분할 블록의 이웃 매크로 블록 분할 블록의 움직임 정보를 사용하여 상기 현재 매크로 블록 분할 블록의 참조 블록에서 예측 블록을 취득하고, 상기 예측 블록 및 상기 현재 매크로 블록 분할 블록 주위의 기지의 재구성 정보에 따라 상기 현재 매크로 블록 분할 블록의 템플릿을 취득하는 단계; 및
    상기 현재 매크로 블록 분할 블록의 템플릿을 사용하여 상기 현재 매크로 블록 분할 블록의 참조 프레임에서 상기 현재 매크로 블록 분할 블록의 템플릿의 매칭 참조 템플릿을 찾아내고, 상기 매칭 참조 템플릿을 사용하여 상기 현재 매크로 블록 분할 블록의 움직임 정보를 취득하는 단계
    를 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  20. 제19항에 있어서,
    상기 예측 블록에 따라 상기 현재 매크로 블록 분할 블록의 템플릿을 취득하는 단계는,
    상기 예측 블록의, 상기 현재 매크로 블록 분할 블록의 제1 부분 템플릿에 대응하는 위치에서의 예측 값을 상기 매크로 블록 분할 블록의 제1 부분 템플릿의 값으로서 사용하는 단계;
    상기 현재 매크로 블록 분할 블록 주위의 기지의 재구성 값에 따라 상기 현재 매크로 블록 분할 블록의 제2 부분 템플릿을 취득하는 단계; 및
    상기 제1 부분 템플릿의 값 및 상기 제2 부분 템플릿의 값을 사용하여 상기 현재 매크로 블록 분할 블록의 템플릿을 취득하는 단계를 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  21. 제19항에 있어서,
    상기 현재 매크로 블록 분할 블록의 잔차 데이터를 보상하기 위해 상기 매칭 참조 템플릿에 대응하는 참조 블록을 사용하여 상기 현재 매크로 블록 분할 블록을 재구성하는 단계; 또는
    상기 매칭 참조 템플릿에 대응하는 참조 블록을 사용하여 상기 현재 매크로 블록 분할 블록을 예측한 후에 상기 현재 매크로 블록 분할 블록의 잔차 데이터를 취득하는 단계 - 상기 잔차 데이터는, 디코딩 단에 의해 상기 현재 매크로 블록 분할 블록을 재구성하기 위해 사용됨 -
    를 더 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  22. 현재 블록과 관련된 기지의 움직임 정보에 따라 제1 참조 프레임에서 현재 블록에 대응하는 하나 이상의 제1 후보 참조 블록을 결정하는 단계;
    제2 참조 프레임에서 상기 하나 이상의 제1 후보 참조 블록에 각각 대응하는 하나 이상의 제2 후보 참조 블록을 결정하는 단계;
    상기 현재 블록과 서로 대응하는 상기 하나 이상의 제1 후보 참조 블록 및 상기 하나 이상의 제2 후보 참조 블록을 사용하여 유사도에 따라 제1 후보 참조 블록과 제2 후보 참조 블록을 선택하는 단계; 및
    상기 선택한 제1 후보 참조 블록 및 제2 후보 참조 블록의 움직임 정보에 따라 현재 블록의 움직임 정보를 결정하는 단계
    를 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  23. 제22항에 있어서,
    상기 유사도에 따라 상기 제1 후보 참조 블록 및 상기 제2 후보 참조 블록을 선택하는 단계는,
    상기 제1 후보 참조 블록과 상기 제2 후보 참조 블록 간의 유사도를 취득하거나, 또는 상기 제1 후보 참조 블록과 상기 제2 후보 참조 블록 간의 유사도 및 상기 후보 참조 블록에 대응하는 템플릿과 상기 현재 블록에 대응하는 템플릿 간의 유사도를 취득하는 단계; 및
    상기 취득된 유사도들을 결합하고, 유사도 결합 결과에서 최소 값에 대응하는 제1 후보 참조 블록 및 제2 후보 참조 블록을 선택하는 단계를 포함하는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  24. 제22항에 있어서,
    상기 제1 후보 참조 블록 및 상기 제2 후보 참조 블록의 움직임 정보에 따라 상기 현재 블록의 움직임 정보를 결정하는 단계는,
    상기 선택된 상기 제1 후보 참조 블록 및 상기 제2 후보 참조 블록의 움직임 정보를 상기 현재 블록의 움직임 정보로서 사용하는 단계; 또는
    상기 선택된 상기 제1 후보 참조 블록 및 상기 제2 후보 참조 블록의 움직임 정보와 상기 현재 블록의 실제 움직임 정보의 차를 취득하고, 상기 움직임 정보 사이의 차를 상기 현재 블록의 움직임 정보의 취득을 위해 디코딩 단에 전송하는 단계를 포함하는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  25. 제22항에 있어서,
    상기 현재 블록과 관련된 기지의 움직임 정보는, 상기 현재 블록과 시간상 또는 공간상 관련된 기지의 블록의 움직임 정보, 또는 상기 기지의 블록의 움직임 정보의 조합을 포함하는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  26. 제22항에 있어서,
    상기 제1 후보 참조 블록 및 상기 제1 후보 참조 블록에 대응하는 상기 제2 후보 참조 블록은 상기 현재 블록을 중심으로 하여 비례 대칭인, 비디오 이미지의 움직임 정보를 취득하는 방법.
  27. 제22항에 있어서,
    상기 기지의 블록은 상기 현재 블록에 이웃하는 인코딩 또는 디코딩된 블록이고,
    상기 현재 블록의 좌, 상, 좌상, 및 우상 블록; 참조 프레임 내의, 상기 현재 블록의 위치에 대응하는 위치에 있는 블록 중 좌, 상, 좌상, 및 우상 블록; 그리고 참조 프레임 내의, 상기 현재 블록의 위치에 대응하는 위치에 있는 블록들 중 전부 또는 일부를 포함하는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  28. 제22항 내지 제27항 중 어느 한 항에 있어서,
    상기 현재 블록과 시간상 또는 공간상 관련된 기지의 블록의 움직임 정보가 상기 제1 후보 참조 블록의 후보 움직임 벡터로서 사용되는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  29. 현재 인코딩 블록의 후보 움직임 벡터 세트 내의 각 후보 움직임 벡터를 사용하여, 상기 현재 인코딩 블록에 대응하는 둘 이상의 연관 참조 블록에서 상기 현재 인코딩 블록으로의 움직임 벡터의 세트를 각각 결정하는 단계 - 상기 후보 움직임 벡터 세트는, 상기 현재 인코딩 블록과 상기 현재 인코딩 블록의 이웃 블록의 공간 상관성, 및 상기 현재 인코딩 블록과 참조 프레임에 가까운 위치의 블록의 시간 상관성)에 따라, 상기 현재 인코딩 블록 주위의 기지의 블록의 움직임 정보를 사용하여 취득됨 -; 및
    유사도 판단에 의해 상기 움직임 벡터 세트로부터 한 세트의 움직임 벡터를 상기 현재 블록의 움직임 벡터로서 결정하는 단계
    를 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
  30. 현재 인코딩 블록의 후보 움직임 벡터 세트 내의 각 후보 움직임 벡터를 사용하여, 상기 현재 인코딩 블록에 대응하는 둘 이상의 연관 참조 블록에서 상기 현재 인코딩 블록으로의 움직임 벡터의 세트를 각각 결정하는 단계 - 상기 후보 움직임 벡터 세트는, 상기 현재 인코딩 블록과 상기 현재 인코딩 블록의 이웃 블록의 공간 상관성, 및 상기 현재 인코딩 블록과 참조 프레임에 가까운 위치의 블록의 시간 상관성에 따라, 상기 현재 인코딩 블록 주위의 기지의 블록의 움직임 정보를 사용하여 취득됨 -;
    유사도 판단에 의해 상기 움직임 벡터 세트들에서 한 세트의 움직임 벡터를 상기 현재 블록의 움직임 벡터의 예측 벡터로서 결정하는 단계; 및
    상기 예측 벡터와 움직임 검색에 의해 취득된, 상기 현재 블록의 움직임 벡터에 따라 움직임 벡터 차를 취득하는 단계
    를 포함하고,
    상기 움직임 벡터 차는 디코딩 단에 의해 상기 현재 인코딩 블록의 움직임 벡터를 복구하기 위해 사용되는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  31. 제30항에 있어서,
    상기 유사도 판단에 의해 상기 움직임 벡터 세트들에서 한 세트의 움직임 벡터를 상기 현재 블록의 움직임 벡터의 예측 벡터로서 결정하는 단계는,
    움직임 벡터의 세트 각각에 대응하는 둘 이상의 연관 참조 블록의 화소들 사이의 유사도를 계산하는 단계 - 각각의 연관 참조 블록은 동일한 수의 재구성된 화소를 가짐 -; 및
    상기 계산된 유사도에 따라, 둘 이상의 연관 참조 블록의 움직임 벡터 세트를 상기 현재 블록의 움직임 벡터의 예측 벡터로서 선택하는 단계를 포함하는, 비디오 이미지의 움직임 정보를 취득하는 방법.
  32. 현재 인코딩 블록의 후보 움직임 벡터 세트 내의 각 후보 움직임 벡터를 사용하여, 현재 인코딩 블록에 대응하는 둘 이상의 연관 참조 블록에서 상기 현재 인코딩 블록으로 가리키는 움직임 벡터의 세트를 각각 결정하는 단계 - 상기 후보 움직임 벡터 세트는, 상기 현재 인코딩 블록과 상기 현재 인코딩 블록의 이웃 블록들 사이의 공간 상관성 및 상기 현재 인코딩 블록과 기준 프레임 가까운 위치의 블록들 사이의 시간 상관성에 따라, 상기 현재 인코딩 블록 주위의 기지의 블록의 움직임 정보를 사용하여 취득됨 -;
    유사도 판단에 의해 움직임 벡터의 세트들 중에서 한 세트의 움직임 벡터를 상기 현재 블록의 움직임 벡터의 예측 벡터로서 결정하는 단계;
    상기 예측 벡터 및 코드 스트림 파싱에 의해 취득되는 움직임 벡터 차를 사용하여 상기 현재 인코딩 블록의 움직임 벡터를 취득하는 단계
    를 포함하는 비디오 이미지의 움직임 정보를 취득하는 방법.
KR1020117029854A 2009-06-26 2010-06-02 비디오 이미지의 움직임 정보를 취득하는 방법, 장치, 및 기기, 그리고 템플릿 구성 방법 KR101443169B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN200910148520.6 2009-06-26
CN200910148520 2009-06-26
CN2010101476074A CN101931803B (zh) 2009-06-26 2010-04-09 视频图像运动信息获取方法、装置及设备、模板构造方法
CN201010147607.4 2010-04-09
PCT/CN2010/073477 WO2010148919A1 (zh) 2009-06-26 2010-06-02 视频图像运动信息获取方法、装置及设备、模板构造方法

Publications (2)

Publication Number Publication Date
KR20120026092A KR20120026092A (ko) 2012-03-16
KR101443169B1 true KR101443169B1 (ko) 2014-09-23

Family

ID=43370685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117029854A KR101443169B1 (ko) 2009-06-26 2010-06-02 비디오 이미지의 움직임 정보를 취득하는 방법, 장치, 및 기기, 그리고 템플릿 구성 방법

Country Status (12)

Country Link
US (1) US9432692B2 (ko)
EP (3) EP4401404A3 (ko)
KR (1) KR101443169B1 (ko)
CN (2) CN102883160B (ko)
AU (1) AU2010265451B2 (ko)
BR (1) BRPI1012992B1 (ko)
DK (1) DK3767951T3 (ko)
FI (1) FI3767951T3 (ko)
HU (1) HUE066881T2 (ko)
PL (1) PL3767951T3 (ko)
PT (1) PT3767951T (ko)
WO (1) WO2010148919A1 (ko)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101681303B1 (ko) * 2010-07-29 2016-12-01 에스케이 텔레콤주식회사 블록 분할예측을 이용한 영상 부호화/복호화 방법 및 장치
GB2487200A (en) 2011-01-12 2012-07-18 Canon Kk Video encoding and decoding with improved error resilience
US9532050B2 (en) * 2011-01-25 2016-12-27 Sun Patent Trust Moving picture coding method and moving picture decoding method
GB2488815C (en) 2011-03-09 2018-03-28 Canon Kk Video decoding
ES2900107T3 (es) 2011-03-21 2022-03-15 Lg Electronics Inc Método para seleccionar un predictor de vector de movimiento
EP3136727B1 (en) 2011-04-12 2018-06-13 Sun Patent Trust Motion-video coding method and motion-video coding apparatus
EP3337172B1 (en) 2011-05-24 2020-09-09 Velos Media International Limited Image encoding method, image encoding apparatus
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
TR201819396T4 (tr) 2011-05-27 2019-01-21 Sun Patent Trust Görüntü Kod Çözme Metodu Ve Görüntü Kod Çözme Cihazı
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
MX2013012209A (es) 2011-05-31 2013-11-01 Panasonic Corp Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
GB2491589B (en) 2011-06-06 2015-12-16 Canon Kk Method and device for encoding a sequence of images and method and device for decoding a sequence of image
JP5937594B2 (ja) 2011-06-30 2016-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像復号方法及び画像復号装置
AU2012291454B2 (en) 2011-08-03 2016-11-17 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
GB2493755B (en) 2011-08-17 2016-10-19 Canon Kk Method and device for encoding a sequence of images and method and device for decoding a sequence of images
CN107483925B (zh) * 2011-09-09 2020-06-19 株式会社Kt 用于解码视频信号的方法
WO2013057877A1 (ja) 2011-10-19 2013-04-25 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
US20130107802A1 (en) * 2011-10-26 2013-05-02 Qualcomm Incorporated Downlink time difference determination in frame asynchronous systems
EP2615832A1 (en) * 2012-01-13 2013-07-17 Thomson Licensing Method and device for encoding a block of an image and corresponding reconstructing method and device
AU2013261845A1 (en) 2012-05-14 2014-12-11 Guido MEARDI Encoding and reconstruction of residual data based on support information
IN2014KN03053A (ko) * 2012-07-11 2015-05-08 Lg Electronics Inc
CN111200736B (zh) 2013-06-14 2022-06-21 北京三星通信技术研究有限公司 一种视频编/解码中运动信息的获取方法及装置
US20160205409A1 (en) * 2013-09-04 2016-07-14 Samsung Electronics Co., Ltd. Screen image encoding method and apparatus therefor, and screen image decoding method and apparatus therefor
CN104427345B (zh) * 2013-09-11 2019-01-08 华为技术有限公司 运动矢量的获取方法、获取装置、视频编解码器及其方法
US9807407B2 (en) * 2013-12-02 2017-10-31 Qualcomm Incorporated Reference picture selection
CN105516724B (zh) * 2014-09-23 2019-05-14 浙江大学 一种运动信息存储压缩方法
CN104363451B (zh) * 2014-10-27 2019-01-25 华为技术有限公司 图像预测方法及相关装置
BR112017019264B1 (pt) 2015-03-10 2023-12-12 Huawei Technologies Co., Ltd Método de predição de imagem e dispositivo relacionado
CN104811729B (zh) * 2015-04-23 2017-11-10 湖南大目信息科技有限公司 一种视频多参考帧编码方法
CN106658019B (zh) * 2015-10-31 2019-11-12 华为技术有限公司 参考帧编解码的方法与装置
US10645414B2 (en) 2015-11-11 2020-05-05 Samsung Electronics Co., Ltd. Method for encoding/decoding image, and device therefor
WO2017086738A1 (ko) * 2015-11-19 2017-05-26 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
KR20170058838A (ko) * 2015-11-19 2017-05-29 한국전자통신연구원 화면간 예측 향상을 위한 부호화/복호화 방법 및 장치
MY194555A (en) 2016-09-30 2022-12-01 Huawei Tech Co Ltd Method and Apparatus for Image Coding and Decoding Through Inter Prediction
US10631002B2 (en) 2016-09-30 2020-04-21 Qualcomm Incorporated Frame rate up-conversion coding mode
WO2018120290A1 (zh) * 2016-12-26 2018-07-05 华为技术有限公司 一种基于模板匹配的预测方法及装置
CN116170584A (zh) * 2017-01-16 2023-05-26 世宗大学校产学协力团 影像编码/解码方法
US10701390B2 (en) * 2017-03-14 2020-06-30 Qualcomm Incorporated Affine motion information derivation
US10643084B2 (en) * 2017-04-18 2020-05-05 nuTonomy Inc. Automatically perceiving travel signals
US10650256B2 (en) * 2017-04-18 2020-05-12 nuTonomy Inc. Automatically perceiving travel signals
WO2019151093A1 (en) * 2018-01-30 2019-08-08 Sharp Kabushiki Kaisha Systems and methods for performing motion vector prediction for video coding using motion vector predictor origins
CN110121073B (zh) * 2018-02-06 2021-07-09 浙江大学 一种双向帧间预测方法及装置
CN110248188A (zh) * 2018-03-07 2019-09-17 华为技术有限公司 预测运动矢量生成方法以及相关设备
WO2019183906A1 (zh) 2018-03-29 2019-10-03 华为技术有限公司 帧间预测的方法和装置
CN110351565B (zh) * 2018-04-02 2021-08-03 浙江大学 一种参考区域运动矢量导出方法及装置
WO2020007291A1 (en) * 2018-07-02 2020-01-09 Huawei Technologies Co., Ltd. A video encoder, a video decoder and corresponding methods
US11956460B2 (en) 2018-08-31 2024-04-09 Hulu, LLC Selective template matching in video coding
CN108989817A (zh) * 2018-09-03 2018-12-11 西安交通大学 一种基于参考帧错位预测的雷达数据压缩方法
CN110944209B (zh) * 2018-09-21 2022-03-04 华为技术有限公司 运动矢量的确定方法和装置
CN114727114B (zh) 2018-09-21 2024-04-09 华为技术有限公司 运动矢量的确定方法和装置
CN111263152B (zh) 2018-11-30 2021-06-01 华为技术有限公司 视频序列的图像编解码方法和装置
US11237042B2 (en) * 2019-01-14 2022-02-01 Computational Systems, Inc. Waveform data thinning
GB2589247B (en) 2019-01-29 2023-07-05 Motional Ad Llc Traffic light estimation
CN110636334B (zh) * 2019-08-23 2022-12-09 西安万像电子科技有限公司 数据传输方法及系统
CN113706573B (zh) * 2020-05-08 2024-06-11 杭州海康威视数字技术股份有限公司 一种运动物体的检测方法、装置及存储介质
CN113382249B (zh) * 2021-04-21 2022-09-06 浙江大华技术股份有限公司 图像/视频编码方法、装置、系统及计算机可读存储介质
CN117501694A (zh) * 2021-06-17 2024-02-02 北京达佳互联信息技术有限公司 用于视频编解码中的仿射运动补偿的具有双向匹配的运动细化

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060256866A1 (en) * 2005-05-13 2006-11-16 Streaming Networks (Pvt.) Ltd. Method and system for providing bi-directionally predicted video coding
KR20090012926A (ko) * 2007-07-31 2009-02-04 삼성전자주식회사 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2860678A1 (fr) * 2003-10-01 2005-04-08 Thomson Licensing Sa Procede de codage differentiel
CN100539693C (zh) * 2005-08-30 2009-09-09 深圳清华大学研究院 快速运动估计方法
US8009923B2 (en) * 2006-03-14 2011-08-30 Celestial Semiconductor, Inc. Method and system for motion estimation with multiple vector candidates
KR101383540B1 (ko) * 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
KR101228020B1 (ko) * 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
CN101227614B (zh) * 2008-01-22 2010-09-08 炬力集成电路设计有限公司 视频编码系统的运动估计装置及其方法
KR20090095012A (ko) * 2008-03-04 2009-09-09 삼성전자주식회사 연속적인 움직임 추정을 이용한 영상 부호화, 복호화 방법및 장치
CN101267556B (zh) * 2008-03-21 2011-06-22 海信集团有限公司 快速运动估计方法及视频编解码方法
KR101691199B1 (ko) * 2008-04-11 2016-12-30 톰슨 라이센싱 비디오 부호화 및 복호화에서의 템플릿 매칭 예측을 위한 방법 및 장치
EP2321970A1 (en) * 2008-09-04 2011-05-18 Thomson Licensing Methods and apparatus for prediction refinement using implicit motion prediction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060256866A1 (en) * 2005-05-13 2006-11-16 Streaming Networks (Pvt.) Ltd. Method and system for providing bi-directionally predicted video coding
KR20090012926A (ko) * 2007-07-31 2009-02-04 삼성전자주식회사 가중치 예측을 이용한 영상 부호화, 복호화 방법 및 장치

Also Published As

Publication number Publication date
FI3767951T3 (fi) 2024-07-01
CN102883160A (zh) 2013-01-16
EP4401404A2 (en) 2024-07-17
US9432692B2 (en) 2016-08-30
US20120106645A1 (en) 2012-05-03
DK3767951T3 (da) 2024-07-01
EP4401404A3 (en) 2024-07-24
BRPI1012992A2 (pt) 2018-01-16
EP2448266A1 (en) 2012-05-02
PT3767951T (pt) 2024-06-28
CN101931803B (zh) 2013-01-09
CN102883160B (zh) 2016-06-29
EP3767951A1 (en) 2021-01-20
AU2010265451B2 (en) 2014-06-19
EP2448266A4 (en) 2013-04-03
EP3767951B1 (en) 2024-04-24
HUE066881T2 (hu) 2024-09-28
CN101931803A (zh) 2010-12-29
EP2448266B1 (en) 2020-03-25
KR20120026092A (ko) 2012-03-16
WO2010148919A1 (zh) 2010-12-29
PL3767951T3 (pl) 2024-08-19
BRPI1012992B1 (pt) 2021-08-17
AU2010265451A1 (en) 2012-01-19

Similar Documents

Publication Publication Date Title
KR101443169B1 (ko) 비디오 이미지의 움직임 정보를 취득하는 방법, 장치, 및 기기, 그리고 템플릿 구성 방법
JP7358436B2 (ja) マルチリファレンス予測のための動きベクトルの精密化
US10051282B2 (en) Method for obtaining motion information with motion vector differences
JP2020523817A (ja) 動きベクトル予測方法およびデバイス
JP5821542B2 (ja) 動画像符号化装置、および動画像復号装置
CN110710212B (zh) 通过子像素运动矢量细化对视频数据进行编码或解码的方法和装置
CN102215387B (zh) 视频图像处理方法以及编/解码器
JP5895469B2 (ja) 動画像符号化装置、および動画像復号装置
CN112292861B (zh) 用于解码端运动矢量修正的基于误差面的子像素精确修正方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20131128

Effective date: 20140723

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170823

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180904

Year of fee payment: 5