KR20130029069A - 움직임 예측 방법 및 비디오 인코딩 방법 - Google Patents

움직임 예측 방법 및 비디오 인코딩 방법 Download PDF

Info

Publication number
KR20130029069A
KR20130029069A KR1020127028178A KR20127028178A KR20130029069A KR 20130029069 A KR20130029069 A KR 20130029069A KR 1020127028178 A KR1020127028178 A KR 1020127028178A KR 20127028178 A KR20127028178 A KR 20127028178A KR 20130029069 A KR20130029069 A KR 20130029069A
Authority
KR
South Korea
Prior art keywords
frame
motion vector
vector predictor
candidate set
inter
Prior art date
Application number
KR1020127028178A
Other languages
English (en)
Other versions
KR101482514B1 (ko
Inventor
유파오 차이
치밍 푸
지안리앙 린
유웬 황
쇼민 레이
Original Assignee
미디어텍 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/962,411 external-priority patent/US9008182B2/en
Application filed by 미디어텍 인크. filed Critical 미디어텍 인크.
Publication of KR20130029069A publication Critical patent/KR20130029069A/ko
Application granted granted Critical
Publication of KR101482514B1 publication Critical patent/KR101482514B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 움직임 예측 방법을 제공한다. 먼저, 현재 프레임의 현재 단위의 움직임 예측을 위한 후보 세트에 포함될 복수의 움직임 벡터 예측자가 획득된다. 현재 프레임이 움직임 예측을 위해 다른 프레임에 의해 참조되지 않는 비참조 프레임인지가 이어서 결정된다. 현재 프레임이 비참조 프레임이 아닐 때, 이전에 코딩된 프레임에 대응하는 임의의 움직임 벡터 예측자가 후보 세트로부터 제거되고, 현재 단위의 움직임 벡터가 후보 세트의 움직임 벡터 예측자에 따라 예측된다.

Description

움직임 예측 방법 및 비디오 인코딩 방법{MOTION PREDICTION METHOD AND VIDEO ENCODING METHOD}
관련 출원의 상호 참조
이 출원은 2010년 4월 22일자로 출원된 미국 가특허 출원 제61/326,731호, 및 2010년 12월 7일자로 출원된 미국 출원 제12/962,411호(그 전체 내용이 참조 문헌으로서 본 명세서에 포함됨)를 기초로 우선권을 주장한다.
본 발명은 비디오 처리에 관한 것이며, 보다 상세하게는 비디오 데이터의 움직임 예측 및 인코딩에 관한 것이다.
새로 등장하는 H.264 압축 표준은 서브픽셀 정확도 및 다중-참조 등의 특징을 채택함으로써 이전의 표준보다 실질적으로 더 낮은 비트 레이트에서 양호한 비디오 품질을 제공할 수 있다. 비디오 압축 프로세스는 일반적으로 인터-예측/인트라-예측, 변환/역변환, 양자화/역양자화, 루프 필터 및 엔트로피 인코딩을 포함하는 5 부분으로 나누어질 수 있다. H.264는 블루-레이 디스크, DVB 방송 서비스, 직접-방송 위성 텔레비전 서비스, 케이블 텔레비전 서비스, 및 실시간 화상 회의 등의 다양한 응용에서 사용된다.
비디오 데이터 스트림은 복수의 프레임을 포함하고, 각각의 프레임은 비디오 인코더에 의해 각자 처리되는 복수의 코딩 단위(예컨대, 매크로블록 또는 확장된 매크로블록)로 나누어진다. 각각의 코딩 단위는 쿼드-트리 파티션(quad-tree partition)으로 세그먼트화될 수 있고, 리프 코딩 단위(leaf coding unit)는 예측 단위(prediction unit)라고 한다. 예측 단위는 쿼드-트리 파티션으로 추가로 세그먼트화될 수 있고, 각각의 파티션은 움직임 파라미터를 할당받는다. 엄청난 양의 움직임 파라미터를 전송하는 비용을 감소시키기 위해, 인접한 코딩된 블록을 참조함으로써 각각의 파티션에 대한 움직임 파라미터 예측자(MVP)가 계산되고, 따라서 인접 블록의 움직임이 높은 공간 상관을 가지는 경향이 있기 때문에 코딩 효율이 향상될 수 있다. 도 1을 참조하면, 개략도는 현재 단위(112)의 인접 블록을 나타내고 이다. 현재 프레임(102)은 현재 단위(112) 및 현재 단위(112)에 이웃하는 복수의 후보 단위 A, B, C 및 D를 포함하고 있다. 후보 단위 A는 현재 단위(112)의 좌측에 있고, 후보 단위 B는 현재 단위(112)의 위쪽에 있으며, 후보 단위 C는 현재 단위(112)의 우측 상부 방향으로 있고, 후보 단위 A는 현재 단위(112)의 좌측 상부 방향으로 있다. 일반적으로, 현재 단위(112)의 MVP는 후보 단위 A, B 및 C의 움직임 벡터를 비교하고 중간 움직임 벡터를 현재 단위(112)의 MVP로 선택함으로써 결정된다. 후보 단위 C가 존재하지 않을 때, 중간 움직임 벡터를 선택하기 위해 후보 단위 A, B 및 D의 움직임 벡터가 서로 비교되고, 중간 움직임 벡터가 현재 단위(112)의 MVP로 결정된다.
상기 움직임 벡터 예측 방법을 약간 수정하여, 움직임 예측을 위해 움직임 벡터 경쟁(motion vector competition, MVC)이 또한 제공된다. MVC에 따라, 움직임 예측의 정확도를 향상시키기 위해 더 많은 움직임 벡터가 현재 단위의 움직임 예측을 위한 후보 세트에 포함된다. 예를 들어, 후보 세트는 현재 단위(112)의 인접 블록의 움직임 벡터는 물론, 현재 프레임(102)에서의 현재 단위(112)의 위치와 참조 프레임(104)에서의 동일한 위치를 갖는 병치된 단위(collocated unit)(114)의 움직임 벡터도 포함할 수 있다. 후보 세트로부터 현재 단위에 대한 최종 움직임 벡터 예측자를 선택하기 위해 레이트-왜곡 최적화(rate-distortion optimization, RDO)가 사용된다. 현재 단위의 움직임 벡터는 최종 움직임 벡터 예측자에 따라 예측된다. 후보 세트로부터 선택된 최종 움직임 벡터 예측자의 인덱스가 현재 단위에 대해 어느 움직임 벡터 예측자가 선택되는지를 비디오 디코더에 신호하기 위한 예측 정보로서 송신된다.
도 2를 참조하면, 움직임 예측 방법(200)의 플로우차트가 도시되어 있다. 먼저, 후보 세트에 포함할 현재 단위에 대응하는 복수의 후보 단위의 움직임 벡터가 획득된다(단계 202). 후보 세트 내의 움직임 벡터가 이어서 서로 비교된다. 움직임 벡터가 서로 같지 않을 때(단계 204), 후보 세트로부터 움직임 벡터 예측자가 선택되고(단계 206), 현재 단위의 움직임 벡터가 움직임 벡터 예측자에 따라 예측된다(단계 208). 마지막으로, 선택된 움직임 벡터 예측자에 관한 예측 정보가 발생되고, 이어서 비트스트림으로 송신된다(단계 210). 후보 세트 내의 움직임 벡터가 서로 같을 때(단계 204), 현재 단위의 움직임 벡터가 후보 세트 내의 임의의 움직임 벡터에 따라 예측되고(단계 212), 움직임 벡터 예측자에 관한 어떤 예측 정보도 발생되어 비트스트림으로 송신되지 않는다.
부정확한 디코딩으로 인해 비트스트림을 디코딩함에 있어서의 파싱 오류가 일어날 수 있다. 비디오 디코딩 동안 구문 파싱에서 파싱 오류가 발생하였을 때, 그 다음 동기화 심볼이 검출될 때까지 모든 결과 비디오 처리가 실패할 것이다. 인터-프레임 엔트로피 코딩이 허용되는 경우, 파싱 오류가 전파될 수 있고, 인터-프레임 엔트로피 코딩의 일례는, 코딩 이득 향상을 달성하기 위해, 이전 프레임의 움직임 벡터를 현재 프레임의 움직임 벡터 예측자로서 사용한다. 프레임을 재초기화하는 데 사용되는 프레임 시작 코드 등의 동기화 심볼은 파싱 오류 전파를 중단시키지 않을 수 있다. 상기한 움직임 벡터 경쟁 방법은 또한 파싱 오류 전파를 감소시킬 수 있다. 도 2의 움직임 벡터 경쟁 방법(200)에 따르면, 후보 세트 내의 움직임 벡터가 서로 같을 때, 움직임 벡터 예측자를 신호하는 예측 정보가 비트스트림으로 송신되지 않는다. 움직임 벡터 예측자에 관한 예측 정보가 생략되어 있을 때, 비디오 디코더로 송신되는 코딩된 비디오 스트림의 데이터 양이 감소된다. 비디오 디코더가 예측 정보의 의도된 생략을 검출하지 못하고 코딩된 비디오 데이터스트림의 후속 세그먼트를 예측 정보로 착각하는 경우, 코딩된 비디오 데이터스트림에서의 후속 데이터가 잘못 디코딩될 것이고, 이 파싱 오류가 전파될 것이다.
이전 프레임의 디코딩에서의 파싱 오류는 복수의 후속 프레임의 디코딩에서의 파싱 오류를 야기할 수 있고, 이는 파싱 오류 전파라고 한다. 제1 후속 프레임이 이전 프레임을 참조 프레임으로서 취할 때, 제1 후속 프레임의 인코딩은 이전 프레임의 코딩된 정보를 사용한다. 이전 프레임을 디코딩함에 있어서 파싱 오류가 발생할 때, 제1 후속 프레임의 디코딩이 이전 프레임의 디코딩된 정보를 필요로 하기 때문에, 파싱 오류가 제1 후속 프레임의 디코딩으로 전파한다. 제2 후속 프레임이 제1 후속 프레임을 참조 프레임으로서 취할 때, 파싱 오류가 또한 제2 후속 프레임의 디코딩으로 전파한다. 따라서, 파싱 오류 전파가 비디오 데이터스트림의 디코딩에 심각한 영향을 줄 것이다.
본 발명은 움직임 예측 방법을 제공한다. 먼저, 현재 프레임의 현재 단위의 움직임 예측을 위한 후보 세트에 포함될 복수의 움직임 벡터 예측자가 획득된다. 현재 프레임이 움직임 예측을 위해 다른 프레임에 의해 참조되지 않는 비참조 프레임인지가 이어서 결정된다. 현재 프레임이 비참조 프레임이 아닐 때, 이전에 코딩된 프레임에 대응하는 임의의 움직임 벡터 예측자가 후보 세트로부터 제거되고, 현재 단위의 움직임 벡터가 조정된 후보 세트의 움직임 벡터 예측자에 따라 예측된다.
본 발명은 움직임 예측 방법을 제공한다. 먼저, 현재 프레임의 현재 단위의 움직임 예측을 위한 후보 세트에 포함될 복수의 움직임 벡터 예측자가 획득된다. 후보 세트의 움직임 벡터 예측자가 이어서 서로 비교된다. 후보 세트의 움직임 벡터 예측자가 서로 같을 때, 적어도 하나의 백업 움직임 벡터가 선택된다. 백업 움직임 벡터 예측자가 이어서 후보 세트에 부가된다. 현재 단위의 움직임 벡터가 이어서 조정된 후보 세트의 움직임 벡터 예측자에 따라 예측된다.
본 발명은 또한 비디오 인코딩 방법을 제공한다. 먼저, 비디오 데이터스트림의 세그먼트에서 인터-프레임 엔트로피 코딩(즉, 이전의 코딩된 프레임으로부터 도출되는 움직임 벡터가 움직임 예측을 위한 후보 세트에 포함될 수 있음)이 허용되는지를 나타내기 위해 제어 플래그가 발생된다. 제어 플래그가 인터-프레임 엔트로피 코딩이 허용되지 않는다는 것을 나타낼 때, 비디오 데이터스트림의 세그먼트를 인코딩하기 위한 인터-프레임 엔트로피 코딩이 비활성화된다. 제어 플래그가 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타낼 때, 비디오 데이터스트림의 세그먼트를 인코딩하기 위한 인터-프레임 엔트로피 코딩이 활성화된다.
본 발명은 또한 비디오 코딩 방법을 제공한다. 먼저, 일련의 목표 프레임이 비디오 데이터스트림의 세그먼트의 일련의 프레임 사이에 삽입된다. 비디오 데이터스트림의 세그먼트는 이어서 비트스트림으로 인코딩되고, 목표 프레임은 인터-프레임 엔트로피 코딩에 따라 인코딩되지 않고 코딩 순서에서의 각각의 목표 프레임의 후속 프레임은 코딩 순서에서 목표 프레임의 이전 프레임을 참조하지 않는다.
상세한 설명이 첨부 도면을 참조하여 이하의 실시예에 주어져 있다.
본 발명은 첨부 도면을 참조하여 이하의 상세한 설명 및 일례를 살펴보면 보다 완전히 이해될 수 있다.
도 1은 현재 단위의 움직임 예측을 위한 후보 단위의 개략도.
도 2는 움직임 벡터 경쟁 방법을 나타낸 플로우차트.
도 3은 예시적인 비디오 인코더의 블록도.
도 4는 본 발명의 실시예에 따른 파싱 오류 전파를 방지할 수 있는 움직임 예측 방법의 플로우차트.
도 5는 본 발명의 실시예에 따른 파싱 오류 전파를 방지할 수 있는 움직임 예측 방법의 플로우차트.
도 6은 본 발명의 실시예에 따른 파싱 오류 전파를 방지할 수 있는 비디오 인코딩 방법의 플로우차트.
도 7은 본 발명의 실시예에 따른 파싱 오류 전파를 방지할 수 있는 비디오 인코딩 방법의 플로우차트.
도 8a 및 도 8b는 본 발명의 실시예에 따른 파싱 오류 전파를 제어할 수 있는 움직임 예측 방법의 플로우차트.
도 9a 및 도 9b는 본 발명의 실시예에 따른 파싱 오류 전파를 제어할 수 있는 움직임 예측 방법의 플로우차트.
이하의 설명은 본 발명을 수행하는 최상의 모드이다. 이 설명은 본 발명의 일반 원리를 예시하기 위한 것이며, 제한하는 의미로 보아서는 안된다. 본 발명의 범위는 첨부된 특허청구범위를 참조하여 결정하는 것이 최상이다.
도 3을 참조하면, 예시적인 비디오 인코더(300)의 블록도가 도시되어 있다. 일 실시예에서, 비디오 인코더(300)는 움직임 예측 모듈(302), 차감 모듈(304), 변환 모듈(306), 양자화 모듈(308), 및 엔트로피 코딩 모듈(310)을 포함하고 있다. 비디오 인코더(300)는 비디오 입력을 수신하고, 출력으로서 비트스트림을 발생한다. 움직임 예측 모듈(302)은 비디오 입력에 대해 움직임 예측을 수행하여 예측된 샘플 및 예측 정보를 발생한다. 차감 모듈(304)은 이어서 예측된 샘플을 비디오 입력으로부터 차감하여 잔차를 획득하고, 그로써 비디오 입력의 비디오 데이터로부터 잔차의 비디오 데이터로 비디오 데이터를 감소시킨다. 잔차는 이어서 변환 모듈(306) 및 양자화 모듈(308)로 순차적으로 송신된다. 변환 모듈(306)은 잔차에 대해 이산 코사인 변환(DCT)을 수행하여 변환된 잔차를 획득한다. 양자화 모듈(308)은 이어서 변환된 잔차를 양자화하여 양자화된 잔차를 획득한다. 엔트로피 코딩 모듈(310)은 이어서 양자화된 잔차 및 예측 정보에 대해 엔트로피 코딩을 수행하여 비디오 출력으로서 비트스트림을 획득한다.
도 4를 참조하면, 본 발명의 실시예에 따른 파싱 오류 전파를 방지할 수 있는 움직임 예측 방법(400)의 플로우차트가 도시되어 있다. 움직임 예측 모듈(302)이 비디오 입력 데이터스트림의 현재 프레임의 현재 단위를 수신하는 것으로 가정한다. 현재 단위의 움직임 예측을 위한 움직임 벡터 예측자가 결정된다(단계 402). 움직임 벡터 예측자가 현재 프레임(공간 방향) 또는 이전에 코딩된 프레임(시간 방향)에 위치하는 단위로부터 도출될 수 있다. 움직임 벡터 예측자가 고정된 결정 규칙에 의해 결정될 수 있거나, 적응적으로 선택될 수 있다. 예를 들어, 움직임 벡터 경쟁 방법은 레이트-왜곡 최적화(RDO)를 적용함으로써 소정의 후보 세트로부터 최종 움직임 벡터 예측자를 선택한다. 움직임 예측 모듈(302)은 현재 프레임이 움직임 예측을 위해 다른 프레임에 의해 참조되지 않는 비참조 프레임인지를 결정한다(단계 404). 일 실시예에서, 움직임 예측 모듈(302)은 현재 프레임의 프레임 유형을 검사한다. 현재 프레임의 프레임 유형이 비참조 B-프레임인 경우, 현재 프레임은 비참조 프레임인 것으로 결정된다.
현재 프레임이 비참조 프레임이 아닐 때(단계 404), 현재 프레임이 후속 프레임에 대한 참조 프레임이 될 수 있기 때문에, 현재 프레임의 디코딩에서의 파싱 오류가 후속 프레임의 디코딩에서의 파싱 오류를 유발할 수 있다. 파싱 오류 전파를 방지하기 위해, 현재 단위의 움직임 예측을 위한 움직임 벡터 예측자가 이전에 코딩된 프레임으로부터 도출될 수 있다(단계 406). 일 실시예에서, 현재 프레임 내에 있지 않은 병치된 단위에 대응하는 임의의 움직임 벡터 예측자가 움직임 벡터 경쟁을 위한 소정의 후보 세트에 포함되어 있지 않고, 환언하면, 현재 단위에 대한 최종 움직임 벡터 예측자가 현재 단위와 동일한 프레임 내의 단위에 대응하는 움직임 벡터 예측자만을 포함하는 소정의 후보 세트로부터 선택된다. 움직임 벡터 예측자는 이웃 단위의 움직임 벡터일 수 있거나 이웃 단위의 움직임 벡터들 중 하나 이상으로부터 도출될 수 있다. 따라서, 움직임 예측 모듈(302)이 움직임 벡터 예측자에 따라 현재 단위의 움직임 벡터를 예측할 때, 참조 프레임에서 발생된 파싱 오류가 현재 프레임의 현재 단위의 디코딩에서 파싱 오류를 유발하지 않는다.
움직임 예측 모듈(302)은 이어서 움직임 벡터 예측자에 따라 현재 단위의 움직임 벡터를 예측한다. 비참조 프레임 내의 코딩 단위에 대해 인터-프레임 엔트로피 코딩만이 허용된다. 적응적 파싱 오류 제어의 일례에서, 인터-프레임 엔트로피 코딩의 활성화를 제어하기 위해 프레임 레벨 구문이 사용된다. 비참조 프레임을 처리하는 경우에, 인코딩 또는 디코딩에서 인터-프레임 엔트로피 코딩이 사용될 수 있고, 그렇지 않은 경우, 파싱 오류 전파를 방지하기 위해 인터-프레임 엔트로피 코딩이 꺼진다.
어떤 다른 실시예에서, 적응적 파싱 오류 제어 방법은 시퀀스 레벨 구문에 따라 인터-프레임 엔트로피 코딩을 활성화 또는 비활성화한다. 예를 들어, 오류 없는 환경에서 비디오 데이터를 인코딩할 때 인코더는 인터-프레임 엔트로피 코딩을 활성화하는 반면, 손실있는 환경에서 비디오 데이터를 인코딩할 때 인코더는 인터-프레임 엔트로피 코딩을 비활성화한다. 디코더는 시퀀스 레벨 구문에 따라 비트스트림을 디코딩하고, 인터-프레임 엔트로피 코딩을 적응적으로 활성화 또는 비활성화한다. 다른 실시예의 적응적 파싱 오류 제어 방법은 프레임 레벨 구문에 따라 인터-프레임 엔트로피 코딩을 활성화 또는 비활성화한다. 비참조 프레임을 처리할 때에만 인터-프레임 엔트로피 코딩을 활성화하는 상기 실시예는 프레임 레벨 구문에 기초한 적응적 파싱 오류 제어의 한 일례이다.
움직임 벡터 경쟁의 일 실시예에서, 후보 세트 내의 움직임 벡터 예측자가 획득된다. 후보 세트 내의 움직임 벡터 예측자가 이어서 서로 비교된다(단계 408). 후보 세트의 움직임 벡터 예측자가 서로 같지 않을 때(단계 410), 후보 세트로부터 최종 움직임 벡터 예측자가 선택되고(단계 412), 현재 단위의 움직임 벡터가 최종 움직임 벡터 예측자에 따라 예측된다(단계 414). 마지막으로, 최종 움직임 벡터 예측자에 관한 예측 정보가 발생되고 대응하는 비디오 디코더에 신호하기 위해 비트스트림에 삽입된다(단계 416). 후보 세트 내의 움직임 벡터 예측자가 서로 같을 때(단계 410), 현재 단위의 움직임 벡터가 후보 세트의 임의의 움직임 벡터 예측자에 따라 예측되고(단계 418), 비디오 디코더에 신호하기 위한 움직임 벡터 예측자에 관한 어떤 예측 정보도 발생되지 않는다.
도 5를 참조하면, 본 발명의 실시예에 따른 파싱 오류 전파를 방지할 수 있는 움직임 예측 방법(500)의 플로우차트가 도시되어 있다. 움직임 예측 모듈(302)이 비디오 입력 데이터스트림으로부터 현재 프레임의 현재 단위를 수신하고 현재 단위의 움직임 벡터가 움직임 벡터 경쟁에 의해 결정되는 최종 움직임 벡터 예측자에 의해 예측되는 것으로 가정한다. 일 실시예에서, 후보 세트를 선택하는 규칙이 비디오 입력 데이터스트림의 시퀀스 레벨에서 결정되고, 최종 움직임 벡터 예측자가 레이트-왜곡 최적화(RDO)에 따라 각각의 후보 세트로부터 선택된다. 그에 부가하여, 현재 단위의 움직임 예측을 위한 하나 이상의 백업 움직임 벡터 예측자를 선택하도록 규칙이 설정된다. 먼저, 움직임 예측 모듈(302)은 현재 단위에 대응하는 후보 세트 내의 움직임 벡터 예측자를 획득한다(단계 502). 움직임 예측 모듈(302)은 이어서 후보 세트 내의 움직임 벡터 예측자를 비교하고, 후보 세트 내의 움직임 벡터 예측자가 서로 같은지를 결정한다(단계 504).
후보 세트 내의 움직임 벡터 예측자가 서로 같은 경우, 움직임 예측 모듈(302)에 현재 단위의 움직임 예측을 위한 더 많은 후보를 제공하기 위해 후보 세트 내의 움직임 벡터 예측자의 수가 증가될 수 있다. 움직임 예측 모듈(302)은 따라서 후보 세트에 포함될 하나 이상의 백업 움직임 벡터 예측자를 선택하고(단계 506), 후보 세트로부터 최종 움직임 벡터 예측자를 선택한다(단계 508). 움직임 예측 모듈(302)은 후보 세트에 한번에 2개 이상의 백업 움직임 벡터 예측자를 부가할 수 있거나, 한번에 하나씩 백업 움직임 벡터 예측자를 부가할 수 있다. 일 실시예에서, 백업 움직임 벡터 예측자가 소정의 순서에 따라 선택된다. 다른 실시예에서, 백업 움직임 벡터 예측자가 적응적으로 결정된 순서에 따라 선택된다. 예를 들어, 후보 세트 내의 움직임 벡터 예측자가 모두 동일한 경우, 움직임 예측 모듈(302)은 후보 세트 내의 제1 백업 움직임 벡터 예측자를 선택하고, 후보 세트 내의 움직임 벡터 예측자를 비교한다. 후보 세트 내의 다른 움직임 벡터 예측자로부터 제1 백업 움직임 벡터 예측자가 여전히 동일한 경우, 움직임 예측 모듈(302)은 제2 백업 움직임 벡터 예측자를 후보 세트에 부가한다. 후보 세트가 적어도 2개의 상이한 움직임 벡터 예측자를 포함하면, 움직임 예측 모듈(302)은 백업 움직임 벡터 예측자 부가 프로세스를 중단한다. 이 경우에, 인코더는 현재 단위에 대한 예측 정보로서 후보 세트로부터 선택된 최종 움직임 벡터 예측자의 인덱스를 발생해야만 한다(단계 512). 후보 세트 내의 모든 움직임 벡터 예측자가 동일할 때 이러한 인덱스를 때때로 송신하지 않는 것으로 인해 야기되는 파싱 오류 전파 문제가 방지될 수 있다.
움직임 예측 모듈(302)은 이어서 움직임 벡터 예측자에 따라 현재 단위의 움직임 벡터를 예측한다(단계 510). 마지막으로, 움직임 예측 모듈(302)은 후보 세트 내의 움직임 벡터 예측자 중 어느 것이 선택되는지를 나타내는 예측 정보를 발생하고, 예측 정보가 이어서 엔트로피 코딩 모듈(310)에 의해 인코딩된다(단계 512). 움직임 벡터 경쟁을 구현하는 도 2에 도시된 종래의 움직임 예측 방법(200)과 비교하여, 도 5에 도시된 방법(500)에 따른 움직임 예측 모듈(302)은 원래의 후보 세트의 움직임 벡터 예측자가 서로 동일하든 그렇지 않든 간에 예측 정보를 항상 발생하고, 따라서 예측 정보의 생략으로 인한 비디오 디코더에서의 파싱 오류 전파의 가능성을 저하시킨다.
인터-프레임 엔트로피 코딩에서의 오류 전파 문제를 방지하기 위해, 적응적 파싱 오류 제어를 갖는 비디오 인코딩 방법이 제공된다. 도 6을 참조하면, 본 발명의 실시예에 따른 파싱 오류 전파를 방지할 수 있는 비디오 인코딩 방법(600)의 플로우차트가 도시되어 있다. 먼저, 비디오 데이터스트림의 세그먼트에서 파싱 오류가 허용되는지 여부가 결정되고, 제어 플래그가 발생된다(단계 602). 일 실시예에서, 세그먼트가 비디오 시퀀스이고, 전체 비디오 시퀀스에 대해 제어 플래그가 발생된다. 다른 실시예에서, 세그먼트가 비디오 데이터스트림의 프레임이고, 프레임에 대해 제어 플래그가 발생된다. 일 실시예에서, 세그먼트의 오류율이 추정된다. 오류율이 임계값보다 클 때, 파싱 오류 전파를 방지하기 위해 세그먼트에 대해 인터-프레임 코딩이 허용되지 않는다는 것을 나타내기 위해 제어 플래그가 발생된다. 오류율이 임계값보다 작을 때, 세그먼트에 대해 인터-프레임 코딩이 허용된다는 것을 나타내기 위해 제어 플래그가 발생된다. 세그먼트의 제어 플래그가 인터-프레임 코딩이 허용된다는 것을 나타낼 때(단계 604), 인터-프레임 엔트로피 코딩이 활성화되고(단계 608), 엔트로피 코딩 모듈(310)은 세그먼트의 데이터를 인코딩하기 위해 인터-프레임 엔트로피 코딩을 사용할 수 있고, 그로써 코딩 효율을 향상시킨다. 세그먼트의 제어 플래그가 인터-프레임 코딩이 허용되지 않는다는 것을 나타낼 때(단계 604), 인터-프레임 엔트로피 코딩이 비활성화되고(단계 606), 엔트로피 코딩 모듈(310)은 세그먼트의 데이터를 인코딩하기 위해 인터-프레임 엔트로피 코딩을 사용하고, 그로써 파싱 오류 전파를 방지한다.
도 7을 참조하면, 본 발명의 실시예에 따른 파싱 오류 전파를 방지할 수 있는 비디오 인코딩 방법(700)의 플로우차트가 도시되어 있다. 먼저, 비디오 데이터스트림의 세그먼트에서 파싱 오류가 허용되는지 여부가 결정되고, 제어 플래그가 발생된다(단계 702). 일 실시예에서, 세그먼트가 비디오 시퀀스이고, 전체 비디오 시퀀스에 대해 제어 플래그가 발생된다. 다른 실시예에서, 세그먼트가 비디오 데이터스트림의 프레임이고, 프레임에 대해 제어 플래그가 발생된다. 일 실시예에서, 세그먼트의 오류율이 추정된다. 오류율이 임계값보다 클 때, 파싱 오류 전파를 방지하기 위해 세그먼트에 대해 인터-프레임 엔트로피 코딩이 허용되지 않는다는 것을 나타내기 위해 제어 플래그가 발생된다. 오류율이 임계값보다 작을 때, 세그먼트에 대해 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타내기 위해 제어 플래그가 발생된다. 세그먼트의 제어 플래그가 세그먼트에 대해 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타낼 때(단계 704), 인터-프레임 엔트로피 코딩이 활성화되고(단계 708), 엔트로피 코딩 모듈(310)은 세그먼트의 데이터를 인코딩하기 위해 인터-프레임 엔트로피 코딩을 사용할 수 있다. 세그먼트의 제어 플래그가 인터-프레임 엔트로피 코딩이 허용되지 않는다는 것을 나타낼 때(단계 704), 세그먼트의 일련의 프레임 사이에 일련의 목표 프레임이 삽입되고, 목표 프레임이 인터-프레임 엔트로피 코딩에 따라 인코딩되지 않는다(단계 706). 일 실시예에서, 목표 프레임은 IDR(instantaneous decoder refresh) 프레임이다. IDR 프레임은 (코딩 순서에서의) 후속 프레임이 코딩 순서에서 IDR 프레임 이전의 임의의 프레임을 참조하는 것을 중단한다. 다른 실시예에서, 목표 프레임은 개방 GOP(Group of Picture)를 갖는 인트라 프레임이다. 다른 실시예에서, 목표 프레임은 인터-프레임 엔트로피 코딩이 없는 일반 인터-프레임이고, 즉 일반 인터-프레임은 이전에 코딩된 프레임에 대응하는 어떤 움직임 벡터 예측자도 사용하지 않는다. 예를 들어, 일반 인터-프레임은 P-프레임 또는 B-프레임이고, 그 P-프레임 및 B-프레임은 병치된 MV 등의 인터-프레임 정보를 움직임 벡터 예측자로서 사용할 수 없다. 파싱 오류 전파를 방지하기 위해 목표 프레임이 주기적으로 삽입될 수 있다. 일 실시예에서, 목표 프레임을 삽입하는 간격이 시퀀스 레벨 또는 GOP(group of pictures) 레벨에서 결정될 수 있다. 목표 프레임이 인터-프레임 엔트로피 코딩에 따라 인코딩되지 않고, 목표 프레임의 후속 프레임이 목표 프레임 이전의 어떤 프레임도 참조할 수 없으며, 세그먼트의 프레임에서 발생된 파싱 오류가 목표 프레임 및 목표 프레임의 후속 프레임으로 전파하지 않고, 그로써 가능한 파싱 오류 전파를 종료시킨다.
비디오 데이터스트림의 세그먼트를 처리함에 있어서 파싱 오류가 전파하는지를 스위칭하는 제어 플래그가 또한 도 4에 도시된 움직임 예측 방법(400)과 결합될 수 있다. 도 8a 및 도 8b를 참조하면, 본 발명에 따른 파싱 오류 전파를 제어할 수 있는 움직임 예측 방법(800)의 실시예의 플로우차트가 도시되어 있다. 방법(800)의 단계(802, 804, 806, 808, 810, 812, 814, 816, 818)는 방법(400)의 대응하는 단계(402, 404, 406, 408, 410, 412, 414, 416, 418)와 동일하다. 움직임 예측 모듈(302)이 비디오 입력 데이터스트림의 세그먼트를 수신하는 것으로 가정한다. 제1 단계(801)에서, 세그먼트에서 인터-프레임 엔트로피 코딩이 허용되는지에 따라 비디오 데이터스트림의 세그먼트에 대한 제어 플래그가 결정된다(단계 801). 제어 플래그가 세그먼트에서 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타낼 때(단계 803), 움직임 예측 모듈(302)은 세그먼트의 복수의 코딩 단위의 움직임 벡터를 예측하기 위해 단계(810 내지 818)를 수행하고, 단계(810 내지 818)는 종래의 방법(200)에서의 단계(204 내지 212)와 유사하다. 제어 플래그가 세그먼트에서 인터-프레임 엔트로피 코딩이 허용되지 않는다는 것을 나타낼 때, 움직임 예측 모듈(302)은 세그먼트의 복수의 코딩 단위의 움직임 벡터를 예측하기 위해 단계(802 내지 818)를 수행하고, 그로써 파싱 오류 전파를 방지하고, 여기서 단계(802 내지 818)는 도 4에 도시된 방법(400)에서의 단계(402 내지 418)와 동일하다.
이와 유사하게, 비디오 데이터스트림의 세그먼트를 처리함에 있어서 파싱 오류 전파가 허용되는지를 제어하는 제어 플래그가 또한 도 5에 도시된 움직임 예측 방법(500)과 결합될 수 있다. 도 9a 및 도 9b를 참조하면, 본 발명에 따른 파싱 오류 전파를 제어할 수 있는 움직임 예측 방법(900)의 실시예의 플로우차트가 도시되어 있다. 방법(900)의 단계(902, 904, 906, 908, 910, 912)는 방법(500)의 대응하는 단계(502, 504, 506, 508, 510, 512)와 동일하다. 움직임 예측 모듈(302)이 비디오 입력 데이터스트림의 세그먼트를 수신하는 것으로 가정한다. 제1 단계(901)에서, 세그먼트에서 인터-프레임 엔트로피 코딩이 허용되는지에 따라 세그먼트에 대한 제어 플래그가 결정된다(단계 901). 제어 플래그가 세그먼트에서 인터-프레임 엔트로피 코딩이 허용되지 않는다는 것을 나타낼 때, 움직임 예측 모듈(302)은 세그먼트의 복수의 코딩 단위의 움직임 벡터를 예측하기 위해 단계(902 내지 912)를 수행하고, 그로써 파싱 오류 전파를 방지하고, 여기서 단계(902 내지 912)는 도 5에 도시된 방법(500)에서의 단계(502 내지 512)와 동일하다. 제어 플래그가 세그먼트에서 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타낼 때(단계 903), 움직임 예측 모듈(302)은 세그먼트의 복수의 코딩 단위의 움직임 벡터를 예측하기 위해 단계(905, 907, 909 및 908 내지 912)를 수행하고, 여기서 단계(905, 907, 909 및 908 내지 918)는 종래의 방법(200)에서의 단계(202 내지 212)와 유사하다.
본 발명이 일례로서 바람직한 실시예와 관련하여 기술되어 있지만, 본 발명이 그것으로 제한되지 않는다는 것을 잘 알 것이다. 이와 달리, 본 발명이 (당업자에게 명백한 바와 같이) 다양한 수정 및 유사한 배열을 포함하는 것으로 보아야 한다. 따라서, 첨부된 특허청구범위의 범위가 모든 이러한 수정 및 유사한 배열을 포함하도록 최광의의 해석을 부여받아야 한다.

Claims (24)

  1. (a) 현재 프레임의 현재 단위의 움직임 예측을 위한 후보 세트에 포함될 복수의 움직임 벡터 예측자를 획득하는 단계;
    (b) 상기 현재 프레임이 움직임 예측을 위해 다른 프레임에 의해 참조되지 않는 비참조 프레임인지를 결정하는 단계;
    (c) 상기 현재 프레임이 상기 비참조 프레임이 아닐 때, 상기 후보 세트로부터 이전에 코딩된 프레임에 대응하는 임의의 움직임 벡터 예측자를 제거하는 단계; 및
    (d) 상기 후보 세트의 움직임 벡터 예측자에 따라 상기 현재 단위의 움직임 벡터를 예측하는 단계
    를 포함하는 움직임 예측 방법.
  2. 제1항에 있어서, 상기 현재 프레임이 비참조 프레임인지를 결정하는 단계는,
    상기 현재 프레임의 프레임 유형을 결정하는 단계;
    상기 프레임 유형이 I 프레임 또는 P 프레임일 때, 상기 현재 프레임이 비참조 프레임이 아닌 것으로 결정하는 단계; 및
    상기 프레임 유형이 B 프레임일 때, 상기 현재 프레임이 비참조 프레임이라고 결정하는 단계를 포함하는 것인 움직임 예측 방법.
  3. 제1항에 있어서, 상기 현재 프레임이 비참조 프레임인지를 결정하는 단계는,
    상기 현재 프레임의 프레임 유형을 결정하는 단계;
    상기 프레임 유형이 비참조 B 프레임일 때, 상기 현재 프레임이 비참조 프레임이라고 결정하는 단계를 포함하는 것인 움직임 예측 방법.
  4. 제1항에 있어서, 상기 후보 세트로부터 임의의 움직임 벡터 예측자를 제거하는 단계는,
    상기 후보 세트가 상기 현재 프레임에 있지 않은 단위에 대응하는 적어도 하나의 목표 움직임 벡터 예측자를 포함하는지를 결정하는 단계; 및
    상기 목표 움직임 벡터 예측자가 상기 후보 세트에 존재할 때, 상기 후보 세트로부터 상기 목표 움직임 벡터 예측자를 제거하는 단계를 포함하는 것인 움직임 예측 방법.
  5. 제1항에 있어서, 상기 움직임 벡터 예측자를 획득하는 단계는,
    상기 현재 프레임 또는 이전에 코딩된 프레임에 위치되는 단위들로부터 복수의 단위를 결정하는 단계;
    상기 단위들로부터 복수의 후보 단위를 선택하는 단계; 및
    상기 후보 단위의 움직임 벡터를 상기 후보 세트의 움직임 벡터 예측자로서 획득하는 단계를 포함하는 것인 움직임 예측 방법.
  6. 제5항에 있어서, 상기 후보 단위의 선택은 고정된 결정 규칙 또는 적응적 선택 규칙에 따르는 것인 움직임 예측 방법.
  7. 제1항에 있어서,
    비디오 데이터스트림의 세그먼트에 대해 인터-프레임 엔트로피 코딩이 허용되는지를 나타내기 위해 제어 플래그를 발생하는 단계;
    상기 제어 플래그가 인터-프레임 엔트로피 코딩이 허용되지 않는다는 것을 나타낼 때, 움직임 예측을 위해 상기 단계 (a), (b), (c), 및 (d)를 수행하는 단계; 및
    상기 제어 플래그가 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타낼 때, 상기 현재 프레임이 상기 비참조 프레임인지 여부에 상관없이 상기 후보 세트로부터 상기 움직임 벡터 예측자를 제거하지 않고, 상기 후보 세트의 상기 움직임 벡터 예측자에 따라 상기 현재 단위의 움직임 벡터를 예측하는 단계
    를 더 포함하는 움직임 예측 방법.
  8. (a) 현재 프레임의 현재 단위의 움직임 예측을 위한 후보 세트에 포함될 복수의 움직임 벡터 예측자를 획득하는 단계;
    (b) 상기 후보 세트의 상기 움직임 벡터 예측자를 서로 비교하는 단계;
    (c) 상기 후보 세트의 상기 움직임 벡터 예측자가 서로 같을 때, 적어도 하나의 백업 움직임 벡터 예측자를 선택하는 단계;
    (d) 상기 백업 움직임 벡터 예측자를 상기 후보 세트에 부가하는 단계; 및
    (e) 상기 후보 세트의 상기 움직임 벡터 예측자에 따라 상기 현재 단위의 움직임 벡터를 예측하는 단계
    를 포함하는 움직임 예측 방법.
  9. 제8항에 있어서, 상기 현재 단위의 움직임 벡터를 예측하는 단계는,
    상기 후보 세트의 상기 움직임 벡터 예측자로부터 최종 움직임 벡터 예측자를 선택하는 단계; 및
    상기 최종 움직임 벡터 예측자에 따라 상기 현재 단위의 움직임 벡터를 예측하는 단계를 포함하는 것인 움직임 예측 방법.
  10. 제9항에 있어서,
    상기 현재 단위에 대한 예측 정보로서 상기 최종 움직임 벡터 예측자의 인덱스를 발생하는 단계; 및
    예측 정보를 비트스트림으로 인코딩하는 단계
    를 더 포함하는 움직임 예측 방법.
  11. 제8항에 있어서, 상기 백업 움직임 벡터 예측자를 선택하는 단계는,
    복수의 소정의 움직임 벡터 예측자로부터 목표 움직임 벡터 예측자를 선택하는 단계;
    상기 목표 움직임 벡터 예측자를 상기 후보 세트의 상기 움직임 벡터 예측자와 비교하는 단계; 및
    상기 목표 움직임 벡터 예측자가 상기 후보 세트의 상기 움직임 벡터 예측자와 다를 때, 상기 목표 움직임 벡터 예측자를 상기 백업 움직임 벡터 예측자인 것으로 결정하는 단계; 및
    상기 목표 움직임 벡터 예측자가 상기 후보 세트의 상기 움직임 벡터 예측자와 같을 때, 상기 목표 움직임 벡터 예측자를 상기 백업 움직임 벡터 예측자인 것으로 결정하기 위해 상기 목표 움직임 벡터 예측자가 상기 후보 세트의 상기 움직임 벡터 예측자와 다를 때까지 상기 목표 움직임 벡터의 선택 및 상기 목표 움직임 벡터 예측자와 상기 후보 세트의 비교를 반복하는 단계를 포함하는 것인 움직임 예측 방법.
  12. 제8항에 있어서, 상기 움직임 벡터 예측자를 획득하는 단계는,
    상기 현재 프레임 또는 이전에 코딩된 프레임에 위치하는 단위들로부터 복수의 단위를 결정하는 단계;
    상기 단위들로부터 복수의 후보 단위를 선택하는 단계; 및
    상기 후보 단위의 움직임 벡터를 상기 후보 세트의 움직임 벡터 예측자로서 획득하는 단계를 포함하는 것인 움직임 예측 방법.
  13. 제12항에 있어서, 상기 후보 단위의 선택은 시퀀스 레벨에서 결정된 결정 규칙에 따르는 것인 움직임 예측 방법.
  14. 제8항에 있어서,
    비디오 데이터스트림의 세그먼트에서 인터-프레임 엔트로피 코딩이 허용되는지를 나타내기 위해 제어 플래그를 발생하는 단계;
    상기 제어 플래그가 인터-프레임 엔트로피 코딩이 허용되지 않는다는 것을 나타낼 때, 움직임 예측을 위해 상기 단계 (a), (b), (c), (d) 및 (e)를 수행하는 단계; 및
    상기 제어 플래그가 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타낼 때, 상기 후보 세트의 상기 움직임 벡터 예측자가 서로 같은지 여부에 상관없이 상기 후보 세트 내의 상기 움직임 벡터 예측자를 제거하지 않고, 상기 후보 세트의 상기 움직임 벡터 예측자에 따라 상기 현재 단위의 움직임 벡터를 예측하는 단계
    를 더 포함하는 움직임 예측 방법.
  15. 비디오 데이터스트림의 세그먼트에서 인터-프레임 엔트로피 코딩이 허용되는지를 나타내기 위해 제어 플래그를 발생하는 단계;
    상기 제어 플래그가 인터-프레임 엔트로피 코딩이 허용되지 않는다는 것을 나타낼 때, 상기 비디오 데이터스트림의 세그먼트를 인코딩하기 위한 인터-프레임 엔트로피 코딩을 비활성화하는 단계; 및
    상기 제어 플래그가 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타낼 때, 상기 비디오 데이터스트림의 세그먼트를 인코딩하기 위한 인터-프레임 엔트로피 코딩을 활성화하는 단계
    를 포함하는 비디오 인코딩 방법.
  16. 제15항에 있어서, 상기 제어 플래그를 발생하는 단계는,
    상기 세그먼트의 오류율을 추정하는 단계;
    상기 오류율이 임계값보다 클 때, 인터-프레임 엔트로피 코딩이 허용되어 있지 않다는 것을 나타내기 위해 상기 제어 플래그를 발생하는 단계; 및
    상기 오류율이 임계값보다 작을 때, 인터-프레임 엔트로피 코딩이 허용된다는 것을 나타내기 위해 상기 제어 플래그를 발생하는 단계를 포함하는 것인 비디오 인코딩 방법.
  17. 제15항에 있어서, 상기 세그먼트는 비디오 시퀀스 또는 프레임인 비디오 인코딩 방법.
  18. 일련의 목표 프레임을 비디오 데이터스트림의 세그먼트의 일련의 프레임 사이에 삽입하는 단계; 및
    상기 비디오 데이터스트림의 상기 세그먼트를 비트스트림으로 인코딩하는 단계
    를 포함하고,
    상기 목표 프레임이 인터-프레임 엔트로피 코딩에 따라 인코딩되지 않고 코딩 순서에서의 각각의 목표 프레임의 후속 프레임이 코딩 순서에서 상기 목표 프레임의 이전 프레임을 참조하지 않는 것인 비디오 코딩 방법.
  19. 제18항에 있어서,
    제어 플래그를 발생하는 단계
    를 더 포함하고, 상기 제어 플래그를 발생하는 단계는,
    상기 세그먼트의 오류율을 추정하는 단계; 및
    상기 오류율이 임계값보다 클 때, 상기 목표 프레임을 상기 세그먼트의 상기 일련의 프레임 사이에 삽입하기 위해 상기 제어 플래그를 발생하는 단계를 포함하는 것인 비디오 코딩 방법.
  20. 제18항에 있어서, 상기 목표 프레임은 IDR(instantaneous decoder refresh) 프레임인 비디오 코딩 방법.
  21. 제18항에 있어서, 상기 세그먼트는 비디오 시퀀스 또는 프레임인 비디오 코딩 방법.
  22. 제18항에 있어서, 상기 목표 프레임은 이전에 코딩된 프레임에 대응하는 임의의 움직임 벡터 예측자를 사용하는 것을 허용하지 않는 일반 인터-프레임인 비디오 코딩 방법.
  23. 제18항에 있어서, 상기 목표 프레임은 주기적으로 삽입될 수 있는 것인 비디오 코딩 방법.
  24. 제23항에 있어서, 상기 목표 프레임을 삽입하는 간격은 시퀀스 레벨 또는 GOP(group of pictures) 레벨에서 결정되는 것인 비디오 코딩 방법.
KR1020127028178A 2010-04-22 2011-04-08 움직임 예측 방법 및 비디오 인코딩 방법 KR101482514B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US32673110P 2010-04-22 2010-04-22
US61/326,731 2010-04-22
US12/962,411 US9008182B2 (en) 2010-01-18 2010-12-07 Motion prediction method and video encoding method
US12/962,411 2010-12-07
PCT/CN2011/072539 WO2011131091A1 (en) 2010-04-22 2011-04-08 Motion prediction method and video encoding method

Publications (2)

Publication Number Publication Date
KR20130029069A true KR20130029069A (ko) 2013-03-21
KR101482514B1 KR101482514B1 (ko) 2015-01-14

Family

ID=44833699

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020127030207A KR101772252B1 (ko) 2010-04-22 2011-04-07 모션 예측 방법
KR1020177022721A KR101865011B1 (ko) 2010-04-22 2011-04-07 모션 예측 방법
KR1020127028178A KR101482514B1 (ko) 2010-04-22 2011-04-08 움직임 예측 방법 및 비디오 인코딩 방법

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020127030207A KR101772252B1 (ko) 2010-04-22 2011-04-07 모션 예측 방법
KR1020177022721A KR101865011B1 (ko) 2010-04-22 2011-04-07 모션 예측 방법

Country Status (10)

Country Link
EP (4) EP2534841B1 (ko)
JP (3) JP5913283B2 (ko)
KR (3) KR101772252B1 (ko)
AU (1) AU2011242239B2 (ko)
BR (1) BR112012027033B1 (ko)
CA (1) CA2794378C (ko)
IL (1) IL222430A (ko)
MX (1) MX2012012246A (ko)
RU (2) RU2538284C2 (ko)
WO (2) WO2011131089A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456499B1 (ko) * 2010-07-09 2014-11-03 삼성전자주식회사 움직임 벡터의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9300970B2 (en) 2010-07-09 2016-03-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding motion vector
US20150326875A1 (en) * 2014-05-06 2015-11-12 Mediatek Inc. Video processing method for determining position of reference block of resized reference frame and related video processing apparatus
JP5750191B2 (ja) * 2014-10-15 2015-07-15 日立マクセル株式会社 画像復号化方法
JP5911982B2 (ja) * 2015-02-12 2016-04-27 日立マクセル株式会社 画像復号化方法
JP5951915B2 (ja) * 2016-03-30 2016-07-13 日立マクセル株式会社 画像復号化方法
JP5946980B1 (ja) * 2016-03-30 2016-07-06 日立マクセル株式会社 画像復号化方法
JP6181242B2 (ja) * 2016-06-08 2017-08-16 日立マクセル株式会社 画像復号化方法
US11212547B2 (en) 2017-09-19 2021-12-28 Samsung Electronics Co., Ltd. Method for encoding and decoding motion information, and apparatus for encoding and decoding motion information
HUE062990T2 (hu) 2019-03-12 2023-12-28 Lg Electronics Inc DMVR és BDOF alapú inter predikciós eljárás és készülék
WO2020197083A1 (ko) 2019-03-22 2020-10-01 엘지전자 주식회사 Dmvr 및 bdof 기반의 인터 예측 방법 및 장치

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10224800A (ja) * 1997-02-07 1998-08-21 Matsushita Electric Ind Co Ltd 動きベクトル符号化方法および復号化方法
US5991447A (en) * 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
US6130911A (en) * 1997-11-21 2000-10-10 Sharp Laboratories Of America, Inc. Method and apparatus for compressing reference frames in an interframe video codec
US5946043A (en) * 1997-12-31 1999-08-31 Microsoft Corporation Video coding using adaptive coding of block parameters for coded/uncoded blocks
JP2004208258A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
MXPA05000558A (es) * 2002-07-16 2005-04-19 Nokia Corp Metodo de acceso aleatorio y renovacion gradual de imagen en codificacion de video.
US7023921B2 (en) * 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
NO318167B1 (no) * 2002-11-27 2005-02-14 Tandberg Telecom As Vektorprediksjon
JP4373702B2 (ja) * 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
KR100579493B1 (ko) * 2003-06-16 2006-05-15 삼성전자주식회사 움직임 벡터 생성 장치 및 방법
US7978769B2 (en) * 2003-06-30 2011-07-12 Ntt Docomo, Inc. Method and apparatus for coding motion information
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
CN1213613C (zh) * 2003-09-12 2005-08-03 浙江大学 视频编解码中运动矢量的预测方法和装置
US7889792B2 (en) * 2003-12-24 2011-02-15 Apple Inc. Method and system for video encoding using a variable number of B frames
WO2006012383A2 (en) * 2004-07-20 2006-02-02 Qualcomm Incorporated Method and apparatus for motion vector prediction in temporal video compression
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
CN100539693C (zh) * 2005-08-30 2009-09-09 深圳清华大学研究院 快速运动估计方法
US20070064805A1 (en) * 2005-09-16 2007-03-22 Sony Corporation Motion vector selection
US20070171977A1 (en) * 2006-01-25 2007-07-26 Shintaro Kudo Moving picture coding method and moving picture coding device
JP2007228560A (ja) * 2006-01-25 2007-09-06 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像符号化装置
JP2007214741A (ja) * 2006-02-08 2007-08-23 Right Image:Kk 画像データ圧縮装置、画像表示装置、画像データ圧縮方法、画像表示方法、画像データ圧縮プログラム、画像表示プログラム、記憶媒体
JP2008109632A (ja) * 2006-09-28 2008-05-08 Toshiba Corp 動きベクトル検出装置及びその方法
KR101383540B1 (ko) * 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
KR101356735B1 (ko) * 2007-01-03 2014-02-03 삼성전자주식회사 전역 움직임 벡터를 사용해서 움직임 벡터를 추정하기 위한방법, 장치, 인코더, 디코더 및 복호화 방법
CN101222627A (zh) * 2007-01-09 2008-07-16 华为技术有限公司 一种多视点视频编解码系统以及预测向量的方法和装置
US8488676B2 (en) * 2007-05-14 2013-07-16 Himax Technologies Limited Motion estimation method
KR101946376B1 (ko) * 2007-10-16 2019-02-11 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
CN101198064A (zh) * 2007-12-10 2008-06-11 武汉大学 一种分辨率分层技术中的运动矢量预测方法
CN101232619B (zh) * 2008-01-25 2011-05-11 浙江大学 嵌入帧内编码块的视频编码方法
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
ES2812473T3 (es) * 2008-03-19 2021-03-17 Nokia Technologies Oy Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4977094B2 (ja) * 2008-06-25 2012-07-18 株式会社東芝 画像符号化方法
CN102577392A (zh) * 2009-10-20 2012-07-11 夏普株式会社 运动图像编码装置、运动图像解码装置以及数据结构
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR101768207B1 (ko) * 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
JP5368631B2 (ja) * 2010-04-08 2013-12-18 株式会社東芝 画像符号化方法、装置、及びプログラム

Also Published As

Publication number Publication date
EP2860981B1 (en) 2018-08-22
WO2011131089A1 (en) 2011-10-27
AU2011242239B2 (en) 2014-03-06
CA2794378A1 (en) 2011-10-27
EP3285490B1 (en) 2021-03-10
BR112012027033A2 (pt) 2016-07-19
JP2013526142A (ja) 2013-06-20
JP2013528992A (ja) 2013-07-11
IL222430A0 (en) 2012-12-31
EP2534842A4 (en) 2014-07-09
KR101772252B1 (ko) 2017-08-29
MX2012012246A (es) 2012-12-17
BR112012027033A8 (pt) 2017-07-11
AU2011242239A1 (en) 2012-09-27
EP3285490A1 (en) 2018-02-21
KR20170098959A (ko) 2017-08-30
KR101865011B1 (ko) 2018-06-05
RU2538317C2 (ru) 2015-01-10
EP2860981A1 (en) 2015-04-15
JP5913283B2 (ja) 2016-04-27
RU2538284C2 (ru) 2015-01-10
EP2534841A4 (en) 2014-07-02
BR112012027033B1 (pt) 2022-10-11
JP2014103698A (ja) 2014-06-05
KR20130036231A (ko) 2013-04-11
WO2011131091A1 (en) 2011-10-27
RU2012138564A (ru) 2014-05-27
IL222430A (en) 2016-10-31
RU2012138901A (ru) 2014-07-20
EP2534841B1 (en) 2017-11-29
CA2794378C (en) 2018-05-29
EP2534842B1 (en) 2017-09-06
JP5593440B2 (ja) 2014-09-24
JP5860491B2 (ja) 2016-02-16
EP2534842B8 (en) 2017-10-18
EP2534841A1 (en) 2012-12-19
KR101482514B1 (ko) 2015-01-14
EP2534842A1 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
US9008182B2 (en) Motion prediction method and video encoding method
KR101482514B1 (ko) 움직임 예측 방법 및 비디오 인코딩 방법
KR101422422B1 (ko) Dmvd 처리 향상을 위한 시스템 및 방법
AU2012208842B2 (en) Method and apparatus for parsing error robustness of temporal Motion Vector Prediction
EP3591970B1 (en) Adaptive image decoding method
EP3518544A1 (en) Video encoding and decoding with improved motion vector diversity
KR20190084235A (ko) 영상 부호화 및 복호화를 위한 장치 및 방법
KR20100039247A (ko) 비디오 신호 처리 방법 및 장치
US20120250767A1 (en) Method and apparatus for bi-directional prediction within p-slices
KR100774297B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR100774300B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR100774299B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR100774298B1 (ko) 움직임 벡터 복호화 방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20140703

Effective date: 20141021

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171227

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181221

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 6