KR100941123B1 - 에러 은닉을 위한 직접 모드 도출 프로세스 - Google Patents

에러 은닉을 위한 직접 모드 도출 프로세스 Download PDF

Info

Publication number
KR100941123B1
KR100941123B1 KR1020067006568A KR20067006568A KR100941123B1 KR 100941123 B1 KR100941123 B1 KR 100941123B1 KR 1020067006568 A KR1020067006568 A KR 1020067006568A KR 20067006568 A KR20067006568 A KR 20067006568A KR 100941123 B1 KR100941123 B1 KR 100941123B1
Authority
KR
South Korea
Prior art keywords
temporal
lost
direct mode
macroblock
corrupted
Prior art date
Application number
KR1020067006568A
Other languages
English (en)
Other versions
KR20060090990A (ko
Inventor
크리스티나 고밀라
질 맥도널드 보이스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20060090990A publication Critical patent/KR20060090990A/ko
Application granted granted Critical
Publication of KR100941123B1 publication Critical patent/KR100941123B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

손실된/손상된 매크로블록의 시간적인 은닉은 비디오 디코더에서 일반적으로 표준화된 직접 모드 도출 프로세스에 의존한다. 화상 형태에서 에러를 검출할 때(도 1), 공동-위치된 매크로블록이 이전에 전송된 화상에서 발견된다. 이 공동-위치된 매크로블록을 위한 동작 벡터가 결정된다(도 2). 식별된 매크로 블록이 공동-위치된 매크로블록을 위해 결정된 동작 벡터에 따라 두 번째로 이전에 전송된 화상으로부터의 데이터를 동작 보상함으로써 예측된다(도 3).

Description

에러 은닉을 위한 직접 모드 도출 프로세스 {DIRECT MODE DERIVATION PROCESS FOR ERROR CONCEALMENT}
본 발명은 코딩된 비디오 스트림에서 손실된/손상된 매크로블록의 시간적(temporal) 은닉을 위한 기술과 관련이 있다.
많은 경우에 있어서, 비디오 스트림은 저장과 전송을 용이하게 하기 위해 압축(코딩) 과정을 거친다. 현재, 간단히 ITU H.264 또는 JVT라고 종종 불리는 제안된 ISO MPEG AVC/ITU H.264 코딩 표준과 같은 블록-기반의 방식을 포함하는 다양한 압축 방식이 존재한다. 드물지 않게, 채널 에러 및/또는 네트워크 폭주(congestion) 때문에 이러한 코딩된 비디오 스트림은 전송 동안에 데이터 손실을 초래하거나 또는 손상된다. 디코딩 시에, 데이터의 손실/손상은 이미지 결함을 초래하는 손실된/손상된 화소값으로서 나타난다.
공간적 은닉은 동일한 이미지에서 다른 영역으로부터 화소값을 사용하고, 따라서 이 동일한 프레임에서 인접하는 블록들 사이에 공간적인 반복 (redundancy)을 이용함으로써 손실된/손상된 화소값을 도출하는 것을 추구한다. 공간적 에러 은닉과 대조적으로, 시간적 은닉은 최소 하나의 이전에 전송된 매크로블록으로부터 손실된 화소값을 추정하기 위해, 따라서 동일한 연속적인 다른 프레임의 블록들 사이에 시간적인 반복을 이용하면서, 코딩된 동작 정보, 즉, 기준 화상 인덱스와 동작 벡터의 복구를 시도한다.
시간적인 에러 은닉을 수행할 때, 각 손실된/손상된 매크로블록은 하나 이상의 이전에 전송된 매크로블록을 동작 보상(compensating)하는 것에 의해 일반적으로 추정될 수 있다. 현재의 시간적 은닉 전략은 복잡성을 감소시키고 속도를 증가시키기 위해 계산상의 노력을 최소화하는 부-최적(sub-optimal) 해결책을 일반적으로 받아 들인다. 이러한 부-최적 해결책은 손실된 동작 벡터값을 추론하기 위해 이 해결책이 공간적인 인접부(동일한 프레임 내에서) 또는 시간적인 인접부(다른 프레임 내에서)를 사용하는가에 따라, 일반적으로 두 개의 범주에 속한다. 공간적 인접부를 사용하는 에러 은닉은 이 인접부 내에서 동작 정보에 기초하여 손실된 블록의 동작 벡터의 복구를 시도한다. 이러한 기법은 공간적으로 인접하는 블록들의 변위(displacement) 사이에 높은 상관 관계를 가정한다. 여러 개의 동작 벡터를 고려할 때, 최적의 후보는 현재 프레임에서 손실된/손상된 블록의 외부 경계 정보와 기준 프레임으로부터의 은닉된 블록의 내부 경계 정보 사이에 최소의 MSE{평균 제곱 에러(Mean Square Error)}를 계산함으로써 발견된다. 이러한 절차는 증가된 양의 계산 노력의 대가로, 은닉된 화상의 평활도(smoothness)를 최대화하는 경향이 있다. 보다 빠른 알고리즘은 이 인접한 동작 벡터들의 중간값 또는 평균값을 계산하고, 이 값을 이 손실된 블록의 동작 벡터로서 제안한다.
에러 은닉을 위한 다른 부-최적 해결책은 시간적으로 인접하는 매크로블록을 이용한다. 이 접근법은 인접하는 프레임에서 공동-위치된 블록 사이에서 시간적 상관 관계를 이용하는 것에 의해 손실된 블록의 동작 벡터의 복구를 시도한다. 일반적으로, 시간적으로 인접하는 매크로블록을 이용하는 기법은 손실된 블록이 두 개의 연속적인 프레임에서 그 위치를 변경하지 않았다는 것을 가정하는데, 이것은 이 블록의 변위는 0의 동작 벡터로 모델링될 수 있다라고 말하는 것과 동일하다. 이것에 기초하여, 현재의 프레임 상의 손실된 블록의 시간적 은닉은 이전에 전송된 프레임의 공동-위치된 블록을 단지 복사함으로써 발생한다. 이러한 절차는 속도와 간단함을 제공하지만 움직이는 영역에서는 낮은 성능을 달성한다. 유사한 전략이 아무런 동작 정보도 전송되지 않은 블록의 동작 벡터를 도출하기 위해 최근에 제안된 비디오-인코딩 표준에서 존재하지만, 제한된 성능을 제공한다.
따라서, 상기 언급된 어려움을 극복하는 손실된/손상된 매크로블록의 시간적 은닉을 위한 기법을 위한 필요성이 존재한다.
간단하게, 제 1선호되는 실시예에 따라, 직접-모드에서 코딩된 매크로블록의 배열에서 손실된/손상된 매크로블록의 시간적 은닉을 위한 기법이 제공된다. 이 직접 모드는, 아무 데이터도 전송되지 않는 P 프레임-스킵된(frame-skipped) 매크로블록과 대조적으로, B 슬라이스 혹은 화상에서 매크로블록을 위한 비디오 스트림에 아무런 동작 매개변수도 전송되지 않는 특별한 인터-코딩(inter-coding) 모드를 구성한다. 초기에, 손실된/손상된 값을 갖는 배열에서 최소 하나의 매크로블록이 식별된다. 다음으로, 공동-위치된 매크로블록이 매크로블록의 배열로 이루어진 첫 번째로 이전에 전송된 화상에서 위치되며, 공동-위치된 매크로블록에 대한 동작 벡터가 결정된다. 동작 벡터("공동-위치된 동작 벡터"라고 불리는)가 식별된 매크로블록과 공동-위치된 매크로블록 사이의 거리에 일반적으로 대응하는 화상 순서 카운트(picture order count: POC) 거리에 따라 스케일링된다. 이 식별된 매크로블록은 이 스케일링된 공동-위치된 동작 벡터에 따라 첫 번째 화상과 두 번째로 이전에 전송된 화상 모두로부터의 데이터를 동작 보상함으로써 예측된다. 이 기법은 MPEG-4와 같은 B 프레임 화상을 사용하는 블록-기반 압축 기법에 따라 압축된 비디오에 적용성을 갖는다.
제 2선호되는 실시예에 따라, ITU H.264 코딩 표준과 같은 코딩 표준에 따라 직접 모드에서 코딩된 매크로블록의 배열에서 손실된/손상된 매크로블록의 시간적 은닉을 위한 기법이 제공된다. 초기에, 손실된/손상된 값을 갖는 배열에서 최소 하나의 매크로블록이 식별된다. 다음으로, 공동-위치된 매크로블록이 매크로블록의 배열과 공동-위치된 동작 벡터로 이루어진 첫 번째로 이전에 전송된 화상에서 위치되고, 공동-위치된 매크로블록에 대한 기준 인덱스가 결정된다. 이 공동-위치된 동작 벡터는 POC 거리에 따라 스케일링된다. 두 번째로 이전에 전송된 화상이 이 기준 인덱스에 따라 선택되고, 첫 번째와 두 번째로 이전에 전송된 화상 양쪽으로부터의 데이터가 식별된 매크로블록을 위한 예측을 산출하기 위하여 스케일링된 공동-위치된 동작 벡터를 사용해서 동작 보상된다.
도 1은 공간적-직접 모드 예측을 위해 사용되는 매크로블록의 부분적 배열을 도시하는 도면.
도 2는 제 1 및 제 2 기준 화상으로부터 B 구획(partition)을 위한 시간적-직접 모드 예측을 위한 기법을 도표로 도시한 도면.
도 3은 공동-위치 동작 벡터가 스케일링되는 방식을 도시한 도면.
도 4a는 연역적으로(a priori) 적용되는 소정의 기준을 사용해서 본 발명의 원리에 따라 에러 은닉을 달성하기 위한 방법의 단계를 도시하는 순서도.
도 4b는 귀납적으로(a posteriori) 적용되는 소정의 기준을 사용해서 본 발명의 원리에 따라 에러 은닉을 달성하기 위한 방법의 단계를 도시하는 순서도.
1. 배경
비록 본 발명의 원리에 따라 손실된/손상된 매크로블록의 시간적 은닉을 위한 기법이 하기에서 설명될 것처럼 MPEG 4 코딩 표준과 같은 다른 코딩 표준에 적용성을 갖고 있지만, 이 기법은 ITU H.264 코딩 표준의 상황에서 가장 잘 이해될 수 있다. 따라서, ITU H.264 코딩 표준에 따라 직접 모드 인코딩을 위해 이용 가능한 도출 프로세스에 관한 간단한 논의는 유용하다고 증명될 것이다: ITU H.264 코딩 표준은 디코더(도시되지 않음)와 연관된 기준 화상 버퍼(도시되지 않음)에 있는 화상들 중의 어느 화상(들)이 사용될 것인지를 표시하기 위해 코딩된 기준 인덱스를 가지고, 인터-예측을 위한 다중 기준 화상의 사용을 허용한다. 이 기준 화상 버퍼는 두 개의 리스트: 리스트(0) 및 리스트(1)을 보유하고 있다. P 슬라이스에서 블록의 예측은 "RefIdxL0"라고 불리는 전송된 기준 인덱스와 "MvL0"라고 불리는 전송된 동작 벡터에 따라 리스트(0)에 있는 다른 기준 화상들로부터 단일 동작 벡터를 사용해서 발생할 수 있다. B 슬라이스에서 블록의 예측은, 리스트(0)으로부터 제각기 RefIdxL0와 MvL0 또는 리스트(1)로부터 제각기 RefIdxL1과 MvL1으로서 전송되는 기준 인덱스와 동작 벡터를 가지고 리스트(0) 또는 리스트(1)로부터 발생할 수 있으나, 또한 양방향-예측(bi-predictive) 모드에서 두 리스트 모두를 사용해서 발생할 수도 있다. 이 마지막 경우에 있어서, 블록의 내용의 예측은 리스트(0)로부터 하나의 블록과 리스트(1)로부터 다른 하나의 블록의 내용의 평균값을 구하는 것에 의해 발생한다.
RefIdxL0-MvL0 및/또는 RefIdxL1-MvL1을 항상 전송하는 것을 피하기 위해, H.264 표준은 직접 모드에서 B 슬라이스내 블록의 인코딩을 또한 허용한다. 이 경우에, 두 개의 다른 방법이 비-전송된(non-transmitted) 동작 벡터와 기준 화상 인덱스를 도출하기 위해 존재한다. 이 방법은: (a) 공간적-직접 모드와, (b) 시간적-직접 모드를 포함한다. 모든 요구되는 정보의 이용가능성을 가정하면서 진행적 인코딩을 위한 각 모드에 대한 설명이 존재한다. 다른 경우를 위한 정의는 ITU H.264 코딩 표준의 규격에 존재한다.
1.1 ITU H.264 코딩 표준에서 공간적-직접 동작 벡터 예측
도 1의 매크로블록(E)을 위한 공간적-직접 동작 벡터 예측을 불러 낼 때, 리스트(0, 1)를 위한 기준 인덱스가 다음의 관계
RefIdxL0 = MinPositive(RefIdxL0A, MinPositive(RefIdxL0B, RefIdxL0C))
RefIdxL1 = MinPositive(RefIdxL1A, MinPositive(RefIdxL1B, RefIdxL1C))에 따라,
Figure 112006023802319-pct00001
에 의해 주어진 연산자(MinPositive)를 가지고 도 1에서 인접하는 블록들(A 내지 D)로부터 추론된다.
동작 벡터 예측(MvpLX)(여기서 X는 0 혹은 1)의 각 구성 요소는 동작 벡터(MvLXA, MvLXB, MvLXC)의 대응하는 벡터 구성 요소의 중앙값에 의해 주어지고, MvLXC는:
MvpLX[0] = Median(MvLXA[0], MvLXB[0], MvLXC[0])
MvpLX[1] = Median(MvLXA[1], MvLXB[1], MvLXC[1])
이다.
에러 은닉 목적을 위해서 사용될 때, 도 1에서 E를 포함하는 슬라이스 바깥쪽의 실례가 예측을 위해 고려될 수 있다.
직접 모드에서, 다른 블록 크기의 사용을 허용하는 ITU H.264 코딩 표준과 특히 관련하여 블록 사이즈를 결정하는 것이 중요하게 된다. mb_type의 Direct16x16에 의해 지시되는 공간적-직접 모드가 사용될 때, 단일 동작 벡터, 리 스트(0) 및 리스트(1) 기준 인덱스가 전체 16x16 매크로블록을 위해 도출된다. sub_mb_type 타입의 Direct8x8에 의해 지시되는 공간적-직접 모드가 사용될 때, 단일 동작 벡터, 리스트(0) 및 리스트(1) 기준 인덱스가 8x8 부-매크로블록(sub-macroblock)을 위해 도출된다.
1.2 ITU H.264 코딩 표준에서 시간적-직접 동작 벡터 예측
현재 매크로블록의 주소(MbAddr)를 입력 데이터로 취하면서, 시간적-직접 모드 동작 벡터 예측을 위한 실례적인 알고리즘은 리스트(1)의 제 1기준 화상 상에 공동-위치된 블록의 위치를 계산한다(도 2 참조). 이 공동-위치된 블록은 도 2에서 도시된 대로, 그 내용을 예측하기 위하여 매개변수(MvL0Col), 매개변수(MvL1Col), 매개변수(RefIdxL0Col), 이 블록의 내용을 예상하기 위해 매개변수(RefIdxL1Col), 및 MvVertScaleFactor를 제공한다. 이 값으로부터, 이 알고리즘은 공동-위치된 동작 벡터(MvCol)의 값과 기준 인덱스(RefIdxL0, RefIdxL1)을 다음과 같이 도출한다:
RefIdxL1 = 0를 세트하며, 이것은 리스트(1)에 있는 제 1화상이다.
만약 RefIdxL0Col이 음수가 아니라면, 리스트(0) 동작 벡터(MvL0Col)가 MvCol에 할당되고, 리스트(0) 기준 인덱스(RefIdxL0Col)가 RefIdxL0에 할당된다:
MvCol[0] = MvL0Col[0]
MvCol[1] = MvVertScaleFactor x MvL0Col[1]
RefIdxL0 = RefIdxL0Col/MvVertScaleFactor
만약 RefIdxL1Col이 음수가 아니라면, 리스트(1) 동작 벡터(MvL1Col)가 MvCol에 할당되고, 리스트(1) 기준 인덱스(RefIdxL1Col)가 RefIdxL0에 할당된다:
MvCol[0] = MvL1Col[0]
MvCol[1] = MvVertScaleFactor x MvL1Col[1]
RefIdxL0 = {L1에서 RefIdxL1Col을 참조하는 리스트(L0)에서의 기준 인덱스}/MvVertScaleFactor
그렇지 않다면, 공동-위치된 4x4 부-매크로블록 구획(partition)은 인트라(intra) 코딩된다.
다음 관계는 동작 벡터(MvL0Col, MvL1Col)를 규정한다:
X = (16384 + (TDD >> 1)) / TDD
Figure 112006023802319-pct00002
Z = clip3(-1024, 1023, (TDB X + 32)) >> 6)
Figure 112006023802319-pct00003
MvL0 = (Z MVCol + 128) >> 8
MvL1 = MvL0 - MVCol
여기서 clip3(a, b, c)는 범위[a, b]에서 c를 잘라내는(clip) 연산자이고,
TDB = clip3(-128, 127, DiffPicOrderCnt(CurrentPic, RefIdxL0))
TDD = clip3(-128, 127, DiffPicOrderCnt(RefIdxL1, RefIdxL0))
시간적 직접 모드에서, 도출된 동작 벡터는 공동-위치된 매크로블록에서 사용된 것처럼 동일 크기 화소 블록에 적용된다. 전술한 관계로부터 인식될 수 있듯이, 이 동작 벡터는 식별된 매크로블록과 공동-위치된 매크로블록 사이의 거리에 일반적으로 대응하는 화상 순서 카운트 거리에 따라 스케일링된다.
MPEG 4를 위한 직접 코딩
MPEG 4 코딩 표준은 P-화상 매크로블록 동작 벡터를 이용하는 ITU H.264 코딩 표준을 확장하고, B-화상에서 매크로블록을 위한 전진 및 후진 동작 벡터를 도출하기 위해 이 벡터를 스케일링함으로써 도출된 직접 양방향 동작 보상을 사용한다. 이것은 8x8 블록 상에 동작 벡터를 사용하는 것을 가능케 하는 유일한 모드이다. 예측적인 비디오 객체 평면(predictive video object plane:P-VOP)이 8x8 MV 모드를 사용할 때만이 이것이 가능하다. B-프레임 구문(syntax)을 사용하는 ITU H.264 코딩 표준에 따라, 단지 하나의 델타 동작 벡터만이 매크로블록 당 허용된다.
도 3은 MPEG 4 코딩 표준을 위한 직접 코딩과 관련된 동작 벡터의 스케일링을 도시한다. H.264 코딩 표준의 MPEG 4 코딩 표준으로의 제 1확장은 양방향 예측이 MPEG-1 코딩 표준에서처럼 전체 블록/매크로블록을 위해 이루어질 수 있다는 것을 제공한다. ITU H.264 코딩 표준의 제 2확장은 단지 하나만의 끼어드는(intervening) VOP의 보간(interpolation)을 허용하는 대신에, 하나 초과의 VOP가 보간될 수 있는 것을 제공한다. 만약 이 예측이 고속 동작 혹은 프레임간(interframe)의 큰 거리 때문에 불량하다면, 다른 동작 보상 모드가 선택될 수 있다.
동작 벡터의 계산
전진 및 후진 동작 벡터의 계산은 델타 벡터에 의한 정정이 뒤따르는 시간적으로 다음의 P-VOP에서 공동-위치된 블록의 선형적 스케일링을 포함하고, 따라서 이 계산은 ITU H.264 코딩 표준을 따르는 절차와 실제적으로 동일하다. 유일한 작은 차이는 MPEG-4 코딩 방식을 가지고서는, 화상 대신에 VOP가 존재하며, 기준 화상쌍 사이의 단지 단일한 B-화상 대신에, 다수의 양방향 VOP(B-VOP)가 기준 VOP의 쌍 사이에 허용된다는 것이다. H.264 코딩 표준에서처럼, 기준 VOP쌍의 시간적 기준에서의 차이와 상대적인 B-VOP의 시간적 기준이, 이 델타 벡터에 의해 정정되는 동작 벡터를 계산하기 위한 스케일 인자를 결정하기 위해 사용된다. 또한, 공동-위치된 매크로블록들(macroblocks: Mbs)이, 가능할 때에, 동일한 인덱스를 갖는 Mbs 라고 정의된다. 그렇지 않다면, 직접 모드가 사용되지 않는다.
"MVF" 및 "MVB"라고 제각기 참조되는 전진 및 후진 동작 벡터는 다음에서처럼 절반의 샘플 유닛에서 주어진다.
MVF = (TRB x MV) / TRD + MVD
MVD가 0일 때, MVB = ((TRB - TRD) x MV) / TRD 이나,
만약 MVD가 0이 아니라면, MVB = MVF - MV
여기서 MV는 기준(VOP)에 대해 P-VOP에서 매크로블록의 직접 동작 벡터이고, TRB는 B-VOP과 이전의 기준(VOP)의 시간적 기준에서의 차이이다. TRD는, B-VOP 또는 스킵된 VOP가 그 사이에 위치되어 있다고 가정하면서, 시간적으로 이전의 기준(VOP)을 갖는 시간적으로 다음의 기준(VOP)의 시간적인 기준에서의 차이이다.
2. 에러 은닉을 위한 공간적 및 시간적 직접 도출 프로세스의 사용
본 발명의 원리에 따라, 코딩 모드가 은닉 목적을 위해 적용되는: (1) 동작 벡터, (2) 기준 화상 인덱스, (3) 코딩 모드{리스트(0)/리스트(1)/양방향}, 및 블록 크기를 도출하기 위해, 직접 모드가 사용된다. 우리는 손실된/손상된 매크로블록을 예측하는 것을 필요로 하는 정보를 도출하는 프로세스는 이전에 전송된 프레 임으로부터의 데이터를 동작 보상함으로써 직접-코딩된 매크로블록의 복구와 매우 밀접한 문제를 정의한다. 이에 따라, 직접 모드에서 인코딩된 블록을 예측하기 위한 동일한 알고리즘이, 직접 모드가 인터-코딩의 특별한 경우로서 정의되는, 표준에 순응하는 임의의 비디오 디코더를 사용해서 인터-코딩된 프레임 상에 손실된/손상된 블록을, 어떠한 추가적인 구현 비용없이 예측할 수 있다. 이것은 현재의 MPEG-4와 H.264 비디오 디코더에 적용되며, 직접 모드에서 동작 벡터를 도출하기 위한 알고리즘을 구현함으로써 MPEG-2 비디오 디코더에 적용될 수 있다.
에러 검출과 에러 은닉은 독립적인 프로세스를 구성하며, 에러 은닉은 에러 검출이 수신된 데이터의 일부가 손상되거나 손실되었는지를 결정할 때에만 호출된다. 매크로블록 수준에서 에러 검출을 수행할 때, 만약 에러가 현재 디코딩된 매크로블록 상에서 검출될 때, 은닉은 이 디코딩 프로세스를 변경시키지 않고 발생한다. 하지만, 에러 검출이 슬라이스 수준에서 발생할 때, 이 슬라이스 내의 모든 매크로블록은 에러 앞에서 은닉을 요구한다. 이 단계에서, 많은 전략이 최적의 은닉 순서를 결정하기 위해 존재한다. 하나의 간단한 전략에 따라, 에러 은닉은 이 슬라이스 내에서 첫 번째 매크로블록 상에서 시작되고, 이전의 디코딩 순서를 뒤따라서 진행한다. 보다 정교한 전략은 에러 전파를 피하기 위해 다른 방향으로 전개될 수 있다.
2.2 하나 초과의 도출 프로세스가 이용 가능할 때, 하나의 도출 프로세스를 선택하기 위한 기준
본 발명의 원리에 따라 에러 은닉은 공간적-직접 모드 또는 시간적-직접 모 드에 배타적으로 의존해서, 또는 이 두 모드 모두를 사용함으로써 발생한다. 이 두 모드 모두를 사용할 때, 어느 모드가 특별한 블록 또는 매크로블록 상에 보다 나은 은닉을 제공하는지를 선택하기 위한 기준이 존재해야 한다. 선호되는 실시예에서, 연역적으로, 즉, 이 두 개의 모드 중 어느 하나를 사용할 지를 실제로 선택하기 전에 적용되는 기준과 귀납적으로 적용되는 기준, 즉, 어느 모드가 보다 나는 결과를 제공하는 지를 선택하기 위해 두 모드를 모두 수행한 후에 적용되는 기준 사이의 구분이 존재한다.
2.2.1 연역적으로 적용되는 기준:
은닉을 요구하는 영역의 크기는 공간적 직접 모드 또는 시간적 직접 모드를 사용할 지를 결정하기 위해 연역적으로 적용되는 하나의 기준을 구성한다. 시간적 직접 모드 은닉은 큰 영역 상에서 보다 나은 결과를 제공하고, 반면에 공간적 직접 모드는 작은 영역 상에 보다 나은 결과를 제공한다. 동일한 화상의 다른 슬라이스에서 선택된 은닉 모드는 손실된 또는 손상된 슬라이스의 은닉을 위한 특별한 모드를 선택하기 위한 다른 하나의 기준을 구성한다. 따라서, 만약 동일한 화상에서 다른 슬라이스가 공간적 직접 모드에서 코딩된다면, 이 모드는 관심 영역을 위해 선택되어야만 한다.
도 4a는 인접한 슬라이스를 위해 사용되는 크기 또는 은닉 모드와 같은 연역적 기준을 가지고 모드 선택을 활용하는 디코딩과 에러 은닉을 위한 프로세스를 순서도 형태에서 도시한다. 연역적 모드 선택은 선택된 기준{단계(100)}과 관련된 매개변수의 입력 시에 시작한다. 이후로, 에러 검출은 손실된/손상된 매크로블록의 존재를 검출하기 위해 단계(102) 동안 발생한다. 에러가 손실된/손상된 매크로블록의 형태로 존재하는 지를 결정하기 위한 검사가 단계(104) 동안 발생한다. 단계(104) 동안 에러를 발견할 시에는, 입력 기준에 따라 시간적-직접 또는 공간적-직접 도출 모드 중의 하나의 선택이 내려지는 기간인 단계(106)로 분기가 발생한다.
단계(104) 동안 어떠한 에러도 발견하지 못할 시에는, 이 매크로블록이 직접 모드에서 코딩되었는지를 결정하기 위해 단계(108) 동안 검사가 발생한다. 만약 그렇지 않다면, 이 매크로블록이 단계(111) 동안 데이터 출력 이전에 인터-예측 모드 디코딩을 거치는 단계(109)로 분기가 발생한다. 만약 단계(108) 동안 이 매크로블록이 직접 모드에서 코딩되거나, 단계(106) 다음에, 선택된 모드가 시간적-직접 모드인지에 대한 검사가 단계(110) 동안 발생한다. 만약 그렇다면, 동작 벡터와 기준 인덱스의 복구가, 단계(109)로 진행하기 이전에 시간적-직접 모드 프로세스를 사용해서 단계(112) 동안 발생한다. 그렇지 않다면, 단계(110)을 뒤따라서, 동작 벡터와 기준 인덱스의 복구가 단계(109)를 실행하기 이전에 공간적 직접 모드 도출 프로세스에 의해 발생한다.
2.2.2 귀납적으로 적용되는 기준:
이전에 논의된 것처럼, 시간적 직접 모드와 공간적 직접 모드 도출 프로세스 모두는 귀납적으로 기준들 중의 하나에 따라 선택된 특별한 프로세스의 결과를 가지고 발생할 수 있다. 예를 들면, 이 둘 모두의 프로세스는 은닉된 블록과 이것의 인접부의 경계 사이에 가장 평활한 전이를 산출하는 프로세스의 결과를 유지시키는 동안에만 발생할 수 있다. 대안적으로, 에러 은닉을 뒤따라서 측정되듯이 이 둘 모 두의 프로세스는 블록 제거 필터에서 보다 낮은 경계 강도값을 산출했던 프로세스를 단지 유지하는 동안 발생할 수 있다. 경계 강도값이 낮을수록, 더 평활하고 더 나은 동작 보상을 제공한다.
도 4b는 모드 선택을 결정하기 위한 귀납적 기준을 가지고 모드 선택을 활용하는 디코딩 및 에러 은닉을 위한 프로세스를 순서도 형태로 도시한다. 귀납적 기준에 따라 모드 선택은 선택된 기준과 관련이 있는 매개변수의 입력 시에 시작한다{단계(200)}. 이후에, 에러 검출이 손실된/손상된 매크로블록의 존재를 검출하기 위해 단계(202) 동안 발생한다. 에러가 손실된/손상된 매크로블록의 형태로 존재하는 지를 결정하기 위한 검사가 단계(204) 동안 발생한다. 단계(204) 동안 에러를 발견했을 시, 단계(206)과 단계(208) 양쪽으로 분기가 발생한다. 단계(206) 동안, 시간적-직접 도출 프로세스가 시간적 도메인에서 인접하는 기준 블록으로부터 설명된 방식으로 동작 벡터와 기준 인덱스를 도출하기 위해 시작한다. 단계(208) 동안, 공간적-직접 도출 프로세스가 공간적 도메인에서 인접하는 기준 블록으로부터 설명된 방식으로 동작 벡터와 기준 인덱스를 도출하기 위해 시작한다. 이후에, 동작 벡터(Mv)와 기준 인덱스(RefIdx)의 선택이 단계(200)동안 입력된 기준에 따라 단계(210) 동안 발생한다. 단계(210)를 뒤따라서, 인터-예측 모드 디코딩이 단계(212) 동안 시작하고, 이 단계로부터 발생 되는 데이터는 단계(213) 동안 출력된다.
단계(204) 동안 어떠한 에러도 발견하지 못했다면, 이 매크로블록이 직접 모드에서 코딩됐는지를 결정하기 위한 검사가 단계(214) 동안 발생한다. 만약 그렇지 않다면, 이전에 설명된 단계(212)로의 분기가 발생한다. 단계(214) 동안 직접 모드 에서 코딩된 매크로블을 발견했다면, 선택된 모드가 시간적-직접 모드였는지를 결정하기 위한 검사가 발생하는 단계인 단계(216)가 뒤따른다. 만약 그렇다면, 단계(212)로 진행하기 이전에 단계(218)동안 시간적-직접 모드 프로세스를 사용해서, 동작 벡터와 기준 인덱스의 복구가 발생한다. 그렇지 않다면, 단계(216)를 뒤따라서, 동작 벡터와 기준 인덱스의 복구가 단계(212)를 실행하기 이전에 단계(220) 동안 공간적 직접 모드 도출 프로세스에 의해 발생한다.
본 발명은 코딩된 비디오 스트림에서 손실된/손상된 매크로블록의 시간적 은닉을 위한 방법에 이용 가능하다.

Claims (17)

  1. 직접 모드에서 코딩된 비디오 스트림에서 최소 하나의 손실된 또는 손상된 매크로블록의 시간적 은닉(temporal concealment)을 위한 방법으로서,
    최소 하나의 손실된 또는 손상된 매크로블록을 식별하는 단계와;
    첫 번째로 이전에 전송된 화상에서 공동-위치된(co-located) 매크로블록을 발견하는 단계와;
    공동-위치된 매크로블록을 위한 공동-위치된 동작 벡터를 결정하는 단계와;
    식별된 매크로블록과 상기 공동-위치된 매크로블록 사이의 화상 거리에 따라 공동-위치된 동작 벡터를 스케일링하는 단계와;
    상기 스케일링된 공동-위치된 동작 벡터에 따라 첫 번째로 이전에 전송된 화상과 두 번째로 이전에 전송된 기준 화상 모두로부터의 데이터를 동작 보상함으로써 식별된 매크로블록을 위해 최소 하나의 손실된 또는 손상된 데이터를 예측하는 단계
    를 포함하는, 직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  2. 제 1 항에 있어서, 상기 최소 하나의 손실된 또는 손상된 데이터는 시간적 직접 모드를 사용해서 예측되는, 직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  3. 제 1 항에 있어서, 상기 최소 하나의 손실된 또는 손상된 데이터는 예측 이전에 선택된 최소 하나의 기준에 따라 시간적 및 공간적 직접 모드 도출(derivation) 프로세스들 중 하나의 프로세스를 사용해서 예측되는,
    직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적인 은닉을 위한 방법.
  4. 제 3 항에 있어서, 상기 시간적 및 공간적 직접 모드 도출(derivation) 프로세스들 중 하나의 프로세스의 선택은 은닉 영역 크기에 따라 이루어지는, 직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  5. 제 4 항에 있어서, 상기 시간적 및 공간적 직접 모드 도출 프로세스들 중 하나의 프로세스의 선택은 인접하는 슬라이스(slice)의 도출 모드에 따라 이루어지는, 직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  6. 제 1 항에 있어서, 상기 최소 하나의 손실된 또는 손상된 데이터는:
    시간적 및 공간적 직접 모드 도출 프로세스들을 수행하는 단계와;
    시간적 및 공간적 직접 모드 도출 프로세스들 중 하나의 프로세스의 결과를 선택하는 단계
    에 의해 예측되는, 직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  7. 제 1 항에 있어서, 공동-위치된 동작 벡터를 적용할 제 1 및 제 2 화상에서의 블록의 크기를 도출하는 단계를 추가로 포함하는, 직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  8. 제 6 항에 있어서, 상기 결과는 ITU H.264 코딩 표준에 따라 블록 제거(deblocking)의 경계 강도값에 따라 선택되는, 직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  9. 제 1 항에 있어서, 상기 최소 하나의 손실된 또는 손상된 데이터는 ITU H.264 코딩 표준에서 정의된 시간적 직접 모드를 사용해서 예측되는, 직접 모드에서 코딩된 비디오 스트림에서 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  10. ISO/ITU H.264 코딩 표준에 따라 직접 모드에서 코딩된 비디오 스트림에서 최소 하나의 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법으로서,
    최소 하나의 손실된 또는 손상된 매크로블록을 식별하는 단계와;
    첫 번째로 이전에 전송된 화상에서 공동-위치된 매크로블록을 발견하는 단계와;
    공동-위치된 매크로블록에 대한 기준 인덱스(reference index)와 동작 벡터를 결정하는 단계와;
    식별된 매크로블록과 상기 공동-위치된 매크로블록 사이의 화상 거리에 따라 상기 동작 벡터를 스케일링하는 단계와,
    기준 인덱스에 따라 두 번째로 이전에 전송된 화상을 선택하는 단계와;
    결정되고 스케일링된 동작 벡터에 따라 첫 번째와 두 번째로 이전에 전송된 기준 화상으로부터의 데이터를 동작 보상함으로써 식별된 매크로블록을 위해 최소 하나의 손실된 또는 손상된 데이터를 예측하는 단계
    를 포함하는, 손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  11. 제 10 항에 있어서, 상기 최소 하나의 손실된 또는 손상된 데이터는 ITU H.264 코딩 표준에서 정의된 시간적 직접 모드를 사용해서 예측되는,
    손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  12. 제 10 항에 있어서, 상기 최소 하나의 손실된 또는 손상된 데이터는 ITU H.264 코딩 표준에서 정의된 공간적 직접 모드를 사용해서 예측되는,
    손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  13. 제 10 항에 있어서, 상기 최소 하나의 손실된 또는 손상된 데이터는 예측 이전에 선택된 최소 하나의 기준에 따라 ITU H.264 코딩 표준에서 정의된 시간적 및 공간적 직접 모드 도출 프로세스들 중 하나의 프로세스를 사용해서 예측되는,
    손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  14. 제 10 항에 있어서, 시간적 및 공간적 직접 모드 도출 프로세스들 중 하나의 프로세스의 선택은 은닉 영역 크기에 따라 이루어지는,
    손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  15. 제 14 항에 있어서, 시간적 및 공간적 직접 모드 도출 프로세스들 중 하나의 프로세스의 선택은 인접하는 슬라이스(slice)의 도출 모드에 따라 이루어지는,
    손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  16. 제 10 항에 있어서, 상기 최소 하나의 손실된 또는 손상된 데이터는:
    ITU H.264 코딩 표준에서 정의된 시간적 및 공간적 직접 모드 도출 프로세스들을 수행하는 단계와;
    시간적 및 공간적 직접 모드 도출 프로세스들 중 하나의 프로세스의 결과를 선택하는 단계
    에 의해 예측되는,
    손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
  17. 제 16 항에 있어서, 상기 결과는 ITU H.264 코딩 표준에 따라 블록 제거의 경계 강도값에 따라 선택되는,
    손실된 또는 손상된 매크로블록의 시간적 은닉을 위한 방법.
KR1020067006568A 2003-10-09 2003-10-09 에러 은닉을 위한 직접 모드 도출 프로세스 KR100941123B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2003/031825 WO2005046072A1 (en) 2003-10-09 2003-10-09 Direct mode derivation process for error concealment

Publications (2)

Publication Number Publication Date
KR20060090990A KR20060090990A (ko) 2006-08-17
KR100941123B1 true KR100941123B1 (ko) 2010-02-10

Family

ID=34572270

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067006568A KR100941123B1 (ko) 2003-10-09 2003-10-09 에러 은닉을 위한 직접 모드 도출 프로세스

Country Status (8)

Country Link
US (1) US20070014359A1 (ko)
EP (1) EP1671427A4 (ko)
JP (1) JP2007521696A (ko)
KR (1) KR100941123B1 (ko)
AU (1) AU2003282462A1 (ko)
BR (1) BR0318528A (ko)
MX (1) MXPA06003925A (ko)
WO (1) WO2005046072A1 (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8036271B2 (en) * 2004-02-24 2011-10-11 Lsi Corporation Method and apparatus for determining a second picture for temporal direct-mode block prediction
US7885339B2 (en) * 2004-11-17 2011-02-08 Microsoft Corporation Bi-directional temporal error concealment
KR20060088461A (ko) * 2005-02-01 2006-08-04 엘지전자 주식회사 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
US7660354B2 (en) * 2005-05-11 2010-02-09 Fang Shi Temporal error concealment for bi-directionally predicted frames
EP1908300B1 (en) 2005-07-25 2018-05-16 Thomson Licensing DTV Method and apparatus for the concealment of missing video frames
JP4752631B2 (ja) * 2006-06-08 2011-08-17 株式会社日立製作所 画像符号化装置、及び画像符号化方法
US8238442B2 (en) * 2006-08-25 2012-08-07 Sony Computer Entertainment Inc. Methods and apparatus for concealing corrupted blocks of video data
WO2008078807A1 (ja) * 2006-12-27 2008-07-03 Panasonic Corporation 動画像復号化装置
US7933372B2 (en) * 2007-03-08 2011-04-26 Freescale Semiconductor, Inc. Successive interference cancellation based on the number of retransmissions
FR2915342A1 (fr) * 2007-04-20 2008-10-24 Canon Kk Procede et dispositif de codage video
WO2008153262A1 (en) 2007-06-15 2008-12-18 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium
KR100955396B1 (ko) * 2007-06-15 2010-04-29 성균관대학교산학협력단 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및장치 및 기록매체
US8121189B2 (en) * 2007-09-20 2012-02-21 Microsoft Corporation Video decoding using created reference pictures
US9848209B2 (en) * 2008-04-02 2017-12-19 Microsoft Technology Licensing, Llc Adaptive error detection for MPEG-2 error concealment
US9924184B2 (en) * 2008-06-30 2018-03-20 Microsoft Technology Licensing, Llc Error detection, protection and recovery for video decoding
US9788018B2 (en) * 2008-06-30 2017-10-10 Microsoft Technology Licensing, Llc Error concealment techniques in video decoding
JP2010016453A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
JP2010035137A (ja) * 2008-07-01 2010-02-12 Sony Corp 画像処理装置および方法、並びにプログラム
CN102160381A (zh) * 2008-09-24 2011-08-17 索尼公司 图像处理设备和方法
CN102160382A (zh) * 2008-09-24 2011-08-17 索尼公司 图像处理设备和图像处理方法
JPWO2010035733A1 (ja) * 2008-09-24 2012-02-23 ソニー株式会社 画像処理装置および方法
US9131241B2 (en) * 2008-11-25 2015-09-08 Microsoft Technology Licensing, Llc Adjusting hardware acceleration for video playback based on error detection
JP5115519B2 (ja) * 2009-05-26 2013-01-09 富士通株式会社 動画像復号装置、動画像復号方法及び動画像復号用コンピュータプログラム
CN102450016A (zh) * 2009-05-26 2012-05-09 松下电器产业株式会社 运动图像处理装置和运动图像处理方法
US8340510B2 (en) * 2009-07-17 2012-12-25 Microsoft Corporation Implementing channel start and file seek for decoder
CN103119942B (zh) * 2010-10-06 2018-05-01 株式会社Ntt都科摩 图像预测编码装置、图像预测编码方法、图像预测解码装置、图像预测解码方法
JP5701018B2 (ja) * 2010-11-12 2015-04-15 三菱電機株式会社 画像復号装置
JP5649412B2 (ja) * 2010-11-12 2015-01-07 三菱電機株式会社 エラーコンシールメント装置及び復号装置
US9560352B2 (en) * 2011-01-28 2017-01-31 Sun Patent Trust Image coding method and image decoding method
KR20120088488A (ko) * 2011-01-31 2012-08-08 한국전자통신연구원 시간적 움직임 벡터 저장 방법 및 그 장치
GB2493212B (en) * 2011-07-29 2015-03-11 Canon Kk Method and device for error concealment in motion estimation of video data
CN107635140B (zh) 2011-09-09 2020-12-08 株式会社Kt 用于解码视频信号的方法
US9363513B2 (en) * 2011-12-14 2016-06-07 Intel Corporation Methods, systems, and computer program products for assessing a macroblock candidate for conversion to a skipped macroblock
US9762904B2 (en) 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US9344742B2 (en) * 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6489996B1 (en) * 1998-09-25 2002-12-03 Oki Electric Industry Co, Ltd. Moving-picture decoding method and apparatus calculating motion vectors to reduce distortion caused by error propagation
KR20030064332A (ko) * 2002-01-25 2003-07-31 마이크로소프트 코포레이션 개선된 영상 코딩 방법 및 장치

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0514012A3 (en) * 1991-04-15 1993-11-18 Vistek Electronics Method and apparatus for the standard conversion of an image signal
US5621467A (en) * 1995-02-16 1997-04-15 Thomson Multimedia S.A. Temporal-spatial error concealment apparatus and method for video signal processors
JP3263807B2 (ja) * 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
GB2318246B (en) * 1996-10-09 2000-11-15 Sony Uk Ltd Processing digitally encoded signals
US6078616A (en) * 1997-03-13 2000-06-20 Sony Corporation Methods and apparatus for error concealment utilizing temporal domain motion vector estimation
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
GB2343321B (en) * 1998-11-02 2003-03-26 Nokia Mobile Phones Ltd Error concealment in a video signal
JP3630590B2 (ja) * 1999-08-25 2005-03-16 沖電気工業株式会社 復号化装置及び伝送システム
US7110452B2 (en) * 2001-03-05 2006-09-19 Intervideo, Inc. Systems and methods for detecting scene changes in a video data stream
DE60119931T2 (de) * 2001-10-05 2007-04-26 Mitsubishi Electric Information Technology Centre Europe B.V., Guildford Verfahren und Vorrichtung zur Kompensation von fehlerhaften Bewegungsvektoren in Bilddaten
US8175159B2 (en) * 2002-01-24 2012-05-08 Hitachi, Ltd. Moving picture signal coding method, decoding method, coding apparatus, and decoding apparatus
CN1265649C (zh) * 2002-01-24 2006-07-19 株式会社日立制作所 运动图像的编码方法、解码方法、编码装置及解码装置
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
US7020207B1 (en) * 2002-12-02 2006-03-28 Hitachi, Ltd. Video error concealment mechanism for block based video decompression
CN100446560C (zh) * 2003-01-10 2008-12-24 汤姆森特许公司 用于平滑在误差掩蔽期间产生的人为产物的解码器装置和方法
WO2004075554A1 (en) * 2003-02-18 2004-09-02 Nokia Corporation Picture decoding method
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6489996B1 (en) * 1998-09-25 2002-12-03 Oki Electric Industry Co, Ltd. Moving-picture decoding method and apparatus calculating motion vectors to reduce distortion caused by error propagation
KR20030064332A (ko) * 2002-01-25 2003-07-31 마이크로소프트 코포레이션 개선된 영상 코딩 방법 및 장치

Also Published As

Publication number Publication date
JP2007521696A (ja) 2007-08-02
MXPA06003925A (es) 2006-07-05
EP1671427A1 (en) 2006-06-21
KR20060090990A (ko) 2006-08-17
WO2005046072A1 (en) 2005-05-19
BR0318528A (pt) 2006-09-12
AU2003282462A1 (en) 2005-05-26
EP1671427A4 (en) 2010-04-07
US20070014359A1 (en) 2007-01-18

Similar Documents

Publication Publication Date Title
KR100941123B1 (ko) 에러 은닉을 위한 직접 모드 도출 프로세스
EP1993292B1 (en) Dynamic image encoding method and device and program using the same
US8687696B2 (en) Derivation of frame/field encoding mode for a pair of video macroblocks
EP0933948B1 (en) Video encoder and video encoding method
US8699562B2 (en) Method and an apparatus for processing a video signal with blocks in direct or skip mode
US20210377520A1 (en) Constrained motion vector derivation for long-term reference pictures in video coding
US8644395B2 (en) Method for temporal error concealment
KR100357093B1 (ko) 동영상 압축 복원시스템에서의 오류 은폐장치 및 방법
EP1092321A1 (en) Video encoding method with selection of b-frame encoding mode
EP1927249A1 (en) Apparatus and method for encoding and decoding multi-view video
EP2207356A1 (en) Method and apparatus for video coding using large macroblocks
US20080225946A1 (en) Error Concealment Technique Using Weighted Prediction
JP4020883B2 (ja) 動画像復号装置
Itani et al. Adaptive direct vector derivation for video coding
WO2007037645A1 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
US20050013496A1 (en) Video decoder locally uses motion-compensated interpolation to reconstruct macro-block skipped by encoder
US6608937B1 (en) Low bit rate video coding method and system
US8396131B2 (en) Method and system for obtaining motion vectors and boundary strengths of an image
KR101307682B1 (ko) H.264/avc 베이스라인 프로파일에서의 rdo에 기반한 움직임 벡터 숨김 정보 삽입을 이용한 에러 검출 방법
CA2877306A1 (en) Apparatus and method for coding a video signal
KR100986992B1 (ko) H.264 인코딩 시 고속 인터 모드 결정 방법
Tang et al. Adaptive frame recovery based on motion activity
Klomp et al. Motion estimation at the decoder
Benelli et al. Real-time error concealment for MPEG2-compatible data-partitioning scalable video codecs
HoangVan et al. Improved B-slices DIRECT mode coding using motion side information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee