KR100689216B1 - 서브블록을 이용한 인트라 프레임의 시간적인 오류은닉방법 - Google Patents

서브블록을 이용한 인트라 프레임의 시간적인 오류은닉방법 Download PDF

Info

Publication number
KR100689216B1
KR100689216B1 KR1020050039797A KR20050039797A KR100689216B1 KR 100689216 B1 KR100689216 B1 KR 100689216B1 KR 1020050039797 A KR1020050039797 A KR 1020050039797A KR 20050039797 A KR20050039797 A KR 20050039797A KR 100689216 B1 KR100689216 B1 KR 100689216B1
Authority
KR
South Korea
Prior art keywords
macroblock
frame
lost
subblock
block
Prior art date
Application number
KR1020050039797A
Other languages
English (en)
Other versions
KR20060117063A (ko
Inventor
유철
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020050039797A priority Critical patent/KR100689216B1/ko
Publication of KR20060117063A publication Critical patent/KR20060117063A/ko
Application granted granted Critical
Publication of KR100689216B1 publication Critical patent/KR100689216B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Abstract

본 발명은 전송오류가 발생된 매크로블록의 주변 블록들의 정보를 사용하여 오류를 은닉하는 방법에 관한 것이다.
이러한 본 발명은 MPEG2 알고리즘에 따른 영상압축 부호화 방식에 있어서, 현재 프레임에서 손실된 매크로블록을 검출하는 제1 단계와, 손실된 매크로블록을 소정 수의 서브블록으로 분할하는 제2 단계와, 각 서브블록을 기준으로 서브 매크로블록을 형성하는 제3 단계와, 각 서브 매크로블록에 대해 이전 프레임의 소정 검색영역에서 블록 매칭을 적용하여 가장 근사한 매크로 블록을 검색하는 제4 단계와 현재 프레임의 손실된 매크로블록의 서브블록을, 검색된 매크로블록의 해당 서브블록으로 대치하여 오류를 은닉하는 제5 단계를 포함하는 것이다.
이러한 본 발명에 따르면 기존의 방법인 제로 움직임 벡터 오류 은닉 방식의 단점인 움직임 영역에서의 복원의 어려움이나 매크로 블록단위 오류 은닉 방식의 복원 블록의 번짐(blur) 현상과, 그리고 에지 영역에서의 블록 경계 정합 오류 은닉 방식의 부정확한 움직임 예측을 방지할 수 있다.
오류은닉, 영상부호화, MPEG-2, 매크로블록, 움직임추정, 프레임

Description

서브블록을 이용한 인트라 프레임의 시간적인 오류 은닉방법{ Temporal Error Concealment Method of Intra Frame Using Subblocks }
도 1은 본 발명이 적용될 수 있는 전형적인 MPEG-2 비디오 부호화기의 개략도,
도 2는 본 발명이 적용될 수 있는 전형적인 MPEG-2 비디오 복호화기의 개략도,
도 3은 본 발명의 실시예에 따른 GOP의 구조,
도 4는 본 발명에 따른 오류 은닉방법을 도시한 순서도,
도 5는 본 발명에 따라 손실된 매크로블록을 서브블록으로 나누는 개념을 도시한 도면,
도 6a 내지 도 6d는 본 발명에 따라 서브블록의 매크로블록에 블록 매칭을 적용한 예,
도 7은 본 발명에 따라 검색된 매크블록의 오류 은닉을 설명하기 위한 도면,
도 8은 본 발명에 따른 오류 은닉방법의 다른 실시예을 도시한 순서도,
도 9는 본 발명의 다른 실시예에 의해 오류 은닉을 설명하기 위해 도시한 도면.
*도면의 주요부분에 대한 부호의 설명
102,124,212: 프레임 메모리 104,122,210: 가산기
106: 이산코사인변환기 108: 양자화기
110: 가변장 부호화 및 다중화기 112,202: 버퍼
114: 레이트제어기 116: 복잡도 계산부
118,206: 역양자화기 120,208: 역이산코사인변환기
126,214: 적응 예측부 128: 움직임추정부
204: 역다중화 및 가변장복호기
본 발명은 MPEG-2 알고리즘에 따른 영상 부호화기술에서 오류를 은닉하기 위한 오류은닉 기술에 관한 것으로, 더욱 상세하게는 전송오류가 발생된 매크로블록의 주변 블록들의 정보를 사용하여 오류를 은닉하는 방법에 관한 것이다.
일반적으로, 디지탈 TV/HDTV 신호는 제한된 채널 대역폭으로 인해 MPEG-2 알고리즘을 이용한 높은 압축율로 압축된 신호를 사용한다. MPEG-2에서는 움직임보상(Motion compensation), 혼합 이산코사인변환(Hybrid Discrete Cosine Transform), 가변장부호화(Variable Length Coding), 적응 양자화(Adaptive Quantization) 등으로 압축된 신호를 계층구조의 비트 스트림으로 형성하여 전송채널로 보낸다. 이때 전송채널로 보내진 압축 데이터는 채널잡음이나 물리적인 채널의 손상 등과 같은 전송오류로 인하여 손실되거나 손상될 수 있으며, 압축된 데이터에 손상을 주는 전송오류는 크게 랜덤 비트 오류(random bit error)와 이레이져 오류(erasure error)가 있다.
랜덤 비트 오류는 물리적 채널의 결함에 의해서 생성되며, 고정길이 부호화를 사용할 때에는 단 하나의 코드워드에만 영향을 미치지만 가변장 부호화를 사용하게 되면 코드화된 정보의 동기화를 잃어버리게 할 수도 있다. 이레이져 오류는 패킷 네트워크에서 패킷손실, 물리적 결함에 의한 저장 미디어에서의 버스트 오류(burst error), 짧은 시간동안의 시스템 결함 등에 의해 야기되며, 비트의 연속적인 세그먼트의 손실 혹은 손상 등으로 인하여 랜덤 비트보다 훨씬 심한 손상을 발생시킨다.
이러한 전송오류에 의한 데이터의 손실이나 손상으로부터 화질의 열화를 방지하기 위하여 MPEG-2에서 주로 사용하는 종래의 오류은닉기술은 디코더에서 전송오류에 의해 손실된 정보를 복구하거나 추정하는 것이다.
부호화기에서 사용되는 오류 제어 알고리즘인 오류 은닉 알고리즘에는 크게 공간적 오류 은닉과, 시간적 오류 은닉 알고리즘으로 나눌 수 있다. 공간적 오류 은닉 알고리즘과 시간적 오류 은닉 알고리즘은 한 프레임 내의 인접한 블록들과 영상의 인접한 프레임들 사이의 정보는 높은 상관성을 갖는다는 특성을 이용한다.
공간적 오류 은닉은 오류가 발생한 블록에 대해 공간적으로 인접한 블록들의 정보를 사용해 복원하는 알고리즘이다. 이러한 공간적 오류 은닉 알고리즘은 손실 매크로 블록 단위나 서브블록 단위로 인접한 블록 경계의 화소를 사용하여 손실 블 록을 복원하는 오류 은닉 알고리즘으로 구분된다.
시간적 오류 은닉 알고리즘은 손실 블록의 움직임 벡터를 추정하여 예측된 움직임 벡터에 대한 움직임 보상 은닉을 수행하게 된다. 움직임 벡터를 제로(zero)로 예측하거나 혹은 주위 블록들의 움직임 벡터의 평균이나 중간 값을 사용하여 움직임 벡터를 예측함으로써 은닉을 수행하는 오류 은닉 알고리즘이 있다.
제로 움직임 벡터 오류 은닉은 오류 은닉 알고리즘 중 가장 복잡도가 적은 알고리즘으로, 현재 프레임과 이전 프레임 사이에 움직임을 제로(zero)로 예측한다. 이러한 제로 움직임 벡터 오류 은닉에서는 현재 프레임의 손실된 블록을 이전 프레임 상의 같은 위치에 존재하는 블록을 가지고 복원한다. 하나의 고정된 백그라운드를 가지는 대부분의 비디오 시퀀스에 있어서 움직임 벡터는 제로(zero)이거나 작은 크기를 보이기 때문에, 제로 움직임 벡터 오류 은닉 알고리즘은 손실된 블록에 대해 상당한 근사치를 얻게 된다. 하지만 움직임이 복잡한 영상이나 움직임 벡터가 클 경우에는 성능이 상당히 저하된다.
매크로 블록 단위의 공간적 오류 은닉은 손실된 매크로 블록의 인접한 상, 하, 좌, 우 4개의 매크로 블록의 경계 화소 값을 이용한다. 경계 화소 값을 이용하여 손실된 블록의 모든 화소 정보를 복원하는데, 각 화소의 복원에 있어 경계 화소와의 거리상에 따른 가중치를 부여하여 더욱 정확한 화소 정보를 복원한다. 이 알고리즘은 움직임이 클 경우, 시간적 오류 은닉에 비해 우수한 성능을 갖는다. 하지만 인접한 4개의 매크로 블록들이 모두 손실되지 않은 경우에만 좋은 성능을 보일 수 있으며, 주위 화소 정보를 이용한 보간법을 사용하기 때문에 복원된 블록은 흐릿한 영상을 나타내 화질이 감소되는 문제점이 있다.
또한 블록 경계 정합 오류 은닉은 손실된 매크로 블록을 복원하기 위해 공간적으로 이웃한 매크로 블록의 경계 화소를 이용한다. 블록의 경계에 에지나 모서리가 존재할 경우, 각 경계 화소의 방향성을 예측하여 추정된 방향에 대한 화소와의 경계 정합을 통해 오류를 복원하거나, 움직임 벡터의 복원 뿐만 아니라 부호화에서 움직임 보상을 통해 얻는 차분 블록의 정보도 주변 블록으로부터 이용해 오류를 복원한다. 그리고 경계 정합 오류를 통해 얻은 움직임 벡터로 복원된 블록을 서브블록으로 나누고, 각 서브블록을 경계 정합으로 얻은 움직임 벡터와 상, 하 블록의 움직임 벡터, 그리고 좌, 우 블록의 움직임 벡터의 평균을 취해서 오류를 복원한다.
기본적인 경계 정합 알고리즘은 현재 프레임의 오류가 발생한 매크로 블록(X)의 주변 매크로 블록의 경계 화소와 손실된 매크로 블록(X)과 같은 위치에 존재하는 이전 프레임의 매크로 블록을 기준으로 (-16~15)의 검색 범위(search_range) 내의 매크로 블록의 내부 경계 화소와의 블록 정합을 통해 결정된 매크로 블록을 선택하여 현재 프레임의 오류가 발생한 매크로 블록을 보상한다. 검색 범위 내에서 손실된 매크로 블록(X)을 대치하기 위한 최적의 매크로 블록을 찾기 위해 다음 수학식1을 이용한다.
Figure 112005024952696-pat00001
Figure 112005024952696-pat00002
상기 수학식 1에서 a,b는 블록 경계 정합이 수행되는 검색 범위(-16~15)의 움직임 벡터이다. N은 매크로 블록 크기로서 N=16이고, DX는 손실된 매크로 블록의 상, 하, 좌, 우 경계 화소와 이전 프레임의 정합 매크로 블록의 경계 화소 사이의 차이값으로 x=L, R, T, B이다. 그리고 수학식2에서 D-s는 Dx의 합을 나타내며, 그 값이 최소가 될 때 이웃한 블록들의 경계 화소 값이 가장 유사하다는 것을 의미하므로 이때의 매크로 블록을 가지고 손실 블록을 은닉하게 된다.
그런데 이러한 종래방식은 손실된 블록의 주위의 경계화소(총 64화소)만을 이용하기 때문에 복원하고자 하는 손실된 정보에 비해 사용되어지는 정보의 양이 너무 작아 은닉된 정보가 올바르지 않은 정보를 얻게 되어 영상의 질을 저하시키는 문제점이 있다.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 제안된 것으로, 전송오류가 발생된 매크로블록의 주변 블록들의 정보를 사용하여 오류를 은닉하는 서브블록을 이용한 인트라 프레임의 시간적인 오류 은닉방법을 제공하는데 그 목적이 있다.
본 발명의 다른 목적은 서브블록들간의 블로킹 현상을 제거할 수 있는 서브블록을 이용한 인트라 프레임의 시간적인 오류 은닉방법을 제공하는 것이다.
상기와 같은 목적을 달성하기 위하여 본 발명의 방법은, MPEG2 알고리즘에 따른 영상압축 부호화 방식에 있어서, 현재 프레임에서 손실된 매크로블록을 검출하는 제1 단계; 상기 손실된 매크로블록을 소정 수의 서브블록으로 분할하는 제2 단계; 상기 각 서브블록을 기준으로 서브 매크로블록을 형성하는 제3 단계; 상기 각 서브 매크로블록에 대해 이전 프레임의 소정 검색영역에서 블록 매칭을 적용하여 가장 근사한 매크로 블록을 검색하는 제4 단계; 및 현재 프레임의 손실된 매크로블록의 서브블록을, 상기 검색된 매크로블록의 해당 서브블록으로 대치하여 오류를 은닉하는 제5 단계를 포함하는 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위하여 본 발명의 다른 방법은, 현재 프레임에 서 손실된 매크로블록을 검출하는 단계; 상기 손실된 매크로블록을 소정 수의 서브블록으로 분할하는 단계; 상기 각 서브블록을 기준으로 소정 수의 서브 매크로블록을 형성하는 단계; 상기 각 서브 매크로블록에 대해 이전 프레임에서 블록매칭을 적용하여 예측 움직임 벡터(EMV)를 산출하는 단계; 및 상기 서브 매크블록에 대한 예측 움직임 벡터를 비교하여 동일한 예측 움직임 벡터(EMV)가 존재하면, 해당 예측 움직임 벡터를 대표 움직임 벡터로 예측한 후 나머지 매크로 블록에 대해서도 적용하여 오류를 은닉하는 단계를 구비한 것을 특징으로 한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 자세히 설명하기로 한다.
도 1은 본 발명이 적용될 수 있는 전형적인 MPEG-2 비디오 부호화기의 개략도로서, 부호화기는 프레임 메모리(102)와, 가산기(104), 이산코사인변환기(106: DCT), 적응 양자화기(108: Q), 가변장부호화 및 다중화기(110: VLC & MUX), 버퍼(112), 레이트(Rate) 제어기(114), 복잡도(Activity) 계산부(116), 역양자화기(118: DeQ), 역이산코사인변환기(120: IDCT), 가산기(122), 프레임메모리(124), 적응예측부 (126), 움직임추정부(128)로 구성된다.
MPEG 비디오 알고리즘은 시간적 중복성(temporal redundancy)을 줄이기 위한 블록기반 움직임 보상(block based motion compensation) 방식과 공간적인 중복성(spatial redundancy)을 줄이기 위한 이산코사인변환(Discrete Cosine Transform) 방식 등 2가지 기본기술에 의존한다. MPEG-2 비디오 소스 코딩의 경우 움직임 보상 혼합 이산코사인 변환을 기반으로 하는 코딩방식을 사용하는데, 여기에는 인트 라 코딩(Intra coding) 프레임이라 불리우는 I 프레임과 인터 코딩(Inter coding) 프레임이라 불리우는 P, B 프레임 등 3가지 형태의 프레임이 사용된다.
I 프레임은 다른 프레임의 참조없이 자기 자신의 정보를 이용하여 코딩되며, 비트 스트림에서의 랜덤 억세스 지점으로 사용되고, P, B 프레임의 참조 프레임으로 사용된다. P 프레임은 이전의 I 프레임 혹은 P 프레임으로부터 순방향 움직임 보상 예측(Forward motion prediction)을 사용하며, B 프레임은 이전의 I 혹은 P 프레임으로부터 순방향 움직임 보상 예측(Forward motion prediction)과 다음의 I 혹은 P 프레임으로부터의 역방향 움직임 보상 예측(Backward motion prediction) 등 쌍방향 움직임 보상 예측 (Bidirectional motion prediction)을 사용한다. 이때 I 프레임과 P 프레임을 앵커 프레임(anchor frame)이라 한다.
또한 몇개의 프레임을 하나의 그룹으로 묶어서 픽처 그룹(GOP:Group Of Picture)이라 부르며, 하나의 GOP에는 단지 하나의 I 프레임이 포함된다. 각 프레임들은 슬라이스(slice)로 구성되며, 하나의 슬라이스(slice)는 여러개의 매크로블록(macro block)으로 구성되고, 각 매크로블록(macro block)은 8 x 8 픽셀의 형태를 가지는 4개의 블록(block)으로 구성된다.
도 1을 참조하면, 프레임 메모리(102)로는 GOP를 형성할 일련의 픽쳐들이 순차적으로 저장된다. 프레임 메모리(102)에 저장된 프레임을 I 프레임으로 인트라 코딩할 경우, I 프레임 코딩은 움직임 예측이 없으므로 가산기(104)를 지나 이산코사인변환기(106)와 적응 양자화기(108)와 가변장부호기(110)를 거치면서 블록 혹은 매크로블록 단위로 인트라 코딩이 이루어진다.
이산 코사인 변환기(106)에서 이산 코사인 변환은 8 x 8 블록단위로 이루어지는데, 블록의 모든 에너지가 이 블록의 DC값에 집중되도록 주파수 도메인으로 프레임의 정보를 이동시키는 것이다. 여기서, 이산코사인 변환과정에 의하여 얻어진 이산코사인 변환계수는 저주파(DC) 성분과 고주파(AC) 성분으로 나누어 독립적으로 양자화하되는데, 저주파(DC) 성분은 바로 이전 매크로블록의 저주파(DC) 성분을 예측치로 한 차이값이 부호화되고, 고주파(AC) 성분은 블록마다 지그재그 스캔하여 일렬로 나열된 후 부호화된다. 양자화기(108)는 인간의 시각적 특성과 부호화 효율을 고려하여 가중치 메트릭스(weighting matrix)와 적절한 크기의 양자화 스텝으로 이산코사인 변환계수를 양자화하는데, 부호화할 프레임의 복잡도(activity)와 전송속도를 고려하여 양자화 스텝을 조절한다. 즉, MPEG-2에서는 피드백(feed-back) 방식과 피드포워드(feed-forward)방식을 결합하여 전송율을 조정하는데, 이를 위해 레이트 제어기(114)는 버퍼(112)의 충만도와 복잡도 계산부(116)의 복잡도를 고려하여 양자화 스텝 사이즈를 가변한다.
한편, 프레임 메모리(102)에 저장된 프레임 데이터를 P나 B 프레임으로 인터 코딩할 경우, 블록매칭알고리즘(Block Matching Algorithm: BMA)에 의해 예측된 움직임 벡터(Motion Vector)를 사용한다. P 프레임의 경우에는 이전 I나 P프레임으로부터 예측된 순방향 움직임 벡터를 사용하고, B 프레임의 경우에는 이전 I나 P프레임과 다음 I나 P 프레임으로부터 예측된 순방향 및 역방향 움직임 벡터를 사용한다.
또한, MPEG-2는 프레임 단위와 필드 단위 등 2가지 방식의 움직임 보상 예측 방식을 사용하는데, 프레임 단위의 경우 하나의 프레임은 하나의 전체 픽쳐가 되고, 각 매크로 블록당 하나의 움직임 벡터를 갖게 된다. 반면에, 필드 단위의 경우 하나의 필드는 인터레이스드 하프 프레임(interlaced half frame)이 되며, 필드당 하나씩 매크로블록 하나에 2개의 움직임 벡터를 가지게 된다. 인코더에서는 움직임 보상 예측 방식에 의하여 발생된 예측오류를 계산하여 비트 스트림에 삽입하게 되고, 예측오류는 인트라 코딩 매크로블록처럼 이산코사인변환을 사용하여 시간중복성 감소를 가지고 압축하게 된다. 이때 움직임과 관련된 정보는 16x16 블록에 기반하여 공간정보와 함께 전송되며, 움직임 정보는 최대 효율성을 위하여 가변장 부호화를 사용하여 압축된다. 이와 같이 MPEG-2방식의 영상 예측오류, 움직임벡터 등의 정보를 코딩할 때 가변장 부호화를 사용하므로 전송시에 발생되는 오류에 매우 민감하게 된다.
다시 도 1을 참조하면, I프레임에 대한 인트라 코딩이 진행된 후 프레임 메모리(102)에는 역양자화기(118)에서 역양자화되고 역이산코사인변환기(120)에서 역이산코사인변환되어 복원된 참조 프레임의 데이터가 저장되어 있다. 인터 코딩할 경우 움직임 추정은 통상 매크로블록 단위로 이루어지는데, 움직임 추정부(128)는 코딩할 매크로블록과 가장 유사한 매크로블록을 이전 참조 프레임에서 찾아 움직임 벡터를 구하고, 적응 예측부(126)는 움직임벡터에 의해 지정된 레퍼런스 블록을 찾아 가산기(104)로 출력한다. 가산기(104)는 코딩할 프레임의 해당 매크로블록과 레퍼런스 블록의 차(예측오류)를 출력하고, 이산코사인변환기(106)를 이를 이산코사인변환한다. 양자화기(108)는 이산코사인 변환계수를 양자화하고, 가변장 부호화 및 다중화기(110)는 양자화기(108)가 출력하는 양자화된 예측오류와 부가적인 여러 정보(움직임벡터, 양자화정보 등)를 가변장 부호화한 후 다중화하여 출력한다.
이와 같이 MPEG-2 부호화기에서 코딩된 비트 스트림은 전송매체를 통해 전송되어 도 2에 도시된 비와 같은 MPEG-2 비디오 복호화기에서 복호화된다.
도 2를 참조하면, MPEG-2 비디오 복호화기는 버퍼(202), 역다중화 및 가변장복호기(204: DeMUX & VLD), 역양자화기(206: DeQ), 역이산여현변환기(208: IDCT), 가산기(210), 프레임 메모리(212), 적응예측부(214)로 구성된다. 버퍼(202)로 수신된 I 프레임의 비디오 데이터는 역다중화 및 가변장 복호기(204)에서 역다중화 및 가변장 복호화된 후 역양자화기(206)에서 역양자화되고, 역이산코사인변환기(208)에서 역이산코사인변환되어 가산기(210)를 거쳐 프레임 메모리(212)에 저장된다. 인터코딩된 P나 B프레임의 데이터는 예측오류는 I 프레임과 같이 역양자화기(206)와 역이산여현변환기(208)를 거쳐 가산기(210)로 전달되고, 수신된 움직임벡터(MV)에 의해 적응 예측부(214)에서 예측된 레퍼런스 블록과 가산되어 원래의 소스 데이터로 복원된다.
도 3은 본 발명의 실시예에 따른 GOP(Group Of Picture)의 구조로서, 하나의 GOP는 I, B1, B2, P, B1, B2, P, B1, B2, P, B1, B2로 이루어지는 12개의 픽쳐로 이루어진다. 여기서, I 픽쳐는 I 프레임이고, B1 및 B2 픽쳐는 B 프레임이며, P 픽쳐는 P 프레임이다. 그리고 I 혹은 P 프레임 사이에 2개의 B 프레임이 포함되는 것을 알 수 있다.
도 3을 참조하면, 본 발명의 실시예에서는 시계열상에 순차적으로 배열되는 GOP에서 이전 GOP에 이어 수신되는 현재 GOP의 첫번째 프레임인 I 프레임에서 오류가 발생된 경우 이전 GOP에서 현재 GOP의 I 프레임에 시간적으로 가장 가까운 B1이나 B2 프레임의 움직임벡터를 이용하여 이전 앵커 프레임(이전 GOP의 마지막 P프레임)의 해당 매크로블록을 I프레임으로 복사하여 오류를 은닉하는 것을 보여준다. 즉, 본 발명은 MPEG-2에 기반하여 움직임 정보를 가지고 있지 않은 I프레임에서의 슬라이스 오류를 처리하기 위한 것이다. 일반적인 코딩 스킴의 경우 I 프레임은 움직임 예측을 사용하지 않지만 H.263+와 MPEG-4의 경우 움직임을 예측할 수 있는 옵션이 설정되어 있다.
도 4는 본 발명에 따른 오류 은닉방법을 도시한 순서도이고, 도 5는 본 발명에 따라 손실된 매크로블록을 서브블록으로 나누는 개념을 도시한 도면이며, 도 6a 내지 도 6d는 본 발명에 따라 서브블록의 매크로블록에 블록 매칭을 적용한 예이다. 그리고 도 7은 본 발명에 따라 검색된 매크블록의 오류 은닉을 설명하기 위한 도면이다.
본 발명의 오류 은닉하는 방법은 도 4에 도시된 바와 같이, 현재 인트라 프레임에서 손실된 매크로블록을 검출하는 단계(S1)와, 손실된 매크로블록을 4개의 서브블록으로 분할하는 단계(S2), 각각의 서브블록을 기준으로 4개의 서브 매크로블록을 형성하는 단계(S3), 각 서브 매크로블록에 대해 이전 프레임에서 블록매칭을 적용하여 가장 근사한 매크로블록을 검색하는 단계(S4), 현재 프레임의 손실된 매크로블록의 서브블록을 검색된 매크로블록의 해당 서브블록으로 대치하여 오류를 은닉하는 단계(S5)로 구성된다.
먼저, 인트라 부호화된 I 프레임의 오류에 있어서 움직임 벡터를 사용하는 오류 은닉 알고리즘은 사용될 수 없으며, 공간적 오류 은닉의 경우 복원된 블록은 번짐 현상이 나타나 전체 영상에 질을 감소시킨다. 그리고 블록 경계 정합 알고리즘은 알고리즘에 이용되는 주위 블록들의 정보가 매우 적기 때문에 그 정보만으로 주위의 모든 정보를 예측할 수 없으며, 그 결과로 이전 프레임과의 경계 정합 과정에서 최적의 움직임 벡터를 찾지 못하여 잘못된 오류 은닉의 결과를 가져온다.
그러나 본 발명은 블록 경계 정합 알고리즘에 있어서 정확한 복원을 할 수 있도록 하기 위해 인접 매크로 블록의 경계 화소 이외의 인근 화소 정보를 사용하여 손실된 블록의 주변 상황을 얻는다. 즉, 본 발명의 서브블록 오류 은닉은 현재의 손실된 매크로 블록을 4개의 서브블록들로 나누고, 다시 각 서브블록들에 대하여 각각의 서브 매크로 블록을 구성한 후, 각각의 구성된 서브 매크로 블록들에 대해 이전 프레임의 검색 범위(-16~15) 내에서 블록 정합을 수행하여 손실 블록을 복원하는 것이다.
이를 위하여 본 발명은 도 5에 도시된 바와 같이, 현재의 손실된 매크로 블록(X)을 4개의 서브블록(XLT, XRT, XLB, XRB)으로 나누고, 각 서브블록(XLT, XRT, XLB, XRB)에 대해 매크로 블록(X1, X2, X3, X4)을 구성한다(S1∼S3). 도 5를 참조하면, 좌상 서브블록(XLT)에 대한 매크로 블록은 X1이고, 우상 서브블록(XRT)에 대한 매크로 블록은 X2이며, 좌하 서브블록(XLB)에 대한 매크로 블록은 X3이고, 우하 서브블록 (XRB)에 대한 매크로 블록은 X4이다.
이어 도 6a 내지 6d에 도시된 바와 같이, 새로 구성된 4개의 서브 매크로 블록들(X1, X2, X3, X4)에 대해서 각각 이전 프레임의 같은 위치의 매크로 블록으로부터 동일한 검색 범위(S)에서 블록 정합을 수행한다(S4).
도 6a는 현재 프레임상에서 새로 구성된 서브 매크로블록 X1과 대응하는 이전 프레임상에서 동일한 위치의 매크로 블록(
Figure 112006078363399-pat00029
)과 현재 프레임상에서 매크로블록 X와 대응하는 이전 프레임상에서 동일한 위치의 매크로 블록(
Figure 112006078363399-pat00030
)을 도시한 것으로서, 검색영역(S)안에서 서브 매크로블록 X1과 가장 근사한 매크로블록을 찾는 것을 나타낸다.
도 6b는 현재 프레임상에서 새로 구성된 서브 매크로블록 X2와 대응하는 이전 프레임상에서 동일한 위치의 매크로 블록(
Figure 112006078363399-pat00031
)과 현재 프레임상에서 매크로블록 X와 대응하는 이전 프레임상에서 동일한 위치의 매크로 블록(
Figure 112006078363399-pat00032
)을 도시한 것으로서, 검색영역(S)안에서 서브 매크로블록 X2와 가장 근사한 매크로블록을 찾는 것을 나타낸다.
도 6c는 현재 프레임상에서 새로 구성된 서브 매크로블록 X3과 대응하는 이전 프레임상에서 동일한 위치의 매크로 블록(
Figure 112006078363399-pat00033
)과 현재 프레임상에서 매크로블록 X와 대응하는 이전 프레임상에서 동일한 위치의 매크로 블록(
Figure 112006078363399-pat00034
)을 도시한 것으로서, 검색영역(S)안에서 서브 매크로블록 X3과 가장 근사한 매크로블록을 찾는 것을 나타낸다.
도 6d는 현재 프레임상에서 새로 구성된 서브 매크로블록 X4와 대응하는 이전 프레임상에서 동일한 위치의 매크로 블록(
Figure 112006078363399-pat00035
)과 현재 프레임상에서 매크로블록 X와 대응하는 이전 프레임상에서 동일한 위치의 매크로 블록(
Figure 112006078363399-pat00036
)을 도시한 것으로서, 검색영역(S)안에서 서브 매크로블록 X4와 가장 근사한 매크로블록을 찾는 것을 나타낸다.
이때 블록 정합의 결과로 다음 수학식3을 이용해 연산된 차분치(D_Xi) 가 최소가 되는 블록을 손실 서브블록에 적합한 블록으로써 예측한다. 단, 각 서브 매크로 블록의 블록 정합을 수행하는데 있어 포함된 손실 서브블록을 제외한 나머지 부분들에 대해서만 차분치(D_Xi)를 구하게 된다. 이것은 서브 매크로 블록들에 포함되어진 서브블록들에는 손실된 정보만이 존재하기 때문에 블록 정합을 하는데 있어 사용할 수가 없기 때문이다.
Figure 112005024952696-pat00003
상기 수학식 3에서 a, b는 블록 정합을 하게 되는 검색 범위의 크기가 된다. N, B는 각각 매크로 블록 크기와 블록의 크기를 나타내며, N=16. B=8이다. 손실된 매크로 블록(X)은 XUV로 표시되는 좌상 서브블록(XLT), 우상 서브블록(XRT), 좌하 서브블록(XLB), 우하 서브블록(XRB)의 4개 서브블록을 갖는다. 이때 u=L, R, v=T, B이다. 그리고 Xi는 각 서브블록으로부터 구성된 매크로 블록으로서, i=1~4이다.
Figure 112006078363399-pat00037
는 Xi와 같은 위치를 갖는 이전 프레임의 매크로 블록이다. D_Xi는 각 서브 매크로 블록들의 이전 프레임과의 블록 정합 결과인 차분치를 나타낸다.
마지막으로 도 7에 도시된 바와 같이, 이전 프레임에서 블록 정합을 통해 각각 예측 되어진 매크로 블록(
Figure 112005024952696-pat00004
)의 서브블록에 해당하는 정보(
Figure 112005024952696-pat00005
)를 가지고 현재 프레임의 손실된 매크로 블록의 서브블록들을 복원한다(S5). 여기서,
Figure 112005024952696-pat00006
는 각 서브 매크로 블록에 대한 블록 정합으로 예측된 매크로 블록을 나타내고,
Figure 112005024952696-pat00007
는 각 예측된 매크로 블록에서의 해당하는 서브블록을 나타내며, 오류가 발생한 현재의 매크로 블록을 은닉하기 위해 실제 사용되는 정보이다.
도 7을 참조하면, 서브 매크로블록 X1에 대응하는 이전 프레임상에서 예측 매크로 블록 (
Figure 112005024952696-pat00008
)에서 해당 서브블록 (
Figure 112005024952696-pat00009
)을 현재 프레임의 손실된 매크로블록의 서브블록XLT로 복사하고, 서브 매크로블록 X2에 대응하는 이전 프레임상에서 예측 매크로 블록 (
Figure 112005024952696-pat00010
)에서 해당 서브블록 (
Figure 112005024952696-pat00011
)을 현재 프레임의 손실된 매크로블록의 서브블록XRT로 복사하고, 서브 매크로블록 X3에 대응하는 이전 프레임상에서 예측 매크로 블록 (
Figure 112005024952696-pat00012
)에서 해당 서브블록 (
Figure 112005024952696-pat00013
)을 현재 프레임의 손실된 매크로블록의 서브블록XLB로 복사하고, 서브 매크로블록 X4에 대응하는 이전 프레임상에서 예측 매크로 블록 (
Figure 112005024952696-pat00014
)에서 해당 서브블록 (
Figure 112005024952696-pat00015
)을 현재 프레임의 손실된 매크로블록의 서브블록 XRB로 복사하여 손실된 매크로블록의 오류를 은닉한다.
본 발명에 따른 오류 은닉 알고리즘은 오류가 슬라이스 단위로 발생하여 좌, 우 매크로 블록의 정보를 사용하지 못하는 경우에 있어서도 적용된다. 즉, 슬라이스 오류가 발생할 경우, 서브 매크로 블록의 이전 프레임과의 블록 정합은 손실되지 않은 위, 아래 매크로 블록의 정보만을 가지고 수행된다.
한편, 본 발명의 제1 실시예에서는 각각의 서브 매크로 블록의 서브블록 단위로 복원되기 때문에 복원되어진 서브블록들 간의 블로킹 효과가 발생하여 블록들 의 경계 부분에서 화질 저하가 발생될 수 있다. 본 발명의 다른 실시예는 이러한 블로킹 형상을 해결하기 위한 것이다.
도 8은 본 발명에 따른 오류 은닉방법의 다른 실시예을 도시한 순서도이고, 도 9는 본 발명의 다른 실시예에 의해 오류 은닉을 설명하기 위해 도시한 도면이다.
본 발명에 따른 서브블록 오류 은닉은 서브블록 단위로 은닉이 수행되므로 은닉되는 서브블록간의 블로킹 현상이 나타날 수 있다. 이러한 복원된 서브블록들 간의 블로킹 현상을 제거하기 위해서 본 발명의 다른 실시예에서는 도 8에 도시된 바와 같이, 각 서브 매크로 블록들이 블록 정합을 사용하여 예측한 매크로 블록과 현재 매크로 블록의 위치와의 움직임 벡터를 예측한다.
그리고 각 예측된 매크로 블록들 사이의 움직임 벡터의 상관성을 이용하여 각 움직임 벡터에 대해 하나의 대표 벡터를 구하고, 모든 예측 서브 매크로 블록들에 대해 대표 움직임 벡터를 적용한다. 대표 움직임 벡터를 각 예측 매크로 블록에 적용할 수 있는 것은 인접 블록들 간의 움직임은 높은 상관성을 갖고 있기 때문이다.
도 8을 참조하면, 본 발명의 다른 실시예는 현재 프레임에서 손실된 매크로블록을 검출하는 단계(S1)와, 손실된 매크로블록을 4개의 서브블록으로 분할하는 단계(S2), 각각의 서브블록을 기준으로 4개의 서브 매크로블록을 형성하는 단계(S3), 각 서브 매크로블록에 대해 이전 프레임에서 블록매칭을 적용하여 예측 움직임 벡터(EMV: Estimated Motion Vector)를 산출하는 단계(S6), 4개의 서브 매크블 록에 대한 예측 움직임 벡터를 비교하여 동일한 예측 움직임 벡터(EMV)가 존재하면 해당 예측 움직임 벡터를 대표 움직임 벡터로 예측한 후 나머지 매크로 블록에 대해서도 적용하여 오류를 은닉하는 단계(S7,S8)로 구성된다. 다른 실시예의 단계에서 S1 내지 S3는 도 4에서의 S1 내지 S3과 동일하므로 더 이상의 설명은 생략한다.
단계 S6에서 서브 매크로 블록 오류 은닉을 통하여 각 서브 매크로 블록들의 움직임 벡터를 구한다(S6). 이렇게 얻은 4개의 각 서브블록들의 예측 움직임 벡터(Estimated Motion Vector, EMV)를 각각 EMVuv로 표시한다( u=L, R, v=T, B).
각 EMV에 대해 상관성을 찾기 위해 같은 예측 움직임 벡터를 가지는 매크로 블록들이 있는지 비교한다(S7). 만약, 도 9에 도시된 바와 같이 동일한 움직임 벡터를 갖는 매크로 블록들이 존재한다면, 그 움직임 벡터는 대표 움직임 벡터로 예측한다.
예측된 대표 움직임 벡터를 나머지 매크로 블록들에 대해서도 적용해 도 9의 화살표와 같이, 움직임 벡터를 이동한 후 해당하는 블록의 정보를 은닉하기 위한 정보로써 사용한다(S8).
도 9을 참조하면, 우상 서브블록(XRT)에 대한 서브 매크로블록과 좌하 서브블록(XLB)에 대한 서브 매크로블록의 예측 움직임 벡터가 동일하므로 이 예측 움직임 벡터를 대표 벡터로 선정하고, 좌상 서브블록(XLT)에 대한 서브 매크로블록과 우하 서브블록(XRB)에 대한 서브 매크로블록에 대해서도 대표 움직임 벡터를 적용한 후, 이전 프레임의 이들 블록을 현재 프레임의 해당 서브블록으로 복사하여 손실된 매크로블록의 오류를 은닉한다(S8).
이와 같이 본 발명의 다른 실시예에 따르면, 동일한 예측 움직임 벡터를 이용하여 오류를 은닉하므로 서브블록간의 블로킹 현상이 제거됨으로써 복원된 매크로블록 내부의 서브블록간에 부드러운 영상을 얻어 전체 영상의 질을 향상시키는 결과를 얻을 수 있다.
이상에서 설명한 바와 같이, 본 발명은 동영상 압축 알고리즘인 MPEG-2로 압축된 비디오 데이터에 대한 전송 오류를 제어함에 있어 I 프레임에 발생한 오류를 복원하기 위해 손실 블록에 대해 주변 블록들의 정보를 이용해 이전 프레임으로부터 손실 블록을 대치할 수 있는 적절한 블록을 예측하여 은닉하는 것이다.
이러한 본 발명에 따르면 기존의 방법인 제로 움직임 벡터 오류 은닉 방식의 단점인 움직임 영역에서의 복원의 어려움이나 매크로 블록단위 오류 은닉 방식의 복원 블록의 번짐(blur) 현상과, 그리고 에지 영역에서의 블록 경계 정합 오류 은닉 방식의 부정확한 움직임 예측을 방지할 수 있다.
더욱이 본 발명을 이용한 실험 결과에 따르면, 영상에 따라 최소 0.5 dB에서 최대 5 dB 정도의 PSNR 향상을 보였고, 주관적인 영상 화질에서도 기존 오류 은닉 알고리즘에 비해 우수한 결과를 가져왔다.
또한 본 발명은 슬라이스 단위의 오류가 발생한 프레임과 주변 블록들의 움직임 벡터가 손실된 P, B 프레임에 대해서도 우수한 성능을 나타낼 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (5)

  1. MPEG2 알고리즘에 따른 영상압축 부호화 방식에 있어서,
    현재 프레임에서 손실된 매크로블록을 검출하는 제1 단계;
    상기 손실된 매크로블록을 소정 수의 서브블록으로 분할하는 제2 단계;
    상기 각 서브블록을 기준으로 서브 매크로블록을 형성하는 제3 단계;
    상기 각 서브 매크로블록에 대해 이전 프레임의 소정 검색영역에서 블록 매칭을 적용하여 가장 근사한 매크로 블록을 검색하는 제4 단계; 및
    현재 프레임의 손실된 매크로블록의 서브블록을, 상기 검색된 매크로블록의 해당 서브블록으로 대치하여 오류를 은닉하는 제5 단계를 포함하는 것을 특징으로 하는 서브블록을 이용한 인트라 프레임의 시간적인 오류 은닉방법.
  2. 제1항에 있어서, 상기 제4 단계는
    소정의 수학식을 이용해 연산된 차분치가 최소가 되는 블록을 손실 서브블록에 적합한 블록으로써 예측한되,
    각 서브 매크로 블록의 블록 정합을 수행하는데 있어 포함된 손실 서브블록을 제외한 나머지 부분들에 대해서만 차분치를 구하는 것을 특징으로 하는 서브블록을 이용한 인트라 프레임의 시간적인 오류 은닉방법.
  3. 제2항에 있어서, 상기 수학식은
    Figure 112005024952696-pat00016
    인 것을 특징으로 하는 서브블록을 이용한 인트라 프레임의 시간적인 오류 은닉방법.
  4. 현재 프레임에서 손실된 매크로블록을 검출하는 단계;
    상기 손실된 매크로블록을 소정 수의 서브블록으로 분할하는 단계;
    상기 각 서브블록을 기준으로 소정 수의 서브 매크로블록을 형성하는 단계;
    상기 각 서브 매크로블록에 대해 이전 프레임에서 블록매칭을 적용하여 예측 움직임 벡터(EMV)를 산출하는 단계; 및
    상기 서브 매크블록에 대한 예측 움직임 벡터를 비교하여 동일한 예측 움직임 벡터(EMV)가 존재하면, 해당 예측 움직임 벡터를 대표 움직임 벡터로 예측한 후 나머지 매크로 블록에 대해서도 적용하여 오류를 은닉하는 단계를 구비한 것을 특징으로 하는 서브블록을 이용한 인트라 프레임의 시간적인 오류 은닉방법.
  5. 제1항 또는 제4항에 있어서, 상기 오류 은닉방법은
    슬라이스 단위에 대해서도 적용할 수 있는 것을 특징으로 하는 서브블록을 이용한 인트라 프레임의 시간적인 오류 은닉방법.
KR1020050039797A 2005-05-12 2005-05-12 서브블록을 이용한 인트라 프레임의 시간적인 오류은닉방법 KR100689216B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050039797A KR100689216B1 (ko) 2005-05-12 2005-05-12 서브블록을 이용한 인트라 프레임의 시간적인 오류은닉방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050039797A KR100689216B1 (ko) 2005-05-12 2005-05-12 서브블록을 이용한 인트라 프레임의 시간적인 오류은닉방법

Publications (2)

Publication Number Publication Date
KR20060117063A KR20060117063A (ko) 2006-11-16
KR100689216B1 true KR100689216B1 (ko) 2007-03-09

Family

ID=37704730

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050039797A KR100689216B1 (ko) 2005-05-12 2005-05-12 서브블록을 이용한 인트라 프레임의 시간적인 오류은닉방법

Country Status (1)

Country Link
KR (1) KR100689216B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000050599A (ko) * 1999-01-12 2000-08-05 구자홍 오류 은폐방법
KR20000075760A (ko) * 1997-03-13 2000-12-26 밀러 제리 에이 비디오 영상에 대한 오류 은닉

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000075760A (ko) * 1997-03-13 2000-12-26 밀러 제리 에이 비디오 영상에 대한 오류 은닉
KR20000050599A (ko) * 1999-01-12 2000-08-05 구자홍 오류 은폐방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
1020000050599
1020000075760

Also Published As

Publication number Publication date
KR20060117063A (ko) 2006-11-16

Similar Documents

Publication Publication Date Title
US8208545B2 (en) Method and apparatus for video coding on pixel-wise prediction
US7929608B2 (en) Method of reducing computations in intra-prediction and mode decision processes in a digital video encoder
US8325797B2 (en) System and method of reduced-temporal-resolution update for video coding and quality control
KR101322498B1 (ko) 부호화 장치, 부호화 방법 및 프로그램
JP4908522B2 (ja) 誤り隠蔽に関連する歪み値に基づいてエンコード方法を決定する方法および装置
EP1993292B1 (en) Dynamic image encoding method and device and program using the same
JP5061179B2 (ja) 照明変化補償動き予測符号化および復号化方法とその装置
US20080240246A1 (en) Video encoding and decoding method and apparatus
US20060002466A1 (en) Prediction encoder/decoder and prediction encoding/decoding method
JP5555741B2 (ja) デジタル映像データを符号化するための方法およびデジタル映像符号化システム
US20050129125A1 (en) Method and apparatus for pitcure compression using variable block of arbitrary size
JP3519441B2 (ja) 動画像伝送装置
KR100827091B1 (ko) 동영상 복호화시 손실 은폐 방법 및 이를 이용한 복호화장치
US8654844B1 (en) Intra frame beating effect reduction
EP1720356A1 (en) A frequency selective video compression
KR100454526B1 (ko) 시공간적 정보를 이용한 인트라 프레임의 에러 은닉방법
KR20090064375A (ko) 각 그룹이 인트라 인코딩된 픽처와 둘 이상의 예측 인코딩된 픽처를 포함하는, 비디오 시퀀스의 픽처들의 그룹들을 인코딩하기 위한 방법 및 장치
KR101221495B1 (ko) 적응적 mctf의 rd 최적화 방법
KR100689216B1 (ko) 서브블록을 이용한 인트라 프레임의 시간적인 오류은닉방법
JPH08251597A (ja) 動画像符号化/復号化装置
JP4399794B2 (ja) 画像符号化装置及び画像符号化方法
KR20070090494A (ko) 평균 움직임 벡터를 이용한 인터 프레임 에러 은닉 장치 및방법
KR100856215B1 (ko) 동영상 복호화시 프레임 손실의 은폐 방법 및 장치
KR100801155B1 (ko) H.264에서의 저복잡도를 가지는 공간적 에러 은닉방법
JP4485409B2 (ja) 動画像復号装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130219

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140224

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160202

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170213

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 13