KR100801155B1 - A spatial error concealment method with low complexity in h. 264/avc video coding - Google Patents

A spatial error concealment method with low complexity in h. 264/avc video coding Download PDF

Info

Publication number
KR100801155B1
KR100801155B1 KR1020060080469A KR20060080469A KR100801155B1 KR 100801155 B1 KR100801155 B1 KR 100801155B1 KR 1020060080469 A KR1020060080469 A KR 1020060080469A KR 20060080469 A KR20060080469 A KR 20060080469A KR 100801155 B1 KR100801155 B1 KR 100801155B1
Authority
KR
South Korea
Prior art keywords
edge
prediction mode
error concealment
region
lost
Prior art date
Application number
KR1020060080469A
Other languages
Korean (ko)
Inventor
정제창
김동형
전기철
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020060080469A priority Critical patent/KR100801155B1/en
Application granted granted Critical
Publication of KR100801155B1 publication Critical patent/KR100801155B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

A spatial error concealment method having low complexity in H.264 is provided to restore a lost macro block quickly only by using a less operation amount, thereby decoding superior image quality in real time even when the macro block within an intra frame is lost. A spatial error concealment method having low complexity in H.264 comprises the following steps of: predicting a direction of an edge of a lost macro block by selecting a prior prediction mode among prediction modes of neighboring blocks located around the lost macro block; dividing an area within the lost macro block into an edge area where there is an edge and a flat area where there is no edge by using the selected prior prediction mode; restoring the edge area through an edge based directional interpolation technique, and restoring the flat area through an interpolation technique using a weighted average to restore the lost macro block.

Description

H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법{a spatial error concealment method with low complexity in H.264/AVC video coding}A spatial error concealment method with low complexity in H.264 / AVC video coding

도 1은 인트라16x16의 4가지 예측모드를 보여주는 도이다1 is a diagram showing four prediction modes of intra16x16.

도 2는 인트라 4x4의 9가지 예측모드를 보여주는 도이다.2 is a diagram illustrating nine prediction modes of intra 4x4.

도 3은 본 발명의 실시예에 따른 공간적 에러 은닉 방법의 절차 구성도이다.3 is a block diagram of a procedure of a spatial error concealment method according to an embodiment of the present invention.

도 4는 본 발명의 실시예에 따라 에지크기 값의 계산을 위해 사용되는 각 인트라 모드에서의 예측 방향과 수직에 위치하는 네 개의 화소값을 보여주는 이해도이다.4 is an understanding diagram showing four pixel values perpendicular to the prediction direction in each intra mode used for calculating an edge size value according to an embodiment of the present invention.

도 5는 우세예측모드로서 예측모드4가 선택되고 B1, B5, B10이 예측모드4를 가지는 경우 에지영역 및 평탄영역을 선택하는 예시도이다.FIG. 5 is an exemplary diagram for selecting an edge region and a flat region when prediction mode 4 is selected as the dominant prediction mode and B 1 , B 5 , and B 10 have prediction mode 4.

도 6은 에지영역내의 화소값 복원을 위한 에지방향으로의 보간법을 보여주는 도이다.6 is a diagram showing an interpolation method in an edge direction for restoring pixel values in an edge region.

도 7은 예측모드2를 갖는 주변 블록이 존재하지 않고 에지영역이 전체의 50%를 차지하는 경우 하나의 손실된 매크로블록에 대한 연산량의 비교표이다.FIG. 7 is a comparison table of calculation amounts for one lost macroblock when no neighboring block having prediction mode 2 exists and the edge region occupies 50% of the total.

도 8은 서로 상이한 비트율에서 참조소프트웨어에서의 방법, Alkachouh의 방 법 그리고 본 발명에 따른 에러 은닉 방법의 객관적 화질의 비교표이다.8 is a comparison table of the objective image quality of the method in the reference software, the Alkachouh method and the error concealment method according to the present invention at different bit rates.

도 9는 양자화계수의 값이 20의 경우, Foreman 시퀀스의 첫 번째 프레임 (a) 20%의 매크로블록 손실율이 발생한 영상 (PSNR=11.26dB) (c) 참조소프트웨어의 방법을 사용하여 복원한 영상 (PSNR=29.82dB) (d) Alkachouh의 방법을 사용하여 복원한 영상 (PSNR=28.27dB) (e) 본 발명에 따른 에러 은닉 방법을 사용하여 복원한 영상 (PSNR=34.85dB)을 보여주는 도이다.FIG. 9 shows the first frame of the Foreman sequence when the value of the quantization coefficient is 20 (a) 20% macroblock loss rate (PSNR = 11.26dB) (c) The image reconstructed using the method of the reference software ( PSNR = 29.82dB) (d) Image reconstructed using Alkachouh's method (PSNR = 28.27dB) (e) A diagram showing an image reconstructed using the error concealment method according to the present invention (PSNR = 34.85dB).

본 발명은 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법에 관한 것으로, 인트라 블록의 예측모드 정보는 해당 블록내의 에지방향과 상당한 관련이 있다는 점을 이용하여, 인트라 프레임에서의 손실된 매크로블록의 주변에 위치하는 블록의 예측모드 정보를 이용하여 손실된 매크로블록의 에지방향을 예측하고, 손실된 매크로블록을 에지영역과 평탄영역으로 분리한 후 각각 다른 보간기법을 이용함으로써, 상기 손실된 매크로블록을 저복잡도로 복원할 수 있는 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법에 관한 것이다.The present invention relates to a spatial error concealment method having a low complexity in H.264, in which the prediction mode information of the intra block is significantly related to the edge direction in the block, and thus the lost macroblock in the intra frame The estimated macro direction of the lost macroblock is predicted using the prediction mode information of a block located near the eigen, and the lost macroblock is separated into an edge region and a flat region, and then different interpolation techniques are used. A spatial error concealment method having a low complexity in H.264 which can restore a block to low complexity.

H.264/AVC 표준은 ITU-T의 VCEG(Video Coding Experts Group)와 ISO/IEC의 MPEG(Moving Picture Expert Group)의 공동 작업으로 제정되었다. H.264/AVC 비디오 부호화 방식은 이전의 비디오 부호화 표준들(MPEG2, MPEG4 Part 2, H.263)에는 없던 새로운 부호화 도구들이 추가되었으며, 이러한 도구들은 H.264 부호화 표준이 이전의 비디오 부호화 표준과 비교하여 보다 높은 압축효율을 갖게 하였다.The H264 / ACC standard was established in collaboration with ITU-T's Video Coding Experts Group (VCEG) and ISO / IEC's Moving Picture Expert Group (MPEG). The H.264 / AVC video coding scheme adds new coding tools that were not found in the previous video coding standards (MPEG2, MPEG4 Part 2, H.263). In comparison, it has a higher compression efficiency.

새롭게 추가된 부호화 도구들을 간단히 살펴보면 다음과 같다.Newly added coding tools are as follows.

첫째, H.264에서는 4 × 4 단위의 정수변환을 수행하며, 부호기와 복호기 사이의 부정합(Mismatch) 문제가 발생하지 않는다. 이는 8 × 8 단위의 이산여현변환을 사용함으로써 부호기와 복호기 사이에서의 부정합 문제를 가지고 있던 기존의 여러 비디오 부호화 표준들과 비교된다. 또한, 매크로블록이 인트라 16 × 16 모드로 선택된 경우 변환수행 단위인 4 × 4 변환블록의 DC값들은 다시 한번 하다마드 변환(Hadamard Transform)을 수행하며, 이러한 계층적 변환(Hierarchical Transform)을 통해서 보다 높은 압축효율을 나타낸다. 또한 H.264에서의 양자화 파라미터는 양자화 데이터를 가리키는 하나의 인덱스로 사용되며 0 ~ 51 까지 52단계의 값을 가진다.First, H.264 performs integer conversion of 4 × 4 units, and there is no mismatch between the encoder and the decoder. This is compared with several existing video coding standards that had a problem of mismatch between encoder and decoder by using discrete cosine transform of 8 × 8 units. In addition, when a macroblock is selected as an intra 16 × 16 mode, DC values of a 4 × 4 transform block, which is a transform performing unit, perform a Hadamard transform once again, and through this hierarchical transform, High compression efficiency. In addition, the quantization parameter in H.264 is used as one index indicating quantization data and has a value of 52 steps from 0 to 51.

둘째, H.264에서는 프로파일에 따라 두 가지의 엔트로피 부호화 방법을 사용한다. 즉, 엔트로피 부호화 기법은 변환 계수를 제외한 대부분의 신텍스(Syntax)를 데이터의 특성에 따라 하나의 코드워드 테이블로 변환 후 EGC(Exponential Golomb Code)로 부호화 하고, 변환계수는 이미 부호화된 주변 블록들의 특성을 이용하는 CAVLC(Context Adaptive Variable Length Coding)로 부호화하는 방법과, 기존의 산술 부호화 방식에 컨텍스트 모델링(context modeling)을 추가함으로써 추정된 심볼 확률분포 모델들을 적응적으로 선택하는 방법이 있다.Second, in H.264, two entropy coding methods are used. In other words, the entropy coding technique converts most of the syntax except the transform coefficients into one codeword table according to the characteristics of the data, and then encodes it into EGC (Exponential Golomb Code). There is a method of encoding by CAVLC (Context Adaptive Variable Length Coding) and a method of adaptively selecting estimated symbol probability distribution models by adding context modeling to an existing arithmetic coding scheme.

세째, 블록 기반의 움직임 추정 및 변환 그리고 양자화 기법은 부호기 설계에 많은 이점을 가져오지만 블록화 현상(Blocking artifact)을 수반한다. H.264는 이러한 블록화 현상의 효율적인 개선을 위해 부호화 및 복호화 과정 내에 루프 필터를 사용하여 블록화 현상을 제거한다. Third, block-based motion estimation, transformation, and quantization techniques bring many advantages to the encoder design, but involve blocking artifacts. H.264 eliminates blocking by using loop filters in the encoding and decoding process to efficiently improve such blocking.

네째, H.264 부호화 기법은 공간영역에서의 인트라 예측 부호과 과정을 포함한다. 공간 내의 예측 부호화 방식은 휘도 성분의 경우 16 × 16 크기 및 4 × 4 크기로 수행되며, 각각 4가지와 9가지의 공간 내의 방향성을 고려한 예측모드를 가지고 있고, 색차 성분은 16 × 16 크기의 휘도성분과 같은 4가지의 예측모드를 가지고 있다. 휘도 성분에 대한 공간영역에서의 16 × 16 크기와 4 × 4 크기의 인트라 예측은 영상의 평탄한 영역뿐만 아니라 세밀한 영역에서도 높은 압축 효율을 갖게 한다. Fourth, the H.264 coding scheme includes intra prediction codes and processes in the spatial domain. The prediction coding method in space is performed with 16 × 16 size and 4 × 4 size for the luminance component, and has a prediction mode in consideration of four and nine directions in space, and the color difference component has a luminance of 16 × 16 size. It has four prediction modes as component. Intra prediction of 16 × 16 size and 4 × 4 size in the spatial domain with respect to the luminance component has high compression efficiency in the detailed region as well as the flat region of the image.

다섯째, H.264에서는 참조 영상으로서 이전의 재구성된 여러 장의 프레임을 사용한다. 이러한 다중참조 영상의 사용은 단일 참조 영상만을 사용하는 경우에 비해 보다 높은 압축 효율을 가지게 하며, 특히 반복적인 영상이나 다른 객체에 의해 가려져 있다가 나타난 영역의 부호화 경우에 더욱 두드러진 성능을 보인다.Fifth, in H.264, previously reconstructed frames are used as reference pictures. The use of such a multi-reference image has a higher compression efficiency than the case of using only a single reference image, and is more prominent in the case of encoding an area that is covered by a repetitive image or another object.

여섯째, H.264에서는 블록의 크기를 다양화하여 16 × 16, 16 × 8, 8 × 16, 8 × 8, 8 × 4, 4 × 8, 4 × 4의 크기로 움직임을 추정한다. 이는 기존에 16 × 16 및 8 × 8 크기로만 움직임을 보상하던 H.263 및 MPEG-4 기술과 대비된다. 다양한 크기의 블록단위, 특히 8 × 8 서브 매크로블록(Sub Macroblock) 이하의 크기인 8 × 4, 4 × 8, 4 × 4 블록 크기의 움직임 추정은 보다 세밀한 영상 영역에 서도 높은 압축 효율을 가질 수 있게 한다.Sixth, in H.264, the size of the block is varied and the motion is estimated to be 16 × 16, 16 × 8, 8 × 16, 8 × 8, 8 × 4, 4 × 8, and 4 × 4. This contrasts with H.263 and MPEG-4 technology, which previously compensated for motion only in 16 × 16 and 8 × 8 sizes. Motion estimation of block sizes of various sizes, especially 8 × 4, 4 × 8, and 4 × 4 blocks, which are less than 8 × 8 sub macroblocks, can achieve high compression efficiency even in more detailed image areas. To be.

그 밖에도 적응적 프레임/필드 부호화(Adaptive Frame/Field Coding) 및 NAL(Network Abstraction Layer) 등의 부호화 도구들이 추가되었다. 이렇게 새롭게 추가된 부호화 도구들은 H.264 부호화 표준이 이전의 여러 동영상 부호화 표준들에 비해 보다 높은 압축 효율을 가질 수 있게 한다. 다섯 장의 참조 프레임의 사용과 32화소의 움직임 추정 영역을 사용하여 메인 프로파일로 부호화를 한 경우, H.264 표준은 MPEG-2와 비교하여 약 48% ~ 78%까지의 비트율 감소효과가 있다고 알려져 있다[Thomas Wiegand 외 3명의 "Rate-Constrained Coder Control and Comparison of Video Coding Standard"].In addition, coding tools such as adaptive frame / field coding and network abstraction layer (NAL) have been added. These newly added coding tools enable the H.264 coding standard to have higher compression efficiency than previous video coding standards. In the case of encoding the main profile using five reference frames and a 32-pixel motion estimation region, the H.264 standard is known to reduce the bit rate by about 48% to 78% compared to MPEG-2. Thomas Wiegand et al., "Rate-Constrained Coder Control and Comparison of Video Coding Standard."

이중 다양한 블록크기의 움직임 추정기법은 기존의 부호화 표준과 비교하여 보다 많은 계산량을 요구하지만 그에 따라 보다 세밀한 단위로 움직임을 추정함으로써 부호화 효율을 높이는데 상당한 영향을 미치는 부호화 도구이다.Among these, various block-size motion estimation techniques require more computation compared to existing coding standards, but are a coding tool that significantly affects coding efficiency by estimating motion in more granular units.

이렇게 다양한 블록 크기를 사용하여 움직임을 추정함으로써 나타나는 또 다른 특징은 기존의 동영상 표준에 비해 보다 많은 움직임 벡터를 생성한다는 것이다. 즉, 기존의 동영상 표준이 16 × 16 크기를 갖는 하나의 매크로블록에 대해 하나의 움직임 벡터만을 갖는 반면 H.264는 16 × 16 크기의 매크로블록 하나가 가질 수 있는 움직임 벡터의 개수는 최대 16개이다. 이는 H.264에서의 에러은닉 시 사용될 수 있는 주변 매크로블록의 움직임 벡터 정보의 양이 기존의 부호화 표준에 비해 많음을 나타낸다.Another feature of estimating motion using these various block sizes is that it generates more motion vectors than existing video standards. That is, while the existing video standard has only one motion vector for one macroblock having a size of 16 × 16, H.264 can have a maximum of 16 motion vectors for one macroblock of size 16 × 16. . This indicates that the amount of motion vector information of neighboring macroblocks that can be used in error concealment in H.264 is larger than that of the existing coding standard.

또한 여러 장의 참조영상을 사용함으로써 각 매크로블록은 움직임 벡터와 함 께 참조프레임의 정보 또한 포함하게 된다. 따라서 H.264 내 하나의 매크로블록은 최대 16개의 서로 다른 움직임 벡터와 최대 4개의 참조 프레임 정보 그리고 움직임 추정의 단위를 정의하는 매크로블록 모드 정보를 포함하게 된다.In addition, by using several reference images, each macroblock includes information of a reference frame together with a motion vector. Accordingly, one macroblock in H.264 includes up to 16 different motion vectors, up to 4 reference frame information, and macroblock mode information defining a unit of motion estimation.

MPEG-2가 제정된 이후로 시방향 에러은닉에 관한 많은 연구가 이루어져 왔다. Keiu는 손실된 매크로블록의 움직임을 추정함으로써 추정된 움직임 벡터를 이용하여 기준블록을 복사하여 에러를 은닉하는 기법을 제안하였다["Cell-loss concealment techniques for layered video codecs in an ATM network"의 pp.666-677]. 하지만 움직임 벡터의 추정이 정확하지 않은 경우 주변블록과 많은 차이를 보이게 되는 단점을 가진다.Since MPEG-2 was enacted, much research has been done on visual error concealment. Keiu proposed a technique for concealing errors by copying a reference block using an estimated motion vector by estimating the motion of a lost macroblock [pp. Of "Cell-loss concealment techniques for layered video codecs in an ATM network". 666-677]. However, when the estimation of the motion vector is not accurate, there is a drawback that the difference between the neighboring blocks is large.

이와 유사한 방법으로서 Suh와 Kwon은 각각 주변 매크로블록 움직임 벡터의 평균값["Recovery of motion vectors for error concealment" pp.750-753] 및 중간값["Error Concealment Techniques for H.264 Video Transmission"의 pp.276-279]을 사용하여 에러를 은닉하는 기법을 제안하였으며 이는 손실된 매크로블록과 이웃한 매크로블록이 움직임 벡터간의 상관도가 높다는 가정이 전제되어야 한다.In a similar way, Suh and Kwon, pp. 750-753 and mean values of surrounding macroblock motion vectors, respectively, are described in pp. 203 of “Error Concealment Techniques for H.264 Video Transmission”. 276-279], a technique for concealing errors is proposed. It must be assumed that the missing macroblock and neighboring macroblocks have a high correlation between motion vectors.

Jung은 손상된 매크로블록의 주변 경계화소들을 이용하여 움직임 벡터를 추정하는 BMA(Boundary Matching Algorithm) 기법을 개선한 수정된 BMA 기법을 제안하였다["Robust error concealment algorithm using iterative weighted boundary matching criterion"의 pp.384-387]. 하지만 이는 높은 복잡도를 갖는 단점을 가진다.Jung has proposed a modified BMA method that improves the BMA (Boundary Matching Algorithm) method for estimating motion vectors using neighboring boundary pixels of damaged macroblocks. See "Robust error concealment algorithm using iterative weighted boundary matching criterion." 384-387]. However, this has the disadvantage of having a high complexity.

위의 여러 시방향 에러 은닉 기법들은 16 × 16 크기로 움직임 추정을 수행 하는 이전의 부호화 표준들에 적합한 방법들이다. Zheng은 다양한 블록 크기로 움직임을 추정하는 H.264에서의 보다 많은 움직임 벡터 정보를 이용하여 화소단위의 움직임 벡터 복원을 통하여 에러를 은닉하였지만, 이 역시 다중 참조 프레임 및 매크로블록 모드 정보는 고려하지 못하고 있다["A motion vector recovery algorithm for digital video using lagrange interpolation"의 pp.383-389].The various forward error concealment schemes above are suitable for previous coding standards for performing motion estimation in a 16 × 16 size. Zheng concealed the error by reconstructing the motion vector pixel-by-pixel using more motion vector information in H.264, which estimates motion with various block sizes, but this also does not consider multi-reference frame and macroblock mode information. [A motion vector recovery algorithm for digital video using lagrange interpolation ”pp. 383-389.

오류를 포함할 수 있는 네트워크를 통한 영상 데이터 전송 시 영상의 오류 발생은 현격한 화질 열화를 초래한다. 이러한 오류가 존재하는 전송환경에서 압축된 영상이 일정한 화질을 유지하기 위해서는 에러 내성 기술과 에러 정정 기술 등 에러 제어 기법이 필요하다. 특히 수신단에서 독립적으로 구현할 수 있는 에러 은닉 기법은 양질의 영상을 얻기 위한 중요한 기술이다. The occurrence of an error in an image during transmission of image data through a network that may include an error causes a significant deterioration in image quality. In order to maintain a constant image quality of a compressed image in a transmission environment in which such an error exists, an error control technique such as an error tolerance technique and an error correction technique is required. In particular, the error concealment technique that can be implemented independently at the receiving end is an important technique for obtaining high quality images.

에러은닉기법은 크게 공간적 에러은닉 기법과 시간적 에러은닉기법으로 나뉠 수 있는데, 공간적 에러은닉 기법은 한 화면 내 화소값들 사이의 상관성을 이용하여 영상의 오류를 복원하는 기법이며, 시간적 에러은닉 기법은 이미 수신된 이전의 화면과 현재 화면 사이의 상관성을 이용하여 영상의 오류를 복원하는 기법이다.The error concealment technique can be largely divided into a spatial error concealment technique and a temporal error concealment technique. A spatial error concealment technique is a technique for recovering an error of an image by using correlation between pixel values in a screen. It is a technique of restoring an error of an image by using a correlation between a previously received screen and a current screen.

공간적 에러은닉 특히 동영상의 인트라 프레임에서의 에러은닉을 위한 기존의 방법들로서, 인접한 화소들간의 평탄제약조건(smoothness constraint)을 이용하여 최적의 DCT 계수를 추정하는 최적화 알고리듬이 Wang에 의해 제안되었고, Lee 등은 공간영역에서의 보간 필터와 퍼지로직논리(fuzzylogic reasoning)를 사용한 블록 복원 알고리듬을 제안하였다. Spatial Error Concealment In particular, as an existing method for error concealment in the intra frame of video, Wang has proposed an optimization algorithm that estimates the optimal DCT coefficient using smoothness constraint between adjacent pixels. Et al. Proposed a block reconstruction algorithm using an interpolation filter and fuzzylogic reasoning in the spatial domain.

또한 POCS (projection onto convex sets)에 기반한 블록 복원 알고리듬이 Sun 과 Kwok에 의해 제안되었으며, Alkachouh 와 Bellanger에 의해 고속 DCT에 기반한 보간 기법이 제안되었다. 최근에는 RIBMAP (recovery of image blocks using the method of alternating projection)라 불리는 복원 기법이 Park 등에 의해 소개되었다. A block restoration algorithm based on POCS (projection onto convex sets) was proposed by Sun and Kwok, and an interpolation technique based on fast DCT was proposed by Alkachouh and Bellanger. Recently, a restoration technique called RIBMAP (recovery of image blocks using the method of alternating projection) has been introduced by Park et al.

하지만 앞서 언급한 여러 공간적 에러은닉 기법들은 정지영상 또는 동영상 등에 모두 적용 가능한 방법으로서 이는 적용 대상의 부호화 특성을 고려하지 않음으로써 복원 화질이 좋지 않거나 실시간 적용이 불가능할 정도로 높은 계산량을 가지는 단점을 가진다.However, the above-mentioned spatial error concealment techniques are applicable to both still images and moving images, which do not take into account the encoding characteristics of the object to be applied.

본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 창안된 것으로, 인트라 블록의 예측모드 정보는 해당 블록내의 에지방향과 상당한 관련이 있다는 점을 이용하여, 인트라 프레임에서의 손실된 매크로블록의 주변에 위치하는 블록의 예측모드 정보를 이용하여 손실된 매크로블록의 에지방향을 예측하고, 손실된 매크로블록을 에지영역과 평탄영역으로 분리한 후 각각 다른 보간기법을 이용함으로써, 상기 손실된 매크로블록을 적은 연산량 및 저복잡도로 복원할 수 있는 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법을 제공하는 것을 그 목적으로 한다.The present invention was devised to solve the above problems of the prior art, and the prediction mode information of an intra block is significantly related to the edge direction in the block. Predict the edge direction of the lost macroblock using the prediction mode information of the block located at, and separate the lost macroblock into the edge region and the flat region, and then use different interpolation techniques. It is an object of the present invention to provide a spatial error concealment method having a low complexity in H.264, which can be restored with a small amount of computation and a low complexity.

상기와 같은 기술적 과제를 달성하기 위하여 제안된 본 발명인 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법을 이루는 구성수단은, 손실된 매크로블록 주변에 위치하는 주변 블록의 예측모드들 중 우세예측모드를 선정하여 손실된 매크로블록의 에지의 방향을 예측하는 단계, 상기 선정된 우세예측모드를 이용하여 손실된 매크로블록 내의 영역을 에지가 존재하는 에지영역과 에지가 존재하지 않는 평탄영역으로 분류하는 단계, 상기 에지영역은 에지기반의 방향성 보간기법으로 복원하고, 상기 평탄영역은 가중평균을 이용한 보간기법으로 복원하여 상기 손실된 매크로블록을 복원하는 단계를 포함하여 이루어진 것을 특징으로 한다.In order to achieve the above technical problem, the constituent means of the spatial error concealment method having a low complexity in the present invention H. 264 is a dominant prediction mode among prediction modes of neighboring blocks located near the lost macroblock. Estimating the direction of the edge of the lost macroblock by classifying and classifying the region within the lost macroblock into the edge region where the edge exists and the planar region where the edge does not exist using the selected predominant prediction mode. And restoring the lost macroblock by restoring the edge region by an edge-based directional interpolation technique and restoring the flat region by an interpolation technique using a weighted average.

또한, 상기 손실된 매크로블록의 에지 방향은 상기 손실된 매크로블록의 상하좌우에 위치하는 16개의 4x4 블록에 대한 예측모드와 각 블록에서의 에지의 크기를 이용하여 예측되는 것을 특징으로 한다.In addition, the edge direction of the lost macroblock is predicted by using the prediction mode for the 16 4x4 blocks located in the top, bottom, left and right of the lost macroblock and the size of the edge in each block.

또한, 상기 각각의 4x4 블록에서의 에지의 크기는 각 블록이 부호화 과정에서 사용된 예측모드의 예측방향과 수직에 위치하는 네 개의 화소값을 선정하고, 이 선정된 네 개의 화소값들 중 최대값과 최소값의 차이로 결정되는 것을 특징으로 한다.In addition, the size of the edge of each 4x4 block selects four pixel values in which each block is perpendicular to the prediction direction of the prediction mode used in the encoding process, and the maximum value among the four selected pixel values. And is determined by the difference between the minimum value.

또한, 상기 우세예측모드는 상기 16개의 4x4 블록에서의 예측모드들 중 각 예측모드에서의 에지 크기의 합이 최대가 되는 예측모드로 결정되고, 이 우세예측모드의 예측 방향을 상기 손실된 매크로블록 내의 에지 방향으로 결정하는 것을 특징으로 한다.Further, the dominant prediction mode is determined as a prediction mode in which the sum of edge sizes in each prediction mode is the maximum among the prediction modes in the 16 4x4 blocks, and the prediction direction of the dominance prediction mode is the lost macroblock. It is characterized by determining in the direction of the inner edge.

또한, 상기 에지영역은 상기 손실된 매크로블록 주변에 위치하는 주변 블록 중, 상기 선정된 우세예측모드를 가지는 블록을 선택하고, 이 선택된 블록에서 상기 선정된 우세예측모드의 예측방향에 존재하는 영역으로 결정하는 것을 특징으로 한다. 이때, 상기 에지영역은 소정 영역의 여유치를 더 포함하는 것이 바람직하다.The edge region may select a block having the selected predominant prediction mode among neighboring blocks located around the lost macroblock, and the selected block is an area present in the prediction direction of the selected predominant prediction mode. It is characterized by determining. In this case, the edge region preferably further includes a margin of a predetermined region.

이하, 첨부된 도면을 참조하여 상기와 같은 구성수단으로 이루어져 있는 본 발명인 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법에 관한 바람직한 실시예를 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the spatial error concealment method having a low complexity in the H.264 of the present invention consisting of the above configuration means.

본 발명은 인트라 프레임내의 손실된 매크로블록을 복원하기 위해서 H.264 비트열내에 포함되어 있는 예측모드 정보를 사용한다. H.264 부호화 표준은 인트라 프레임을 부호화하기 위해 3가지의 인트라 모드 즉, 인트라16x16, 인트라8x8, 인트라4x4를 가지며, 이들 각각은 서로 다른 가지 수의 예측모드를 가진다. The present invention uses the prediction mode information contained in the H.264 bit string to recover the lost macroblocks in the intra frame. The H.264 coding standard has three intra modes to encode intra frames: intra16x16, intra8x8 and intra4x4, each of which has a different number of prediction modes.

첨부된 도 1 및 도 2는 각각 인트라16x16 및 인트라4x4 모드의 예측모드를 나타내며, 인트라8x8은 인트라 4x4와 동일한 예측모드를 가진다. 1 and 2 show a prediction mode of intra16x16 and intra4x4 modes, and intra8x8 has the same prediction mode as intra 4x4.

본 발명은 도 3에서 도시한 바와 같이 크게 두 가지 과정으로 구성된다. 첫 번째 과정은 전처리과정(Pre-processing)으로서 이는 손실된 매크로블록 주변의 예측모드(prediction mode)들 중 우세예측모드(DPM: dominant prediction mode)를 선정함으로써 매크로블록 내의 에지 방향을 추정하는 과정과 선정된 우세예측모드를 이용하여 매크로블록내의 영역을 에지가 존재하는 에지영역과 에지가 존재하지 않는 평탄영역으로 분류하는 과정으로 구성되어 있다. The present invention is largely composed of two processes as shown in FIG. The first process is pre-processing, which is to estimate the edge direction in the macroblock by selecting the dominant prediction mode (DPM) among the prediction modes around the lost macroblock. It is composed of the process of classifying the area in the macroblock into the edge area where the edge exists and the planar area where the edge does not exist using the selected predominant prediction mode.

두 번째 과정은 실제 보간(補間)기법을 이용하여 손실된 매크로블록을 복원 하는 과정으로서 손실된 매크로블록의 에지영역과 평탄영역을 각기 다른 보간 기법을 사용하여 복원한다. The second process is to recover the lost macroblock using the actual interpolation technique. The edge and planar regions of the lost macroblock are restored using different interpolation techniques.

전처리 과정에서의 매크로블록 내의 에지의 방향 추정에는 손실된 매크로블록의 상하좌우에 위치한 16개의 4x4 블록에 대한 예측모드를 사용된다. 이때 주변 매크로블록들 중 하나 이상이 인트라16x16 또는 인트라8x8로 부호화 되었다면, 이는 동일한 인트라4x4 예측모드가 반복되어 나타나 있는 것으로 고려한다. In the pre-processing, the direction of the edge in the macroblock is estimated using the prediction mode for 16 4x4 blocks located on the top, bottom, left and right of the lost macroblock. In this case, if one or more of the neighboring macroblocks are encoded as Intra16x16 or Intra8x8, it is considered that the same intra4x4 prediction mode is repeatedly displayed.

예를 들어, 하나의 매크로블록이 인트라16x16 모드로 부호화 되어있고 예측모드1이 사용되었다면, 매크로블록 내에 존재하는 16개의 4x4블록들이 모두 예측모드1을 가진다고 고려한다. 이는 인트라16x16에서 예측모드0 ~ 예측모드3의 예측방향이 인트라4x4에서의 예측모드0 ~ 예측모드3과 동일한 예측방향을 가지기 때문이다.For example, if one macroblock is encoded in the intra16x16 mode and prediction mode 1 is used, it is assumed that all 16 4x4 blocks existing in the macroblock have prediction mode 1. This is because the prediction directions of the prediction modes 0 to 3 in intra16x16 have the same prediction direction as those of the prediction modes 0 to 3 in intra4x4.

한편 손실된 매크로블록 내의 에지방향을 추정하기 위해서는 예측모드 뿐만 아니라 에지의 크기도 함께 고려되어야 한다. 주변의 16개 4x4 블록에서의 에지의 크기는 해당 블록이 부호화 과정에서 사용된 예측모드의 예측방향과 수직에 위치하는 4개의 화소값을 선정하고, 선택된 네 개의 화소값들 중 최대값과 최소값의 차이로 구하며, 첨부된 도 4와 아래 식 (1)은 이를 표현한다. 아래 식 (1)에서 볼 수 있는 바와 같이 예측모드2의 경우에는 에지가 없는 것으로 판단하여 에지의 크기를 0으로 한다.Meanwhile, in order to estimate the edge direction in the lost macroblock, the edge size as well as the prediction mode must be considered. The size of the edges in the 16 neighboring 4x4 blocks is determined by selecting four pixel values perpendicular to the prediction direction of the prediction mode used in the encoding process, and selecting the maximum and minimum values among the four selected pixel values. Obtained by the difference, the attached Figure 4 and the following equation (1) represents this. As shown in Equation (1) below, in the prediction mode 2, it is determined that there is no edge, and the size of the edge is zero.

Figure 112006060571706-pat00001
식 (1)
Figure 112006060571706-pat00001
Formula (1)

손실된 매크로블록 주변에 위치한 16개의 4x4블록에 대한 에지의 크기가 구해지면, 이들 블록에서의 예측모드들 중 각 예측모드에서의 에지 크기의 합이 최대가 되는 예측모드를 우세예측모드로 선정하고 우세예측모드의 예측방향을 손실된 매크로블록 내의 에지의 방향으로 선택한다. When the edge sizes of 16 4x4 blocks located around the lost macroblocks are obtained, the prediction mode in which the sum of the edge sizes in each prediction mode is the largest among the prediction modes in these blocks is selected as the dominant prediction mode. The prediction direction of the dominant prediction mode is selected as the direction of the edge in the lost macroblock.

따라서 본 발명은 예측모드2를 제외한 예측모드들의 예측방향과 동일한 에지의 방향을 고려할 수 있으며, 각 예측모드가 우세예측모드로 선택된 경우에 손실된 매크로블록의 에지방향은 0°(예측모드1), 22.5°(예측모드8), 45°(예측모드3), 67.5°(예측모드7), 90°(예측모드0), 112.5°(예측모드5), 135°(예측모드4), 157.5°(예측모드6)이다.Therefore, the present invention may consider the same edge direction as the prediction direction of the prediction modes except the prediction mode 2, and the edge direction of the lost macroblock is 0 ° when each prediction mode is selected as the dominant prediction mode (prediction mode 1). , 22.5 ° (prediction mode 8), 45 ° (prediction mode 3), 67.5 ° (prediction mode 7), 90 ° (prediction mode 0), 112.5 ° (prediction mode 5), 135 ° (prediction mode 4), 157.5 ° (prediction mode 6).

본 발명의 두 번째 단계는 손실된 매크로블록 내의 영역을 에지영역과 평탄영역으로 나누는 과정으로서 에지영역이란 매크로블록 내에 에지성분이 존재하는 영역을 말하며, 평탄영역이란 에지가 존재하지 않는 영역을 말한다. The second step of the present invention is a process of dividing a region in a lost macroblock into an edge region and a flat region. An edge region refers to a region where edge components exist in a macroblock, and a flat region refers to a region where no edge exists.

에지영역은 손실된 매크로블록 주변에 위치한 16개의 4x4 블록들 중 우세예측모드로 선정된 예측모드를 가지는 블록을 선택하고, 선택된 블록에서 우세예측모드의 예측방향에 존재하는 영역으로 선택한다. 이때 여유치(margin)를 두어 에지영역의 폭을 넓히는데 이는 자연영상의 에지는 이상적인 에지와는 다르게 여러 화소에 걸쳐 값이 변화하기 때문이다. The edge region selects a block having a prediction mode selected as the dominant prediction mode among the 16 4x4 blocks located around the lost macroblock, and selects the region in the prediction direction of the dominant prediction mode from the selected block. At this time, the margin area is widened to increase the width of the edge area because the edge of the natural image varies in value over several pixels unlike the ideal edge.

상기 에지영역을 선택한 이후 에지영역으로 선택되지 않은 영역은 평탄영역인 것으로 고려한다. 첨부된 도 5는 우세예측모드로서 예측모드4가 선택된 경우 에지영역 선택의 예를 보이고 있다. 만일 도 5에 도시된 바와 같이, B1, B5, 그리고 B10의 블록이 우세예측모드와 같은 예측모드4를 가진다면, 여유치를 고려하여 이들 블록의 위치에서부터 예측모드4의 예측방향(135˚)에 존재하는 영역을 에지영역으로 선택한다. An area not selected as an edge area after the edge area is selected is considered to be a flat area. 5 shows an example of edge region selection when prediction mode 4 is selected as the dominant prediction mode. As shown in FIG. 5, if the blocks B 1 , B 5 , and B 10 have the same prediction mode 4 as the dominant prediction mode, the prediction direction of the prediction mode 4 from the position of these blocks in consideration of the margin value (135) The area existing at ˚) is selected as the edge area.

전처리과정을 통해서 손실된 매크로블록의 에지 방향의 예측과 에지영역 및 평탄영역의 구분이 끝나면 각 영역에서 서로 다른 보간 기법을 사용하여 손실된 매크로블록을 복원한다. 먼저 에지영역의 경우에는 예측된 에지의 방향을 이용한 방향성 보간기법을 통해 화소값들을 복원하며, 첨부된 도 6은 이를 설명하기 위한 예시도이다. After the prediction of the edge direction of the lost macroblocks and the separation of the edge region and the flat region through the preprocessing process, the lost macroblocks are restored using different interpolation techniques in each region. First, in the case of the edge region, pixel values are restored through a directional interpolation technique using the predicted edge direction, and FIG. 6 is an exemplary diagram for explaining this.

첨부된 도 6에서 PC는 에지영역내의 화소값을 말하며 Pi는 손실된 매크로블록의 외각화소값을 나타낸다. 이때 에지영역내의 화소값 PC는 이 점을 지나고 예측된 에지의 방향(θ)의 직선상에 존재하는 두 개의 외각화소값들의 일차선형보간(first-order linear interpolation)으로 계산되며 이는 아래 식 (2)와 같다.In FIG. 6, P C denotes a pixel value in an edge region, and P i denotes an outer pixel value of a lost macroblock. The pixel value P C in the edge region is calculated by first-order linear interpolation of two external pixel values that pass through this point and exist on a straight line in the predicted edge direction θ. Same as 2).

Figure 112006060571706-pat00002
식 (2)
Figure 112006060571706-pat00002
Formula (2)

이때 상기 식 (2)를 계산함에 있어 우세예측모드가 예측모드5 ~ 예측모드8로 선택된 경우에는 Pi 중 하나는 반화소위치의 값을 가리키게 되는데, 이 경우 Pi의 값은 Pi에 인접한 두 개의 정수위치의 화소값들의 평균값으로 대체하여 사용한다. In this case, when the formula (2) it calculating the predominant prediction mode is selected as the prediction mode 5 to the prediction mode 8, one of the P i is there is point to the value of the half pixel position, a value of the If P i is adjacent to the P i It is used by substituting the average of the pixel values of two integer positions.

상기 에지영역의 복원이 끝난 후 평탄영역은 현재 H.264에서 사용하는 가로 및 세로 방향에 위치하는 네 개의 이미 알고 있는 화소값들의 가중평균을 이용하여 복원하는데, 이 과정에서 손실된 매크로블록의 주변 화소값들 뿐만 아니라 이미 복원된 에지영역의 화소값도 복원에 사용된다.After restoring the edge region, the flat region is restored using the weighted average of four known pixel values located in the horizontal and vertical directions currently used in H.264. In addition to the pixel values, the pixel values of the edge region already restored are used for the restoration.

도 7은 손실된 매크로블록 내의 에지영역이 50% 차지하는 경우 본 발명의 구현에 필요한 계산량을 이전의 방법과 비교하여 나타낸 것이며, 본 발명에서의 연산량에서 큰 값은 우세예측모드로서 예측모드5 ~ 예측모드8 중의 값이 선택된 경우이며, 작은 값의 경우에는 예측모드5 ~ 예측모드8 이외의 예측모드가 우세예측모드로 선택된 경우를 나타낸다. FIG. 7 shows the calculation amount required for the implementation of the present invention in comparison with the previous method when the edge area in the lost macroblock occupies 50%, and a large value in the calculation amount in the present invention is the dominant prediction mode. A value in mode 8 is selected, and a small value represents a case in which a prediction mode other than prediction mode 5 to prediction mode 8 is selected as the dominant prediction mode.

도 7에 도시된 바와 같이 손실된 매크로블록의 에지 방향을 예측하기 위해 이미 알고 있는 주변의 예측모드를 사용함으로써 적은 연산량만으로 매크로블록의 에지의 방향 예측과 에지영역 및 평탄영역을 분류하며, Alkachouh의 방법은 물론 참조소프트웨어보다도 적은 곱셈 연산량을 가지는데, 영상내의 다양한 에지의 방향을 고려해 볼 때 본 발명은 보다 적은 연산량을 가질 수 있다.As shown in FIG. 7, by using the surrounding prediction mode known to predict the edge direction of the lost macroblock, the direction prediction of the edge of the macroblock and the edge region and the flat region are classified with only a small amount of computation. The method, of course, has a smaller amount of multiplication than the reference software, and the present invention may have a lower amount of calculation in view of the direction of the various edges in the image.

본 발명의 평가를 위해서 다양한 방향의 에지성분을 포함한 CIF(352x288) 크기의 Akiyo, Coastgaurd, Container, Foreman, Highway, Silent 시퀀스를 테스트 시퀀스로 사용하였으며, 각 시퀀스는 H.264 참조소프트웨어(JM10.1[9])를 사용하여 최초 30프레임을 모두 I 프레임으로 부호화하였고, 부호화과정에는 H.264 Baseline 프로파일을 사용하였다. For the evaluation of the present invention, Akiyo, Coastgaurd, Container, Foreman, Highway, Silent sequences of CIF (352x288) size including edge components in various directions were used as test sequences, and each sequence was H.264 reference software (JM10.1). [9]) was used to encode the first 30 frames into I frames, and the H.264 baseline profile was used for the encoding process.

첨부된 도 8은 10%의 매크로블록 손실률(損失率)이 발생한 경우 각 시퀀스에서의 객관적 화질을 나타내며, 비교를 위하여 현재 H.264 참조소프트웨어에서 사용되고 있는 방법과 고속 DCT에 기반한 Alkachouh 방법의 결과를 함께 제시하고 있다. The attached FIG. 8 shows the objective image quality in each sequence when the macroblock loss rate of 10% occurs, and shows the results of the method currently used in the H.264 reference software and the Alkachouh method based on the fast DCT for comparison. Presented together.

이때, 에지영역의 여유치(margin)는 2의 값을 사용하였다. 도 8에서 볼 수 있는 바와 같이 본 발명에 따른 에러 은닉 방법은 다른 두 가지 방법과 비교하여 높은 객관적 화질을 나타낸다. 특히 Foreman 영상과 같이 대각선 에지성분이 많은 경우에는 본 발명에 따른 에러 은닉 방법은 다른 두 방법과 비교하여 약 3.2~5.5dB까지 객관적 화질을 향상시킨다. At this time, the margin of the edge area was used. As can be seen in Figure 8, the error concealment method according to the present invention exhibits high objective image quality compared to the other two methods. In particular, when there are many diagonal edge components such as Foreman image, the error concealment method according to the present invention improves the objective image quality by about 3.2 to 5.5 dB compared with the other two methods.

도 9는 Foreman 시퀀스의 첫 번째 프레임에 대해서 20%의 매크로블록 손실을 발생한 경우의 주관적 화질을 나타낸다. 결과에서 볼 수 있듯이 본 발명에 따른 에러 은닉 방법을 사용하여 복원한 영상이 다른 두 가지 방법을 사용한 경우와 비교하여 주관적 화질이 우수함을 알 수 있다.9 shows the subjective picture quality when 20% macroblock loss occurs for the first frame of the foreman sequence. As can be seen from the results, it can be seen that the image reconstructed using the error concealment method according to the present invention has superior subjective image quality compared to the case of using the other two methods.

상기와 같은 구성 및 바람직한 실시예를 가지는 본 발명인 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법에 의하면, 인트라 블록의 예측모드 정보는 해당 블록내의 에지방향과 상당한 관련이 있다는 점을 이용하여, 인트라 프레임에서의 손실된 매크로블록의 주변에 위치하는 블록의 예측모드 정보를 이용하여 손 실된 매크로블록의 에지방향을 예측하고, 손실된 매크로블록을 에지영역과 평탄영역으로 분리한 후 각각 다른 보간기법을 이용함으로써, 상기 손실된 매크로블록을 간단하게 복원할 수 있기 때문에, 적은 연산량만을 이용하여 손실된 매크로블록을 신속하게 복원할 수 있고, 적은 연산량만을 가짐으로써 인트라 프레임내의 매크로블록이 손실된 경우에도 양질의 화질을 실시간으로 복호화할 수 있는 장점이 있다.According to the spatial error concealment method having the low complexity in the present invention H.264 having the above-described configuration and preferred embodiment, by using the fact that the prediction mode information of the intra block is significantly related to the edge direction in the block, Predict the edge direction of the lost macroblock using the prediction mode information of the block located in the periphery of the lost macroblock in the intra frame, separate the lost macroblock into the edge region and the flat region, and then use different interpolation techniques. By using, since the lost macroblock can be easily recovered, it is possible to quickly recover the lost macroblock using only a small amount of computation, and even if the macroblock in the intra frame is lost by having only a small amount of computation. There is an advantage that can decode a good quality image in real time.

또한, 본 발명은 인트라 프레임내의 매크로블록이 손실된 경우, H.264 비디오 표준에서 인트라 프레임을 부호화하기 위해 사용되는 예측모드를 사용하여 에러를 복원한다. 이는 예측모드가 영상 내의 에지의 방향과 상당한 연관이 되어있기 때문에 에러은닉에 효율적으로 사용될 수 있을 뿐만 아니라 H.264 비트열 내에 이미 포함되어 있는 정보이기 때문에 계산량을 최소화할 수 있는 장점이 있다.In addition, the present invention recovers an error using a prediction mode used for encoding an intra frame in the H.264 video standard when a macroblock in an intra frame is lost. Since the prediction mode is highly related to the direction of the edges in the image, it can be efficiently used for error concealment, and the computation can be minimized because the information is already included in the H.264 bitstream.

Claims (6)

H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법에 있어서,In a spatial error concealment method having a low complexity in H.264, 손실된 매크로블록 주변에 위치하는 주변 블록의 예측모드들 중 우세예측모드를 선정하여 손실된 매크로블록의 에지의 방향을 예측하는 단계;Predicting the direction of the edge of the lost macroblock by selecting a dominant prediction mode among prediction modes of neighboring blocks located around the lost macroblock; 상기 선정된 우세예측모드를 이용하여 손실된 매크로블록 내의 영역을 에지가 존재하는 에지영역과 에지가 존재하지 않는 평탄영역으로 분류하는 단계;Classifying a region in the lost macroblock into an edge region in which an edge exists and a flat region in which no edge exists using the selected predominant prediction mode; 상기 에지영역은 에지기반의 방향성 보간기법으로 복원하고, 상기 평탄영역은 가중평균을 이용한 보간기법으로 복원하여 상기 손실된 매크로블록을 복원하는 단계를 포함하여 이루어진 것을 특징으로 하는 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법.The edge region is restored by the edge-based directional interpolation technique, and the flat region is restored by interpolation technique using a weighted average to restore the lost macroblock. Complex error concealment method with complexity. 청구항 1에 있어서,The method according to claim 1, 상기 손실된 매크로블록의 에지 방향은 상기 손실된 매크로블록의 상하좌우에 위치하는 16개의 4x4 블록에 대한 예측모드와 각 블록에서의 에지의 크기를 이용하여 예측되는 것을 특징으로 하는 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법.The edge direction of the lost macroblock is estimated using the prediction mode for 16 4x4 blocks located on the top, bottom, left, and right sides of the lost macroblock, and the size of the edge in each block. Spatial error concealment method with low complexity. 청구항 2에 있어서,The method according to claim 2, 상기 각각의 4x4 블록에서의 에지의 크기는 각 블록이 부호화 과정에서 사용된 예측모드의 예측방향과 수직에 위치하는 네 개의 화소값을 선정하고, 이 선정된 네 개의 화소값들 중 최대값과 최소값의 차이로 결정되는 것을 특징으로 하는 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법.The size of the edge of each 4x4 block selects four pixel values in which each block is perpendicular to the prediction direction of the prediction mode used in the encoding process, and the maximum and minimum values among the four selected pixel values. A spatial error concealment method with low complexity in H2.446, which is determined by the difference of. 청구항 3에 있어서,The method according to claim 3, 상기 우세예측모드는 상기 16개의 4x4 블록에서의 예측모드들 중 각 예측모드에서의 에지 크기의 합이 최대가 되는 예측모드로 결정되고, 이 우세예측모드의 예측 방향을 상기 손실된 매크로블록 내의 에지 방향으로 결정하는 것을 특징으로 하는 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법.The dominant prediction mode is determined as a prediction mode in which the sum of edge sizes in each prediction mode among the prediction modes in the sixteen 4x4 blocks is maximum, and the prediction direction of the dominant prediction mode is an edge in the lost macroblock. Spatial error concealment method with low complexity in H24, characterized by determining in the direction. 청구항 1에 있어서,The method according to claim 1, 상기 에지영역은 상기 손실된 매크로블록 주변에 위치하는 주변 블록 중, 상기 선정된 우세예측모드를 가지는 블록을 선택하고, 이 선택된 블록에서 상기 선정된 우세예측모드의 예측방향에 존재하는 영역으로 결정하는 것을 특징으로 하는 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법.The edge region selects a block having the selected prevailing prediction mode among neighboring blocks located around the lost macroblock, and determines a region existing in the prediction direction of the selected prevailing prediction mode in the selected block. A spatial error concealment method having a low complexity in H 246.4. 청구항 5에 있어서,The method according to claim 5, 상기 에지영역은 소정 영역의 여유치를 더 포함하는 것을 특징으로 하는 H.264에서의 저복잡도를 가지는 공간적 에러 은닉 방법.And said edge region further comprises a margin of a predetermined region.
KR1020060080469A 2006-08-24 2006-08-24 A spatial error concealment method with low complexity in h. 264/avc video coding KR100801155B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060080469A KR100801155B1 (en) 2006-08-24 2006-08-24 A spatial error concealment method with low complexity in h. 264/avc video coding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060080469A KR100801155B1 (en) 2006-08-24 2006-08-24 A spatial error concealment method with low complexity in h. 264/avc video coding

Publications (1)

Publication Number Publication Date
KR100801155B1 true KR100801155B1 (en) 2008-02-05

Family

ID=39342407

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060080469A KR100801155B1 (en) 2006-08-24 2006-08-24 A spatial error concealment method with low complexity in h. 264/avc video coding

Country Status (1)

Country Link
KR (1) KR100801155B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101151352B1 (en) 2011-03-29 2012-06-08 인하대학교 산학협력단 Context-based adaptive variable length coding decoder for h.264/avc

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000024879A (en) * 1998-10-02 2000-05-06 정선종 Method of real-time-hiding transmission error generated in condensed video bit stream
KR20050065104A (en) * 2003-12-24 2005-06-29 엘지전자 주식회사 Image error concealment apparatus and method
KR20050092535A (en) * 2004-03-16 2005-09-22 한국전자통신연구원 An apparatus for selective error concealment, and a method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000024879A (en) * 1998-10-02 2000-05-06 정선종 Method of real-time-hiding transmission error generated in condensed video bit stream
KR20050065104A (en) * 2003-12-24 2005-06-29 엘지전자 주식회사 Image error concealment apparatus and method
KR20050092535A (en) * 2004-03-16 2005-09-22 한국전자통신연구원 An apparatus for selective error concealment, and a method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101151352B1 (en) 2011-03-29 2012-06-08 인하대학교 산학협력단 Context-based adaptive variable length coding decoder for h.264/avc

Similar Documents

Publication Publication Date Title
US11240496B2 (en) Low complexity mixed domain collaborative in-loop filter for lossy video coding
KR100772883B1 (en) Deblocking filtering method considering intra BL mode, and video encoder/decoder based on multi-layer using the method
US8311097B2 (en) Image processing method for adaptive spatial-temporal resolution frame
KR100989296B1 (en) Enhanced image/video quality through artifact evaluation
US7653133B2 (en) Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders
CN111819854B (en) Method and apparatus for coordinating multi-sign bit concealment and residual sign prediction
JP5061179B2 (en) Illumination change compensation motion prediction encoding and decoding method and apparatus
US20050114093A1 (en) Method and apparatus for motion estimation using variable block size of hierarchy structure
US20050265447A1 (en) Prediction encoder/decoder, prediction encoding/decoding method, and computer readable recording medium having recorded thereon program for implementing the prediction encoding/decoding method
Zheng et al. A motion vector recovery algorithm for digital video using Lagrange interpolation
US20060002466A1 (en) Prediction encoder/decoder and prediction encoding/decoding method
US20150312575A1 (en) Advanced video coding method, system, apparatus, and storage medium
US11743475B2 (en) Advanced video coding method, system, apparatus, and storage medium
US8891892B2 (en) Image encoding method using adaptive preprocessing scheme
KR20000050599A (en) apparatus and method for concealing error
JP2007028579A (en) Method for video data stream integration and compensation
WO2007108642A1 (en) Image encoding/decoding method and apparatus
US20130170554A1 (en) Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, and programs thereof
JP2010534015A (en) Image processing method and corresponding electronic device
KR100856392B1 (en) Video Encoding and Decoding Apparatus and Method referencing Reconstructed Blocks of a Current Frame
KR101529903B1 (en) Block-based depth map coding method and apparatus and 3D video coding method using the method
KR20060085003A (en) A temporal error concealment method in the h.264/avc standard
KR100801155B1 (en) A spatial error concealment method with low complexity in h. 264/avc video coding
Suzuki et al. Block-based reduced resolution inter frame coding with template matching prediction
JP4784618B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120116

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee