KR20070023732A - Device for producing progressive frames from interlaced encoded frames - Google Patents

Device for producing progressive frames from interlaced encoded frames Download PDF

Info

Publication number
KR20070023732A
KR20070023732A KR1020067026214A KR20067026214A KR20070023732A KR 20070023732 A KR20070023732 A KR 20070023732A KR 1020067026214 A KR1020067026214 A KR 1020067026214A KR 20067026214 A KR20067026214 A KR 20067026214A KR 20070023732 A KR20070023732 A KR 20070023732A
Authority
KR
South Korea
Prior art keywords
field
resolution
residual error
motion compensation
decoding
Prior art date
Application number
KR1020067026214A
Other languages
Korean (ko)
Inventor
아르나우드 보우르게
프랑소와즈 그롤리에르
마구에트 얀 르
Original Assignee
코닌클리즈케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리즈케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리즈케 필립스 일렉트로닉스 엔.브이.
Priority to KR1020067026214A priority Critical patent/KR20070023732A/en
Publication of KR20070023732A publication Critical patent/KR20070023732A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 제1 해상도(SD)에서 인코딩 프레임 세트를 디코딩하여 하위의 해상도(QCIF)에서 출력 프레임 세트를 생성하는 방법 및 장치에 관련된다. 상기 장치는: 인코딩 프레임에 기초하여, 제1 해상도보다 하위의 제2 해상도에서 제1 잔류 에러 필드를 그리고 제1 해상도보다 하위의 제3 해상도에서 제2 잔류 에러 필드를 생성하는 부분 디코딩 유닛(DECp), 제1 잔류 에러 필드, 제1 기준 필드(Fix1) 및 제2 기준 필드(Fix2)를 기초로 제1 움직임 보상 필드를 생성하는 제1 예측 유닛(PRED1), 제1 잔류 에러 필드를 제1 움직임 보상 필드와 결합하여 다음 제1 기준 필드(Fiy1)를 얻는 제1 가산기, 제2 잔류 에러 필드, 제1 기준 필드 및 제2 기준 필드를 기초로 제2 움직임 보상 필드를 생성하는 제2 예측 유닛(PRED2), 제2 잔류 에러 필드를 상기 제2 움직임 보상 필드와 결합하여 출력 프레임에 대응하는 다음 제2 기준 필드(Fiy2)를 얻는 제2 가산기를 포함한다.The present invention relates to a method and apparatus for decoding an encoded frame set at a first resolution (SD) to produce an output frame set at a lower resolution (QCIF). The apparatus comprises: a partial decoding unit DECp for generating a first residual error field at a second resolution lower than the first resolution and a second residual error field at a third resolution lower than the first resolution based on the encoding frame ), A first prediction unit PRED1 for generating a first motion compensation field based on the first residual error field, the first reference field Fix1 and the second reference field Fix2, and the first residual error field. A second prediction unit that generates a second motion compensation field based on the first adder, the second residual error field, the first reference field and the second reference field in combination with the motion compensation field to obtain a next first reference field Fiy1 (PRED2), a second adder for combining a second residual error field with the second motion compensation field to obtain a next second reference field (Fiy2) corresponding to the output frame.

Description

인터레이스 인코딩 프레임으로부터 프로그레시브 프레임을 생성하는 장치{DEVICE FOR PRODUCING PROGRESSIVE FRAMES FROM INTERLACED ENCODED FRAMES}Device for generating progressive frames from interlaced frames {DEVICE FOR PRODUCING PROGRESSIVE FRAMES FROM INTERLACED ENCODED FRAMES}

본 발명은 제1 해상도에서의 인코딩 프레임 세트를 디코딩하여 하위 해상도에서의 출력 프레임 세트를 생성하는 방법 및 장치에 관한 것으로, 인코딩 프레임은 제2 인코딩 필드와 인터레이싱된(interlaced) 제1 인코딩 필드를 포함한다. The present invention relates to a method and apparatus for decoding an encoded frame set at a first resolution to produce an output frame set at a lower resolution, wherein the encoded frame is configured to display a first encoding field interlaced with the second encoding field. Include.

본 발명은 비디오 디코딩 애플리케이션에 사용될 수 있으며, 보다 상세하게는, 인터레이스 포맷의 압축 비디오 비트-스트림이 프로그레시브 디스플레이 상에 하위 레벨로 표시되어야 하는 애플리케이션에서 사용될 수 있다. 전형적인 애플리케이션으로는 전화 또는 PDA(Personal Digital Assistant) 같은 모바일 장치 상에서 DVB-T(Digital Video Broadcast - Terrestrial) 프로그램을 수신하는 것이 있다.The present invention can be used in video decoding applications, and more particularly in applications where compressed video bit-streams in interlaced format must be displayed at a lower level on a progressive display. Typical applications include receiving Digital Video Broadcast-Terrestrial (DVB-T) programs on a phone or mobile device such as a personal digital assistant (PDA).

저전력 소모는 모바일 장치의 중요한 특징이다. 모바일 장치는 오늘날 대량의 에너지를 소모하는 것으로 알려진 비디오 인코딩 및 디코딩 능력을 제공한다. 따라서, 소위 저전력 비디오 알고리즘이 필요하다.Low power consumption is an important feature of mobile devices. Mobile devices provide video encoding and decoding capabilities that are known to consume large amounts of energy today. Thus, a so-called low power video algorithm is needed.

사실, SDRAM 같은 외부 메모리로의 액세스는 비디오 장치에 대하여 애로가 있다. 이것은 메모리가 시스템의 대부분의 전력을 소모하는 부품이라고 알려짐에 따라 전력 소모 이슈, 및 중앙 처리 유닛(CPU)와 메모리 간의 상호 교환 대역폭에 기인하는 속도 제한 모두에 기인한다.In fact, access to external memory, such as SDRAM, is a headache for video devices. This is due to both power consumption issues as the memory is known to be the most power consuming part of the system, and speed limitations due to the interchange bandwidth between the central processing unit (CPU) and the memory.

종래의 비디오 디코더에 있어서는, 움직임 보상 모듈이 그러한 액세스를 많이 필요로 하는데, 그 이유는 소위 참조 프레임에 있어서 움직임 보상 모듈이 픽셀의 블록들을 일정하게 지시하기 때문이다. 이러한 문제점을 극복하기 위해, 국제 특허 출원 WO 03/010974호에는 디코딩의 계산적 복잡성을 저감하기 위해 외부 스케일링(scaling)과 결합하여 임베디드 리사이징(resizing)이 사용되는 비디오 디코딩 장치가 개시되어 있다.In a conventional video decoder, the motion compensation module requires a lot of such access, since in the so-called reference frame the motion compensation module constantly instructs blocks of pixels. To overcome this problem, international patent application WO 03/010974 discloses a video decoding apparatus in which embedded resizing is used in combination with external scaling to reduce the computational complexity of the decoding.

그러한 비디오 디코딩 장치가 도 1에 도시되어 있으며, 가변장 디코딩 블록(VLD), 역 스캔 및 역 양자화 블록(ISIQ), 8×8 역 이산 코사인 변환 블록(IDCT) 및 간축(decimation) 블록(DECI)으로 구성된 제1 경로를 포함한다. 동작중에, VLD 블록은 입력되는 비디오 비트-스트림을 표준 해상도(SD)에서 디코딩하여 움직임 벡터(MV) 및 양자화 변환 계수를 생성한다. 다음에, ISIQ 블록은 VLD 블록으로부터 수신된 양자화 변환 계수를 역 스캔하고 역 양자화한다. 또한, IDCT 블록은 필터링을 수행하여 변환 계수로부터 고주파를 제거한다. IDCT를 수행한 후에, 간축 블록은 디코딩되는 비디오 출력 프레임(OF)의 해상도를 감소시키기 위해 8×8 IDCT 블록의 출력을 소정 레이트로 샘플링한다.Such a video decoding apparatus is shown in FIG. 1 and includes a variable length decoding block (VLD), an inverse scan and inverse quantization block (ISIQ), an 8x8 inverse discrete cosine transform block (IDCT), and a decay block (DECI). It includes a first path consisting of. In operation, the VLD block decodes the incoming video bit-stream at standard resolution (SD) to produce a motion vector (MV) and quantization transform coefficients. Next, the ISIQ block inverse scans and inverse quantizes the quantization transform coefficients received from the VLD block. The IDCT block also performs filtering to remove high frequencies from the transform coefficients. After performing IDCT, the condensation block samples the output of the 8x8 IDCT block at a predetermined rate to reduce the resolution of the decoded video output frame (OF).

추가로 알 수 있는 바와 같이, 디코더는 또한 VLD 블록, 다운스케일링 블 록(DS), 움직임 보상 유닛(MC) 및 프레임 저장부(MEM)로 구성된 제2 경로를 포함한다. 동작 중에, 다운스케일링 블록(DS)은 제1 경로에서의 감소율에 비례하여 VLD 블록이 제공한 움직임 벡터(MV)의 크기를 감소시킨다. 이에 의해, 감소된 해상도에서 움직임 보상이 수행되어 제1 경로에서 생성된 프레임과 정합됨에 따라 메모리 액세스가 감소될 수 있다. 부가하여, 저장된 메모리 프레임의 사이즈가 감소됨에 따라, 메모리 사이즈도 감소된다.As can be further appreciated, the decoder also includes a second path consisting of the VLD block, the downscaling block DS, the motion compensation unit MC and the frame storage MEM. In operation, the downscaling block DS reduces the magnitude of the motion vector MV provided by the VLD block in proportion to the rate of decrease in the first path. Thereby, memory access can be reduced as motion compensation is performed at the reduced resolution to match frames generated in the first path. In addition, as the size of the stored memory frame is reduced, the memory size is also reduced.

그러나, 출력 프레임의 시퀀스가 여전히 인터레이스되어, 프로그레시브 디스플레이에 렌더링될 때 수용불가한 부작용(artifacts)을 초래하게 된다. 물론, 수정된 디코더와 RGB 컨버터 간에 디인터레이싱(deinterlacing) 유닛을 삽입할 수 있기는 하지만, 복잡도 및 메모리 전송면에서 댓가를 치뤄야 한다.However, the sequence of output frames is still interlaced, resulting in unacceptable artifacts when rendered on the progressive display. Of course, a deinterlacing unit can be inserted between the modified decoder and the RGB converter, but at the cost of complexity and memory transfer.

발명의 개요Summary of the Invention

본 발명의 목적은 인터레이스 비디오 시퀀스를 디코딩하여 적절한 복잡도를 갖는 프로그레시브 다운사이징된 비디오 시퀀스를 생성하는 방법 및 장치를 제공하는 것이다.It is an object of the present invention to provide a method and apparatus for decoding an interlaced video sequence to produce a progressive downsized video sequence having an appropriate complexity.

이를 위해, 본 발명에 따른 디코딩 장치는:To this end, the decoding device according to the invention:

인코딩 프레임에 기초하여, 제1 해상도보다 하위의 제2 해상도에서 제1 잔류 에러 필드를 그리고 제1 해상도보다 하위의 제3 해상도에서 제2 잔류 에러 필드를 생성하는 부분 디코딩 유닛, A partial decoding unit for generating a first residual error field at a second resolution lower than the first resolution and a second residual error field at a third resolution lower than the first resolution based on the encoding frame;

제1 잔류 에러 필드, 제1 기준 필드 및 제2 기준 필드를 기초로 제1 움직임 보상 필드를 생성하는 제1 예측 유닛, A first prediction unit for generating a first motion compensation field based on the first residual error field, the first reference field, and the second reference field;

제1 잔류 에러 필드를 제1 움직임 보상 필드와 결합하여 다음 제1 기준 필드를 얻는 제1 가산기, A first adder combining the first residual error field with the first motion compensation field to obtain a next first reference field,

제2 잔류 에러 필드, 제1 기준 필드 및 제2 기준 필드를 기초로 제2 움직임 보상 필드를 생성하는 제2 예측 유닛, A second prediction unit for generating a second motion compensation field based on the second residual error field, the first reference field and the second reference field;

제2 잔류 에러 필드를 상기 제2 움직임 보상 필드와 결합하여 출력 프레임에 대응하는 다음 제2 기준 필드(Fiy2)를 얻는 제2 가산기를 포함한다.And a second adder that combines a second residual error field with the second motion compensation field to obtain a next second reference field Fiy2 corresponding to the output frame.

유사하게, 본 발명에 따른 디코딩 방법은:Similarly, the decoding method according to the invention is:

인코딩 프레임에 기초하여, 제1 해상도보다 하위의 제2 해상도에서 제1 잔류 에러 필드를 생성하는 단계,Based on the encoding frame, generating a first residual error field at a second resolution lower than the first resolution,

인코딩 프레임에 기초하여, 제1 해상도보다 하위의 제3 해상도에서 제2 잔류 에러 필드를 생성하는 단계, Based on the encoding frame, generating a second residual error field at a third resolution lower than the first resolution,

제1 잔류 에러 필드, 제1 기준 필드 및 제2 기준 필드를 기초로 제1 움직임 보상 필드를 생성하는 단계,Generating a first motion compensation field based on the first residual error field, the first reference field and the second reference field,

제1 잔류 에러 필드를 제1 움직임 보상 필드와 결합하여 다음 제1 기준 필드를 얻는 단계,Combining the first residual error field with the first motion compensation field to obtain a next first reference field,

제2 잔류 에러 필드, 제1 기준 필드 및 제2 기준 필드를 기초로 제2 움직임 보상 필드를 생성하는 단계,Generating a second motion compensation field based on the second residual error field, the first reference field and the second reference field,

제2 잔류 에러 필드를 제2 움직임 보상 필드와 결합하여, 출력 프레임에 대응하는 다음 제2 기준 필드를 얻는 단계를 포함한다.Combining the second residual error field with the second motion compensation field to obtain a next second reference field corresponding to the output frame.

이후에 상술되는 바와 같이, 본 발명에 따른 디코딩 솔루션은 임베디드 리사이징을 포함하고, 이 임베디드 리사이징은 프로그레시브 시퀀스를 직접 출력하는데 적응되어, 디인터레이싱이 디코딩 루프에 의해 암묵적으로 수행된다. 계산량, 메모리 사이즈 및 액세스에 관한 본 솔루션의 비용은 디인터레이싱이 없는 종래의 비디오 디코더의 비용보다 크지만, 대량의 양호한 비주얼 품질을 제공한다. 본 발명에 따른 디코딩 솔루션은 또한 디인터레이싱이 결합된 종래의 비디오 디코딩보다는 비용면에서 효율적이며 더 저렴하고, 비주얼 품질에 관해서는 거의 종래의 상기 결합에 못지 않다.As will be described later in detail, the decoding solution according to the present invention includes embedded resizing, which is adapted to output a progressive sequence directly so that deinterlacing is implicitly performed by the decoding loop. The cost of this solution in terms of computation, memory size and access is greater than that of a conventional video decoder without deinterlacing, but provides a large amount of good visual quality. The decoding solution according to the invention is also more cost effective and cheaper than conventional video decoding combined with de-interlacing, and is almost the same as the conventional combination in terms of visual quality.

이롭게도, 부분 디코딩 유닛은 직렬로, 제1 해상도에서의 인코딩 데이터 블록으로부터 제2 또는 제3 해상도에서의 변환 계수 블록을 생성하는 엔트로피 디코딩 유닛, 양자화 변환 계수 블록으로부터 제2 또는 제3 해상도에서의 변환 계수 블록을 생성하는 역 양자화 디코딩 유닛, 및 변환 계수 블록으로부터 제2 또는 제3 해상도에서의 디코딩 계수 블록을 생성하는 역 변환 유닛을 포함한다. 결과적으로, 역 변환은 더 작고, 이에 의해 디코딩 솔루션의 복잡도가 더 낮아지게 된다.Advantageously, the partial decoding unit is in series an entropy decoding unit for generating a transform coefficient block at a second or third resolution from an encoded data block at a first resolution, at a second or third resolution from a quantized transform coefficient block. An inverse quantization decoding unit for generating a transform coefficient block, and an inverse transform unit for generating a decoded coefficient block at a second or third resolution from the transform coefficient block. As a result, the inverse transform is smaller, thereby lowering the complexity of the decoding solution.

본 발명의 실시예에 따라, 제2 해상도는 제3 해상도와 동일하다. 그러한 특징 덕분에, 디코딩 솔루션은 양호한 비주얼 품질을 제공한다.According to an embodiment of the invention, the second resolution is the same as the third resolution. Thanks to such a feature, the decoding solution provides good visual quality.

본 발명의 또 다른 실시예에 따라, 제2 해상도는 디코딩 장치에서 이용가능한 리소스에 따라 가변할 수 있다. 결과적으로, 디코딩은 배터리 레벨 또는 CPU 같은 풀(full) 리소스가 이용가능할 때 충분히 효율적이고, 낮은 리소스가 이용가능할 때에도 여전히 가능하다.According to another embodiment of the present invention, the second resolution may vary depending on the resources available to the decoding apparatus. As a result, decoding is sufficiently efficient when full resources such as battery level or CPU are available, and still possible when low resources are available.

본 발명은 또한 디코딩 장치 및 출력 프레임 세트를 표시하기 위한 스크린을 포함하는 휴대용 장치에 관한 것이다.The invention also relates to a portable device comprising a decoding device and a screen for displaying an output frame set.

마지막으로, 상기 발명은 본 발명에 따른 디코딩 방법을 구현하는 프로그램 명령을 포함하는 컴퓨터 프로그램 제품에 관한 것이다.Finally, the invention relates to a computer program product comprising program instructions for implementing a decoding method according to the invention.

본 발명의 이러한 양상 및 다른 양상은 후술되는 실시예로부터 자명해 질 것이고 그 실시예를 참조하여 명료해 질 것이다.These and other aspects of the invention will be apparent from and elucidated with reference to the embodiments described below.

본 발명은 이제, 예를 들면, 첨부 도면을 참조하여 보다 상세히 설명될 것이다.The invention will now be described in more detail with reference to the accompanying drawings, for example.

도 1은 종래 기술에 다른 디코딩 장치의 블록도를 도시한다.1 shows a block diagram of a decoding device according to the prior art.

도 2는 본 발명에 따른 디코딩 장치의 실시예의 블록도를 도시한다.2 shows a block diagram of an embodiment of a decoding apparatus according to the invention.

도 3은 본 발명의 실시예에 따른 필드 예측을 도시한다.3 illustrates field prediction according to an embodiment of the present invention.

도 4는 본 발명의 또 다른 실시예에 따른 필드 예측을 도시한다.4 illustrates field prediction according to another embodiment of the present invention.

도 5는 8×8 DCT 매트릭스로부터의 DCT 계수 추출을 도시한다.5 shows DCT coefficient extraction from an 8x8 DCT matrix.

도 6은 본 발명의 실시예에 따른 픽셀 도메인에서의 픽처 재구성을 도시한다.6 illustrates picture reconstruction in the pixel domain according to an embodiment of the present invention.

도 7은 본 발명의 또 다른 실시예에 따른 픽셀 도메인에서의 픽처 재구성을 도시한다.7 illustrates picture reconstruction in the pixel domain according to another embodiment of the present invention.

본 발명은 인터레이스 인코딩된 프레임으로부터 프로그레시브 프레임을 생성하는 방법 및 장치에 관한 것이다. 상기 방법은 프레임 시퀀스가 메모리에 저장되어야 하는 임의의 비디오 디코딩 장치에 적용될 수 있다. 특히, 본 발명은 디코딩된 출력 프레임의 전체적인 비주얼 품질을 충분히 유지하면서, 기준 프레임 메모리의 사이즈를 줄이는 것에 관심이 있다.The present invention relates to a method and apparatus for generating progressive frames from interlaced encoded frames. The method can be applied to any video decoding apparatus in which a frame sequence must be stored in memory. In particular, the present invention is concerned with reducing the size of the reference frame memory while sufficiently maintaining the overall visual quality of the decoded output frame.

본 발명에 따른 디코딩 장치의 실시예의 원리는 도 2에 도시되어 있다.The principle of an embodiment of a decoding device according to the invention is shown in FIG. 2.

그러한 디코딩 장치는, 제1 잔류(residual) 에러 필드를 제1 해상도보다 하위의 제2 해상도에서 생성하고, 제2 잔류 에러 필드를 제1 해상도보다 하위의 제3 해상도에서 생성하는 부분 디코딩 유닛(DECp)을 포함하며, 두개의 잔류 에러 필드는 인코딩된 프레임을 기초로 생성된다. 보다 상세하게, 인코딩된 프레임은 인코딩된 데이터 값의 복수의 블록으로 분할된다. 이들 인코딩된 데이터 값은, 예를 들면, 픽셀의 휘도 또는 크로미넌스(chrominance)의 이산 코사인 변환에 대응하는 DCT 계수이다. 본 발명의 실시예에 따라, 부분 디코딩 유닛(DECp)은 직렬로:Such a decoding apparatus comprises a partial decoding unit DECp that generates a first residual error field at a second resolution lower than the first resolution and generates a second residual error field at a third resolution lower than the first resolution. ) And two residual error fields are generated based on the encoded frames. More specifically, the encoded frame is divided into a plurality of blocks of encoded data values. These encoded data values are, for example, DCT coefficients corresponding to the discrete cosine transform of the luminance or chrominance of the pixel. According to an embodiment of the invention, the partial decoding unit DECp is in series:

- 예를 들면, 가변장 디코딩에 기초하여, 제1 해상도에서 인코딩된 데이터 블록으로부터 변환 계수 블록을 제2 또는 제3 해상도에서 생성하는 엔트로피 디코딩 유닛(VLDp),An entropy decoding unit (VLDp) for generating a transform coefficient block at a second or third resolution from a data block encoded at a first resolution, for example based on variable field decoding,

- 양자화 변환 계수의 블록으로부터 변환 계수의 블록을 제2 또는 제3 해상도에서 생성하는 역 양자화 디코딩 유닛(IQp), 및An inverse quantization decoding unit IQp for generating a block of transform coefficients at a second or third resolution from a block of quantized transform coefficients, and

- 예를 들면, 양자화 계수 블록으로부터 디코딩 계수 블록을 제2 또는 제3 해상도에서 생성하는 역 변환 유닛(ITp)을 포함한다.For example, an inverse transform unit (ITp) for generating a decoding coefficient block at a second or third resolution from the quantized coefficient block.

종래 기술에 개시된 부분 디코딩 유닛과 같은 부분 디코딩 유닛에 대하여 다른 실시예가 가능하다는 것이 당업자에게는 자명할 것이다. 이 DECp 유닛은 인코딩 프레임의 디코딩 및 다운사이징 모두를 수행하기 때문에 부분 디코딩 유닛으로 지칭된다.It will be apparent to those skilled in the art that other embodiments are possible for a partial decoding unit such as the partial decoding unit disclosed in the prior art. This DECp unit is called a partial decoding unit because it performs both decoding and downsizing of an encoded frame.

본 발명에 따른 디코딩 장치는 또한 두개의 예측 유닛(PRED1 및 PRED2)을 포함한다. 도 3에 도시된 바와 같이, 제1 예측 유닛(PRED1)은 제1 잔류 에러 필드, 기준 프레임(Ix)의 제1 기준 필드(Fix1) 및/또는 제2 기준 필드(Fix2)에 기초하여 예측 프레임(Py)의 제1 움직임 보상 필드를 생성하도록 적응된다. 다음에, 제1 가산기는 제1 잔류 에러 필드를 제1 움직임 보상 필드와 결합하여 다음 제1 기준 필드(Fiy1)를 얻도록 적응된다.The decoding device according to the invention also comprises two prediction units PRED1 and PRED2. As shown in FIG. 3, the first prediction unit PRED1 may predict the frame based on the first residual error field, the first reference field Fix1 of the reference frame Ix, and / or the second reference field Fix2. Is adapted to generate a first motion compensation field of (Py). Next, the first adder is adapted to combine the first residual error field with the first motion compensation field to obtain the next first reference field Fiy1.

유사하게, 제2 예측 유닛(PRED2)은 제2 잔류 에러 필드, 제1 기준 필드(Fix1 또는 Fiy1) 및/또는 제2 기준 필드(Fix2)에 기초하여 제2 움직임 보상 필드를 생성하도록 적응된다. 다음에, 제2 가산기는 제2 잔류 에러 필드를 제2 움직임 보상 필드와 결합하여 다음 제2 기준 필드(Fiy2)를 얻도록 적응되며, 상기 다은의 제2 기준 필드는 출력 프레임에 대응된다.Similarly, the second prediction unit PRED2 is adapted to generate a second motion compensation field based on the second residual error field, the first reference field Fix or Fiy1 and / or the second reference field Fix2. Next, the second adder is adapted to combine the second residual error field with the second motion compensation field to obtain the next second reference field Fiy2, the next second reference field corresponding to the output frame.

본 설명에서, 제1 필드는 톱(top) 필드이고 제2 필드는 보텀(bottom) 필드지만, 제1 필드가 보텀 필드가 될 수 있고, 제2 필드가 톱 필드가 될 수 있다는 것은 당업자에게는 자명할 것이다. 부가하여, 인코딩 프레임은 여기에서는 예측 P 프레임이지만, 양방향 예측 B 프레임일 수도 있다.In the present description, it will be apparent to those skilled in the art that the first field is a top field and the second field is a bottom field, but the first field may be a bottom field and the second field may be a top field. something to do. In addition, the encoding frame is here a predictive P frame, but may also be a bidirectional predictive B frame.

기본적으로, 현재 인코딩된 프레임의 두 필드는 감소된 해상도로 디코딩되고, 그들 중 단지 하나의 필드만이 표시된다. 주어진 시간에 하나의 필드가 표시되기 때문에, 인터레이스 결함은 존재하지 않는다. 따라서, 비주얼 품질은 최종 표시에 최적으로 적응된다. 더구나, 제1 필드는 미표시 필드이고, 이느 표시 필드의 재구성용의 기준으로서 사용될 수 있기 때문에 또한 디코딩된다. MPEG-2 표준에서, 이것은 특히 "필드 움직임 보상"이 적용될 때의 경우이다.By default, two fields of the current encoded frame are decoded with reduced resolution, and only one of them is displayed. Since one field is displayed at a given time, there is no interlace defect. Thus, the visual quality is optimally adapted to the final display. Moreover, the first field is also an undisplayed field and is also decoded since it can be used as a reference for reconstruction of the display field. In the MPEG-2 standard, this is especially the case when "field motion compensation" is applied.

물론, 표시 필드인 제2 필드는 디스플레이 해상도(예를 들면, QCIF)에서 디코딩된다. 다른 필드와 관련하여서는, 대부분의 자연적인 솔루션으로서 동일한 해상도로 또한 디코딩하는 것이다. 이것은 사이즈 및 전송과 관련하여, 디인터레이싱이 없는 종래 기술의 임베디드 리사이징 솔루션과 이중 비교되는 메모리 요구 사항을 초래한다. 이 필드가 표시되지는 않지만, 여기에서는 단지 다른 필드를 예측하는 것이기 때문에, 임의의 해상도로 디코딩될 수 있다. 다음 설명에서 상술된다.Of course, the second field, which is the display field, is decoded at the display resolution (eg QCIF). With respect to other fields, the most natural solution is to decode at the same resolution as well. This results in memory requirements that are double compared to the embedded resizing solutions of the prior art without deinterlacing in terms of size and transfer. Although this field is not indicated, it can only be decoded at any resolution, since it is here only predicting other fields. It is detailed in the following description.

명료성을 목적으로, 후술되는 설명은 방송 세계에서 가장 보편적인 압축 표준인 MPEG-2 인코딩 비트-스트림을 기초로 하지만, 임의의 인코딩 기술은 임의의 블록 기반 기술(예를 들면, MPEG-2, MPEG-4, H.264 등)일 수 있다는 것은 당업자에게는 자명할 것이다. For the sake of clarity, the following description is based on the MPEG-2 encoded bit-stream, which is the most common compression standard in the broadcast world, but any encoding technique is any block-based technique (e.g. MPEG-2, MPEG). -4, H.264, etc.) will be apparent to those skilled in the art.

도 3에 도시된 제1 실시예에 따라, 디코딩 방법은 두개의 QCIF 필드를 디코딩함으로써 인터레이스 표준 정의 SD 시퀀스를 프로그레시브 QCIF 시퀀스로 변환하도록 적응된다.According to the first embodiment shown in FIG. 3, the decoding method is adapted to convert an interlaced standard definition SD sequence into a progressive QCIF sequence by decoding two QCIF fields.

전형적인 입력 공간 해상도는 표준 정의 SD이고, 이는 인터레이스 포맷에서 720x576@25Hz(PAL) 또는 720x480@30Hz(NTSC)를 의미한다. 현재, 대부분의 모바일 장치는 준(near)-QCIF(프로그레시브 180x144 또는 120 픽셀) 스크린이 설치되어 있다. 이것은 수평 및 수직 방향에서 모두 비율 4만큼 공간적 다운스케일링하는 것을 내포한다. 출원인은 리사이징 및 디인터레이싱을 야기하는 부분 IDCT와 움직임 보상을 이제 상세히 설명한다.Typical input spatial resolution is standard definition SD, which means 720x576x25Hz (PAL) or 720x480x30Hz (NTSC) in interlace format. Currently, most mobile devices are equipped with near-QCIF (progressive 180x144 or 120 pixels) screens. This implies spatial downscaling by a ratio of 4 in both the horizontal and vertical directions. Applicants now describe in detail partial IDCT and motion compensation that cause resizing and deinterlacing.

전술한 바와 같이, VLD 디코딩 8x8 DCT 매트릭스의 저주파 콘텐츠를 사용하여 안티-에일리어싱(anti-aliasing) 저역 통과 필터링을 시뮬레이션한다. 제3 접근법에 따라, 상위 AC 계수가 스킵되고 감소된 IDCT가 실행되어, 8x8 대신 MxN 픽셀 출력 데이터 블록이 된다.As discussed above, the low frequency content of the VLD decoded 8x8 DCT matrix is used to simulate anti-aliasing low pass filtering. According to the third approach, the higher AC coefficients are skipped and the reduced IDCT is executed, resulting in MxN pixel output data blocks instead of 8x8.

본 출원인의 경우에, 도 5에 도시된 바와 같이, 매크로블록 헤더에 있는 dct_type(필드 DCT 또는 프레임 DCT)에 의존하는 DCT 매트릭스의 하위 2x2 또는 4x2 계수를 사용한다. 보다 상세하게는, 인터레이스 프레임 픽처로부터의 16x16 픽셀의 인터레이스 매크로블록이 프레임 DCT 코딩되면, 그 네개의 블록 각각은 두 필드로부터의 픽셀을 구비한다. 인터레이스 프레임 픽처로부터의 인터레이스 매크로블록이 필드 DCT 코딩되면, 각각의 블록은 두 필드 중 단지 하나의 필드로부터의 픽셀로 구성된다. 후자의 경우에, 각각의 16×16 매크로블록은 픽셀의 라인을 교대로 함으로써 폭이 16 픽셀이고 높이가 8 픽셀인 필드로 분할된 후, 각각의 필드는 한 필드로부터 두개의 8×8 블록을 만들고 다른 필드로부터 두개를 만들면서, 좌측 및 우측 부분으로 분할된다.In the case of the applicant, as shown in Fig. 5, the lower 2x2 or 4x2 coefficient of the DCT matrix is used depending on the dct_type (field DCT or frame DCT) in the macroblock header. More specifically, if a 16x16 pixel interlaced macroblock from an interlaced frame picture is frame DCT coded, each of the four blocks has pixels from two fields. If an interlace macroblock from an interlaced frame picture is field DCT coded, each block consists of pixels from only one of the two fields. In the latter case, each 16x16 macroblock is divided into fields of 16 pixels wide and 8 pixels high by alternating lines of pixels, and then each field contains two 8x8 blocks from one field. And split it into left and right parts, making two from the other fields.

출원인의 디코딩 솔루션에서, 표시된 프레임은 오리지날 필드 중 하나의 필드에 대응하고, 이는 이미 오리지날 프레임에 비하여 인자 2만큼 수직으로 다운스케일링되어 있다. 다음에, 이 필드는 QCIF 포맷의 출력 프로그레시브 프레임을 얻기 위해 수직 방향으로 2만큼 그리고 수평 방향으로 4만큼 더 다운스케일링되어야 한다. dct_type이 1로 설정되면, 필드 DCT가 인코더에 적용되고, 따라서, 4×2 IDCT가 수행된다. 반대로, dct_type이 0으로 설정되면, 프레임 DCT가 인코더에 적용되고, 따라서, 두개의 2×2 IDCT는 각 필드에 대하여 서로 다른 위상으로 수행된다.In Applicants' decoding solution, the indicated frame corresponds to one of the original fields, which is already downscaled vertically by a factor 2 compared to the original frame. Next, this field must be further downscaled by two in the vertical direction and four in the horizontal direction to obtain an output progressive frame in QCIF format. If dct_type is set to 1, the field DCT is applied to the encoder, and thus 4x2 IDCT is performed. Conversely, if dct_type is set to 0, the frame DCT is applied to the encoder, so that two 2x2 IDCTs are performed in different phases for each field.

보다 상세하게는, 16×16 매크로블록의 네개의 입력 8×8 DCT 매트릭스로부터, 본 출원인은 (각각의 리스케일링된 필드에 대하여) 두개의 출력 4×4 픽셀 블록을 유도한다. 이러한 목적을 위해, 이 후 IDCT_N×M()으로 지칭되는 수정 역 변환 함수가 사용된다. 이 함수의 인수는 8×8 DCT 매트릭스 F, 출력 픽셀 블록 f의 기대 차원 N×M(N은 수직방향, M은 수평 방향), 적절한 픽셀 정렬을 유지하도록 적용되는 수직 및 수평 위상 시프트

Figure 112006092273902-PCT00001
Figure 112006092273902-PCT00002
이다.More specifically, from four input 8 × 8 DCT matrices of 16 × 16 macroblocks, we derive two output 4 × 4 pixel blocks (for each rescaled field). For this purpose, a modified inverse transform function, hereafter referred to as IDCT_N × M (), is used. The arguments of this function are the 8 × 8 DCT matrix F, the expected dimensions N × M of the output pixel block f (N is vertical, M is horizontal), and the vertical and horizontal phase shifts applied to maintain proper pixel alignment.
Figure 112006092273902-PCT00001
And
Figure 112006092273902-PCT00002
to be.

IDCT_N×M의 정의는 (y=0 내지 N-1이고 x=0 내지 M-1에 대하여) 다음과 같다:The definition of IDCT_N × M is as follows (for y = 0 to N-1 and x = 0 to M-1):

Figure 112006092273902-PCT00003
Figure 112006092273902-PCT00003

여기에서, f(x,y)는 위치 (x,y)에서의 출력 픽셀을 나타내고, F(u,v)는 위치 (u,v)에서의 입력 DCT 계수를 나타내며, C(u)는 다음과 같이 정의된다:Where f (x, y) represents the output pixel at position (x, y), F (u, v) represents the input DCT coefficient at position (u, v), and C (u) is Is defined as:

Figure 112006092273902-PCT00004
Figure 112006092273902-PCT00004

본 발명의 실시예에서, 그리고 SD 대 QCIF 리스케일링의 경우에 다음 값들이 선택된다:In an embodiment of the present invention, and for SD to QCIF rescaling, the following values are selected:

Figure 112006092273902-PCT00005
Figure 112006092273902-PCT00005

위상과 관련하여, 그들 값은 주어진 필드에 대하여 프레임 IDCT와 필드 IDCT 모드 간의 일치를 유지하여 적절한 픽셀 정렬을 유지하도록 결정되었다. 두 필드 간 위상 시프트는, 제안된 발명에서 상기 필드들이 결코 함께 표시되지는 않기 때문에 임계적이지는 않다. 그럼에도 불구하고, 그 위상이 주변 효과를 방지하기 때문에, 오리지날 그리드 상의 서브-샘플링 픽셀의 중앙 위치를 확실하게 하는 위상이 바람직하다. 사실상, DCT 계수를 절사하는 것은 단지 현재 블록 내에서 이상적인 저역 통과 필터링하는 것과 동일하다. 이전 테이블의 값을 사용하여, 제1 필드(Fi1)에 대응하는 출력 픽셀(P1)과 제2 필드(Fi2)에 대응하는 출력 픽셀(P2)은 도 6에 도시되는 바와 같이 공간적으로 위치된다.In terms of phase, those values were determined to maintain matching between frame IDCT and field IDCT modes for a given field to maintain proper pixel alignment. The phase shift between two fields is not critical because the fields are never displayed together in the proposed invention. Nevertheless, a phase that ensures the center position of the sub-sampling pixel on the original grid is preferred because its phase prevents the ambient effect. In fact, trimming the DCT coefficients is just the same as the ideal low pass filtering within the current block. Using the values of the previous table, the output pixel P1 corresponding to the first field Fi1 and the output pixel P2 corresponding to the second field Fi2 are spatially positioned as shown in FIG. 6.

따라서, 움직임 보상(MC)이 얻어진다. 특히, 움직임 벡터는 두 필드들 간의 위상차를 고려하기 위해 조정된다. 더욱이, 움직임 유형(프레임 또는 필드 MC)와 움직임 벡터값 모두에 따라 상이한 접근법이 고려될 수 있다. Thus, motion compensation MC is obtained. In particular, the motion vector is adjusted to take into account the phase difference between the two fields. Moreover, different approaches may be considered depending on both the motion type (frame or field MC) and the motion vector values.

전략은 부울(Boolean) 값이 예측용으로 사용되는 기준 필드를 명백히 제공하기 때문에 필드 움직임 보상의 경우에 수월하다.The strategy is straightforward for field motion compensation because the Boolean value clearly provides the reference field used for prediction.

필드 움직임 보상에서, 오리지날 움직임 벡터의 수직 성분의 값 (MPEG-2에서 1/2 픽셀로 표현되는) MV.y에 따라 세개의 경우가 구상된다.In field motion compensation, three cases are envisioned according to MV.y (expressed as half a pixel in MPEG-2) of the vertical component of the original motion vector.

경우 1: MV.y modulo 4 = 0Case 1: MV.y modulo 4 = 0

프레임 움직임 보상 프로세스에서, 필드가 정렬된 상태로, 즉, 톱(각 보텀) 필드에 대응하는 라인이 오리지날 기준 프레임의 톱(각 보텀) 필드로 예측되는 오리지날 보상 프레임 블록으로 남아 있게 된다. 따라서, 리스케일링된 움직임 보상에서, 각 필드의 예측은 단지 대응하는 리사이징된 기준 필드를 사용하여 행해진다. 서브-픽셀 정확도에 도달하도록 보간을 사용할 수 있다.In the frame motion compensation process, the fields are aligned, that is, the line corresponding to the top (each bottom) field remains the original compensation frame block predicted by the top (each bottom) field of the original reference frame. Thus, in rescaled motion compensation, prediction of each field is done using only the corresponding resized reference field. Interpolation can be used to reach sub-pixel accuracy.

경우 2: MV.y modulo 4 = 2Case 2: MV.y modulo 4 = 2

움직임 보상 프로세스에서, 톱(각 보텀) 필드에 대응하는 라인은 오리지날 기준 프레임의 보텀(각 톱) 필드로 예측된다. 따라서, 리스케일링된 움직임 보상에서, 각 필드의 예측은 단지 대응하는 리사이징된 기준 필드를 사용하여 행해진다. 따라서, 리스케일링된 움직임 보상에서, 각 필드의 예측은 단지 대응하는 리사이징 기준 필드를 사용하여 행해진다. 서브-픽셀 정확도에 도달하도록 보간을 사용할 수 있다.In the motion compensation process, the line corresponding to the top (each bottom) field is predicted as the bottom (each top) field of the original reference frame. Thus, in rescaled motion compensation, prediction of each field is done using only the corresponding resized reference field. Thus, in rescaled motion compensation, prediction of each field is done using only the corresponding resizing reference field. Interpolation can be used to reach sub-pixel accuracy.

경우 3: 그 외Case 3: Other

예측은 오리지날 기준 프레임의 두 필드 간의 1/2 픽셀 단위 보간에 의해 행해진다. 이것은 두개의 리사이징된 기준 필드의 적절한 라인들 간의 적절한 서브-픽셀 보간으로 변화된다.The prediction is done by half pixel interpolation between two fields of the original reference frame. This is changed to the appropriate sub-pixel interpolation between the appropriate lines of the two resized reference fields.

도 4에 도시된 또 다른 예에 따라, 디코딩 방법은 인터레이스 표준 정의 SD 시퀀스를, QCIF 포맷에서의 제1 필드와 1/2 QCIF 포맷에서의 제2 필드를 디코딩함으로써 프로그레시브 QCIF 시퀀스로 변환하도록 적응된다. 본 발명의 이 실시예에서, 비표시 필드는 수직으로 더 다운스케일링된다. IDCT_N×M용 파라미터 값은 (보텀 필드가 표시되는 경우) 다음과 같다:According to another example shown in FIG. 4, the decoding method is adapted to convert an interlaced standard definition SD sequence into a progressive QCIF sequence by decoding the first field in the QCIF format and the second field in the 1/2 QCIF format. . In this embodiment of the present invention, the non-display field is further downscaled vertically. The parameter values for IDCT_N × M are as follows (when the bottom field is displayed):

Figure 112006092273902-PCT00006
Figure 112006092273902-PCT00006

따라서, 제1 필드(Fi1)에 대응하는 출력 픽셀(P1) 및 제2 필드(Fi2)에 대응하는 P2는 도 7에 도시된 바와 같이 공간적으로 위치된다.Therefore, the output pixel P1 corresponding to the first field Fi1 and the P2 corresponding to the second field Fi2 are spatially positioned as shown in FIG. 7.

움직임 보상은 새로운 위상 및 비표시 필드의 새로운 차원에 따라 도출된다.Motion compensation is derived according to a new dimension of the new phase and non-display fields.

본 실시예는 CPU 및 메모리 리소스가 제1 예에서 설명된 솔루션에 비하여 더 감소될 필요가 있는 애플리케이션에서 정당화된다. 비주얼 품질은, 비표시 기준 필드가 표시시보다 해상도가 더 작아서 흐릿한 예측을 초래하기 때문에 약간 악화되지만, 디코딩의 복잡도는 저감된다.This embodiment is justified in applications where CPU and memory resources need to be further reduced compared to the solution described in the first example. The visual quality deteriorates slightly because the non-display reference field has a smaller resolution than when displayed, resulting in blurry prediction, but the complexity of decoding is reduced.

비표시 필드의 해상도가 표시 필드의 해상도의 절반의 값을 취할 수 있다는 것이 당업자에게는 자명할 것이다. 더욱이, 비표시 필드의 해상도는 디코딩 장치에서 이용가능한 리소스(배터리 레벨, CPU,...)에 따라 가변하도록 할 수 있다. 예를 들면, 프레임 DCT의 경우에 표시 필드에 대하여 N=4이고 M=2이면, N×M은 다음 값: 가용 리소스에 따라 비표시 필드에 대하여 4×2, 3×2, 2×2, 1×2, 4×1, 3×1, 2×1 또는 1×1을 취할 수 있다.It will be apparent to those skilled in the art that the resolution of the non-display field may take half the resolution of the display field. Furthermore, the resolution of the non-display field can be varied depending on the resources available at the decoding device (battery level, CPU, ...). For example, in the case of frame DCT, if N = 4 and M = 2 for the display field, then N × M is given by the following values: 4 × 2, 3 × 2, 2 × 2, 1 × 2, 4 × 1, 3 × 1, 2 × 1 or 1 × 1.

방송 조건에서, 인코딩된 비디오 시퀀스의 공간 해상도는 반드시 SD일 필요는 없다. 오리지날 SD 시퀀스는 인코딩되기 전에 종종 수평으로 다운사이징된다. 이것은 전처리 단계로서 작용하여 최종 압축 비트-레이트를 더 감소시킬 수 있다. 텔레비전 세트에 접속된 셋톱 박스 같은 노말 애플리케이션에서, 디코딩된 시퀀스는 표시전에 정확한 종횡비를 검색하기 위해 수평으로 업사이징된다.In broadcast conditions, the spatial resolution of the encoded video sequence does not necessarily need to be SD. The original SD sequence is often downsized horizontally before being encoded. This can serve as a preprocessing step to further reduce the final compression bit-rate. In a normal application, such as a set top box connected to a television set, the decoded sequence is upsized horizontally to retrieve the correct aspect ratio before display.

전형적인 공간 해상도는: (PAL용의 576 라인, NTSC용의 480 라인) Typical spatial resolutions are: (576 lines for PAL, 480 lines for NTSC)

- SD: 라인당 720 픽셀SD: 720 pixels per line

- 3/4 SD: 라인당 540 픽셀3/4 SD: 540 pixels per line

- 2/3 SD: 라인당 480 픽셀2/3 SD: 480 pixels per line

- 1/2 SD: 라인당 360 픽셀이다.1/2 SD: 360 pixels per line.

목표로 하는 애플리케이션에서, 제안된 발명은 모든 포맷에 적용될 수 있다. 유사하게, 목표로 하는 프로그레시브 디스플레이는 QCIF와는 상이할 수 있다(CIF 또는 QVGA 포맷은 이미 시판되고 있다). 입력 및 출력 공간 해상도들 간의 스케일링 비율에 가능한 한 근접하게 맞도록 IDCT_N×M의 크기가 적용되어야 하고 따라서 위상이 설정되어야 한다. 이러한 비율이 (8×8 DCT 매트릭스의 형태 n/8의) 정수값으로 표현될 수 없는 경우에는, 바람직한 솔루션으로서는 이 비율을 가장 가까운 정수값으로 근사시키고 차원이 디스플레이 해상도보다 더 크면(또는 더 작으면) 렌더링시에 잘라낸다(또는 채워넣는다).In targeted applications, the proposed invention can be applied to all formats. Similarly, the target progressive display may be different from QCIF (CIF or QVGA format is already commercially available). The size of IDCT_N × M should be applied and the phase set accordingly so as to fit as closely as possible to the scaling ratio between the input and output spatial resolutions. If this ratio cannot be represented as an integer value (of form n / 8 of an 8x8 DCT matrix), the preferred solution is to approximate this ratio to the nearest integer value and if the dimension is larger (or smaller) than the display resolution. Cuts (or pads) at render time.

전술한 실시예에 걸친 향상은 DCT 매트릭스의 최고의 수직 컴포넌트를 사용하여 구성되어 프레임 DCT의 경우에 두 필드를 보다 잘 구별할 수 있다.Improvements over the foregoing embodiments can be made using the best vertical component of the DCT matrix to better distinguish the two fields in the case of frame DCT.

예를 들면, SD(인터레이스) 내지 QCIF(프로그레시브)의 경우에, 2×2 저주파 AC 계수를 사용하여 (각 필드에 대하여, 서로 다른 위상으로) 두개의 2×2 픽셀 블록을 생성한다. 그것은, 홀수 라인이 DCT 절단을 통해 짝수 라인에 의해 오염되고, 그 역도 마찬가지로 성립됨에 따라, 두 필드 간에 상호간섭을 야기한다. 이러한 이슈를 극복하는 방법은 DCT 매트릭스에서 계수의 최종 행을 사용하는 것이다. 사실상, 이들 주파수는 오리지날 블록의 홀수 라인과 짝수 라인 간의 차를 나타낸다. For example, in the case of SD (interlace) to QCIF (progressive), two 2x2 pixel blocks are generated (with different phases for each field) using 2x2 low frequency AC coefficients. It causes interference between the two fields as the odd lines are contaminated by the even lines via DCT truncation and vice versa. The way to overcome this issue is to use the last row of coefficients in the DCT matrix. In fact, these frequencies represent the difference between the odd and even lines of the original block.

보다 양호한 이 필드 분리를 적용함으로써, 두 필드가 (예를 들면, 두 필드간 씬-컷(scene-cut), 두 필드 중 단지 하나의 필드 동안만 발생하는 플래시 등) 서로 매우 상이할 때, 매우 특정한 경우에 상당한 비주얼 향상이 이루어진다. 이것은 가용의 리소스가 매우 충분한 경우에 부가의 품질 향상 툴로서 구현될 수 있다. By applying this better field separation, when two fields are very different from one another (for example, a scene-cut between two fields, a flash that occurs only during one of the two fields, etc.) In certain cases, significant visual enhancements are made. This can be implemented as an additional quality improvement tool if the available resources are very sufficient.

제안된 본 발명은 압축 인터레이스 비디오 시퀀스를 디코딩할 필요가 있고, 이를 프로그레시브 디스플레이 상에 저감된 솔루션으로 렌더링할 필요가 있는 비디오 능력을 갖는 임의의 장치에 적용될 수 있다. 본 발명은 완전한 순차 프로세스에 비하여 CPU 용도, 메모리 요구 사항, 메모리 대역폭, 레이턴시(latency) 및 전력 소모를 상당히 감소시키지만, 인터레이싱 비주얼 결함은 기존 간략화된 기법에 비하여 저감된다. 따라서, 리소스가 제한되지만 연장된 배터리 수명 및 양호한 비주얼 품질이 중요한 특징이고 인자를 차별화하는, 모바일 장치 상에서의 DVB-T 수신에 특히 적합하다. The proposed invention can be applied to any device having a video capability that needs to decode a compressed interlaced video sequence and need to render it in a reduced solution on a progressive display. While the present invention significantly reduces CPU usage, memory requirements, memory bandwidth, latency and power consumption compared to a complete sequential process, interlaced visual defects are reduced compared to conventional simplified techniques. Thus, although the resources are limited, extended battery life and good visual quality are important features and are particularly suitable for DVB-T reception on mobile devices, which differentiates factors.

본 발명의 몇몇 실시예는 단지 예로서 전술되었고, 첨부된 청구범위에 정의되는 본 발명의 범위를 벗어나지 않고 전술한 실시예에 수정 및 변경이 가해질 수 있다는 것은 당업자에게는 자명할 것이다. 또한, 청구범위에서, 괄호안에 위치된 임의의 참조 표시는 청구범위를 한정하는 것으로 해석되어서는 안된다. 용어 "포함(comprising)"은 청구범위에 기술된 구성요소 또는 단계 이외의 구성요소 또는 단계의 존재를 배제해서는 안될 것이다. 용어 "하나의 (a 또는 an)"는 복수를 배제하지는 않는다. 본 발명은 몇개의 개별 구성요소를 포함하는 하드웨어, 및 적절히 프로그래밍된 컴퓨터에 의해 구현될 수 있다. 몇몇 수단을 열거하는 장치 청구항에서, 이들 수단 몇몇은 하나의 하드웨어 아이템으로 구체화될 수 있다. 어떤 수단이 상이한 독립 청구항에 인용되어 있다고 해서 이들 수단의 조합이 이롭게 사용될 수 없다는 것을 의미하는 것은 아니다. Some embodiments of the invention have been described above by way of example only, and it will be apparent to those skilled in the art that modifications and variations may be made to the above embodiments without departing from the scope of the invention as defined in the appended claims. Also, in the claims, any reference signs placed between parentheses shall not be construed as limiting the claim. The term "comprising" shall not exclude the presence of elements or steps other than those described in the claims. The term "a" or "an" does not exclude a plurality. The invention can be implemented by means of hardware comprising several individual components, and by means of a suitably programmed computer. In the device claim enumerating several means, several of these means may be embodied as one hardware item. The fact that any means are cited in different independent claims does not mean that a combination of these means cannot be used to advantage.

Claims (7)

인코딩 프레임 세트를 제1 해상도(SD)에서 디코딩하여 하위 해상도(QCIF)에서 출력 프레임 세트를 생성하는 디코딩 장치로서 - 인코딩 프레임은 제2 인코딩 필드와 인터레이싱된 제1 인코딩 필드를 포함함 -,A decoding device for decoding an encoding frame set at a first resolution SD to generate an output frame set at a lower resolution QCIF, the encoding frame comprising a first encoding field interlaced with a second encoding field. 상기 인코딩 프레임에 기초하여, 상기 제1 해상도보다 하위의 제2 해상도에서 제1 잔류 에러 필드를 그리고 상기 제1 해상도보다 하위의 제3 해상도에서 제2 잔류 에러 필드를 생성하는 부분 디코딩 유닛(DECp), A partial decoding unit (DECp) for generating a first residual error field at a second resolution lower than the first resolution and a second residual error field at a third resolution lower than the first resolution based on the encoded frame , 상기 제1 잔류 에러 필드, 제1 기준 필드(Fix1) 및 제2 기준 필드(Fix2)를 기초로 제1 움직임 보상 필드를 생성하는 제1 예측 유닛(PRED1),A first prediction unit PRED1 for generating a first motion compensation field based on the first residual error field, the first reference field Fix1 and the second reference field Fix2, 상기 제1 잔류 에러 필드를 상기 제1 움직임 보상 필드와 결합하여 다음 제1 기준 필드(Fiy1)를 얻는 제1 가산기,A first adder for combining the first residual error field with the first motion compensation field to obtain a next first reference field Fiy1, 상기 제2 잔류 에러 필드, 상기 제1 기준 필드 및 상기 제2 기준 필드를 기초로 제2 움직임 보상 필드를 생성하는 제2 예측 유닛(PRED2),A second prediction unit PRED2 which generates a second motion compensation field based on the second residual error field, the first reference field and the second reference field, 상기 제2 잔류 에러 필드를 상기 제2 움직임 보상 필드와 결합하여 출력 프레임에 대응하는 다음 제2 기준 필드(Fiy2)를 얻는 제2 가산기A second adder that combines the second residual error field with the second motion compensation field to obtain a next second reference field Fiy2 corresponding to an output frame 를 포함하는 디코딩 장치.Decoding apparatus comprising a. 제1항에 있어서,The method of claim 1, 인코딩 프레임은 복수의 인코딩 데이터 블록으로 분할되고,The encoded frame is divided into a plurality of encoded data blocks, 상기 부분 디코딩 유닛(DECp)은 직렬로,The partial decoding unit DECp is in series, 제1 해상도에서의 인코딩 데이터 블록으로부터 제2 또는 제3 해상도에서의 변환 계수 블록을 생성하는 엔트로피 디코딩 유닛(VLDp),An entropy decoding unit (VLDp) for generating a transform coefficient block at a second or third resolution from an encoded data block at a first resolution, 양자화 변환 계수 블록으로부터 제2 또는 제3 해상도에서의 변환 계수 블록을 생성하는 역 양자화 디코딩 유닛(IQp), 및An inverse quantization decoding unit IQp for generating a transform coefficient block at a second or third resolution from the quantized transform coefficient block, and 변환 계수 블록으로부터 제2 또는 제3 해상도에서의 디코딩 계수 블록을 생성하는 역 변환 유닛(ITp)을 포함하는 디코딩 장치.An inverse transform unit (ITp) for generating a decoded coefficient block at a second or third resolution from the transform coefficient block. 제1항에 있어서,The method of claim 1, 상기 제2 해상도는 상기 제3 해상도와 동일한 디코딩 장치.And the second resolution is the same as the third resolution. 제1항에 있어서,The method of claim 1, 상기 제2 해상도는 상기 장치상에서 이용가능한 리소스에 따라 가변하는 디코딩 장치.And said second resolution varies in accordance with the resources available on said device. 제1항의 장치와 출력 프레임 세트를 표시하기 위한 스크린을 포함하는 휴대 용 장치.A portable device comprising a screen for displaying the device of claim 1 and an output frame set. 인코딩 프레임 세트를 제1 해상도(SD)에서 디코딩하여 하위 해상도(QCIF)에서 출력 프레임 세트를 생성하는 디코딩 방법으로서 - 인코딩 프레임은 제2 인코딩 필드와 인터레이싱된 제1 인코딩 필드를 포함함 -,A decoding method for decoding an encoding frame set at a first resolution SD to generate an output frame set at a lower resolution QCIF, wherein the encoding frame includes a first encoding field interlaced with a second encoding field. 상기 인코딩 프레임에 기초하여, 상기 제1 해상도보다 하위의 제2 해상도에서 제1 잔류 에러 필드를 생성하는 단계,Based on the encoded frame, generating a first residual error field at a second resolution lower than the first resolution, 상기 인코딩 프레임에 기초하여, 상기 제1 해상도보다 하위의 제3 해상도에서 제2 잔류 에러 필드를 생성하는 단계, Generating a second residual error field at a third resolution lower than the first resolution based on the encoded frame; 상기 제1 잔류 에러 필드, 제1 기준 필드(Fix1) 및 제2 기준 필드(Fix2)를 기초로 제1 움직임 보상 필드를 생성하는 단계,Generating a first motion compensation field based on the first residual error field, the first reference field Fix1 and the second reference field Fix2, 상기 제1 잔류 에러 필드를 상기 제1 움직임 보상 필드와 결합하여 다음 제1 기준 필드(Fiy1)를 얻는 단계,Combining the first residual error field with the first motion compensation field to obtain a next first reference field (Fiy1), 상기 제2 잔류 에러 필드, 상기 제1 기준 필드 및 상기 제2 기준 필드를 기초로 제2 움직임 보상 필드를 생성하는 단계,Generating a second motion compensation field based on the second residual error field, the first reference field and the second reference field; 상기 제2 잔류 에러 필드를 상기 제2 움직임 보상 필드와 결합하여 출력 프레임에 대응하는 다음 제2 기준 필드(Fiy2)를 얻는 단계Combining the second residual error field with the second motion compensation field to obtain a next second reference field (Fiy2) corresponding to an output frame; 를 포함하는 디코딩 방법.Decoding method comprising a. 프로세서에 의해 프로그램이 실행될 때, 청구항 제6항의 방법을 구현하는 프로그램 명령을 포함하는 컴퓨터 프로그램 제품.A computer program product comprising program instructions for implementing the method of claim 6 when the program is executed by a processor.
KR1020067026214A 2004-05-14 2005-05-11 Device for producing progressive frames from interlaced encoded frames KR20070023732A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020067026214A KR20070023732A (en) 2004-05-14 2005-05-11 Device for producing progressive frames from interlaced encoded frames

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04300280.7 2004-05-14
KR1020067026214A KR20070023732A (en) 2004-05-14 2005-05-11 Device for producing progressive frames from interlaced encoded frames

Publications (1)

Publication Number Publication Date
KR20070023732A true KR20070023732A (en) 2007-02-28

Family

ID=43654958

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067026214A KR20070023732A (en) 2004-05-14 2005-05-11 Device for producing progressive frames from interlaced encoded frames

Country Status (1)

Country Link
KR (1) KR20070023732A (en)

Similar Documents

Publication Publication Date Title
US6310919B1 (en) Method and apparatus for adaptively scaling motion vector information in an information stream decoder
US6385248B1 (en) Methods and apparatus for processing luminance and chrominance image data
JP4344472B2 (en) Allocating computational resources to information stream decoder
US6931062B2 (en) Decoding system and method for proper interpolation for motion compensation
US20020136308A1 (en) MPEG-2 down-sampled video generation
US6148032A (en) Methods and apparatus for reducing the cost of video decoders
US9185417B2 (en) Video decoding switchable between two modes
JP2005278168A (en) Method and system for processing compressed input video
JP2000050274A (en) Method and device for changing size of image frame including field mode coding
JP2000341695A (en) Device and method for providing expansion-decoded low- resolution video signal from encoded high-definition video signal
JP5529161B2 (en) Method and apparatus for browsing video streams
EP1751984B1 (en) Device for producing progressive frames from interlaced encoded frames
US8767831B2 (en) Method and system for motion compensated picture rate up-conversion using information extracted from a compressed video stream
EP0955609B1 (en) Decoding compressed image information
JP2002112267A (en) Variable resolution decode processing apparatus
JP2013524659A (en) Broadcast video recorder with reduced storage capacity and processing requirements suitable for handheld and mobile applications
KR20040019357A (en) Reduced complexity video decoding at full resolution using video embedded resizing
KR20070023732A (en) Device for producing progressive frames from interlaced encoded frames
KR20030005198A (en) Frame-type dependent reduced complexity video decoding
Chan et al. HDTV down-conversion using a drift reduction scheme
Peng et al. Low-cost HD to SD video decoding
JP2003143603A (en) Image decoding apparatus
JP2000244907A (en) Low cost video decoder for recoding digital video data and converting format

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Withdrawal due to no request for examination