KR20030081442A - Scalable motion image system - Google Patents

Scalable motion image system Download PDF

Info

Publication number
KR20030081442A
KR20030081442A KR10-2003-7010685A KR20037010685A KR20030081442A KR 20030081442 A KR20030081442 A KR 20030081442A KR 20037010685 A KR20037010685 A KR 20037010685A KR 20030081442 A KR20030081442 A KR 20030081442A
Authority
KR
South Korea
Prior art keywords
decomposition
compression
module
scalable
digital video
Prior art date
Application number
KR10-2003-7010685A
Other languages
Korean (ko)
Inventor
켄베 디. 괴르첸
Original Assignee
큐비스, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 큐비스, 인크. filed Critical 큐비스, 인크.
Publication of KR20030081442A publication Critical patent/KR20030081442A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1883Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit relating to sub-band structure, e.g. hierarchical level, directional tree, e.g. low-high [LH], high-low [HL], high-high [HH]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/62Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding by frequency transforming in three dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

본 발명은 해당 전송 속도를 갖는 디지탈 동화상 신호용 스케일 가능한 동화상 압축 시스템에 관한 것이다. 스케일 가능한 동화상 압축 시스템은 디지탈 동화상 신호를 수신하고, 디지탈 동화상 신호를 성분들로 분해하며 상기 성분을 전송하는 분해 모듈을 포함한다. 분해 모듈은 또한 칼라 회전, 공간 분해 및 임시 분해를 수행할 수 있다. 본 발명의 시스템은 또한 분해 모듈로부터 각각의 성분들을 수신하고, 성분들을 압축하며 압축된 성분들을 메모리 위치로 전송하는 압축 모듈을 포함한다. 압축 모듈은 서브-밴드 웨이브렛 압축을 수행할 수 있으며, 아울러 양자화 및 엔트로피 부호화의 기능을 포함한다.The present invention relates to a scalable video compression system for a digital video signal having a corresponding transmission rate. A scalable video compression system includes a decomposition module that receives a digital video signal, decomposes the digital video signal into components, and transmits the components. The decomposition module can also perform color rotation, spatial decomposition and temporary decomposition. The system of the present invention also includes a compression module that receives respective components from the decomposition module, compresses the components and sends the compressed components to a memory location. The compression module may perform sub-band wavelet compression and also includes the functions of quantization and entropy encoding.

Description

스케일링 가능 동화상 시스템{SCALABLE MOTION IMAGE SYSTEM}Scalable movie system {SCALABLE MOTION IMAGE SYSTEM}

지난 반세기 동안 단일 포맷 전문가 및 소비자 비디오 기록 장치는 필름 메이커 및 비디오그래퍼가 기대해왔던 특수 기능을 가진 정교한 시스템으로 발전해왔다. 고선명 디지탈 화상화의 도래와 함께 동화상 포맷의 수는 표준화되지 않고 크게 증가하였다. 디지탈 화상화가 발전함에 따라 더 높은 해상도의 화상, 따라서 더 많은 정보가 비압축된 더 낮은 해상도의 화상과 동일한 메모리 공간에 저장되도록 하기 위하여 디지탈 데이타를 압축하기 위한 기술이 고안되었다. 더 높은 해상도의 화상의 저장장치를 제공하기 위하여 기록 및 저장 장치의 제조자들은 그들의 시스템에 압축 기술을 추가하였다. 일반적으로, 현재의 압축 기술은 이산 코사인 변환(DCT)을 이용한 비디오 시퀀스의 각 화상의 공간 부호화를 기반으로 하고 있다. 이러한 처리에서는 본질적으로 공간 부호화가 블록 기반으로 이루어진다. 이러한 블록 기반 시스템은 해상도가 증가하는 것에 비례하여 압축 데이타 크기도 증가한다는 사실로 인하여 스케일링이 용이하지 않다. 블록 변환 시스템은 블록 경계 상에서 또는 블록 크기보다 낮은 주파수에서 상관성을 찾을 수 없다. 통상적인 전력 분배의 저주파 바이어스 때문에 화상 크기가 증가함에 따라 점점 더 많은 정보가 블록 변환될 수 없게 된다. 따라서, 공간 화상 압축을 위한 블록 변환 방법은 화상 크기에 비례하는 주어진 품질의 데이타 크기를 생성하게 된다. 또한, 해상도가 증가함에 따라 블록 기반 부호화로 인한 틸팅 효과가 더 커지며, 따라서 인공물(artifact) 및 불연속성을 포함하는 실질적인 화상 손실이 발생한다. 이러한 제약 때문에 제조자들은 그들의 압축 시스템을 제한된 범위의 해상도를 갖도록 설계해왔다. 필름 산업에서 원하는 각각의 해상도를 위해 제조자들은 이러한 단점을 해결하고 공간 부호화 문제를 보상하기 위하여 해상도 특수 애플리케이션(resolution specific application)을 개발할 것이 요구되어 왔다. 결과적으로, 다른 처리량을 가진 동화상 스트림에 대해 스케일링 가능한 화상 표현 시스템의 개발이 이루어지지 않았다.Over the past half century, single-format professional and consumer video recording devices have evolved into sophisticated systems with the special features that film makers and videographers have been expecting. With the advent of high-definition digital imaging, the number of moving picture formats has increased significantly without being standardized. As digital imaging has evolved, techniques have been devised to compress digital data so that higher resolution images, and thus more information, is stored in the same memory space as uncompressed lower resolution images. In order to provide higher resolution image storage, manufacturers of recording and storage devices have added compression techniques to their systems. In general, current compression techniques are based on the spatial coding of each picture of a video sequence using Discrete Cosine Transform (DCT). In this process, spatial coding is essentially block-based. Such block-based systems are not easy to scale due to the fact that the compressed data size also increases in proportion to increasing resolution. The block transformation system cannot find correlation on the block boundary or at frequencies lower than the block size. Due to the low frequency bias of conventional power distribution, more and more information cannot be block converted as the image size increases. Thus, the block conversion method for spatial image compression produces a data size of a given quality proportional to the image size. In addition, as the resolution increases, the tilting effect due to block-based encoding is greater, resulting in substantial picture loss, including artifacts and discontinuities. Because of these constraints, manufacturers have designed their compression systems to have a limited range of resolutions. For each resolution desired in the film industry, manufacturers have been required to develop resolution specific applications to address these shortcomings and to compensate for spatial coding problems. As a result, development of a scalable image representation system for moving picture streams with different throughputs has not been achieved.

본 발명은 디지탈 동화상에 관한 것으로서, 보다 상세하게는 디지탈 동화상 시스템을 다양한 디지탈 동화상 포맷으로 스케일링하기 위한 아키텍쳐에 관한 것이다.The present invention relates to digital moving images, and more particularly, to an architecture for scaling a digital moving image system into various digital moving image formats.

본 발명의 전술한 특징은 첨부된 도면을 참조한 이하의 상세한 설명으로부터 보다 쉽게 이해할 수 있을 것이다.The foregoing features of the present invention will be more readily understood from the following detailed description with reference to the accompanying drawings.

도 1은 스케일링 가능 비디오 시스템에 대한 본 발명의 일 실시예를 나타내는 블록도.1 is a block diagram illustrating one embodiment of the present invention for a scalable video system.

도 2는 스케일링 가능 디지탈 동화상 시스템을 산출하기 위해 함께 결합된 다수의 디지탈 동화상 시스템 칩을 나타내는 블록도.2 is a block diagram illustrating a number of digital video system chips coupled together to yield a scalable digital video system.

도 2a은 디지탈 동화상 시스템을 통한 디지탈 동화상 스트림의 흐름을 나타내는 흐름도.2A is a flow diagram illustrating the flow of a digital video stream through a digital video system.

도 2b는 하나의 모듈 그룹핑을 나타내는 도면.2B illustrates one module grouping.

도 3은 디지탈 동화상 칩 상에서 발견될 수 있는 각종 모듈을 나타내는 블록도.3 is a block diagram illustrating various modules that may be found on a digital video chip.

도 4는 DMR과 CODEC 사이의 동기 통신 스키마를 나타내는 블록도.4 is a block diagram illustrating a synchronous communication scheme between a DMR and a CODEC.

도 5는 단일 칩 내의 각 DMR 및 CODEC에 동기 신호를 제공하고 어레이에 접속될 때 버스 인터페이스 모듈(도시되지 않음)을 통해 어레이 내의 모든 칩에 동기 신호를 제공할 수 있는 전역 제어 모듈의 블록도.5 is a block diagram of a global control module capable of providing a synchronization signal to each DMR and CODEC in a single chip and providing a synchronization signal to all chips in the array through a bus interface module (not shown) when connected to the array.

도 6은 구성 이전의 디지탈 동화상 시스템 칩의 일례를 나타내는 블록도.6 is a block diagram showing an example of a digital video system chip before configuration.

도 7a 및 7b는 구성 후의 도 6의 디지탈 동화상 시스템 칩의 기능 성분들을 나타내는 블록도.7A and 7B are block diagrams showing functional components of the digital video system chip of FIG. 6 after construction.

도 8은 CODEC 내에서 발견되는 소자 및 버스를 나타내는 블록도.8 is a block diagram illustrating devices and buses found within a CODEC.

도 9는 공간 다상 처리예를 나타내는 블록도.9 is a block diagram showing an example of spatial polyphase processing;

도 10은 DMR 및 CODEC을 이용한 공간 서브-밴드 분할예를 나타내는 블록도.Fig. 10 is a block diagram showing an example of spatial sub-band division using DMR and CODEC.

관련 전송 속도를 가진 디지탈 동화상 신호의 스케일링 가능 동화상 압축 시스템이 개시된다. 스케일링 가능 동화상 압축 시스템은 디지탈 동화상 신호를 수신하고, 디지탈 동화상 신호를 성분들(component parts)로 분해하고 성분들을 전송하는 분해(decomposition) 모듈을 포함한다. 분해 모듈은 칼라 회전, 공간 분해 및 시간 분해도 행할 수 있다. 시스템은 분해 모듈로부터 성분들 각각을 수신하고, 성분들을 압축하고 압축된 성분을 메모리 위치로 전송하는 압축 모듈을 더 포함한다. 압축 모듈은 서브-밴드 웨이브렛 압축(sub-band wavelet compression)을행할 수 있고, 양자화 및 엔트로피 부호화를 위한 기능을 포함할 수도 있다.A scalable video compression system of a digital video signal having an associated transmission rate is disclosed. A scalable video compression system includes a decomposition module that receives a digital video signal, decomposes the digital video signal into component parts, and transmits the components. The decomposition module can also perform color rotation, spatial decomposition and time decomposition. The system further includes a compression module that receives each of the components from the decomposition module, compresses the components and sends the compressed components to a memory location. The compression module may perform sub-band wavelet compression and may include functionality for quantization and entropy encoding.

각 분해 모듈은 ASIC 칩일 수 있는 하나 이상의 분해 유닛을 포함할 수 있다. 마찬가지로 각 압축 모듈은 CODEC ASIC 칩일 수 있는 하나 이상의 압축 유닛을 포함할 수 있다.Each disassembly module may include one or more disassembly units, which may be ASIC chips. Likewise, each compression module may include one or more compression units, which may be CODEC ASIC chips.

시스템은 전송 속도로 실시간으로 입력 디지탈 동화상 스트림을 압축할 수 있다. 시스템은 분해 모듈과 압축 모듈 간에 분해된 디지탈 동화상 신호를 라우팅하기 위한 프로그래머블 모듈을 더 포함할 수 있다. 프로그래머블 모듈은 라우터처럼 동작하는 필드 프로그래머블 게이트 어레이일 수 있다. 이 실시예에서 분해 모듈은 하나 이상의 분해 유닛을 구비하며, 압축 모듈은 하나 이상의 압축 유닛을 구비한다.The system can compress the input digital video stream in real time at the transmission rate. The system may further include a programmable module for routing the decomposed digital video signal between the decomposition module and the compression module. The programmable module may be a field programmable gate array that acts like a router. In this embodiment the disassembly module has one or more disassembly units, and the compression module has one or more compression units.

다른 실시예에서 필드 게이트 프로그래머블 어레이는 다시 프로그래밍할 수 있다. 또 다른 실시예에서 분해 유닛은 병렬로 배치되고, 각 유닛은 입력 디지탈 동화상 신호 스트림의 일부를 수신하며, 이에 따라 분해 유닛의 총 처리량은 디지탈 동화상 스트림의 전송 속도보다 크게 된다. 소정 실시예에서 분해 모듈은 칼라, 프레임 또는 필드에 의해 디지탈 동화상 스트림을 분해하도록 구성된다. 분해 모듈은 칼라 역상관도 행할 수 있다. 분해 모듈 및 압축 모듈 양자는 다시 프로그래밍할 수 있고, 부호화 및 필터링에 사용되는 계수 값을 수신하기 위한 메모리를 구비한다. 시스템은 압축된 디지탈 동화상 스트림을 압축해제(decompression)하는 데에도 동일하게 사용될 수 있다는 것을 당업자는 이해할 것이다. 각 모듈은 새로운 계수 세트를 수신할 수 있으며 따라서 반전 필터가 구현될 수 있다.In other embodiments, the field gate programmable array can be reprogrammed. In another embodiment, the decomposition units are arranged in parallel, each unit receiving a portion of the input digital video signal stream, such that the total throughput of the decomposition unit is greater than the transmission speed of the digital video stream. In certain embodiments the decomposition module is configured to decompose the digital video stream by color, frame or field. The disassembly module may also perform color decorrelation. Both the decomposition module and the compression module are reprogrammable and have a memory for receiving coefficient values used for encoding and filtering. Those skilled in the art will appreciate that the system can equally be used to decompress a compressed digital video stream. Each module can receive a new set of coefficients and thus an invert filter can be implemented.

정의. 본 명세서 및 첨부 도면에서 사용되는 아래의 용어는 문맥상의 다른 요구가 아니면 아래의 의미를 갖는다.Justice. The following terms used in this specification and the accompanying drawings have the following meanings unless otherwise required by context.

화소는 화상 요소이며, 통상 표시 장치 상의 최소 제어가능 칼라 요소이다. 화소는 특정 칼라 공간의 칼라 정보와 관련된다. 예컨대, 디지탈 화상은 RGB(Red, Green, Blue) 칼라 공간에서 640×480의 화소 해상도를 가질 수 있다. 이러한 화상은 480 행에 640 화소를 가지며, 각 화소는 관련된 레드 칼라 값, 그린 칼라 값 및 블루 칼라 값을 갖는다. 동화상 스트림은 동화상을 나타내는 필드 또는 프레임으로 분할될 수 있는 디지탈 데이타의 스트림으로 구성될 수 있는데, 프레임은 일 기간 동안 표시 장치 상에 표시되는 완전한 디지탈 데이타 화상이다. 동화상의 프레임은 필드들로 분해될 수 있다. 필드는 대개, 화상의 모든 홀수 라인 또는 모든 짝수 라인이 주어진 기간 동안 표시되는 것을 의미하는 홀수 또는 짝수로서 표시된다. 다른 기간 동안의 홀수 및 짝수 필드의 표시는 당해 분야에 인터레이싱으로 알려져 있다. 프레임 또는 한 쌍의 필드가 완전한 화상을 나타낸다는 것을 당업자는 알 것이다. 본 명세서에서 사용되는 "화상"이라는 용어는 필드 및 프레임 양자를 나타낸다. 또한, 여기서 사용되는 "디지탈 신호 처리"라는 용어는 데이타 스트림의 변경 및/또는 세그먼트화를 위해 조직적인 방식으로 디지탈 데이타 스트림을 처리하는 것을 의미한다.The pixel is an image element and is typically the minimum controllable color element on the display device. Pixels are associated with color information in a particular color space. For example, a digital image may have a pixel resolution of 640 × 480 in RGB (Red, Green, Blue) color space. This image has 640 pixels in 480 rows, each pixel having an associated red color value, green color value, and blue color value. A moving picture stream may consist of a stream of digital data that may be divided into fields or frames representing moving pictures, where a frame is a complete digital data picture displayed on a display device for one period. Frames of moving pictures can be broken down into fields. Fields are usually displayed as odd or even, meaning that all odd lines or all even lines of the picture are displayed for a given period. The indication of odd and even fields for other periods is known in the art as interlacing. Those skilled in the art will appreciate that a frame or pair of fields represents a complete picture. The term "picture" as used herein refers to both field and frame. In addition, the term "digital signal processing" as used herein means processing the digital data stream in an organized manner for alteration and / or segmentation of the data stream.

도 1은 스케일링 가능 비디오 시스템(10)에 대한 본 발명의 일 실시예를 나타내는 블록도이다. 시스템은 디지탈 동화상 스트림을 입력(16)으로서 수신하는 디지탈 비디오 시스템 칩(15)을 포함한다. 디지탈 동화상 시스템 칩(15)은 바람직하게는 주문형 집적회로(ASIC)로 구현된다. 디지탈 동화상 시스템 칩을 제어하는 프로세서(17)가 디지탈 동화상 시스템 칩에 명령을 제공하는데, 이 명령에는 라우팅, 압축 레벨 설정, 공간 및 시간 부호화를 포함하는 부호화, 칼라 역상관, 칼라 공간 변환, 인터레이싱 및 암호화와 같은 각종 명령이 포함된다. 디지털 동화상 시스템 칩(15)은 대략 실시간으로 디지털 데이터 스트림(18)을 생성하는 디지털 동화상 스트림(16)을 압축하고 후속 검색을 위한 메모리에 그 정보를 전송한다. 디지털 데이터 스트림을 검색하고 디지털 동화상 스트림이 출력되도록 프로세스를 반전하는 디지털 동화상 시스템 칩에 대한 요구는 프로세서에 의해 작성될 수 있다. 출력으로부터, 디지털 동화상 스트림은 디지털 디스플레이 장치(20)을 통과한다.1 is a block diagram illustrating one embodiment of the present invention for a scalable video system 10. The system includes a digital video system chip 15 that receives a digital video stream as input 16. The digital video system chip 15 is preferably implemented as an application specific integrated circuit (ASIC). A processor 17 controlling the digital video system chip provides instructions to the digital video system chip, which includes routing, compression level setting, encoding including spatial and temporal encoding, color decorrelation, color space conversion, interlacing. And various instructions such as encryption. The digital video system chip 15 compresses the digital video stream 16, which generates the digital data stream 18 in approximately real time, and transmits the information to a memory for subsequent retrieval. A request for a digital video system chip to retrieve a digital data stream and invert the process to output a digital video stream can be made by the processor. From the output, the digital video stream passes through the digital display device 20.

도 2는 각각 관련된 해상도 및 관련된 처리량을 갖는 다양한 디지털 동화상 스트림을 수용할 수 있는 스케일링 가능 디지털 동화상 시스템을 생성하기 위하여 함께 결합된 다수 디지털 동화상 시스템 칩(15)을 도시하는 블럭도이다. 예를 들어, 디지털 동화상 스트림은 각각이 24 비트의 정보(8비트 레드, 8비트 그린, 8비트 블루)에 의해 표시되는 화소를 갖는 동화상당 1600×1200 화소의 해상도를 가질 수 있으며, 초당 30 프레임의 속도를 가질 수 있다. 이러한 동화상 스트림은 1.38 기가비트/초 피크 속도의 처리량이 가능한 장치를 필요로 한다. 시스템은 예를 들어 다양한 구성을 통해 640×480, 1280×768, 및 4080×2040을 포함하는 다양한 해상도를 수용할 수 있다.FIG. 2 is a block diagram illustrating a number of digital video system chips 15 coupled together to create a scalable digital video system that can accommodate various digital video streams, each having an associated resolution and associated throughput. For example, a digital video stream can have a resolution of 1600 × 1200 pixels per video, each with pixels represented by 24 bits of information (8 bits red, 8 bits green, 8 bits blue), 30 frames per second. Can have a speed of Such video streams require devices capable of throughput of 1.38 gigabit / second peak rate. The system can accommodate a variety of resolutions including, for example, 640 × 480, 1280 × 768, and 4080 × 2040 through various configurations.

이를 수행하는 방법이 도 2a에 도시된다. 먼저, 디지털 동화상 스트림이 시스템에 수신된다. 처리량에 의존하여, 스트림은 화상내의 프레임 또는 라인 포인트 등의 정의가능한 포인트에서 분리되고 디지털 동화상 스트림의 처리량을 수용하기 위하여 칩이 버퍼를 제공하도록 다수의 칩 중의 하나로 분산된다(단계 201A). 그후, 칩들은 각각 칼라 성분 또는 필드 등에 의해 화상 스트림의 분해를 수행한다. 그후, 칩들은 분해에 기초하여 디지털 화상 스트림을 역상관할 것이다(단계 202A). 예를 들어, 칼라 성분은 역상관되어 휘도를 분리하거나 스트림의 각각의 화상(필드/프레임)이 서브프레임 코드로 변환될 수 있다. 그후, 시스템은 양자화 및 엔트로피 부호화를 통해 스트림의 부화화를 수행하여 디지털 동화상을 나타내는 데이터의 양을 더 압축한다 (단계 203A). 단계들이 이하에서 더 설명될 것이다.The method of doing this is shown in FIG. 2A. First, a digital video stream is received in the system. Depending on the throughput, the stream is separated at a definable point, such as a frame or line point in the picture, and distributed to one of the plurality of chips such that the chip provides a buffer to accommodate the throughput of the digital video stream. The chips then perform decomposition of the picture stream by color components or fields, respectively. The chips will then decorrelate the digital picture stream based on the decomposition (step 202A). For example, color components may be decorrelated to separate luminance or each picture (field / frame) of the stream may be converted to a subframe code. The system then performs incubation of the stream through quantization and entropy encoding to further compress the amount of data representing the digital moving picture (step 203A). The steps will be described further below.

디지털 동화상 시스템 칩 상의 성분이 그러한 피크 처리량을 개별적으로 제공할 수 있으면, 칩은 병렬 및/또는 직렬로 진기적으로 접속되어 디지털 동화상 스트림을 버퍼링한 후 디지털 동화상 스트림을 화상 성분으로 분해하고 다른 동화상 시스템 칩 사이에 성분을 재분산함으로써 필요한 처리량을 제공할 수 있다. 이러한 분해는 레지스터 입력 버퍼로 달성될 수 있다. 예를 들어, 필요한 처리량이 디지털 동화상 칩의 용량의 두배이었으면, 동화상 스트림의 워드 길이를 갖는 2개의 레지스터는, 데이터가 적절한 주파수에서 레지스터에 배치되지만 사이클당 2개의 워드 길이 또는 주파수의 절반에서 레지스터로부터 판독되도록 제공된다. 또한, 다수의 디지털 동화상 시스템 칩은 이러한 버퍼를 형성하도록 링크될 수 있다. 디지털 동화상 스트림의 속도로 동작할 수 있는 스위치를 가정하면, 각각의 디지털 동화상 시스템 칩은 스트림의 일부를 수신하고 버퍼링할 수 있다. 예를 들어, 디지털 동화상 스트림이 초당 30 프레임에서 4000×4000 화소 모노크롬 화상으로 구성되는 것으로 가정한다. 요구되는 처리량은 초당 480 밀리언 성분이다. 디지털 동화상 시스템 칩이 초당 60 밀리언 성분의 최대 처리량만을 가지면, 시스템은 초당 480 밀리언 성분에서 동작하는 스위치가 8개의 칩 중 임의의 것 사이에서 순차적으로 스위칭하도록 구성될 수 있다. 그후, 디지털 비디오 시스템 칩은 각각 버퍼로서 동작한다. 결과적으로, 디지털 동화상 스트림은 그후 칩내에서 처리될 수 있다. 예를 들어, 프레임 오더링(ordering)이 변경될 수 있거나 시스템은 화소, 필드, 또는 데이터의 프레임을 추가 또는 제거할 수 있다.If the components on the digital video system chip can provide such peak throughput individually, the chips are progressively connected in parallel and / or serially to buffer the digital video stream, then decompose the digital video stream into picture components and other video systems. Redistributing the components between the chips can provide the required throughput. This decomposition can be accomplished with a register input buffer. For example, if the required throughput was twice the capacity of a digital video chip, two registers with the word length of the video stream would be from the register at half the frequency or two word lengths per cycle, although the data would be placed in the register at the appropriate frequency. Provided to be read. In addition, multiple digital video system chips may be linked to form such a buffer. Assuming a switch capable of operating at the speed of a digital video stream, each digital video system chip can receive and buffer a portion of the stream. For example, suppose a digital video stream is composed of 4000 x 4000 pixel monochrome images at 30 frames per second. The required throughput is 480 million components per second. If the digital video system chip only has a maximum throughput of 60 million components per second, the system can be configured so that a switch operating at 480 million components per second switches sequentially between any of the eight chips. The digital video system chips then each act as a buffer. As a result, the digital video stream can then be processed in-chip. For example, frame ordering may be changed or the system may add or remove frames of pixels, fields, or data.

버퍼링후, 디지털 동화상 스트림은 분해된다. 예를 들어, 디지털 동화상 시스템 칩은 각각의 동화상이 그 각각의 칼라 성분, 예를 들어, RGB 또는 YUV 칼라 성분으로 분리되도록 칼라 분해를 제공할 수 있다. 분해하는 동안, 신호는 또한 역상관될 수 있다. 칼라는 칼라 정보로부터 휘도 정보를 분리하기 위하여 좌표 회전에 의해 역상관될 수 있다. 다른 칼라 분해와 역상관이 또한 가능하다. 예를 들어, 36 성분 어스 리소스(Earth Resource) 표시가 역상관 및 분해될 수 있고, 각각의 성분은 주파수 대역을 나타내고, 따라서, 공간 및 칼라 정보 둘다 상관된다. 일반적으로, 성분은 공통 휘도 정보를 공유하고 또한 상당한 상관을 가져 칼라 성분을 근사(proximate)한다. 이 경우, 웨이브렛 변환이 성분을 역상관하는데 사용될 수 있다.After buffering, the digital video stream is decomposed. For example, a digital moving picture system chip can provide color separation such that each moving picture is separated into its respective color component, such as an RGB or YUV color component. During decomposition, the signal can also be decorrelated. The color can be decorrelated by coordinate rotation to separate the luminance information from the color information. Other color decomposition and decorrelation are also possible. For example, a 36 component Earth Resource representation can be decorrelated and decomposed, with each component representing a frequency band, thus correlating both spatial and color information. In general, the components share common luminance information and also have a significant correlation to approximate the color component. In this case, wavelet transform can be used to decorrelate the components.

많은 디지털 화상 스트림 포맷에서, 칼라 정보는 공간 및 주파수 정보, 예를 들어, 단 하나의 칼라 성분이 각각의 화소 위치에서 샘플링되는 칼라 마스크 이미저(color masked imager)와 혼합된다. 칼라 역상관은 이러한 상황에서 공간 및 주파수 역상관을 둘다 필요로 한다. 예를 들어, 4000×2000 화소 카메라가 3 칼라 마스크(2×2 반복 그리드에서, 블루, 그린, 그린, 레드)를 사용하고 72㎐까지의 프레임 속도에서 동작하는 것을 가정한다. 이 카메라는 그후 초당 576 밀리언 단일 성분 화소까지 제공할 것이다. 시스템 칩이 초당 600 밀리언 성분을 입력하고 300 밀리언 성분을 프로세싱하는것으로 가정하면, 2개의 시스템 칩은 다상 프레임 버퍼로서 사용될 수 있고 4 페이즈 컨볼버(convolver)는 초당 300 메가 성분에서 데이터를 통해 통과될 수 있다. 컨볼버의 각각의 페이즈는 칼라 마스크의 페이즈 중의 하나에 대응하고, 출력으로서 4개의 독립 성분, 즉, 2차원 절반 대역 저주파 휘도 성분, 2차원 절반 대역 고주파 대각선 휘도 성분, 2차원 절반 대역 Cb 칼라 차 성분, 및 2차원 절반 대역 Cr 칼라 차 성분을 생성한다. 프로세스의 정보 대역폭이 보존되고, 4개의 독립 동일 대역폭 성분이 생성되고 칼라 스페이스가 역상관된다. 여기에 기재된 2차원 컨볼버는 보간, 칼라 스페이스 역상관, 대역제한, 및 서브밴드 역상관을 단일의 다상 컨볼루션(single multiphase convolution)에 통합한다. 또다른 분해가 가능함을 당업자는 이해해야 한다. 디지털 동화상 시스템의 모듈 방식 때문에 다양한 유형의 역상관 및 분해가 가능하다. 이하에서 더 설명하는 바와 같이, 칩의 각각의 소자는 외부적으로 제어되고 구성 가능하다. 예를 들어, 별개의 소자가 칼라 분해, 공간 부호화 및 시간 부호화를 수행하는 칩내에 존재하고,그 내의 각각의 변환은 그 계수값에 의해 정의된 다수탭 필터가 되도록 설계된다. 외부 프로세서는 애플리케이션에 의존하여 특정 소자에 대한 다른 계수값을 입력할 수 있다. 또한, 외부 프로세서는 프로세싱에 사용될 관련된 특정 소자를 선택할 수 있다. 예를 들어, 디지털 동화상 시스템 칩은 공간 부호화만을 위하여 사용되는 또는 공간 및 시간 부호화를 위하여 사용되는 버퍼링 및 칼라 분해를 위하여 단독으로 사용될 수 있다. 칩내의 이 모듈 방식은 각각의 소자가 결합된 버스에 의해 부분적으로 제공된다.In many digital picture stream formats, color information is mixed with spatial and frequency information, for example a color masked imager, in which only one color component is sampled at each pixel location. Color decorrelation requires both spatial and frequency decorrelation in this situation. For example, suppose a 4000 × 2000 pixel camera uses three color masks (blue, green, green, red in a 2 × 2 repeating grid) and operates at frame rates up to 72 Hz. The camera will then deliver up to 576 million single-component pixels per second. Assuming a system chip inputs 600 million components per second and processes 300 million components, two system chips can be used as a multiphase frame buffer and a four phase convolver can pass through the data at 300 mega components per second. Can be. Each phase of the convolver corresponds to one of the phases of the color mask, and as outputs four independent components: two-dimensional half-band low frequency luminance component, two-dimensional half-band high frequency diagonal luminance component, two-dimensional half-band Cb color difference Components, and two-dimensional half-band Cr color difference components. The information bandwidth of the process is preserved, four independent equal bandwidth components are created and the color space is decorrelated. The two-dimensional convolver described herein incorporates interpolation, color space decorrelation, bandlimiting, and subband decorrelation into a single multiphase convolution. Those skilled in the art should understand that other decompositions are possible. Due to the modularity of the digital video system, various types of decorrelation and decomposition are possible. As will be described further below, each element of the chip is externally controlled and configurable. For example, a separate element exists in the chip that performs color decomposition, spatial coding, and temporal coding, and each transformation therein is designed to be a multi-tap filter defined by its coefficient value. The external processor can input different coefficient values for a particular device, depending on the application. In addition, the external processor can select the relevant specific device to be used for processing. For example, a digital video system chip may be used alone for buffering and color decomposition, which is used only for spatial encoding or used for spatial and temporal encoding. This modular approach in the chip is provided in part by the bus to which each device is coupled.

동화상은 또한 프레임을 필드로 분리함으로써 분해될 수 있다. 프레임 또는 필드는, 예를 들어, 이미지의 저, 중, 고 주파수 성분이 함께 그룹화되도록, 화상의 주파수 구조에 기초하여 더 분해될 수 있다. 당업자는 주파수 세그멘테이션이 또한 가능함을 이해해야 한다. 또한, 참조된 분해는 공간에 존재하지 않아, 압축 기술에 기초한 블럭내에 널리 퍼진 압축 해제시에 재구성된 디지털 동화상 스트림의 불연속을 제거한다. 설명한 바와 같이, 모든 처리량은 디지털 동화상 스트림의 역상관의 결과로서 병렬 프로세싱에 의해 인자(N)만큼 증가될 수 있다. 예를 들어, N은 화상이 필드(2:1 이득)로 분할된 후 칼라 성분(3:1) 이득으로 분할되고 그후 주파수 성분(3:1) 이득으로 분할되는 다음의 예에서 27:1일 것이다. 그러므로, 실제 압축 및 부호화가 발생하는 최종 프로세싱이 입력 동화상 스트림의 속도의 1/27인 속도에서 달성될 수 있도록 처리량의 전체 증가는 27:1이다. 그러므로, 화상의 해상도에 관련된 처리량은 스케일링될 수 있다. 예에서, 동화상 칩은 간단한 인터레이스 분해를 위한 1.3Gcomponents/s에 대한 I/O 용량을 가지므로, 한쌍의 동화상 칩은 제 1 동화상 칩의 출력 포트에서 접속될 수 있고, 칼라 성분 분해는, 칼라 분해가 650Mbits/sec를 초과하지 않아 전체 처리량이 유지되는 제 2의 동화상 칩 쌍에서 수행될 수 있다. 또다른 분해는 본 기술 분야에서 일반적으로 다상화로서 지칭된 프레임별 기반으로 달성될 수 있다.Motion pictures can also be decomposed by dividing the frame into fields. The frame or field may be further decomposed based on the frequency structure of the image, such that, for example, low, medium, and high frequency components of the image are grouped together. Those skilled in the art should understand that frequency segmentation is also possible. In addition, the referenced decomposition does not exist in space, eliminating discontinuities in the reconstructed digital video stream upon decompression, which is prevalent in blocks based on compression techniques. As described, all throughputs can be increased by a factor N by parallel processing as a result of the decorrelation of the digital video stream. For example, N is 27: 1 days in the following example where an image is divided into fields (2: 1 gain) and then divided into color component (3: 1) gain and then divided into frequency component (3: 1) gain. will be. Therefore, the total increase in throughput is 27: 1 so that the final processing where actual compression and encoding occurs can be achieved at a rate that is 1/27 of the speed of the input video stream. Therefore, the throughput related to the resolution of the image can be scaled. In the example, the video chip has an I / O capacity of 1.3 Gcomponents / s for simple interlaced resolution, so that a pair of video chips can be connected at the output port of the first video chip, and color component decomposition Can be performed on a second moving picture chip pair in which the total throughput is not exceeded 650 Mbits / sec. Another decomposition can be accomplished on a frame-by-frame basis, commonly referred to in the art as polyphase.

디지털 동화상 스트림 자체는 다수 채널을 통해 동화상 칩으로 입력된다. 예를 들어, 쿼드(quad)-HD 신호는 8채널을 통해 세그먼트될 수 있다. 이 구성에서, 8개의 별도의 디지털 동화상 칩은 디지털 동화상 스트립을 각 채널에 대한 것으로 압축하는데 채용될 수 있다.The digital video stream itself is input to the video chip through multiple channels. For example, a quad-HD signal may be segmented through eight channels. In this configuration, eight separate digital video chips can be employed to compress the digital video strips for each channel.

각각의 동화상은 칩들간의 데이터를 제공하는 입출력(I/O) 포트 또는 핀과 칩들간의 메시지를 제공하는 데이터 통신 포트를 갖는다. 프로세서는 칩의 어레이의 칩 각각에 대한 디지털 동화상 데이터에 수행될 디지털 신호 프로세싱 작업에 관한 명령을 제공하는 칩의 어레이를 제어하는 것을 이해해야 한다. 또한, 메모리 입출력 포트는 메모리 위치 및 메모리 조정자를 통신하는 각각의 칩 상에 제공된다는 것을 이해해야 한다.Each moving picture has an input / output (I / O) port for providing data between chips or a data communication port for providing messages between pins and chips. It is to be understood that a processor controls an array of chips that provides instructions regarding digital signal processing operations to be performed on digital video data for each chip of the array of chips. It should also be understood that memory input / output ports are provided on each chip that communicates memory locations and memory coordinators.

일 실시예에서, 각각의 디지탈 동화상 시스템 칩은 분해 모듈(25), 필드 게이트 프로그래밍 가능한 어레이(FPGA, 30) 및 압축 모듈(35)을 포함하는 다수의 모듈과 함께, 입력/출력 포트를 포함한다. 도 2b는 모듈의 한 그룹을 도시하고 있다. 실제 실시예에서, 이러한 그룹 여러개가 단일 칩 상에 포함될 수 있다. 그와 같이, FPGA는 압축 모듈과 분해 모듈 간의 결합(coupling)을 구성하도록 칩이 프로그래밍될 수 있게 한다.In one embodiment, each digital video system chip includes an input / output port, with a number of modules including a disassembly module 25, a field gate programmable array (FPGA) 30, and a compression module 35. . 2B shows a group of modules. In a practical embodiment, several such groups may be included on a single chip. As such, the FPGA allows the chip to be programmed to form a coupling between the compression module and the decomposition module.

예를 들어, 입력 동화상 데이터 스트림은 동화상 스트림의 각 프레임을 각각의 칼라 성분으로 분할함으로써, 분해 모듈 내에서 분해될 수 있다. 동적으로 재프로그래밍 가능 FPGA일 수 있는 FPGA는, 3개의 동화상 정보 스트림(본 예에서, 각각 적색, 녹색 및 청색을 위한 것임)을 수신하고 그 정보를 압축 모듈에 전달하는 다중화기/라우터로서 프로그래밍될 수 있다. 필드 게이트 프로그래밍 가능한 어레이가 설명되고 있지만, 다른 신호/데이터 분배기도 사용될 수 있다. 분배기는, 토큰 패싱(token passing)을 사용하는 피어-투-피어 기반(peer-to-peer basis)으로 신호를 분배할 수도 있고, 중앙 제어되어 개별적으로 신호를 분배할 수도 있으며, 모듈이 처리할 것으로 추정되지 않는 부분을 마스킹하는 각각의 모듈에 전체 동화상 입력 신호를 제공할 수도 있다. 각각이 인입 스트림을 압축할 수 있는 다수의 압축 유닛으로 이루어진 압축 모듈은 스트림을 압축한 후, 그 압축된 데이터를 바람직하게는 메모리에 출력한다. 바람직한 실시예의 압축 모듈은 공간 및 시간 모두에서 스트림에 대한 서브밴드 코딩을 사용하는 웨이브렛 압축을 이용한다. 또한, 압축 모듈은, 프로세서로부터 압축 모듈로 송신된 제어 신호에 기초하여, 변화하는 압축도에 보장된 레벨의 신호 품질을 제공하도록 구성된다. 이와 같이, 압축 모듈은, 분해시 디지탈 동화상 스트림 내의 화상 시퀀스에 대하여 모든 주파수에 걸쳐서 세트 해상도(set resolution)를 유지하게 하는 압축된 신호를 생성한다.For example, an input moving picture data stream may be decomposed within a decomposition module by dividing each frame of the moving picture stream into respective color components. An FPGA, which may be a dynamically reprogrammable FPGA, may be programmed as a multiplexer / router that receives three moving picture information streams (in this example, one each for red, green, and blue) and passes that information to a compression module. Can be. Although a field gate programmable array is described, other signal / data dividers can also be used. The distributor may distribute the signal on a peer-to-peer basis using token passing, may be centrally controlled to distribute the signal separately, and the module may process The entire moving picture input signal may be provided to each module masking a portion that is not supposed to be estimated. The compression module, which consists of a plurality of compression units, each of which can compress the incoming stream, compresses the stream and then outputs the compressed data to the memory. The compression module of the preferred embodiment uses wavelet compression that uses subband coding for the stream in both space and time. In addition, the compression module is configured to provide a guaranteed level of signal quality for varying degrees of compression based on control signals transmitted from the processor to the compression module. As such, the compression module generates a compressed signal that, upon decomposition, maintains the set resolution across all frequencies for the picture sequence in the digital video stream.

n은 독립적인 성분 속도라 할 때, 시스템 칩 m의 성분 프로세싱 속도가 n보다 작은 경우, Roof[n/m] 시스템 칩이 사용된다. 각각의 시스템 칩은 모든 Roof[n/m] 화소 또는 Roof[n/m] 프레임을 수신한다. 정상적으로, 그 선택은 I/O버퍼링의 편의에 의해 결정된다. Roof[n/m]이 처리 중인 비디오 화상의 라인 길이의 배수가 아닌 화소 다상(pixel polyphase)의 경우, 수직 상관을 유지하기 위하여 라인 패딩(line padding)이 사용된다. 성분 다중화에 의한 다상의 경우, 수직 상관은 보존되며, 수직 성분의 2 이상의 직교 하위 분할(orthogonal subdivision)을 야기하기 위하여, 서브밴드 변환은 각 부분의 화상의 열에 독립적으로 적용될 수 있다. 프레임 다중화에 의한 다상의 경우, 수직 및 수평 상관 양자 모두가 유지되므로, 2차원 정보의 2 이상의 직교 하위 분할을 생성하기 위하여, 2차원 서브밴드 변환이 프레임에 적용될 수 있다. 시스템 칩은 입력 포트와 출력 포트에서 동일한 피크 속도가 지원되도록 설계된다. Roof[n/m] 프로세스는 교차된 다상 방식(transposed polyphase fashion)으로 입력 신호의 비-다상 서브밴드 표현을 출력하며, 여기에서 더 많은 성분이 존재하며, 각각의 독립적인 성분은 감소된 속도에 있다.When n is an independent component velocity, a Roof [n / m] system chip is used when the component processing speed of system chip m is less than n. Each system chip receives all Roof [n / m] pixels or Roof [n / m] frames. Normally, the choice is determined by the convenience of I / O buffering. In the case of pixel polyphase where Roof [n / m] is not a multiple of the line length of the video image being processed, line padding is used to maintain vertical correlation. In the case of multiple phases by component multiplexing, the vertical correlation is preserved, and in order to cause two or more orthogonal subdivisions of the vertical components, the subband transform can be applied independently to the columns of the picture of each part. In the case of multi-phase by frame multiplexing, both vertical and horizontal correlations are maintained, so that two-dimensional subband transformation can be applied to the frame to generate two or more orthogonal subdivisions of the two-dimensional information. The system chip is designed to support the same peak speeds at the input and output ports. The Roof [n / m] process outputs a non-polyphase subband representation of the input signal in a transposed polyphase fashion, where more components are present, with each independent component at a reduced speed. have.

도 3은 하나 이상의 분해 유닛(305)을 포함할 수 있는 분해 모듈(300)을 포함하는 디지탈 동화상 칩(15) 상에서 발견될 수 있는 다양한 모듈을 도시하고 있다. 이 유닛들은 칼라 보상, 칼라 공간 회전, 칼라 분해, 공간적 및 시간적 변환, 포맷 변환, 및 다른 동화상 디지탈 신호 프로세스 기능을 허용한다. 또한, 이러한 분해 유닛(305)은 디지탈 마스터링 리포맷터(digital mastering refomatter, "DMR")로 칭해질 수 있다. 또한, DMR(305)은 일반적으로 1탭 또는 2탭 필터, 칼라 회전, 내삽(interpolation) 및 1/10 제거(decimation)를 통한 비트 스케일링, 3:2 풀다운(pulldown) 및 라인 더블링(line doubling)을 이용하는 단순화된 공간, 시간및 칼라 역상관을 제공하는 "스마트" I/O 포트를 구비한다. 스마트 I/O 포트는 쌍방향성인 것이 바람직하며, 명령 시퀀스를 수신하는 전용 프로세서를 구비한다. 예를 들어, 입력 포트가 칼라 성분의 시간적 역상관(temporal decorrelation)을 행하는 한편, 출력 포트가 각 화상의 라인의 인터레이스 셔플링(interlaced shuffling)을 수행하도록, 입력 포트 및 출력 포트는 서로 독립적으로 동작하도록 구성된다. I/O 포트에 대한 명령은 디지탈 동화상 스트림 내의 META 데이터로서 전달될 수도 있고, 또는 시스템 프로세스서를 통해 I/O 포트 프로세서에 송신될 수도 있는데, 여기에서 시스템 프로세서는 디지탈 동화상 칩의 일부가 아니며 칩 기능을 제어하는 명령을 칩에 제공하는 프로세서이다. 또한, I/O 포트는 표준 I/O 포트로서 동작할 수 있으며, 상위 필터링을 수행하는 내부 어플리케이션 전용 디지탈 신호 프로세서에 디지탈 데이터를 전달한다. 지정된 동기 시간 간격의 완료시, 정상 환경 하에서, I/O 포트가 바람직하게는 완전한 프레임의 프로세스된 데이터를 후속 모듈에 전달하고, 다른 프레임을 나타내는 데이터를 수신하도록, I/O 프로세서는 시스템 클럭에 동기화된다. 동기 시간 간격이 완료되고, 모듈 내의 데이터가 완전하게 처리되지 않은 경우에도, 출력 포트는 여전히 준-처리된(semi-processed) 데이터를 클리어하고, 입력 포트는 후속의 데이터 세트를 수신할 것이다. 예를 들어, 디지탈 동화상 스트림의 처리량이 단일 DMR(305) 또는 압축 모듈의 처리량을 초과하는 경우에는, DMR(305)은 병렬로 사용되고 버퍼로서 채용될 수 있다. 이러한 구성에서, 스위치/신호 구획자(switch/signal partitioner)가 각각의 DMR에 디지탈 데이터를 입력할 때, DMR은 다른 분해 및/또는 역상관을 행할 수 있다.3 shows various modules that can be found on a digital moving picture chip 15 that includes a disassembly module 300, which may include one or more disassembly units 305. These units allow for color compensation, color space rotation, color decomposition, spatial and temporal conversion, format conversion, and other moving picture digital signal processing functions. This disassembly unit 305 may also be referred to as a digital mastering refomatter ("DMR"). In addition, the DMR 305 typically includes one- or two-tap filters, bit scaling through color rotation, interpolation, and 1/10 rejection, 3: 2 pulldown, and line doubling. It has a "smart" I / O port that provides simplified space, time and color decorrelation. The smart I / O port is preferably bidirectional and has a dedicated processor for receiving a sequence of instructions. For example, the input port and the output port operate independently of each other such that the input port performs temporal decorrelation of the color components while the output port performs interlaced shuffling of the lines of each picture. It is configured to. Commands for an I / O port may be passed as META data in a digital video stream, or may be sent to an I / O port processor through a system processor, where the system processor is not part of the digital video chip and is a chip function. It is a processor that provides a command to control the chip. In addition, the I / O port can operate as a standard I / O port and deliver digital data to a digital signal processor dedicated to internal applications that perform upper filtering. Upon completion of the specified sync time interval, under normal circumstances, the I / O processor may enter a system clock such that the I / O port preferably delivers the complete frame of processed data to subsequent modules and receives data representing another frame. Are synchronized. Even if the sync time interval is complete and the data in the module has not been fully processed, the output port will still clear semi-processed data and the input port will receive the subsequent data set. For example, if the throughput of a digital video stream exceeds the throughput of a single DMR 305 or compression module, the DMR 305 can be used in parallel and employed as a buffer. In this configuration, when the switch / signal partitioner inputs digital data into each DMR, the DMR may perform other decomposition and / or decorrelation.

압축 모듈(350)은 하나 이상의 압축/압축 해제 유닛("CODEC", 355)을 포함한다. CODEC(355)은 부호화 및 복호 기능(웨이브렛 변환, 양자화/역양자화, 및 엔트로피 부호화기/복호기)을 제공하며, 신호의 시간적 변환(시간/주파수)은 물론, 신호의 공간 웨이브렛 변환(공간/주파수 영역)을 수행할 수 있다.Compression module 350 includes one or more compression / decompression units (“CODECs”) 355. CODEC 355 provides encoding and decoding functions (wavelet transform, quantization / dequantization, and entropy encoder / decoder), as well as temporal transform (time / frequency) of the signal, as well as spatial wavelet transform (spatial / Frequency domain).

소정의 실시예에서, CODEC은 인터레이스 프로세스(interlace process) 및 암호화를 수행하는 기능을 포함한다. 또한, CODEC은, 1탭 또는 2탭 필터와 같은 단순 필터를 사용하는 단순화된 역상관을 행할 수 있으며, 또한 DMR과 관련하여 전술한 스마트 I/O 포트와 동일한 방식으로 동작하는 "스마트" I/O 포트를 갖는다. DMR 및 CODEC은 둘다 모두 다른 DMR 또는 CODEC으로부터 디지탈 동화상 스트림 또는 데이터를 수신하기 위한 저장 위치, 및 프로세스가 행해진 후 DMR 또는 CODEC으로 전송되기 전에 데이터를 저장하기 위한 위치를 구비한다. 바람직한 실시예에서, 입력 및 출력 포트는 DMR 및 CODEC 둘다에 대하여 동일한 대역폭을 갖지만, 모듈 방식 설계(modularity scheme)을 지원하기 위해 반드시 동일한 대역폭일 필요는 없다. 예를 들어, 다상 버퍼링을 지원하기 위하여, DMR은 CODEC보다 더 높은 I/O 속도를 갖는 것이 바람직하다. 각각의 CODEC은 입력 포트 및 출력 포트에서 동일한 대역폭을 갖기 때문에, CODEC은 용이하게 공통의 버스 핀을 통하여 접속될 수 있으며, 공통의 클럭으로 제어될 수 있다.In certain embodiments, the CODEC includes an interlace process and the ability to perform encryption. In addition, the CODEC can perform simplified decorrelation using simple filters, such as one-tap or two-tap filters, and also operate in the same manner as the smart I / O ports described above with respect to DMR. O has port Both the DMR and CODEC have a storage location for receiving a digital moving picture stream or data from another DMR or CODEC, and a location for storing data after the process is performed and before being transmitted to the DMR or CODEC. In the preferred embodiment, the input and output ports have the same bandwidth for both the DMR and CODEC, but do not necessarily have to be the same bandwidth to support the modularity scheme. For example, to support multiphase buffering, the DMR preferably has a higher I / O rate than the CODEC. Since each CODEC has the same bandwidth at the input port and the output port, the CODECs can easily be connected through a common bus pin and can be controlled with a common clock.

또한, CODEC은 그 전체 내용이 본 명세서에 참조로서 포함되는 미국 특허 출원 제09/498,924호에 설명되어 있는 바와 같이 품질 우선 순위 모드(quality priority mode)로 동작하도록 구성될 수 있다. 품질 우선 순위에서, 서브밴드 웨이브렛 변환을 사용하여 역상관된 비디오의 프레임의 각각의 주파수 대역은, 정보 평면 내에서 샘플링 이론 곡선에 맵핑되는 양자화 레벨을 가질 수 있다. 이러한 곡선은 해상도 및 주파수의 축을 가지며, 나이퀴스트 주파수(Nyquist frequency)로부터 1 옥타브 감소할 때마다, 2차원 화상을 표현하기 위하여 추가의 1.0 비트가 필요하다. 따라서, 나이퀴스트 주파수로 표현되는 것과 같은 비디오 스트림에 대한 해상도가 모든 주파수에서 보존된다. 샘플링 이론에 기초하여, 1 옥타브 감소할 때마다 차원 당 해상도를 위한 추가의 1/2 비트가 필요하다. 따라서, 보다 더 낮은 주파수에서 나이퀴스트에서와 동일한 해상도로 표현하기 위해서는, 보다 더 많은 정보 비트가 요구된다. 이와 같이, 양자화에 대한 피크 속도는 샘플 영역 내의 데이터 속도에 접근할 수 있고, CODEC의 입력 및 출력 포트는 거의 동일한 처리량을 가져야만 한다.In addition, the CODEC may be configured to operate in a quality priority mode as described in US patent application Ser. No. 09 / 498,924, the entire contents of which are incorporated herein by reference. In quality priority, each frequency band of a frame of video that is decorrelated using subband wavelet transform may have a quantization level that is mapped to a sampling theory curve within the information plane. These curves have axes of resolution and frequency, and each time one octave decreases from the Nyquist frequency, an additional 1.0 bit is needed to represent the two-dimensional picture. Thus, the resolution for the video stream, such as represented by the Nyquist frequency, is preserved at all frequencies. Based on the sampling theory, every one octave reduction requires an additional 1/2 bit for resolution per dimension. Thus, to represent the same resolution as at Nyquist at lower frequencies, more information bits are required. As such, the peak rate for quantization can approach the data rate within the sample region, and the input and output ports of the CODEC should have approximately the same throughput.

고해상도 화상은 CODEC의 처리량과 호환 가능하며 화상의 품질에 영향을 주지 않는 보다 더 작은 유닛으로 분해될 수 있기 때문에, 화상에 대하여, 호모몰픽 필터링(homomorphic filtering) 및 그레인 감소(grain reduction)와 같은 추가의 디지탈 신호 프로세스가 행해질 수 있다. 양자화는 예를 들어, 인간의 인지, 센서 해상도 및 디바이스 특성에 기초하여 변경될 수 있다.For high-resolution images, such as homomorphic filtering and grain reduction, can be broken down into smaller units that are compatible with the throughput of the CODEC and can be broken down into smaller units that do not affect the quality of the image. The digital signal process of can be done. Quantization can be changed based on, for example, human perception, sensor resolution, and device characteristics.

따라서, 시스템은 변화하는 화상 크기를 수용하기 위하여 고정된 처리량을 갖는 모듈들을 채용하는 다중화된 형태로 구성되는 것이 바람직하다. 압축은 국부 지원의 전 화상 변환에 기초하기 때문에, 시스템은 수평선 효과(horizon effect) 또는 블럭 인공물로 인한 손실없이 이를 달성할 수 있다. 또한, 매우 낮은 주파수성분이 더 서브밴드 부호화될 수 있도록, 시스템은 피라미드 변환을 수행할 수 있다.Thus, the system is preferably configured in a multiplexed form that employs modules with a fixed throughput to accommodate varying image sizes. Since compression is based on full image conversion with local support, the system can achieve this without loss due to horizon effects or block artifacts. In addition, the system may perform a pyramid transformation so that very low frequency components can be further subband coded.

본 기술 분야의 숙련된 기술자라면, 다양한 구성의 CODEC 및 DMR이 단일 동화상 칩 상에 배치될 수 있음을 알아야 한다. 예를 들어, 칩은 다중화된 CODEC, 다중화된 DMR, 또는 DMR 및 CODEC의 조합으로 구성될 수 있다. 또한, 디지탈 동화상 칩은 단일 CODEC 또는 단일 DMR일 수 있다. 디지탈 동화상 시스템 칩은, 칩이 다수의 CODEC을 사용하는 N 성분 칼라 부호화, 가변 프레임 속도 부호화(예를 들어, 초당 30 프레임 또는 초당 70 프레임), 및 고해상도 부호화를 수행하도록 하는 제어 명령을 제공할 수 있다.Those skilled in the art should appreciate that various configurations of CODECs and DMRs can be placed on a single moving picture chip. For example, the chip may consist of multiplexed CODECs, multiplexed DMRs, or a combination of DMRs and CODECs. In addition, the digital video chip may be a single CODEC or a single DMR. The digital video system chip can provide control instructions that allow the chip to perform N component color coding, variable frame rate coding (e.g., 30 frames per second or 70 frames per second), and high resolution coding using multiple CODECs. have.

도 3은 또한 DMR이 분해된 정보를 병렬 프로세싱을 위한 복수개의 CODEC(335) 각각에 전송하는 DMR(305)과 압축 모듈(350) 간의 결합을 도시한다. FPGA/신호 분배기는 이 도면에서는 도시되지 않음이 이해될 것이다. 일단 FPGA가 프로그래밍되면, FPGA는 적절한 분해 모듈과 압축 모듈 사이에 신호경로를 제공하여 신호 분배기로서 동작한다.3 also illustrates a coupling between the DMR 305 and the compression module 350 that transmits the decomposed DMR information to each of the plurality of CODECs 335 for parallel processing. It will be appreciated that the FPGA / signal divider is not shown in this figure. Once the FPGA is programmed, the FPGA acts as a signal divider by providing a signal path between the appropriate decomposition and compression modules.

도 4는 DMR(400)과 CODEC(410) 간의 동기 통신 방식을 도시하는 블록도이다. 두 유닛 간의 메시징은 시그널링 채널에 의해 제공된다. DMR(400)은 READY 명령(420)으로 정보를 CODEC에 기입하고자 함을 CODEC(410)에 알린다. 그 후, DMR은 CODEC이 WRITE 명령(430)에 응답하는 것을 대기한다. WRITE 명령(430)이 수신되면, DMR은 CODEC에 대한 다음 데이터 유닛을 DMR 출력 버퍼에서 CODEC 입력 버퍼로 전달한다. 또한, CODEC은, NOT READY(440)이라고 응답할 수 있으며, 그 후,DMR은 데이터를 DMR 출력 버퍼에 보유하여, CODEC이 READY 신호(420)에 응답하기를 대기한다. 바람직한 구현예에서, CODEC의 입력버퍼가 32 워드에 완전히 찬 경우, CODEC은 NOT READY 응답(440)을 송신할 것이다. NOT READY(440)가 DMR에 의해 수신되면, DMR은 현재의 데이터 유닛의 프로세싱을 멈출 것이다. 이러한 모듈들 간의 핸드쉐이킹은 표준화되고, 따라서 각각의 분해 모듈과 각각의 압출 모듈이 신호를 이해할 수 있다.4 is a block diagram illustrating a synchronous communication method between the DMR 400 and the CODEC 410. Messaging between the two units is provided by a signaling channel. The DMR 400 informs the CODEC 410 that it wants to write information to the CODEC with the READY command 420. The DMR then waits for the CODEC to respond to the WRITE command 430. When the WRITE command 430 is received, the DMR transfers the next data unit for the CODEC from the DMR output buffer to the CODEC input buffer. The CODEC may also respond with a NOT READY 440, after which the DMR holds the data in the DMR output buffer, waiting for the CODEC to respond to the READY signal 420. In a preferred implementation, if the input buffer of the CODEC is full of 32 words, the CODEC will send a NOT READY response 440. If NOT READY 440 is received by the DMR, the DMR will stop processing the current data unit. Handshaking between these modules is standardized so that each disassembly module and each extrusion module can understand the signal.

도 5는, 단일 칩 내에서 각각의 DMR(510)과 CODEC(520)에 동기 신호(501)를 제공하고, 어레이 내에 접속되는 경우 버스 인터페이스 모듈(미도시)을 통하여 어레이 내의 모든 칩에 동기 신호를 제공할 수 있는 전역(global) 제어모듈(500)의 블록도를 도시한다. 바람직한 구현예에서, 동기신호는 동화상 프레임의 속도로 발생하지만, 화상 정보 유닛의 속도로 발생할 수도 있다. 예를 들어, 입력 디지탈 동화상 스트림이 초당 24프레임의 속도로 촬영되면, 동기 신호는 매 1/24 초마다 발생할 것이다. 따라서, 각각의 동기 신호에서, 정보는 모듈들 간에 전송되고, 따라서 DMR이 역상관 형태의 디지탈 동화상의 완전한 프레임을 CODEC의 압축 모듈에 전달한다. 유사하게, 새로운 디지탈 동화상 프레임이 DMR으로 전달된다. 전역 동기 신호는 DMR과 CODEC 사이에서 전달되는 READ 및 WRITE 명령을 포함하는 모든 다른 신호에 우선한다. 따라서, READ 및 WRITE 명령은 내부프레임 구간으로 분류된다. 동기 신호는 화상 정보의 유닛(바람직한 구현예에서의 프레임) 전송을 행하므로, 프레임이 동기로 유지된다. CODEC이 화상 정보 유닛을 처리하는 데 동기 신호들 간의 기간보다 더 오래 걸리면, 그 유닛은 폐기되며 DMR 또는 CODEC에서는 모든부분적으로 프로세싱된 데이터가 소거된다. 전역 동기신호는 칩 상의 또는 어레이로 구성된 모든 DMR 또는 CODEC에 의해 함께 공유되는 전역 제어 버스를 따라 전달된다. 전역 제어는 전역 방향 신호를 더 포함한다. 전역 방향 신호는 DMR 및 CODEC의 I/O 포트에 그 포트가 데이터를 송신 또는 수신해야 하는 지를 나타낸다. 동기 신호 타이밍 방식을 제공함으로써, 시스템의 처리량이 유지되고, 따라서, 스케일링 가능 시스템은 동기적으로 동작하여, 임의의 콤포넌트 내부의 과도 잡음과 같은 소프트 에러 또는 결함 데이터와 같은 외부 에러로부터 복구될 수 있다.5 provides a synchronization signal 501 to each DMR 510 and CODEC 520 within a single chip, and the synchronization signal to all chips in the array through a bus interface module (not shown) when connected within the array. Shows a block diagram of a global control module 500 that can provide. In the preferred embodiment, the synchronization signal occurs at the speed of the moving picture frame but may occur at the speed of the image information unit. For example, if an input digital video stream is taken at a rate of 24 frames per second, a sync signal will occur every 1/24 second. Thus, in each sync signal, information is transferred between the modules, so that the DMR delivers a complete frame of the digital video in decorrelation to the compression module of the CODEC. Similarly, new digital moving picture frames are transferred to the DMR. The global sync signal takes precedence over all other signals, including the READ and WRITE instructions passed between the DMR and CODEC. Therefore, the READ and WRITE commands are classified into internal frame sections. Since the synchronization signal transmits the unit (frame in the preferred embodiment) of the image information, the frame is kept in synchronization. If the CODEC takes longer than the period between synchronization signals to process the picture information unit, the unit is discarded and all partially processed data is erased in the DMR or CODEC. Global synchronization signals are carried along the global control bus shared together by all DMRs or CODECs on the chip or in an array. The global control further includes a global direction signal. The global direction signal indicates to the I / O port of the DMR and CODEC whether the port should transmit or receive data. By providing a synchronous signal timing scheme, the throughput of the system is maintained, and therefore the scalable system can operate synchronously to recover from external errors such as soft errors or faulty data such as transient noise inside any component. .

도 6은 디지탈 동화상 시스템 칩(600)의 일예를 나타내는 블록도이다. 칩에는 제1 DMR(610)과 FPGA(620), 그리고 제2 FPGA(640A-B)에 각각 결합되는 DMR(630A-B) 쌍이 제공된다. FPGA는 4개의 CODEC(650A-H)에 차례대로 결합된다. 상술한 바와 같이, FPGA는 원하는 처리량에 기초하여 프로그래밍될 수 있다. 예를 들어, 도 7a에서, 제1 FPGA(620)는 제1 DMR(610)과 제2 DMR(630A) 사이에서 결합되도록 설정된다. 제2 FPGA(630A)는 세 개의 CODEC(650A,650B,650C)에 결합되는 FPGA(640A)에 결합된다. 이러한 구성은 인입 디지탈 화상 스트림을 제1 DMR 내의 프레임으로 분할한 후 제2 DMR 내의 각각의 프레임에 대하여 색성분을 역상관하는 데 사용될 수 있다. 이 구현에에서 CODEC은 각각의 동화상 프레임에 있어서 단색 성분에 대하여 데이터를 압축한다. 도 7b은 도 6의 디지탈 동화상 시스템 칩에 대한 다른 구성이다. 도 7b의 구성에서, 제1 FPGA(620)는 출력에서 2개의 DMR(630A,630B) 각각에 결합되도록 설정된다. 각각의 DMR(630A,630B)는 그 후 단일 CODEC(650A,E)에 데이터를 전송한다. 이 구성은 동화상 프레임을 인터레이스하는데 우선 사용되고, 따라서 제2 DMR이 홀수 또는 짝수 필드를 수신한다. 그 후, 제2 DMR은 인터레이스된 디지탈 동화상 프레임에 대한 색보정 또는 색공간 변환을 이행할 수 있으며, 이 데이터는 색보정 인터레이스 디지탈 동화상을 압축하고 암호화하는 단일 CODEC에 전달된다.6 is a block diagram illustrating an example of the digital video system chip 600. The chip is provided with a DMR 630A-B pair coupled to the first DMR 610, the FPGA 620, and the second FPGA 640A-B, respectively. The FPGA is in turn coupled to four CODECs (650A-H). As mentioned above, the FPGA can be programmed based on the desired throughput. For example, in FIG. 7A, the first FPGA 620 is set to be coupled between the first DMR 610 and the second DMR 630A. The second FPGA 630A is coupled to the FPGA 640A which is coupled to three CODECs 650A, 650B and 650C. This configuration can be used to divide the incoming digital picture stream into frames in the first DMR and then to correlate the color components for each frame in the second DMR. In this implementation, the CODEC compresses data for monochrome components in each moving picture frame. FIG. 7B is another configuration of the digital video system chip of FIG. 6. In the configuration of FIG. 7B, the first FPGA 620 is set to couple to each of the two DMRs 630A, 630B at the output. Each DMR 630A, 630B then sends data to a single CODEC 650A, E. This configuration is first used to interlace moving picture frames, so that the second DMR receives odd or even fields. The second DMR may then perform color correction or color space conversion for the interlaced digital video frame, which data is passed to a single CODEC that compresses and encodes the color correction interlaced digital video.

도 8은 CODEC(800) 내부에서 발견되는 소자와 버스를 나타내는 블록도이다. DMR 소자는 CODEC 소자와 동일할 수 있다. 바람직하게는, DMR은 보다 높은 성분/제2 디지탈 동화상 스트림을 수신하는 데 보다 고속의 데이터 속도를 가지며, 또한, 디지탈 동화상 스트림의 수신 데이터를 버퍼링하기 위한 보다 많은 메모리를 갖는다. DMR은 단순히 색공간과 공간 분해를 이행하도록 구성될 수 있고, 따라서, 그 DMR은 데이터 I/O 포트와 화상 I/O 포트를 갖고, I/O 포트가 분해를 위한 프로그래머블 필터를 포함하는 메모리에 결합된다.8 is a block diagram illustrating devices and buses found within CODEC 800. The DMR element may be the same as the CODEC element. Preferably, the DMR has a faster data rate for receiving higher component / second digital video streams, and more memory for buffering the received data of the digital video streams. The DMR may simply be configured to implement color space and spatial decomposition, so that the DMR has a data I / O port and a picture I / O port, in which the I / O port contains a programmable filter for decomposition. Combined.

CODEC(800)은 각각의 소자와 제어통신을 하는 전역 제어 버스(810)에 결합된다. 소자는 데이터 I/O 포트(820), 암호화 소자(830), 부호기(840), 공간 변환 소자(850), 시간 변환 소자(860), 인터레이스 프로세싱 소자(870) 및 화상 I/O 포트(880)을 포함한다. 이들 모든 소자는 메모리(895)에 결합되는 공통 다중화기(먹스;890)를 통하여 결합된다. 바람직한 구현예에서, 메모리는 더블 데이터 레이트(DDR) 메모리이다. 각 소자는 나머지 모든 소자들과 독립적으로 동작한다. 전역 제어 모듈은 데이터 스트림에 대한 디지탈 신호처리를 이행할 소자에 명령 신호를 송신한다. 예를 들어, 전역 제어 모듈은 공간 변환 소자하고만 통신하고, 따라서 디지탈 데이터 스트림 상에 단지 공간 변화만이 이행된다. 모든 다른 소자들은이러한 구성을 우회될 것이다. 하나 이상의 소자가 구현되는 경우, 시스템은 다음과 같은 방식으로 동작한다. 데이터 스트림은 데이터 I/O 포트 또는 화상 I/O 포트를 통하여 CODEC에 입력된다. 그 후, 데이터 스트림은 버퍼에 전달되며 그 후 먹스에 전송된다. 먹스로부터, 데이터는 할당된 메모리 위치 또는 위치의 세그먼트로 전송된다. 다음 소자, 예를 들어, 암호화 소자는 다중화기를 통하여 암호화 소자로 전송되는 메모리 위치에 저장된 데이터를 요청한다. 그 후, 암호화 소자는 많은 암호화 기술 중에서 임의의 기술을 이행할 수 있다. 일당 데이터가 프로세싱되면, 그 데이터는 버퍼에 전달되고, 그 후, 다중화기를 통하여 다시 메모리로 그리고 특정 메모리 위치/세그먼트로 전달된다. 이러한 프로세싱은 제어 명령을 수신하여 디지탈 데이터 스트림에 대해 동작하는 모든 소자에 대하여 지속된다. 각 소자는, 시스템 프로세서로부터 전역 제어 프로세서로 그 후 동화상 칩 내의 변조로 전송되는 초기 명령에 기초하여, 판독할 메모리의 주소공간이 제공됨에 주목하여야 한다. 그 결과, 디지탈 데이터 스트림은 메모리로부터 판독되어 화상 I/O 포트 또는 데이터 포트를 통하여 전달된다. 포트로부터의 데이터 전송은 동기 신호의 CODEC에 의한 수신시에 또는 기입 명령을 사용하여 발생한다.CODEC 800 is coupled to a global control bus 810 in control communication with each device. The device may be a data I / O port 820, an encryption device 830, an encoder 840, a space conversion device 850, a time conversion device 860, an interlace processing device 870, and an image I / O port 880. ). All these devices are coupled through a common multiplexer (mux) 890 that is coupled to memory 895. In a preferred embodiment, the memory is a double data rate (DDR) memory. Each device operates independently from all the others. The global control module sends a command signal to the device to implement digital signal processing for the data stream. For example, the global control module only communicates with the spatial transform elements, so only spatial changes are implemented on the digital data stream. All other devices will bypass this configuration. If more than one device is implemented, the system operates in the following manner. The data stream is input to the CODEC through the data I / O port or the picture I / O port. The data stream is then delivered to a buffer and then to the mux. From the mux, data is transferred to the allocated memory location or segment of the location. The next device, for example an encryption device, requests data stored at a memory location that is sent to the encryption device via a multiplexer. The encryption element can then implement any of many encryption techniques. Once the daily data is processed, the data is delivered to a buffer, which is then passed back into memory and through a multiplexer to a particular memory location / segment. This processing continues for all devices that receive control commands and operate on the digital data stream. It should be noted that each device is provided with an address space of memory to read, based on an initial command sent from the system processor to the global control processor and then with modulation in the moving picture chip. As a result, the digital data stream is read from the memory and passed through the picture I / O port or data port. Data transmission from the port occurs upon reception by the CODEC of the synchronization signal or using a write command.

CODEC 내의 소자는 이하 보다 상세히 설명된다. 화상 I/O 포트는 양방향 샘플 포트이다. 그 포트는 동기 신호에 동조하여 데이터를 송수신한다. 인터레이스 프로세싱 소자는 디지탈 동화상 스트림의 프레임을 프리프로세싱하기 위한 당업자에게 알려진 다수의 방법을 제공한다. 프리프로세싱은 시간 필드 대 필드 리던던시와 함께 공간 수직 리던던시를 상관하게 한다. 시간 변환 소자는 공간 프레임에걸쳐 웨이브렛 변환을 위해 제공하는 9탭 필터를 제공한다. 그 필터는 시간 필터창이 다수의 프레임에 결쳐 활주되는 컨벌루션을 이행하도록 구성될 수 있다. 시간 변환은 다중 밴드 시간 웨이브렛 변환, 시공간 조합, 및 잡음 감소필터에 대하여 허용된 귀납적 연산을 포함할 수 있다. 비록 시간 변환 소자가 디지탈 신호처리 집적회로로서 하드웨어 포맷으로 구현될 수 있더라도, 그 소자는 디지탈 동화상 스트림 내의 메타데이터로부터의 또는 시스템 프로세서에 의한 필터에 대하여 상수값을 수신하여 저장하도록 구성될 수 있다. 시간 변환 소자와 같은 공간 변환 소자는 다운로드할 수 있는 상수값에 대하여 메모리 위치를 상관시키는 디지탈 신호 처리기로서 구현될 수 있다. 바람직한 구현예에서의 공간 변환은 대칭 2차원 컨볼버이다. 그 컨볼버는 N개의 탭 위치를 가지며, 여기서 각각의 탭은 샘플/워드 기반(샘플 또는 워드는 비트의 그룹핑으로서 정의될 수 있음)에 의해 사이클되는 L-계수를 갖는다. 공간 변환은 입력 화상 데이터에 대하여 귀납적으로 실행되어 다중 밴드 공간 웨이브렛 변환을 이행하거나, 대역통과 또는 잡음감소와 같은 공간 필터링에 대하여 사용될 수 있다. 엔트로피 부호기/복호기 소자는 전체 화상에 걸쳐서 또는 다수의 상관된 시간 블록들에 걸쳐 일시적으로 암호화를 이행한다. 엔트로피 부호기는, 최소 비트길이 심볼로서 빈번하게 발생하는 데이터를 나타내며 덜 빈번한 값은 보다 긴 비트길이 심볼로서 나타내는 적응형 부호기를 사용한다. 제로의 롱 런 길이(long run length)는 수 바이트의 정보 내에서 다수의 제로 값을 나타내는 단일비트 심볼로서 표현된다. 엔트로피 부호기에 대한 보다 많은 정보를 원한다면, 본 발명의 양수인과 동일한 양수인에게 부여되고 여기서 전체로서 참조로 통합되는 미국특허 제6,298,160호를 참조하기 바란다. 또한, CODEC은 스트림의 암호화와 복호화 모두를 이행하는 암호화기 소자를 포함한다. CODEC은 개선된 암호화 표준(AES) 또는 다른 암호화 기술을 사용하여 구현될 수 있다.The elements in the CODEC are described in more detail below. The picture I / O port is a bidirectional sample port. The port transmits and receives data in synchronization with a synchronization signal. Interlaced processing elements provide a number of methods known to those skilled in the art for preprocessing frames of digital video streams. Preprocessing correlates spatial vertical redundancy with time field versus field redundancy. The time conversion element provides a 9-tap filter that provides for wavelet conversion over a space frame. The filter can be configured to implement a convolution in which the temporal filter window slides across multiple frames. The temporal transformation may include inductive computations allowed for multi-band temporal wavelet transforms, space-time combinations, and noise reduction filters. Although the time conversion element may be implemented in a hardware format as a digital signal processing integrated circuit, the element may be configured to receive and store a constant value from metadata in the digital video stream or for a filter by a system processor. Spatial transform elements, such as temporal transform elements, may be implemented as digital signal processors that correlate memory locations to downloadable constant values. The spatial transformation in the preferred embodiment is a symmetric two dimensional convolver. The convolver has N tap positions, where each tap has an L-factor that is cycled by sample / word basis (sample or word can be defined as a grouping of bits). Spatial transformations may be performed inductively on input image data to implement multi-band spatial wavelet transformations, or may be used for spatial filtering such as bandpass or noise reduction. The entropy encoder / decoder element temporarily implements encryption over the entire picture or over multiple correlated time blocks. Entropy encoders use adaptive encoders that represent data that occurs frequently as the minimum bit length symbol and less frequent values as the longer bit length symbol. Zero long run lengths are represented as single-bit symbols representing multiple zero values within a few bytes of information. For more information on entropy encoders, see US Pat. No. 6,298,160, which is assigned to the same assignee and is hereby incorporated by reference in its entirety. The CODEC also includes an encryptor element that performs both encryption and decryption of the stream. CODEC may be implemented using an improved encryption standard (AES) or other encryption technology.

도 9에는 공간 다상 프로세싱 예를 도시하는 블럭도가 제공된다. 이 실시예에서 디지탈 동화상 스트림의 평균 데이터 속도는 266MHz(4.23 기가-성분/초)이다. 각각의 CODEC(920)은 66MHz에서 프로세싱될 수 있으며, 따라서 요구되는 처리량이 CODEC의 처리량보다 많기 때문에, 동화상 스트림은 다상화된다. 디지탈 동화상 스트림은 각 프레임을 식별하는 DMR(910)로 전달시킴으로써 상기 스트림을 공간 세그먼트로 분할한다. 화상 스트림의 266MHz 대역폭을 수용하기 위하여 이 프로세스는 DMR 내부의 디지탈 신호 프로세싱 요소를 이용하지 않고 스마트 I/O 포트를 통해 수행된다. 예시적 DMR의 스마트 I/O 포트는 533MHz의 주파수 속도로 수행될 수 있는 반면, 디지탈 신호 프로세싱 요소는 최대 속도인 133MHz로 수행된다. 각각의 프레임이 분할되는 경우, DMR의 스마트 I/O 포트는 공간으로 분할된 화상 데이터 스트림을 프레임 버퍼로 전달시킨다. CODEC은 도 4에 관련하여 전술한 바와 같이 데이터를 검색할 준비가 되어 있다는 신호를 DMR로 보낸다. DMR은 화상 데이터 프레임을 검색하고 상기 프레임을 스마트 I/O 포트를 통해 제1 CODEC으로 전달시킨다. 제2 CODEC이 제2 프레임을 검색하고, 제3 CODEC이 제3 프레임을 검색하며 제4 CODEC이 제4 프레임을 검색하도록 각각 4개의 CODEC에 대한 프로세스가 지속된다. 프로세스는 전체 스트림이 처리되어 CODEC으로부터 메모리 위치로 전달될 때까지 제1 CODEC로 복귀한다. 이러한 실시예에서, CODEC은 웨이브렛 부호화, 프레임의압축 및 다른 동화상 신호 프로세싱 기술을 수행할 수 있다.(동화상 신호 프로세싱을 정의함)9 is provided a block diagram illustrating an example of spatial polyphase processing. In this embodiment, the average data rate of the digital video stream is 266 MHz (4.23 giga-component / second). Each CODEC 920 can be processed at 66 MHz, so the moving picture stream is polyphased because the required throughput is greater than that of the CODEC. The digital video stream is split into spatial segments by passing it to a DMR 910 that identifies each frame. To accommodate the 266MHz bandwidth of the picture stream, this process is performed through the smart I / O port without using the digital signal processing elements inside the DMR. The smart I / O port of the exemplary DMR may be performed at a frequency rate of 533 MHz, while the digital signal processing element is performed at 133 MHz, the maximum rate. When each frame is divided, the smart I / O port of the DMR transfers the image data stream divided into spaces to the frame buffer. The CODEC sends a signal to the DMR that it is ready to retrieve data as described above with respect to FIG. 4. The DMR retrieves the image data frame and passes the frame to the first CODEC through the smart I / O port. The process for each of the four CODECs continues such that the second CODEC retrieves the second frame, the third CODEC retrieves the third frame and the fourth CODEC retrieves the fourth frame. The process returns to the first CODEC until the entire stream has been processed and passed from the CODEC to the memory location. In such an embodiment, the CODEC may perform wavelet coding, compression of frames, and other video signal processing techniques (which define video signal processing).

도 10은 DMR(1010) 및 CODEC(1020)을 이용하여 공간 서브-밴드 분할 실시예를 도시하는 블럭도이다. 이 실시예에서 쿼드 HD 화상 스트림(3840×2160×30 프레임/초 또는 248MHz)이 처리된다. 입력 동화상 스트림은 도시된 구성을 시작할 때 프레임에 의해 칼라 성분으로 분할된다. 프레임의 칼라 성분은 Y, Cb, Cr 포맷(1030)이다. DMR(1110)은 화상 스트림의 프레임에 대한 공간 프로세싱을 수행하며 각각의 주파수 대역을 시간 프로세싱을 위한 적절한 CODEC으로 전달시킨다. 크로미넌스 성분이 단지 하프-밴드(Cb, Cr)이기 때문에, 각 성분은 하나의 DMR 및 두개의 CODEC만을 이용하여 처리된다. 휘도 성분(Y)은 248MHz에서 동작하는 고속 다중화기를 통해 처음에 다중화되며(1040), 짝수(even) 성분은 제1 DMR(1110A)로 전달되며 홀수(odd) 성분은 제2 DMR(1110B)로 전달된다. 다음으로 DMR은 4개의 주파수 성분 L, H, V, D(로우, 하이, 수직, 대각)을 출력하는 2차원적 컨볼버를 사용한다. DMR은 평균 프레임에 대해 64MHz의 속도로 이 태스크를 수행한다. Cb 및 Cr을 처리하는 DMR(1010C, 1010D) 또한 각 성분에 대해 LH(로우 하이) 및 VD(수직 대각)의 주파수 분할을 얻기 위해 2차원적 컨볼버(Y 성분에 대한 2차원적 컨볼버의 필터 계수와 다른 필터 계수를 가짐)를 사용한다. 다음으로, CODEC(1020)은 공간으로 분할될 프레임의 성분을 처리한다. 본 실시예에서, CODEC은 다수의 프레임에 대한 시간 변환을 수행한다.(시간 변환 프로세스에 대한 추가의 개시가 요구됨) DMR 및 CODEC이 완전 대칭하며 화상을 부호화 및 복호화하는데 사용될 수 있다는것이 이해되어야 한다.FIG. 10 is a block diagram illustrating an embodiment of spatial sub-band division using DMR 1010 and CODEC 1020. In this embodiment a quad HD picture stream (3840 × 2160 × 30 frames / sec or 248 MHz) is processed. The input video stream is divided into color components by frames at the beginning of the configuration shown. The color component of the frame is in Y, Cb, Cr format 1030. The DMR 1110 performs spatial processing on the frames of the picture stream and passes each frequency band to the appropriate CODEC for temporal processing. Since the chrominance components are only half-bands (Cb, Cr), each component is processed using only one DMR and two CODECs. The luminance component (Y) is first multiplexed (1040) via a fast multiplexer operating at 248 MHz, the even components are passed to the first DMR 1110A and the odd components are passed to the second DMR 1110B. Delivered. Next, the DMR uses a two-dimensional convolver that outputs four frequency components L, H, V, and D (low, high, vertical, and diagonal). DMR performs this task at a rate of 64 MHz for the average frame. DMR (1010C, 1010D) processing Cb and Cr can also be used to obtain two-dimensional convolvers (two-dimensional convolvers for Y components) to obtain frequency divisions of LH (low high) and VD (vertical diagonal) for each component. Filter coefficients different from the filter coefficients). Next, CODEC 1020 processes the components of the frame to be divided into spaces. In this embodiment, the CODEC performs temporal transformation for multiple frames. (Additional initiation of the temporal transformation process is required.) It should be understood that the DMR and CODEC are fully symmetric and can be used to encode and decode the picture. .

상기 기술이 압축에 대해 기술되었지만 디지탈 동화상 시스템 칩이 분해 프로세스를 위해 사용될 수 있다는 것이 해당 기술분야의 숙련자에 의해 이해되어야 한다. 이러한 기능은 DMR 및 CODEC 양쪽 내부의 요소가 상이한 계수 값을 수신함으로써 변경될 수 있으며 분해 프로세스의 경우에, 역 계수를 수신할 수 있기 때문에 가능하다.Although the above technique has been described for compression, it should be understood by those skilled in the art that digital moving picture system chips can be used for the decomposition process. This function is possible because the elements inside both the DMR and CODEC can be changed by receiving different coefficient values and in the case of the decomposition process, can receive inverse coefficients.

대안적 실시예에서, 개시된 스케일 가능한 디지탈 동화상 압축용 시스템 및 방법은 전술한 바와 같은 컴퓨터 시스템을 사용하여 컴퓨터 프로그램 제품으로서 실시될 수 있다. 이러한 실시는 컴퓨터 판독 가능 매체(예를 들어, 디스켓, CD-ROM, ROM 또는 고정 디스크) 등의 유형 매체 상에 고정되거나, 모뎀 또는 매체에 대해 네트워크에 접속된 통신 어댑터 등의 다른 인터페이스 장치를 통해 컴퓨터 시스템에 전송 가능한 일련의 컴퓨터 명령을 포함할 수 있다. 매체는 유형의 매체(예를 들어, 광학 또는 아날로그 통신선) 또는 무선 기술(예를 들어, 마이크로웨이브, 적외선 또는 다른 전송 기술)로 실행되는 매체일 수 있다. 일련의 컴퓨터 명령은 시스템에 대해 본 명세서에서 전술된 기능의 전부 또는 일부를 구현한다. 해당 기술분야의 숙련자는 이러한 컴퓨터 명령이 다수의 컴퓨터 구조 또는 운영 체계를 이용하여 다수의 프로그래밍 언어로 쓰여질 수 있다는 것을 이해하여야 한다. 아울러, 이러한 명령은 반도체, 자기, 광학 또는 다른 메모리 장치 등의 임의의 메모리 장치에 저장될 수 있으며, 광학, 적외선, 마이크로웨이브 또는 다른 전송 기술 등의 임의의 통신 기술을 사용하여 전송될 수 있다. 이러한 컴퓨터 프로그램제품은 인쇄형 또는 전자형 문서(예를 들어, 포장된 소프트웨어)와 함께 제거 가능한 매체로서 배포되거나, 컴퓨터 시스템(예를 들어, 시스템 ROM 또는 고정 디스크 상에)에 미리 장착되거나 또는 서버 또는 네트워크 상의 전자 계시판(예를 들어, 인터넷 또는 월드 와이드 웹)으로부터 배포될 수 있을 것으로 예상된다. 물론, 본 발명의 일부 실시예가 소프트웨어(예를 들어, 컴퓨터 프로그램 제품) 및 하드웨어 모두의 조합으로서 실시될 수 있다. 본 발명의 다른 실시예는 완전히 하드웨어 또는 완전히 소프트웨어(예를 들어, 컴퓨터 프로그램 제품)로서 실시된다.In alternative embodiments, the disclosed scalable digital moving picture compression system and method may be implemented as a computer program product using a computer system as described above. This implementation may be secured on a tangible medium, such as a computer readable medium (eg, diskette, CD-ROM, ROM, or fixed disk), or through another interface device, such as a communication adapter connected to the network for a modem or medium. It may include a series of computer instructions that can be transmitted to a computer system. The medium may be a tangible medium (eg, optical or analog communication line) or a medium running on wireless technology (eg, microwave, infrared or other transmission technology). The series of computer instructions implements all or part of the functionality described herein above for the system. Those skilled in the art should understand that such computer instructions may be written in multiple programming languages using multiple computer structures or operating systems. In addition, such instructions may be stored in any memory device, such as a semiconductor, magnetic, optical, or other memory device, and may be transmitted using any communication technology, such as optical, infrared, microwave, or other transmission technology. Such computer program products may be distributed as removable media with printed or electronic documents (e.g., packaged software), preloaded on a computer system (e.g., on a system ROM or fixed disk), or on a server Or from an electronic billboard on the network (eg, the Internet or the World Wide Web). Of course, some embodiments of the invention may be practiced as a combination of both software (eg, computer program product) and hardware. Another embodiment of the invention is implemented entirely as hardware or completely as software (eg, a computer program product).

본 발명의 다양한 실시예가 개시되었지만, 본 발명의 권리 범위를 벗어나지 않고 본 발명의 이점의 일부를 달성하는 다양한 변형 및 수정이 이루어질 수 있다는 것이 당업자에 의해 명확해야 한다. 이러한 그리고 다른 명확한 수정은 첨부된 특허청구범위에 의해 보호되는 것을 목적으로 한다.While various embodiments of the invention have been disclosed, it should be apparent to those skilled in the art that various changes and modifications can be made therein without departing from the scope of the invention. Such and other obvious modifications are intended to be protected by the appended claims.

Claims (19)

관련 전송 속도를 갖는 디지탈 동화상 신호의 스케일 가능한 동화상 압축 시스템에 있어서,In a scalable video compression system of a digital video signal having an associated transmission rate, 상기 전송 속도로 상기 디지탈 동화상 신호를 수신하고, 상기 디지탈 동화상 신호를 성분들로 분해하며 상기 전송 속도로 상기 성분들을 전송하는 분해 모듈; 및A decomposition module which receives the digital video signal at the transmission rate, decomposes the digital video signal into components and transmits the components at the transmission rate; And 상기 분해 모듈로부터 각각의 상기 성분들을 수신하고, 상기 성분들을 압축하며 상기 압축된 성분들을 메모리 위치로 전송하는 압축 모듈A compression module that receives each of the components from the decomposition module, compresses the components and sends the compressed components to a memory location 을 포함하는 스케일 가능한 동화상 압축 시스템.Scalable video compression system comprising a. 제1항에 있어서, 상기 분해 모듈은 하나 이상의 분해 유닛을 포함하는 스케일 가능한 동화상 압축 시스템.The scalable moving picture compression system of claim 1, wherein the decomposition module includes one or more decomposition units. 제1항에 있어서, 상기 디지탈 동화상 신호는 상기 전송 속도로 압축되는 스케일 가능한 동화상 압축 시스템.2. The scalable video compression system as claimed in claim 1, wherein the digital video signal is compressed at the transmission rate. 제1항에 있어서, 상기 분해 모듈과 상기 압축 모듈 간의 상기 분해된 디지탈 동화상 신호를 라우팅하는 프로그래머블 모듈을 더 포함하는 스케일 가능한 동화상 압축 시스템.2. The scalable video compression system of claim 1, further comprising a programmable module for routing the decomposed digital video signal between the decomposition module and the compression module. 제4항에 있어서, 상기 프로그래머블 모듈은 필드 프로그래머블 게이트 어레이인 스케일 가능한 동화상 압축 시스템.5. The scalable moving picture compression system of claim 4, wherein the programmable module is a field programmable gate array. 제5항에 있어서, 상기 필드 프로그래머블 게이트 어레이는 다시 프로그래밍할 수 있는 스케일 가능한 동화상 압축 시스템.6. The scalable video compression system of claim 5, wherein the field programmable gate array is reprogrammable. 제1항에 있어서, 상기 압축 모듈은 하나 이상의 압축 유닛을 포함하는 스케일 가능한 동화상 압축 시스템.The scalable moving picture compression system of claim 1, wherein the compression module includes one or more compression units. 제7항에 있어서, 압축 유닛 수만큼 승산된 압축 유닛의 처리량은 상기 디지탈 동화상 신호의 전송 속도 이상인 스케일 가능한 동화상 압축 시스템.8. A scalable video compression system according to claim 7, wherein a throughput of the compression unit multiplied by the number of compression units is equal to or greater than a transmission speed of the digital video signal. 제7항에 있어서, 각각의 압축 유닛은 병렬로 동작하는 스케일 가능한 동화상 압축 시스템.8. A scalable moving picture compression system as claimed in claim 7, wherein each compression unit operates in parallel. 제1항에 있어서, 상기 분해 모듈은 하나 이상의 분해 유닛을 포함하는 스케일 가능한 동화상 압축 시스템.The scalable moving picture compression system of claim 1, wherein the decomposition module includes one or more decomposition units. 제1항에 있어서, 각각의 분해 유닛은 병렬로 동작하는 스케일 가능한 동화상압축 시스템.The scalable moving picture compression system of claim 1, wherein each decomposition unit operates in parallel. 제1항에 있어서, 상기 분해 모듈은 칼라 역상관을 수행하는 스케일 가능한 동화상 압축 시스템.The scalable moving picture compression system of claim 1, wherein the decomposition module performs color decorrelation. 제1항에 있어서, 상기 분해 모듈은 칼라 회전을 수행하는 스케일 가능한 동화상 압축 시스템.The scalable moving picture compression system of claim 1, wherein the decomposition module performs color rotation. 제1항에 있어서, 상기 분해 모듈은 시간 분해를 수행하는 스케일 가능한 동화상 압축 시스템.The scalable moving picture compression system of claim 1, wherein the decomposition module performs time decomposition. 제1항에 있어서, 상기 분해 모듈은 공간 분해를 수행하는 스케일 가능한 동화상 압축 시스템.The scalable moving picture compression system of claim 1, wherein the decomposition module performs spatial decomposition. 제1항에 있어서, 상기 압축 모듈은 서브-밴드 코딩을 사용하는 스케일 가능한 동화상 압축 시스템.The scalable video compression system of claim 1, wherein the compression module uses sub-band coding. 제13항에 있어서, 상기 서브-밴드 코딩은 웨이브렛을 사용하는 스케일 가능한 동화상 압축 시스템.14. The scalable video compression system of claim 13, wherein the sub-band coding uses wavelets. 제1항에 있어서, 상기 공간 분해는 공간 다상 분해인 스케일 가능한 동화상 압축 시스템.The scalable moving picture compression system of claim 1, wherein the spatial decomposition is spatial polyphase decomposition. 해당 전송 속도를 갖는 디지탈 동화상 입력 신호의 동화상 압축을 수행하는 스케일 가능한 시스템에 있어서,A scalable system for performing video compression of a digital video input signal having a corresponding transmission rate, 분해 모듈 및 압축 모듈을 각각 포함하는 복수의 압축 블럭;A plurality of compression blocks each comprising a decomposition module and a compression module; 상기 디지탈 동화상 입력 신호를 복수의 세그먼트로 분할하고 각각의 상기 압축 유닛에 상기 입력 신호의 각 성분을 제공하도록 상기 압축 블럭에 결합된 신호 분배기 - 상기 분해 모듈은 하나의 세그먼트를 성분들로 분해하여 상기 성분들을 전송함 - ; 및A signal divider coupled to the compression block to divide the digital video input signal into a plurality of segments and provide each component of the input signal to a respective compression unit-the decomposition module decomposes one segment into components Transmitting components-; And 대응 분해 모듈로부터 성분을 수신하고, 상기 성분을 압축하며 상기 압축된 성분을 메모리 위치로 전송하는 압축 모듈A compression module that receives components from a corresponding decomposition module, compresses the components and sends the compressed components to a memory location 을 포함하는 스케일 가능한 시스템.Scalable system comprising a.
KR10-2003-7010685A 2001-02-13 2002-02-13 Scalable motion image system KR20030081442A (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US26839001P 2001-02-13 2001-02-13
US60/268,390 2001-02-13
US28212701P 2001-04-06 2001-04-06
US60/282,127 2001-04-06
US35146302P 2002-01-25 2002-01-25
US60/351,463 2002-01-25
PCT/US2002/004309 WO2002065785A2 (en) 2001-02-13 2002-02-13 Scalable motion image system

Publications (1)

Publication Number Publication Date
KR20030081442A true KR20030081442A (en) 2003-10-17

Family

ID=27402067

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-7010685A KR20030081442A (en) 2001-02-13 2002-02-13 Scalable motion image system

Country Status (6)

Country Link
EP (1) EP1362486A2 (en)
JP (1) JP2005508100A (en)
KR (1) KR20030081442A (en)
CN (1) CN1547856A (en)
CA (1) CA2438200A1 (en)
WO (1) WO2002065785A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100958342B1 (en) * 2008-10-14 2010-05-17 세종대학교산학협력단 Method and apparatus for encoding and decoding video

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006015392A1 (en) 2006-04-03 2007-10-04 Robert Bosch Gmbh Driving and evaluating device for motor vehicle, has magnets with inner sections encompassing armature with slots, where slots are spaced apart in direction for receiving windings, over circumferential angle between specific ranges
WO2008102446A1 (en) * 2007-02-22 2008-08-28 Fujitsu Limited Dynamic image coding device and dynamic image coding method
CN104318534B (en) * 2014-11-18 2017-06-06 中国电子科技集团公司第三研究所 A kind of Real-time Two-dimensional convolutional digital filtering system
CN107024506B (en) * 2017-03-09 2020-06-26 深圳市朗驰欣创科技股份有限公司 Pyrogenicity defect detection method and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0314356B1 (en) * 1987-10-27 1999-03-31 Canon Kabushiki Kaisha Predictive coding system
US5585852A (en) * 1993-06-16 1996-12-17 Intel Corporation Processing video signals for scalable video playback using independently encoded component-plane bands
CA2134370A1 (en) * 1993-11-04 1995-05-05 Robert J. Gove Video data formatter for a digital television system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100958342B1 (en) * 2008-10-14 2010-05-17 세종대학교산학협력단 Method and apparatus for encoding and decoding video

Also Published As

Publication number Publication date
CN1547856A (en) 2004-11-17
WO2002065785A2 (en) 2002-08-22
CA2438200A1 (en) 2002-08-22
JP2005508100A (en) 2005-03-24
EP1362486A2 (en) 2003-11-19
WO2002065785A3 (en) 2003-03-27

Similar Documents

Publication Publication Date Title
EP0534139B1 (en) A new video mixing technique using JPEG compressed data
US20020141499A1 (en) Scalable programmable motion image system
US6229929B1 (en) Border filtering of video signal blocks
US5706290A (en) Method and apparatus including system architecture for multimedia communication
EP0781052B1 (en) Universal MPEG decoder with scalable picture size
KR100543132B1 (en) Method and system for interleaved data processing
US5504823A (en) Image data partitioning circuit for parallel image decoding system
US20030007567A1 (en) Method and apparatus for real-time editing of plural content streams
EP1535239A2 (en) Image processing using probabilistic local behavior assumptions
EP1613097A1 (en) Digital video signal compression and decompression method and apparatus
US6396948B1 (en) Color rotation integrated with compression of video signal
GB2485576A (en) Video compression using quantisation based on pixel tile bandwidth and transform coefficients
EP1430706A2 (en) System and method for multi-channel video and audio encoding on a single chip
KR20030081442A (en) Scalable motion image system
US7676096B2 (en) Modular, low cost, memory efficient, input resolution independent, frame-synchronous, video compression system using multi stage wavelet analysis and temporal signature analysis with a highly optimized hardware implementation
US20030185455A1 (en) Digital image processor
Ackland et al. A Video‐Codec Chip Set for Multimedia Applications
KR102247196B1 (en) Vc-2 decoding using parallel decoding paths
AU2002245435A1 (en) Scalable motion image system
US20050074178A1 (en) Method for encoding a video data stream and video encoding device
Grueger et al. MPEG-1 low-cost encoder solution
Xu et al. Multi-channel video for patient monitoring based on DCT compositing
Rumian An architecture for real-time wavelet image decomposition
Mahmudov Ergash et al. Building Principles and Application of Multifunctional Video Information System
AU2017204642A1 (en) Method, apparatus and system for encoding and decoding video data

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid