KR20000032824A - Method for converting compressed moving pictures in an image system - Google Patents
Method for converting compressed moving pictures in an image system Download PDFInfo
- Publication number
- KR20000032824A KR20000032824A KR1019980049423A KR19980049423A KR20000032824A KR 20000032824 A KR20000032824 A KR 20000032824A KR 1019980049423 A KR1019980049423 A KR 1019980049423A KR 19980049423 A KR19980049423 A KR 19980049423A KR 20000032824 A KR20000032824 A KR 20000032824A
- Authority
- KR
- South Korea
- Prior art keywords
- stream
- mpeg
- layer
- macroblock
- compressed video
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/40—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
본 발명은 영상시스템의 완전 압축영역인 가변장부호에서 H.263 표준 동영상 압축부호를 엠펙-2(MPEG-2 : Moving Picture Expert Group-2)의 형태에 맞는 표준 동영상 압축부호로 변환하므로써, 이종 동영상간에 쉽게 변환이 가능하도록 한 압축동영상 변환 방법에 관한 것이다.According to the present invention, the H.263 standard video compression code is converted into a standard video compression code conforming to the form of MPEG-2 (MPEG-2) in the variable length code, which is the fully compressed region of the video system. The present invention relates to a compressed video conversion method that enables easy conversion between videos.
일반적으로, 이종 영상부호간의 변환은 서로 다른 압축방식을 사용하여 만들어진 부호체계를 목적하는 압축구문 형태로 바꿔 상호호환이 가능하게 하는 기능으로 정의할 수 있다. 이를 트랜스코더(Transcoder)라 칭하며, 가장 보편적인 트랜스코더는 압축부호를 선형 펄스부호변조(PCM : Pulse Code Modulation) 신호로 디코딩하고 이를 다시 연동되어야 하는 압축부호로 인코딩하는 화소영역의 방법이다. 이러한 화소영역에서의 처리방법이 도 1에 도시되었다.In general, the conversion between heterogeneous image codes may be defined as a function that enables mutual compatibility by converting a code system made using different compression schemes into a desired compression syntax. This is called a transcoder, and the most common transcoder is a method of a pixel region that decodes a compressed code into a linear pulse code modulation (PCM) signal and encodes the compressed code into a compressed code that needs to be interlocked again. The processing method in such a pixel region is shown in FIG.
도 1 은 종래의 화소영역에서의 부호변환 과정도이다.1 is a diagram illustrating a code conversion process in a conventional pixel area.
화소영역의 트랜스코더는 가장 쉽게 접근할 수 있는 이종 영상의 변환 방법이나, 이것은 변환에 디코더, 인코더 쌍이 필요하여 기능이 네트워크 노드 또는 사용자 단말에 존재하는 것에 관계없이 이중의 경제적 부담이 된다. 이와 같은 손실과 구현의 복잡성 이외에 화소영역의 트랜스코더를 사용하므로 변환된 영상은 화질의 열화가 발생하고, 특히 멀티미디어 통신에서 수용할 수 없는 지연이 발생할 수 있다.The transcoder of the pixel region is the most easily accessible method of converting heterogeneous images, but this requires a decoder and encoder pair for conversion, which is a dual economic burden regardless of whether a function exists in a network node or a user terminal. In addition to the loss and complexity of implementation, the transcoder of the pixel region may be used, and thus, the deteriorated image quality of the converted image may occur, and in particular, an unacceptable delay may occur in multimedia communication.
종래의 방법으로, 그래픽 교환 포맷(GIF : Graphics Interchange Format)을 제이펙(JPEG : Joint Photographics Expert Group)으로 변환하는 방법(GIF to JPEG)이 있다.As a conventional method, there is a method (GIF to JPEG) for converting a Graphics Interchange Format (GIF) to a Joint Photographics Expert Group (JPEG).
여기서, GIF는 일반 컴퓨터를 위한 영상 및 그래픽 규격으로 고해상도의 정보를 룩-업(Look-up) 테이블인 팰리트 (Palette)를 사용하여 용도에 맞게 변환하며, 이 과정중 색(Color) 정보를 표현하는 색인(Index) 값은 "LZW(Lempel-Ziv-Welch) 알고리즘"으로 압축한다.Here, GIF is an image and graphic standard for general computers. It converts high-resolution information according to its purpose using Palette, a look-up table, and converts color information during this process. The index value to be expressed is compressed by the "Lempel-Ziv-Welch (LZW) algorithm".
반면에, JPEG은 사진과 같은 자연영상(Continuous-tone still Image)의 압축을 목적으로 한 규격이다. 이러한 알고리즘은 현재 인터넷의 "WWW(World Wide Web)"에 영상 및 그래픽 정보를 나타내는데 많이 사용되는 GIF를 JPEG으로 변환하는데 목적이 있으며, 이 결과 10~50% 까지 파일의 크기가 감소되는 효율을 얻었다.On the other hand, JPEG is a standard for compressing continuous-tone still images such as photographs. This algorithm aims to convert GIF, which is widely used for displaying image and graphic information, to JPEG on the World Wide Web (WWW) of the Internet, and to reduce the file size by 10-50%. .
한편, "MJPEG(Motion JPEG) to MPEG-1" 변환에 관한 연구는 독립된 인트라(I : Intra) 프레임으로 구성된 엠제이펙(MJPEG) 동영상을 MPEG-1 디코더가 처리할 수 있는 형태로 압축코드를 변경한 것으로, MPEG-1이 갖고 있는 I, P(Predictive coded picture), B(Bidirectional predictive coded picture) 프레임, 움직임 벡터를 생성하지 않고, 시퀀스, 영상군(Group Of Picture) 헤더 등, 구문상의 변화와 일부 파라메터를 변경하는 단순한 구조이다. 이는 완전한 MPEG-1 압축부호로 변환하기 보다는 JPEG에서와 같이 MPEG-1에도 영상 편집기능을 가능하도록 하는 것이 연구의 주안점이다.On the other hand, the research on the "Motion JPEG to MPEG-1" conversion has changed the compression code into a form that an MPEG-1 decoder can process an MJPEG video composed of independent Intra frames. For example, it does not generate the I, P (Predictive coded picture), B (Bidirectional predictive coded picture) frame, or motion vector of the MPEG-1, but changes in syntax such as a sequence and a group of picture header. Simple structure for changing some parameters. The main focus of this research is to enable the video editing function in MPEG-1 as in JPEG, rather than converting to a complete MPEG-1 compression code.
그 외, MPEG-1/2 동영상을 MJPEG으로 압축 영역에서 변환하는 연구가 있으나, 이 역시 영상 편집이 주 응용인 방법이다.Besides, there is a study of converting MPEG-1 / 2 video into MJPEG in the compressed region, but this is also a method in which image editing is a main application.
이와 같이, 동영상 압축방식은 대화형통신에는 "ITU-T(Telecommunication standardization sector of International Telecommunication Union)"의 H.261을 사용하고 저장형 및 분배형통신에 대해서는 "ISO/IEC(International Organization Standardization/International Electrotechnical Commission)"의 MPEG-1을 이용하는 분명한 응용 대상의 구분이 있었으나, 추후 연구 표준화된 H.263 및 MPEG-2는 응용분야가 확장되어 모든 멀티미디어 통신서비스를 대상으로 하고 있다. 이는 같은 목적에 두 압축방식을 사용할 수 있다는 것을 의미하며, 이들 두 국제표준기구(ITU-T, ISO/IEC)의 압축동영상 알고리즘은 서로의 기능을 보완하는 상호 의존적인 관계에서 압축방식의 성능에 따라 우월한 것이 선택되는 경쟁관계로 변화되었다.As such, the video compression method uses H.261 of the "Telecommunication standardization sector of International Telecommunication Union" (ITU-T) for interactive communication and "ISO / IEC (International Organization Standardization / International) for storage and distributed communication. Electrotechnical Commission ("Electrotechnical Commission") has clearly identified applications for MPEG-1, but H.263 and MPEG-2, which have been standardized for further study, have been extended to cover all multimedia communication services. This means that two compression methods can be used for the same purpose, and the compressed video algorithms of these two international standards organizations (ITU-T, ISO / IEC) are dependent on the performance of the compression method in interdependent relationships that complement each other's functions. The superiority was thus transformed into the competition of choice.
국제표준 기구에서 권고하고 있는 H.263, MPEG-2는 동일한 동영상을 대상으로 하는 압축방식이나, 상호연동이 불가능하다. 즉, H.263으로 인코딩된 스트림을 MPEG-2 디코더에서 처리할 수 없으며, MPEG-2 스트림 역시 H.263에서 디코딩할 수 없다. 이는 영상전화, 영상회의 그리고 저장용으로 주 용도가 달랐던 H.261, MPEG-1에서는 큰 문제를 야기하지 않았으나, 실시간 대화형통신, 방송, 교신형 분배서비스 그리고 저장용 통신응용으로까지 그 범위가 확장된 H.263, MPEG-2는 필연적으로 동일한 용도에 이들 압축방식을 사용할 수 있고, 이때 이들간의 상호연동이 불가능한 것은 사용자 측면에서 경제적 손실과, 응용측면에서 이질성의 문제를 야기한다.H.263 and MPEG-2, which are recommended by the International Organization for Standardization, are compression methods that target the same video, but cannot interoperate. That is, H.263 encoded streams cannot be processed by the MPEG-2 decoder, and MPEG-2 streams cannot be decoded by H.263. This did not cause major problems in H.261 and MPEG-1, which were primarily used for video telephony, video conferencing, and storage, but extended to real-time interactive communications, broadcast, communication services, and storage communications. H.263 and MPEG-2 inevitably use these compression schemes for the same purpose, and the inability to interoperate between them causes economic loss on the user side and heterogeneity on the application side.
이러한 응용측면의 이질성은 해당되는 압축방식의 디코더, 인코더를 다단으로 연결하는 일반적인 화소영역에서의 트랜스코더를 사용하여 해결할 수 있으나, 이 역시 트랜스코더의 위치(네트워크 또는 사용자 단말)에 관계없이 이중의 경제적인 부담을 주게 된다. 또한, 다단의 코덱인 트랜스코더를 사용하므로써 화질열화, 특히 과도한 처리지연이 발생하여 실시간 통신에 제한을 받게 된다.This heterogeneity of the application side can be solved by using a corresponding decoder and a transcoder in a general pixel area connecting the encoder in multiple stages, but this also can be duplicated regardless of the position of the transcoder (network or user terminal). It is an economic burden. In addition, the use of a transcoder, which is a multi-stage codec, causes deterioration in image quality, particularly excessive processing delay, thereby limiting real-time communication.
네트워크의 구축, 멀티미디어 시장의 미성숙으로 보편화된 통신서비스의 확산에 실패하였던, H.261, MPEG-1과는 달리, 공중교환전화망(PSTN : Public Switched Telephone Network), 근거리통신망(LAN : Local Area Network), 비동기전달모드(ATM : Asynchronous Trasfer Mode), 케이블 텔레비젼(CATV : Cable Television) 그리고 디지털 공중파 등의 네트워크 기반이 대부분 완료된 현 상황과 멀티미디어에 대한 일반인의 친숙도를 고려할 때, H.263과 MPEG-2를 이용한 다양한 멀티미디어 통신서비스가 급속히 확산될 것이다.Unlike H.261 and MPEG-1, which failed to spread the generalized communication service due to network construction and immaturity of the multimedia market, Public Switched Telephone Network (PSTN) and Local Area Network (LAN) H.263 and MPEG, considering the current situation where the network infrastructure, such as ATM (ATM), Asynchronous Trasfer Mode (ATM), Cable Television (CATV) and digital airwaves is mostly completed, and the public's familiarity with multimedia, Various multimedia communication services using -2 will spread rapidly.
이에 따라, 현재 불가능한 이들 이종 압축부호간의 상호연동은 반드시 해결해야 하는 과제가 되고 있다.Accordingly, mutual interworking between these heterogeneous compression codes, which is currently impossible, has become a problem that must be solved.
응용서비스 관점에서의 이질성 해결과, 경제적인 이점을 제공하기 위한 이종 압축부호간의 상호연동은 적정한 가격으로 구현할 수 있는 효율성과 멀티미디어 통신에서 요구되는 실시간 처리를 필히 보장하여 제공되어야 한다.Resolving heterogeneity from the perspective of application services and interworking of heterogeneous compression codes to provide economic advantages must be provided to ensure the efficiency that can be realized at an affordable price and the real time processing required for multimedia communication.
이상에서와 같이, 동영상 압축부호의 응용분야를 명확히 구분하여 권고하였던 기존 표준과는 달리 현재 주로 사용하고 있으며 새로 연구가 진행되는 압축부호 알고리즘은 같은 응용을 대상으로 하고 있다. 즉, 동일한 멀티미디어 통신에 이들 이종 동영상 압축방식이 사용된다면, 종단점간의 응용서비스는 상호 연동이 불가능하게 된다.As mentioned above, unlike the existing standard, which clearly distinguished and recommended the field of application of video compression code, it is mainly used now and the compression code algorithm newly researched is targeted for the same application. That is, if these heterogeneous video compression schemes are used for the same multimedia communication, application services between endpoints cannot be interworked.
동영상 압축방식의 차이로 인한 이질성의 문제를 해결하기 위한 시도로 ITU-T와 ISO/IEC의 연구가 있었으나, 이것 역시 H.263의 기본적인 압축부호를 MPEG-4에서 수용하는 단 방향의 연동에 국한될 뿐, 현재까지 MPEG-4에서 H.263으로의 연동은 해결되지 못한 상태이다.In an attempt to solve the problem of heterogeneity due to the difference of video compression methods, there have been studies of ITU-T and ISO / IEC, but this is also limited to unidirectional interworking that accepts the basic compression code of H.263 in MPEG-4. So far, the interworking from MPEG-4 to H.263 has not been resolved.
특히, 대표적인 동영상 압축 알고리즘으로 등장한 H.263과 MPEG-2간의 상호 연동이 불가능하여 이러한 이종 압축부호가 대화형, 교신형 그리고 방송 등을 포함하는 멀티미디어 응용서비스에 사용될 때, 통신이 불가능하다는 연동의 문제 이외에 특정 동영상 응용서비스를 제공받기 위해서는 해당 서비스마다 별도의 동영상 압축처리부를 사용해야 하는 사용자 측면의 경제적인 손실을 가져오는 문제점이 있었다.In particular, since H.263 and MPEG-2, which are representative video compression algorithms, cannot be interoperable, these heterogeneous compression codes cannot be used when they are used in multimedia application services including interactive, communication, and broadcasting. In addition to the problem, in order to receive a specific video application service, there is a problem of economic loss of the user side that requires a separate video compression processing unit for each service.
상기한 바와 같은 문제점을 해결하기 위하여 안출된 본 발명은, 영상시스템의 완전 압축영역인 가변장부호에서 이종 동영상간에 공통되는 압축 알고리즘에 따라 생성된 정보를 최대한 활용하고, 그외의 두 부호간의 변환에 장애가 되는 구문구조, 기타 처리에 필요한 파라메터를 변환하여 H.263 표준 동영상 압축부호를 MPEG-2의 형태에 맞는 표준 동영상 압축부호로 직접 변환하기 위한 압축동영상 변환 방법 및 그를 실현하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.In order to solve the above problems, the present invention utilizes the information generated according to a compression algorithm common among heterogeneous videos in a variable length code, which is a completely compressed region of an image system, and converts two other codes. Compression video conversion method for converting H.263 standard video compression code into standard video compression code conforming to MPEG-2 form by converting the necessary syntax structure and other processing parameters, and a computer recording a program for realizing the same. The purpose is to provide a recording medium that can be read by.
도 1 은 종래의 화소영역에서의 부호변환 과정도.1 is a diagram illustrating a code conversion process in a conventional pixel region.
도 2 는 본 발명에 따른 압축동영상 변환 방법에 대한 일실시예 흐름도.2 is a flowchart illustrating an embodiment of a method for converting a compressed video according to the present invention.
도 3 은 본 발명에 이용되는 H.263 스트림과 MPEG-2 스트림의 계층별 변환 관계를 나타낸 설명도.3 is an explanatory diagram showing the conversion relationship for each layer of an H.263 stream and an MPEG-2 stream used in the present invention;
도 4 는 본 발명에 이용되는 H.263 스트림과 MPEG-2 스트림의 매크로블록 계층의 변환 관계를 나타낸 설명도.4 is an explanatory diagram showing a conversion relationship between a macroblock layer of an H.263 stream and an MPEG-2 stream used in the present invention;
도 5 는 본 발명에 이용되는 H.263 스트림의 움직임 벡터 부호화 과정을 나타낸 설명도.5 is an explanatory diagram showing a motion vector encoding process of an H.263 stream used in the present invention.
도 6 은 본 발명에 이용되는 MPEG-2 스트림의 움직임 벡터 부호화 과정을 나타낸 설명도.6 is an explanatory diagram showing a motion vector encoding process of an MPEG-2 stream used in the present invention.
도 7 은 본 발명에 이용되는 MPEG-2 스트림의 DC 계수와 음직임 벡터 초기화 과정에 대한 설명도.7 is an explanatory diagram of a DC coefficient and a negative vector initialization process of an MPEG-2 stream used in the present invention.
도 8 은 본 발명에 이용되는 MPEG-2 스트림에서 블록계층에 대한 DC 부호화 과정에 대한 설명도.8 is an explanatory diagram of a DC encoding process for a block layer in an MPEG-2 stream used in the present invention.
상기 목적을 달성하기 위한 본 발명은, 영상시스템에 적용되는 압축동영상 변환 방법에 있어서, 제1 스트림의 첫 번째 입력되는 영상에 대해, 헤더정보를 해석하여 제2 스트림의 시퀀스 계층 및 영상군(GOP) 계층을 생성하는 제 1 단계; 및 상기 제1 스트림의 나머지 영상들에 대해, 계층정보를 생성하고, 각 계층에 필요한 특정 파라메터값을 변경하여 완전 압축영역인 가변장부호에서 상기 제1 스트림의 압축동영상을 상기 제2 스트림의 압축동영상으로 변환하는 제 2 단계를 포함한다.The present invention for achieving the above object, in the compressed video conversion method applied to the video system, for the first input video of the first stream, by analyzing the header information of the sequence layer and video group (GOP) of the second stream A first step of creating a layer; And compressing the compressed video of the first stream in the variable length code, which is a completely compressed region, by generating hierarchical information on the remaining images of the first stream and changing specific parameter values required for each layer. The second step of converting to a video.
또한, 본 발명은, 프로세서를 구비한 영상시스템에, 프로세서를 구비한 영상시스템에, 제1 스트림의 첫 번째 입력되는 영상에 대해, 헤더정보를 해석하여 제2 스트림의 시퀀스 계층 및 영상군(GOP) 계층을 생성하는 기능; 및 상기 제1 스트림의 나머지 영상들에 대해, 계층정보를 생성하고, 각 계층에 필요한 특정 파라메터값을 변경하여 완전 압축영역인 가변장부호에서 상기 제1 스트림의 압축동영상을 상기 제2 스트림의 압축동영상으로 변환하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.In addition, the present invention, in the video system having a processor, the video system having a processor, the header information for the first input video of the first stream, the header information and the video group (GOP) of the second stream Creating a layer; And compressing the compressed video of the first stream in the variable length code, which is a completely compressed region, by generating hierarchical information on the remaining images of the first stream and changing specific parameter values required for each layer. Provided is a computer-readable recording medium having recorded thereon a program for realizing a function of converting a video.
이하, 첨부된 도 2 내지 도 8을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.Hereinafter, with reference to the accompanying Figures 2 to 8 will be described in detail a preferred embodiment according to the present invention.
도 2 는 본 발명에 따른 압축동영상 변환 방법에 대한 일실시예 흐름도이다.2 is a flowchart illustrating a method of converting a compressed video according to the present invention.
도 2에 도시된 바와 같이, 본 발명에 따른 H.263 압축동영상을 MPEG-2 압축동영상으로 변환하는 압축동영상 변환 방법은, 먼저 H.263 스트림의 헤더 정보를 해석하여(201) 첫 번째 영상(Picture)에 대해 MPEG-2 스트림의 시퀀스 계층 및 영상군(GOP : Group Of Picture) 계층을 생성한다(203).As shown in FIG. 2, the compressed video conversion method for converting an H.263 compressed video into an MPEG-2 compressed video according to the present invention first analyzes the header information of the H.263 stream (201), and then determines the first video ( A sequence layer and a group of picture (GOP) layer of an MPEG-2 stream are generated for a picture (203).
이후, 스트림의 나머지 영상들에 대해(208), H.263 스트림과 MPEG-2 스트림의 프레임을 정합하여 MPEG-2 영상 계층을 생성한다(204).Thereafter, for the remaining images of the stream (208), frames of the H.263 stream and the MPEG-2 stream are matched to generate an MPEG-2 video layer (204).
다음으로, H.263 스트림의 해상도 및 매크로블록의 구조를 분석하여 MPEG-2 슬라이스 계층을 생성한다(205).Next, the MPEG-2 slice layer is generated by analyzing the resolution of the H.263 stream and the structure of the macroblock (205).
이후에, H.263 스트림내의 매크로블록의 정보를 분석하여 MPEG-2 매크로블록 계층으로 변환한다(206).Thereafter, the information of the macroblock in the H.263 stream is analyzed and converted into an MPEG-2 macroblock layer (206).
마지막으로, H.263 스트림의 블록계층의 정보를 분석하여 MPEG-2 스트림의 블록계층으로 변환한다(207).Finally, the block layer information of the H.263 stream is analyzed and converted into the block layer of the MPEG-2 stream (207).
상기한 바와 같은 본 발명에 따른 H.263 압축동영상을 MPEG-2 압축동영상으로 변환하는 압축동영상 변환 방법은 트랜스코더의 요구조건을 만족하는 새로운 방식로서, H.263, MPEG-2 두방식 공히 차등펄스부호변조(DPCM : Differential Pulse Code Modulation)에 따르는 움직임 추정, 보상, 이산여현변환(DCT : Discrete Cosine Transform) 그리고 엔트로피 코딩을 기본으로 하고 있다는 점에 착안하여, 공통되는 압축 알고리즘에 따라 생성된 정보는 최대한 활용하고, 그 외 두 부호간의 변환에 장애가 되는 구문구조, 기타 처리에 필요한 파라메터를 변환하는 것이다.The compressed video conversion method for converting H.263 compressed video into MPEG-2 compressed video according to the present invention is a new method that satisfies the requirements of a transcoder. Based on the motion estimation, compensation, Discrete Cosine Transform (DCT) and entropy coding according to Pulse Code Modulation (DPCM), information generated according to a common compression algorithm Is to make the most of it, and converts the syntax and other parameters necessary for processing other obstacles.
따라서, 본 발명은 H.263의 압축부호를 MPEG-2의 형태에 맞는 동영상 부호로 변환하며, 완전 압축 구문상에서 처리를 수행하므로써 화질 개선의 이점과 실시간 변환에 장점을 갖고 특히 간단한 처리로 용이하게 구현할 수 있는 효율적인 방법이다.Accordingly, the present invention converts the compressed code of H.263 into a video code suitable for MPEG-2 format, and performs the processing on the fully compressed syntax, which has the advantages of image quality improvement and real-time conversion, and is particularly easy with simple processing. It is an efficient way to implement it.
상기한 바와 같은 본 발명에 따른 H.263 압축동영상을 MPEG-2 압축동영상으로 변환하는 압축동영상 변환 방법에 대해 도 3 내지 도 8을 참조하여 보다 상세히 설명한다.A compressed video conversion method for converting an H.263 compressed video according to the present invention as described above into an MPEG-2 compressed video will be described in more detail with reference to FIGS. 3 to 8.
도 3 은 본 발명에 이용되는 H.263 스트림과 MPEG-2 스트림의 계층별 변환 관계를 나타낸 설명도이다.3 is an explanatory diagram showing the conversion relationship for each layer of an H.263 stream and an MPEG-2 stream used in the present invention.
본 실시예는 완전 압축부호상에서 필요한 계층정보를 생성하고, 각 계층에 필요한 특정 파라메터 값을 변경하는 간단한 절차로 이종 동영상 부호간의 변환이 가능하다.The present embodiment can convert between heterogeneous video codes by a simple procedure of generating necessary layer information on a fully compressed code and changing specific parameter values required for each layer.
도 3에 도시된 바와 같이, H.263 스트림(3a)과는 달리 MPEG-2 스트림(3b)은 영상조작과 오류정보의 내성을 위해 시퀀스 계층(301), GOP 계층(302)과 같은 계층 구조를 갖는다. 따라서, 압축부호를 변환하기 위해서는 H.263에 존재하지 않는 일부 헤더 정보 및 프레임 구조를 생성하여야 한다.As shown in FIG. 3, unlike the H.263 stream 3a, the MPEG-2 stream 3b has a hierarchical structure such as the sequence layer 301 and the GOP layer 302 for image manipulation and tolerance of error information. Has Therefore, in order to convert the compressed code, some header information and frame structure that do not exist in H.263 must be generated.
시퀀스 계층(301)은 MPEG-2 스트림(3b)의 압축동영상의 최상위 계층으로서, 영상의 해상도, 프레임의 구조, 출력 비트율, 출력 완충버퍼링(VBV : Video Buffer Verifier) 파라메터와 양자화 처리에 대한 정보를 포함하고 있으므로, 시퀀스 계층(301)이 갖는 헤더 정보 및 주요 파라메터 값은 H.263 스트림(3a)의 입력 영상을 해석한 결과에 따라 생성된다. 이중 H.263 스트림(3a)에는 포함되지 않는 양자화 메트릭스가 MPEG-2 스트림(3b)으로 변환된 스트림의 화질을 결정하는 중요한 요소이므로, H.263 스트림(3a)의 선형 양자화 특성을 그대로 보존하는 매트릭스 값으로 바꾸어 주고, 이것을 변경된 MPEG-2 스트림(3b)의 헤더에 적어 H.263 스트림(3a)의 DCT 계수를 손실없이 처리한다.The sequence layer 301 is the highest layer of the compressed video of the MPEG-2 stream 3b. The sequence layer 301 provides information about a resolution, a frame structure, an output bit rate, an output buffer buffer (VBV) parameter, and quantization processing. Since the header information and the main parameter values included in the sequence layer 301 are generated according to the result of analyzing the input image of the H.263 stream 3a. Since the quantization matrix not included in the H.263 stream 3a is an important factor in determining the image quality of the stream converted into the MPEG-2 stream 3b, the linear quantization characteristic of the H.263 stream 3a is preserved as it is. The matrix value is converted into a matrix value and written in the header of the changed MPEG-2 stream 3b to process the DCT coefficient of the H.263 stream 3a without loss.
영상 계층(303)에서 처리되어야 할 부분은 H.263 스트림(3a)과 MPEG-2 스트림(3b)의 프레임 정합과정으로 H.263 스트림(3a)의 I, PB 프레임을 MPEG-2의 I, P, B에 대응되게 영상 헤더의 내용을 바꾸어 준다. 또한, 일시적 기준값(TR : Temporal Reference)을 MPEG-2 프레임 순으로 1024를 주기로 하는 일련 번호로 변환하고, 영상 계층(303)에 속해 있는 움직임 탐색범위를 나타내는 f코드를 H.263 스트림(3a)의 정보에 따라 설정하여 처리된 스트림이 디코딩될 때, 정확한 움직임 보상을 통해 화면에 정상적으로 표시한다. 또한, H.263 스트림(3a)의 양자화 특성을 손실없이 전달할 수 있는 선형 양자화 스케일 모드로 영상 헤더의 파라메터를 설정한다.The part to be processed in the video layer 303 is a frame matching process of the H.263 stream 3a and the MPEG-2 stream 3b. The contents of the video header are changed to correspond to P and B. In addition, a temporary reference value (TR) is converted into a serial number having a period of 1024 in the order of MPEG-2 frames, and an f code indicating a motion search range belonging to the video layer 303 is converted into an H.263 stream 3a. When the processed stream is set according to the information of the decoding, it is displayed normally on the screen through accurate motion compensation. In addition, the parameters of the video header are set in a linear quantization scale mode that can deliver the quantization characteristics of the H.263 stream 3a without loss.
H.263 스트림(3a)에서는 한행의 고정된 수의 매크로블럭 군(Group)을 블록그룹(GOB : Group of Block)이라 칭하며, 이러한 GOB 계층은 MPEG-2 스트림(3b)의 슬라이스 계층(304)와 대응되는 계층이다.In H.263 stream 3a, a fixed number of macroblock groups in a row is called a group of blocks (GOB), and this GOB layer is a slice layer 304 of MPEG-2 stream 3b. This is the layer corresponding to.
그러나, H.263 스트림(3a)에서 GOB에 대한 처리를 선택사항으로 하고 있어 이 계층(304)은 존재하지 않을 수 있다.However, the handling of GOB in H.263 stream 3a is optional and this layer 304 may not exist.
따라서, GOB 계층(302)을 바로 MPEG-2 스트림(3b)의 슬라이스 계층(304)으로 변환할 수 없으며, H.263 스트림(3a)의 해상도 정보를 기준으로 영상의 수평축에 해당하는 화소 수를 16으로 나눈 값에 해당하는 매크로블럭의 수를 계수하여 슬라이스 계층(304)을 생성한다.Therefore, the GOB layer 302 cannot be directly converted into the slice layer 304 of the MPEG-2 stream 3b, and the number of pixels corresponding to the horizontal axis of the image is determined based on the resolution information of the H.263 stream 3a. The slice layer 304 is generated by counting the number of macroblocks corresponding to the value divided by 16.
매크로블럭은 움직임 추정 및 보상의 기본 단위로 사용되며, 기본적으로 H.263 스트림(3a)과 MPEG-2 스트림(3b)의 매크로블럭에 대한 처리는 유사하나, 생성된 매크로블럭의 유형과 부호화 방법은 차이를 가져, 이에 대한 변환 과정이 필요하다. 즉, 매크로블럭 계층(305)의 변환은 H.263 스트림(3a)에 대한 매크로블럭의 코드 존재유무를 확인하고, 코드의 형태와 움직임 벡터를 해석하는 부분이 필요하다.The macroblock is used as a basic unit of motion estimation and compensation. Basically, the macroblocks of the H.263 stream 3a and the MPEG-2 stream 3b are similar, but the type and encoding method of the generated macroblocks are similar. Has a difference and requires a conversion process. That is, the conversion of the macroblock layer 305 is necessary to confirm the existence of the code of the macroblock for the H.263 stream (3a), and to analyze the code shape and the motion vector.
따라서, 매크로블록 계층(305)의 변환은 이 결과를 기준으로 MPEG-2 스트림(3b)이 갖는 매크로블록 주소 증가(MBAI : MacroBlock Address Increment) 값과 코드화된 블록 패턴(CBP : Coded Block Pattern)을 생성하고, 움직임 벡터를 처리한다.Accordingly, the conversion of the macroblock layer 305 is based on the results of the macroblock address increment (MBAI: MacroBlock Address Increment) value and the coded block pattern (CBP) of the MPEG-2 stream 3b. Create and process motion vectors.
매크로블럭 계층(305)의 변환은 움직임 정보를 갖는 인트라, 인터 블럭에 대한 처리가 별도로 수행되며, 이중 움직임 정보가 포함되지 않는 H.263 스트림(3a)의 인트라 매크로블럭은 직접 MPEG-2 스트림(3b)의 인트라 매크로블럭으로 변경된다. 그리고, 인터 블럭은 PB의 프레임 유형에 따라 결정되는 움직임 정보에 따라 순방향 움직임만을 갖는 매크로블럭과 양방향 움직임 정보를 포함하는 매크로블럭을 구분하여, MPEG-2 스트림(3b)의 PB 프레임을 구성하는 매크로블럭에 대응되게 변경된다. 이러한 H.263 스트림(3a)과 MPEG-2 스트림(3b)간에 매크로블럭 계층(305)의 변환 관계가 도 4에 도시되었다.The conversion of the macroblock layer 305 is performed separately for intra and inter blocks having motion information, and the intra macroblock of the H.263 stream 3a that does not include dual motion information is directly converted to an MPEG-2 stream ( It is changed to the intra macroblock of 3b). The interblock divides the macroblock having only forward motion and the macroblock including bidirectional motion information according to the motion information determined according to the frame type of the PB, thereby forming a PB frame of the MPEG-2 stream 3b. Changed to correspond to the block. The conversion relationship of the macroblock layer 305 between the H.263 stream 3a and the MPEG-2 stream 3b is shown in FIG.
도 4 는 본 발명에 이용되는 H.263 스트림과 MPEG-2 스트림의 매크로블록 계층의 변환 관계를 나타낸 설명도이다.4 is an explanatory diagram showing a conversion relationship between a macroblock layer of an H.263 stream and an MPEG-2 stream used in the present invention.
H.263 스트림(3a)에서 매크로블럭의 유형은 "COD(Coded macroblock indication), MCBPC(Macroblock type & coded block pattern for chrominance), CBPY(Coded block pattern for luminance), MVD(Motion vector data)"의 존재와 구성형태에 따라 고유한 의미를 갖는데 반하여, MPEG-2 스트림(3b)에서의 매크로블럭은 유형별로 정확히 구분되어 있다.The types of macroblocks in H.263 stream (3a) are coded macroblock indication (COD), macroblock type & coded block pattern for chrominance (MCBPC), coded block pattern for luminance (CBPY), and motion vector data (MVD). While they have unique meanings depending on their existence and configuration, macroblocks in the MPEG-2 stream 3b are precisely classified by type.
따라서, H.263 스트림(3a)의 매크로블럭에 포함된 정보를 해석하여 MPEG-2 스트림(3b)에 대응되는 매크로블럭의 형태로 정합하는 과정이 필요하다.Therefore, a process of analyzing the information included in the macroblock of the H.263 stream 3a and matching it to the form of the macroblock corresponding to the MPEG-2 stream 3b is necessary.
도 4를 참조하면, H.263 스트림(3a)에서 "COD"는 해당 매크로블럭의 존재 여부를 나타내며, "MCBPC"는 인트라와 인터 블럭 형태를 구분하고 색차신호의 코드 유무 및 매크로블럭 단위로 존재하는 양자화 파라메터를 포함한다. 그리고, "CBPY"는 휘도신호의 코드유무를 표시한다. 이중 "MCBPC"와 "CBPY"를 이용하여 MPEG-2 스트림(3b)의 CBP 정보를 생성한다.Referring to FIG. 4, in the H.263 stream 3a, "COD" indicates whether a corresponding macro block exists or not, and "MCBPC" distinguishes between intra and inter block types and exists in the presence or absence of a code of a color difference signal and a macro block unit. It includes a quantization parameter. &Quot; CBPY " indicates the presence or absence of a code of the luminance signal. Of these, "MCBPC" and "CBPY" are used to generate CBP information of the MPEG-2 stream 3b.
최초 코딩된 H.263 스트림(3a)의 인트라 프레임에 포함된 매크로블럭은 MPEG-2 스트림(3b)의 I프레임을 구성하는 매크로블럭과 동일하게 변경한다. 그 외의 PB 프레임의 경우는 매크로블럭을 인트라와 인터로 세분하고, 다시 각각이 양자화 파라메터를 갖는가를 파악하여, 이것에 의해 MPEG-2 스트림(3b)의 합당한 매크로블록 유형으로 변경한다. 이중 인터 매크로블럭의 경우는 H.263 스트림(3a)의 MCBPC, CBPY를 이용하여 MPEG-2 스트림(3b)의 CBP를 생성하고, 이를 다시 H.263 스트림(3a)의 해당 매크로블럭에 움직임 정보가 존재하는가를 판단하여, MPEG-2가 갖을 수 있는 형태인 CBP, 움직임 벡터 그리고 CBP와 움직임 벡터가 같이 있는 3가지 매크로블럭 유형 중 하나로 변경한다.The macroblock included in the intra frame of the first coded H.263 stream 3a is changed to be the same as the macroblock constituting the I frame of the MPEG-2 stream 3b. In the case of other PB frames, the macroblock is subdivided into intra and inter, and it is again determined whether each has a quantization parameter, thereby changing to a proper macroblock type of the MPEG-2 stream 3b. In the case of the dual inter macroblock, the CBP of the MPEG-2 stream 3b is generated by using the MCBPC and CBPY of the H.263 stream 3a, and the motion information is added to the corresponding macroblock of the H.263 stream 3a. Is determined, and it is changed to one of three macroblock types in which CBP, a motion vector, and a CBP and a motion vector are present.
H.263 스트림(3a)과 MPEG-2 스트림(3b)은 움직임 추정 및 보상에 유사한 알고리즘을 사용하나, 이 결과 생성된 움직임 벡터를 부호화하는 방법은 상이하다. 이러한 H.263 스트림(3a)의 움직임 벡터 부호화 과정과 MPEG-2 스트림(3b)의 움직임 벡터 부호화 과정이 각각 도 5 및 도 6에 도시되었다.The H.263 stream 3a and the MPEG-2 stream 3b use similar algorithms for motion estimation and compensation, but the method of encoding the resulting motion vector is different. The motion vector encoding process of the H.263 stream 3a and the motion vector encoding process of the MPEG-2 stream 3b are illustrated in FIGS. 5 and 6, respectively.
도 5 는 본 발명에 이용되는 H.263 스트림의 움직임 벡터 부호화 과정을 나타낸 설명도이고, 도 6 은 본 발명에 이용되는 MPEG-2 스트림의 움직임 벡터 부호화 과정을 나타낸 설명도로서, 도면에서 "MV"는 현재 움직임 벡터(Current Motion Vector), "MV1"은 이전 움직임 벡터(Previous Motion Vector), "MV2"은 상단 움직임 벡터(Above Motion Vector), 및 "MV3"은 상단 우측 움직임 벡터(Above Right Motion Vector)를 각각 나타낸다. 그리고, 점선은 영상 또는 GOB 경계(Border)를 나타낸다.5 is an explanatory diagram illustrating a motion vector encoding process of an H.263 stream used in the present invention, and FIG. 6 is an explanatory diagram illustrating a motion vector encoding process of an MPEG-2 stream used in the present invention. "Current Motion Vector", "MV1" is Previous Motion Vector, "MV2" is Upper Motion Vector, and "MV3" is Upper Right Motion Vector Vector). The dotted line represents the image or GOB border.
도 5 및 도 6에 도시된 바와 같이, H.263 스트림(3a)의 움직임 벡터의 부호화는 움직임 추정에 의해 선택된 실제 움직임 벡터값과 주변 매크로블럭이 갖는 벡터의 중간값(Median Value)에 해당하는 것과의 차이로 표현된다. 이때, 중간값 계산에 사용되는 벡터는 탐색과정에서 추출된 실제값이어야 한다.As shown in Figs. 5 and 6, the encoding of the motion vector of the H.263 stream 3a corresponds to the median value of the actual motion vector value selected by the motion estimation and the vector of the neighboring macroblock. Expressed as a difference from. At this time, the vector used for the intermediate value should be the actual value extracted during the search.
반면에, MPEG-2 스트림(3b)에서의 움직임 벡터의 부호화는 이전 매크로블럭이 갖는 움직임 벡터와의 차분값(Differential Value)으로 표현된다. 즉, MPEG-2 스트림(3b)에서는 f코드에 의해 움직임 벡터의 범위가 결정되고, 이는 움직임 벡터의 차분값과 f코드-1로 나타내는 나머지 값으로 표현된다.On the other hand, the encoding of the motion vector in the MPEG-2 stream 3b is represented by a differential value from the motion vector of the previous macroblock. That is, in the MPEG-2 stream 3b, the range of the motion vector is determined by the f code, which is represented by the difference value of the motion vector and the remaining value represented by f code-1.
따라서, 정확한 움직임 벡터의 변환을 위해서는 H.263 스트림(3a)의 매크로블럭에 포함된 움직임 벡터에서 원래의 정확한 움직임 추정값을 계산한 후에, MPEG-2 스트림(3b)에서 사용하는 방법에 의해 움직임 벡터를 다시 부호화해야 한다.Therefore, in order to convert the correct motion vector, after calculating the original correct motion estimation value from the motion vector included in the macroblock of the H.263 stream 3a, the motion vector is used by the method used in the MPEG-2 stream 3b. Must be recoded.
움직임 벡터를 변환할 때 주의하여 할 점은, MPEG-2 스트림(3b)에서 슬라이스 계층(304)의 선두와 마지막에 매크로블럭이 반드시 존재하여야 한다는 것이다. 이를 위해 입력되는 H.263 스트림(3a)의 매크로블럭의 형태를 분석한 후에, 처음과 마지막의 매크로블럭이 생략되었으면, 움직임 벡터만 0의 값을 갖는 매크로블럭을 생성하고, 나머지는 이전 매크로블럭과 차분치로 표현한다.Note that when converting motion vectors, macroblocks must exist at the beginning and end of slice layer 304 in MPEG-2 stream 3b. After analyzing the shape of the macroblock of the input H.263 stream 3a for this purpose, if the first and last macroblocks are omitted, only the motion vector generates a macroblock having a value of 0, and the rest of the macroblocks are the previous macroblocks. Expressed as and difference.
매크로블럭을 구성하는 CBP는 전술한 바와 같이 H.263 스트림(3a)의 MCBPC, CBPY를 이용하고 인트라와 인터 블럭을 구분하는 룩업 테이블을 사용하여 생성한다.As described above, the CBP constituting the macroblock is generated by using the MCBPC and CBPY of the H.263 stream 3a and using a lookup table that distinguishes intra and inter blocks.
매크로블럭의 변환은 MPEG-2 스트림(3b)의 특성에 맞는 초기화 과정이 수반되어야 한다. 이러한 초기화 과정은 이전 메크로블럭에 대한 차분치로 표현되는 DC 계수와 움직임 벡터의 부호화에 적용되며, 도 7에 도시된 바와 같은 조건일 때, 이전 매크로블럭의 값이 0으로 설정되고, 차분값이 원래의 매크로블럭이 갖는 DC 계수와 움직임 벡터값이 된다.The conversion of the macroblocks must be accompanied by an initialization process that matches the characteristics of the MPEG-2 stream 3b. This initialization process is applied to the encoding of the DC coefficient and the motion vector represented by the difference with respect to the previous macroblock, and under the conditions as shown in FIG. 7, the value of the previous macroblock is set to 0, and the difference is original. DC coefficients and motion vector values of the macroblock
도 8 은 본 발명에 이용되는 MPEG-2 스트림의 인트라 블록의 DC 부호화 과정에 대한 설명도이다.8 is an explanatory diagram for a DC encoding process of an intra block of an MPEG-2 stream used in the present invention.
H.263 스트림(3a)에서 MPEG-2 스트림(3b)로의 블록 계층(306) 변환은 인트라 블럭의 DC 계수와 인터 블럭의 디씨(DC : Direct Current), 에이씨(AC : Alternative Current) 계수에 대해 구분하여 처리한다.The block layer 306 conversion from the H.263 stream 3a to the MPEG-2 stream 3b converts the DC coefficient of the intra block and the DC (Direct Current) and AC (AC) alternative coefficients of the inter block. Process separately.
H.263 스트림(3a)내의 인트라 블럭의 DC 계수는 8비트 고정길이 코드값을 갖는 순차적 표현으로 되어 있으나, MPEG-2 스트림(3b)는 가변길이 코드를 갖는 차분값으로 표현되며 휘도와 색차성분에 따라 다르게 부호화된다.The DC coefficients of the intra blocks in the H.263 stream 3a are sequential representations with 8-bit fixed-length code values, while the MPEG-2 streams 3b are represented with differential values with variable-length codes, with luminance and chrominance components. It is coded differently according to.
따라서, H.263 스트림(3a)의 인트라 블럭이 갖는 DC를 휘도와 색차 성분에 따라 구분하고, 이를 다시 차분값으로 표현한 후에 MPEG-2 스트림(3b)의 VLC로 변환한다. 여기서, 사용되는 가변장부호(VLC : Variable Length Code), 런렌스코드(RLC : Run-Length Code) 부호화는 후술할 인터 블럭의 처리와 동일하다.Therefore, the DC of the intra block of the H.263 stream 3a is divided according to the luminance and the chrominance component, and then expressed as a difference value, and then converted into the VLC of the MPEG-2 stream 3b. Here, Variable Length Code (VLC) and Run-Length Code (RLC) coding to be used are the same as the processing of the interblock to be described later.
H.263 스트림(3a)내의 인터 블럭의 DC와 AC계수에 대한 RLC 처리과정은 다음과 같다.The RLC process for the DC and AC coefficients of the interblock in the H.263 stream 3a is as follows.
일반적으로, DCT 계수는 연속되는 0의 값과 0이 아닌 계수값으로 표현되며, 각각을 런(RUN), 레벨(LEVEL)로 칭한다. 그러나, 이것을 표현하는 RLC 부호화는 H.263 스트림(3a)과 MPEG-2 스트림(3b)가 서로 다른 방법을 사용한다. 즉, MPEG-2 스트림(3b)는 블록의 끝(EOB : End of Block)을 사용하여 코드의 끝을 나타내는 2차원 VLC를 행하는 반면, H.263 스트림(3a)은 RUN, LEVEL에 추가적으로 라스트(LAST)라는 코드를 사용하는 3차원 VLC를 사용한다.In general, DCT coefficients are represented by successive zero and nonzero coefficient values, each referred to as RUN, LEVEL. However, the RLC encoding representing this uses a method in which the H.263 stream 3a and the MPEG-2 stream 3b are different from each other. That is, the MPEG-2 stream 3b performs a two-dimensional VLC indicating the end of the code by using the end of block (EOB), while the H.263 stream 3a performs the last (in addition to RUN and LEVEL). LAST) using a three-dimensional VLC.
따라서, H.263 스트림(3a)의 인터 블럭에 포함되는 DC, AC 계수에는 LAST 부분의 정보를 확인하여 MPEG-2 스트림(3b)로 변환할 때, EOB 정보를 추가한다.Therefore, the EOB information is added to the DC and AC coefficients included in the interblock of the H.263 stream 3a when the information of the LAST portion is checked and converted into the MPEG-2 stream 3b.
상기한 바와 같은 본 발명은, 현재 대표적인 압축부호인 H.263 스트림(3a)의 압축부호를 MPEG-2 스트림(3b)의 형태에 맞는 동영상 부호로의 직접 변환을 가능하게 하여, 영상회의 또는 주문형 비디오(VOD : Video On Demand) 등에 이들 압축부호를 사용할 경우에, 사용자가 서비스를 제공받지 못하거나 서비스를 제공받기 위해서 해당되는 복잡한 압축부호 처리장치가 필요한 기존 방식에 비해, 월등히 단순한 장치로 이종 부호간의 변환이 가능하며, 화질 개선, 특히 멀티미디어 통신에 반드시 필요한 요구 조건인 실시간 처리가 가능하다.As described above, the present invention enables direct conversion of the compression code of the H.263 stream 3a, which is currently a representative compression code, into a video code that conforms to the form of the MPEG-2 stream 3b, thereby enabling video conferencing or on-demand. When using these compression codes for VOD (Video On Demand), etc., the heterogeneous code is much simpler than the existing method where the user does not receive the service or requires a complicated compression code processing device to receive the service. It is possible to convert between them, and to improve image quality, in particular, real-time processing, which is a requirement for multimedia communication.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains, and the above-described embodiments and accompanying It is not limited to the drawing.
상기한 바와 같은 본 발명은, H.263 동영상 압축부호를 MPEG-2 압축부호로 변환하는데 있어서, 움직임 및 이산여현변환(DCT) 관련 처리를 수행하지 않으므로 부호변환에 소요되는 장치의 구성을 용이하게 구현할 수 있고, 화질개선 및 멀티미디어 통신에 반드시 필요한 요구조건인 실시간 처리가 가능하며, 영상회의 또는 주문형 비디오 등에 이들 이종 압축부호를 사용하는 경우에 별도의 장치를 구입하지 않고도 다양한 멀티미디어 통신서비스를 제공할 수 있는 효과가 있다.As described above, the present invention does not perform the motion and discrete cosine transform (DCT) related processes in converting the H.263 video compression code into the MPEG-2 compression code. Real-time processing, which is an essential requirement for image quality improvement and multimedia communication, can be implemented, and various multimedia communication services can be provided without using a separate device when using these heterogeneous compression codes for video conferencing or video on demand. It can be effective.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980049423A KR100327102B1 (en) | 1998-11-18 | 1998-11-18 | A conversion method of compressed moving video on the video communication system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980049423A KR100327102B1 (en) | 1998-11-18 | 1998-11-18 | A conversion method of compressed moving video on the video communication system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20000032824A true KR20000032824A (en) | 2000-06-15 |
KR100327102B1 KR100327102B1 (en) | 2002-05-09 |
Family
ID=19558759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019980049423A KR100327102B1 (en) | 1998-11-18 | 1998-11-18 | A conversion method of compressed moving video on the video communication system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100327102B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100644576B1 (en) * | 1999-10-19 | 2006-11-13 | 삼성전자주식회사 | Digital video coding method and device therefor |
US7797451B2 (en) | 2005-01-31 | 2010-09-14 | Samsung Electronics Co., Ltd. | A/V stream-forwarding system and method for forwarding A/V streams from data network to IEEE1394 network |
-
1998
- 1998-11-18 KR KR1019980049423A patent/KR100327102B1/en not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100644576B1 (en) * | 1999-10-19 | 2006-11-13 | 삼성전자주식회사 | Digital video coding method and device therefor |
US7797451B2 (en) | 2005-01-31 | 2010-09-14 | Samsung Electronics Co., Ltd. | A/V stream-forwarding system and method for forwarding A/V streams from data network to IEEE1394 network |
Also Published As
Publication number | Publication date |
---|---|
KR100327102B1 (en) | 2002-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100620270B1 (en) | Method and apparatus for transcoding compressed video bitstreams | |
US8170097B2 (en) | Extension to the AVC standard to support the encoding and storage of high resolution digital still pictures in series with video | |
KR100563608B1 (en) | Video size conversion and transcoding from mpeg-2 to mpeg-4 | |
US8175148B2 (en) | Method and device for indicating quantizer parameters in a video coding system | |
US20090141809A1 (en) | Extension to the AVC standard to support the encoding and storage of high resolution digital still pictures in parallel with video | |
US6614845B1 (en) | Method and apparatus for differential macroblock coding for intra-frame data in video conferencing systems | |
US7020200B2 (en) | System and method for direct motion vector prediction in bi-predictive video frames and fields | |
JP2002532029A (en) | Efficient macroblock header coding for video compression | |
US20200128262A1 (en) | Advanced video coding method, system, apparatus, and storage medium | |
US20040081237A1 (en) | Transcoder system for compressed digital video bitstreams | |
US7379498B2 (en) | Reconstructing a compressed still image by transformation to a compressed moving picture image | |
KR100312421B1 (en) | A conversion method of the compressed moving video on the video communication system | |
KR100327102B1 (en) | A conversion method of compressed moving video on the video communication system | |
KR100312411B1 (en) | A conversion method of the compressed moving video on the video communication system | |
JP2008109700A (en) | Method and device for converting digital signal | |
Momoh et al. | A Comparative Analysis of Video Compression Standard and Algorithms: State of the Art | |
JP4605212B2 (en) | Digital signal conversion method and digital signal conversion apparatus | |
JPH03124182A (en) | Cell abort compensation picture decoding system | |
Cieplinski | A review of image and video coding standards | |
JP4513856B2 (en) | Digital signal conversion method and digital signal conversion apparatus | |
CN118044200A (en) | System and method for temporal motion vector prediction candidate derivation | |
Heising et al. | Internet Still Image and Video Formats. | |
Jeffay | COMP 249 Advanced Distributed Systems | |
Shum et al. | Video Compression Techniques | |
Sullivan et al. | Lagrangian methods for making good decisions in high-compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |