KR100814715B1 - Moving-picture coding apparatus and method - Google Patents
Moving-picture coding apparatus and method Download PDFInfo
- Publication number
- KR100814715B1 KR100814715B1 KR1020060057237A KR20060057237A KR100814715B1 KR 100814715 B1 KR100814715 B1 KR 100814715B1 KR 1020060057237 A KR1020060057237 A KR 1020060057237A KR 20060057237 A KR20060057237 A KR 20060057237A KR 100814715 B1 KR100814715 B1 KR 100814715B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- global motion
- vector
- camera
- video signal
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
동영상 부호화기, 복호화기 및 그 방법이 개시된다. 본 발명의 동영상 부호화 장치는, 카메라의 움직임이 있는 경우, 카메라 움직임 파라미터들을 이용하여 참조 영상 신호로부터 상기 카메라의 움직임에 의한 화면 전체의 글로벌 움직임을 보상하여, 움직임 보상된 영상을 출력하는 움직임 예측/보상부; 현재 영상 신호와 상기 움직임 보상된 영상간의 차를 출력하는 감산기; 상기 차를 주파수 대역으로 변환하고 양자화하는 변환/양자화부; 및 양자화된 결과를 부호화하는 부호화부를 구비한다. 본 발명에 의하면, 기존 방식과 비교하여 같은 화질에서 훨씬 더 고 압축율을 얻을 수 있다.Disclosed are a video encoder, a decoder, and a method thereof. The video encoding apparatus of the present invention, when there is camera movement, compensates for global movement of the entire screen by the movement of the camera from a reference video signal using camera motion parameters, and outputs a motion compensated image. Compensation unit; A subtractor for outputting a difference between a current video signal and the motion compensated video; A conversion / quantization unit for converting and quantizing the difference into a frequency band; And an encoding unit for encoding the quantized result. According to the present invention, a much higher compression ratio can be obtained at the same image quality as compared with the conventional method.
Description
도 1은 본 발명의 일 실시예에 따른 동영상 부호화기에 대한 블록도를 도시한 것이다.1 is a block diagram of a video encoder according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 동영상 복호화기에 대한 블록도를 도시한 것이다. 2 is a block diagram of a video decoder according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 글로벌 움직임 추정 및 보상 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a global motion estimation and compensation method according to an embodiment of the present invention.
도 4는 카메라 움직임이 있는 경우의, 화소좌표의 변경을 나타내는 도면이다. 4 is a diagram illustrating a change in pixel coordinate when there is camera movement.
도 5는 본 발명의 일 실시예에 따른 RTLS 알고리즘을 이용한 글로벌 움직임 파라미터 추정 과정의 세부적인 과정들을 나타내는 흐름도이다.5 is a flowchart illustrating detailed processes of the global motion parameter estimation process using the RTLS algorithm according to an embodiment of the present invention.
본 발명은 동영상 압축 부호화 방법 및 장치에 관한 것으로, 특히, 카메라에 의한 화면 전체의 움직임을 보상하여 부호화/복호화하는 방법 및 장치에 관한 것이 다.The present invention relates to a video compression encoding method and apparatus, and more particularly, to a method and apparatus for compensating / decoding a motion of an entire screen by a camera.
최근 디지털 비디오 서비스를 위한 제품 및 통신매체들이 급속하게 발전되고있다. 그 중 MPEG 또는 H.264와 같은 동영상 표준화 규격을 이용한 비디오 응용 기술들이 ATM(Asynchronous transfer Mode)이나 공중파 통신 등을 통해 일반 가정에까지 비디오 서비스를 제공하고 있는 추세이다. 이처럼 다양한 비디오 서비스를 현재의 통신 매체를 통해 제공하기 위해서는 효율적인 동영상 압축 부호화 방식 및 장치가 필요하다. 특히 H.264 압축 부호화 방식은 MPEG-2 방식과 비교하여 압축률을 높임으로써 보다 개선된 화질을 제공하도록 다양한 압축 방식들이 제안되었다. 예를 들어, Wigand 등(T.Wiegand et. al)의 "Overview of the H.264/AVC Video Coding Standard", IEEE trans. on Circuits and Systems for Video Tech., vol. 13, no. 7, pp. 560-576, July 2003 등이 있다. Recently, products and communication media for digital video services have been rapidly developed. Among them, video application technologies using video standardization standards such as MPEG or H.264 are providing video services to homes through ATM (Asynchronous Transfer Mode) or over-the-air communication. In order to provide various video services through current communication media, an efficient video compression encoding method and apparatus are needed. In particular, the H.264 compression coding scheme has been proposed in various compression schemes to provide better image quality by increasing the compression rate compared to the MPEG-2 scheme. See, eg, "Overview of the H.264 / AVC Video Coding Standard" by T. Wiegand et al., IEEE trans. on Circuits and Systems for Video Tech., vol. 13, no. 7, pp. 560-576, July 2003, and the like.
종래 기술에 따른 H.264/AVC 부호화기는 인트라 프레임(intra-frame) 예측 부호화기, 인터 프레임(inter-frame) 예측 부호화기, 변환 부호화, 양자화 및 엔트로피 부호화기 등으로 구성되어져 있다. 이를 통해 고 압축으로 부호화를 수행한다. 특히, 움직임 보상 회로의 경우, 이전 프레임과 현재 프레임 사이의 시간적인 변화만을 추정하여 이를 보상하므로, 많은 량의 정보를 줄일 수 있게 해준다. 그러므로, 프레임간의 움직임 추정기법은 고 성능 동영상 압축 부호화 방식의 매우 중요한 기술이다.The H.264 / AVC encoder according to the prior art is composed of an intra-frame predictive encoder, an inter-frame predictive encoder, a transform encoding, a quantization and an entropy encoder, and the like. Through this, encoding is performed with high compression. In particular, in the case of the motion compensation circuit, only a temporal change between the previous frame and the current frame is estimated and compensated for, thereby reducing a large amount of information. Therefore, inter-frame motion estimation is a very important technique of high-performance video compression coding.
H.264를 포함한 MPEG 압축 부호화 방식들은 움직임 추정을 위해 한 프레임 영상을 블록단위로 나누어서, 각각의 블록마다 움직임 추정 기법을 수행하게 된다. 각 블록 단위의 움직임과 관련하여 상하좌우에 화소간 좌표 변화량을 움직임 벡터라고 하며, 한 개의 움직임 벡터가 블록의 움직임 변화를 좌우하게 된다. MPEG compression coding schemes including H.264 divide a frame image into block units for motion estimation and perform a motion estimation technique for each block. The amount of coordinate change between pixels in up, down, left, and right in relation to the motion of each block unit is called a motion vector, and one motion vector determines the motion change of the block.
만약 카메라가 움직이면, 카메라 움직임으로 인한 프레임간의 변화는 국부적으로 나타나기 보다는 전체적으로 나타난다. 그러므로 화면의 전체적인 움직임을 나타내는 파라미터를 찾아내서, 이 파라미터만을 보낸다면 매우 적은 량으로 화면을 재 구성할 수 있게 된다. If the camera moves, the change between frames due to camera movement is seen globally rather than locally. Therefore, if you find a parameter representing the overall motion of the screen and send only this parameter, the screen can be reconstructed in a very small amount.
DVR(digital video recorder)나 IP 카메라 시스템에서 사용되는 PTZ(pan-tilt-zoom) CCTV 카메라의 경우, 카메라가 줌인/아웃 및 3차원 회전을 하게 된다. 이러한 응용 시스템에 있어서, 카메라의 3차원 움직임에 해당하는 카메라 파라미터를 이용하여 이를 보완해 주면, 매우 적은 량의 데이터로 상당히 많은 움직임 보상을 해 줄 수 있다. In the case of pan-tilt-zoom (PTZ) CCTV cameras used in digital video recorders (DVR) or IP camera systems, the camera zooms in and out and rotates in three dimensions. In such an application system, if the camera parameter corresponding to the three-dimensional motion of the camera is used to compensate for this, a very small amount of data can compensate for a considerable amount of motion.
본 발명이 이루고자하는 기술적 과제는 카메라의 움직임 파라미터를 이용하여 화면 전체의 글로벌 움직임을 보상함으로써, 고효율의 압축 성능을 얻을 수 있는 동영상 부호화/복호화 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide a video encoding / decoding apparatus and method capable of obtaining high-efficiency compression performance by compensating for global motion of an entire screen using motion parameters of a camera.
상기 기술적 과제를 이루기 위한, 본 발명의 일 면에 따른 동영상 부호화 장치는, 플래그에 기초하여 카메라의 움직임이 있는 경우에만, 기 저장된 참조 영상 신호와 현재 영상 신호를 이용하여 화면 전체의 글로벌 움직임을 추정하여 글로벌 움직임 파라미터들을 산출하는 글로벌 움직임 추정부; 상기 글로벌 움직임 파라미터들을 이용하여 상기 글로벌 움직임을 보상하고, 상기 글로벌 움직임이 보상된 영상을 출력하는 글로벌 움직임 보상부; 상기 현재 영상 신호의 로컬 움직임을 추정하는 로컬 움직임 추정부; 상기 로컬 움직임 추정부의 추정 결과에 기초하여 상기 글로벌 움직임이 보상된 영상에 대하여 상기 로컬 움직임을 보상하여 움직임 보상된 영상을 출력하는 로컬 움직임 보상부; 상기 카메라를 제어하는 카메라 제어부로부터 출력되는 상기 카메라의 움직임 여부를 나타내는 플래그를 수신하고, 상기 플래그에 응답하여 상기 카메라로부터 출력되는 상기 현재 영상 신호를 상기 글로벌 움직임 추정부 또는 상기 로컬 움직임 추정부로 선택적으로 제공하는 스위치; 상기 현재 영상 신호와 상기 움직임 보상된 영상간의 차를 출력하는 감산기; 상기 차를 주파수 대역으로 변환하고 양자화하는 변환/양자화부; 및 양자화된 결과를 부호화하는 부호화부를 구비한다. 상기 글로벌 움직임 추정부는 상기 현재 영상 신호를 수신하여 다수의 특징점들을 선택하고, 상기 현재 영상 신호와 상기 참조 영상 신호를 비교하여 상기 다수의 특징점들에 대한 매칭을 통해 상기 다수의 특징점들 각각에 대하여 상기 참조 영상 신호 내에서의 제1 화소좌표값들에 대응하는 상기 현재 영상 신호 내에서의 제2 화소좌표값들을 추출하고, 상기 제1 및 제2 화소좌표값을 이용하여 상기 글로벌 움직임 파라미터들을 추정할 수 있다.In order to achieve the above technical problem, the video encoding apparatus according to an aspect of the present invention estimates global motion of the entire screen using a previously stored reference video signal and a current video signal only when there is a camera movement based on a flag. A global motion estimator for calculating global motion parameters; A global motion compensator configured to compensate for the global motion by using the global motion parameters and to output an image compensated for the global motion; A local motion estimator for estimating local motion of the current video signal; A local motion compensator for outputting a motion compensated image by compensating the local motion with respect to the image compensated for the global motion based on an estimation result of the local motion estimator; Receives a flag indicating whether the camera is output from the camera control unit for controlling the camera, and selectively transmits the current video signal output from the camera in response to the flag to the global motion estimation unit or the local motion estimation unit Providing switch; A subtractor for outputting a difference between the current video signal and the motion compensated video; A conversion / quantization unit for converting and quantizing the difference into a frequency band; And an encoding unit for encoding the quantized result. The global motion estimator receives the current video signal, selects a plurality of feature points, compares the current video signal with the reference video signal, and matches the plurality of feature points with respect to each of the plurality of feature points. Extract second pixel coordinate values in the current image signal corresponding to first pixel coordinate values in a reference image signal, and estimate the global motion parameters using the first and second pixel coordinate values. Can be.
상기 기술적 과제를 이루기 위한, 본 발명의 일 면에 따른 동영상 복호화 장치는, 영상 부호화 장치로부터 수신된 글로벌 움직임 파라미터를 이용하여 참조 영상 신호로부터 카메라의 움직임에 의한 화면 전체의 글로벌 움직임을 보상하여, 움직임 보상된 영상을 출력하는 움직임 예측/보상부; 부호화된 영상 신호를 복호화하는 복호화부; 상기 복호화부의 출력 신호를 역양자화하고, 역양자화된 결과를 시간대역으로 역 변환하는 역양자화/역변환부; 및 상기 역양자화/역변환부의 출력 신호를 상기 움직임 보상된 영상 신호와 합산하는 가산기를 구비한다. In order to achieve the above technical problem, a video decoding apparatus according to an aspect of the present invention uses a global motion parameter received from an image encoding device to compensate for a global motion of an entire screen by a camera motion from a reference video signal, A motion predictor / compensator for outputting a compensated image; A decoder which decodes an encoded video signal; An inverse quantization / inverse transform unit for inversely quantizing an output signal of the decoder and inversely converting the inverse quantized result into a time band; And an adder for adding the output signal of the inverse quantization / inverse transform unit with the motion compensated image signal.
상기 기술적 과제를 이루기 위한, 본 발명의 일 면에 따른 동영상 부호화/복호화 방법은, 카메라를 제어하는 카메라 제어부로부터 출력되는 상기 카메라의 움직임 여부를 나타내는 플래그를 수신하고, 상기 플래그에 응답하여 상기 카메라로부터 출력되는 현재 영상 신호를 글로벌 움직임 추정부 또는 로컬 움직임 추정부로 선택적으로 제공하는 단계; 상기 플래그에 기초하여 상기 카메라의 움직임이 있는 경우에만, 기 저장된 참조 영상 신호와 상기 현재 영상 신호를 이용하여 화면 전체의 글로벌 움직임을 추정하여 글로벌 움직임 파라미터들을 산출하는 글로벌 움직임 추정 단계; 상기 글로벌 움직임 파라미터들을 이용하여 상기 글로벌 움직임을 보상하고, 상기 글로벌 움직임이 보상된 영상을 출력하는 글로벌 움직임 보상 단계; 상기 현재 영상 신호의 로컬 움직임을 추정하는 로컬 움직임 추정 단계; 상기 로컬 움직임 추정부의 추정 결과에 기초하여 상기 글로벌 움직임이 보상된 영상에 대하여 상기 로컬 움직임을 보상하여 움직임 보상된 영상을 출력하는 로컬 움직임 보상 단계;상기 현재 영상 신호와 상기 움직임 보상된 영상간의 차를 출력하는 단계; 상기 차를 주파수 대역으로 변환하고 양자화하는 단계; 및 양자화된 결과를 부호화하여 출력하는 단계를 구비한다.According to an aspect of the present invention, there is provided a video encoding / decoding method, which receives a flag indicating whether the camera is output from a camera controller for controlling a camera, and receives a flag from the camera in response to the flag. Selectively providing an output current video signal to a global motion estimator or a local motion estimator; A global motion estimation step of calculating global motion parameters by estimating global motion of the entire screen using a pre-stored reference video signal and the current video signal only when there is motion of the camera based on the flag; A global motion compensation step of compensating for the global motion by using the global motion parameters and outputting an image in which the global motion is compensated; A local motion estimation step of estimating local motion of the current video signal; A local motion compensation step of outputting a motion compensated image by compensating the local motion with respect to the image compensated for the global motion based on an estimation result of the local motion estimator; Outputting; Converting and quantizing the difference into a frequency band; And encoding and outputting the quantized result.
이하에서 첨부된 도면을 참조하여 본 발명을 보다 상세하게 설명하기로 한다. Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 동영상 부호화기에 대한 블록도를 도시한 것이다.1 is a block diagram of a video encoder according to an embodiment of the present invention.
도시된 바에 따른 부호화기(100)는 변환/양자화부(110), 역양자화/역변환부(120), 제1 및 제2가산기(130, 135), 디블로킹(de-blcoking)부(140), 저장부(150), 인트라 프레임 예측부(160), 움직임 보상부(170), 움직임 추정부(180), 부호화부(190) 및 카메라 제어부(195)를 포함한다.The
도시된 동영상 부호화기(100)는 소정의 픽셀 크기(예를 들어 16x16 픽셀 크기)의 매크로 블록 단위로 입력되는 영상을 처리하며, 여러 개의 매크로 블록은 슬라이스 단위로 묶이게 된다. 영상 크기에 따라서 한 프레임은 여러 개의 슬라이스를 포함할 수 있다.The illustrated
먼저, 인트라 부호화(intra coding)가 이루어지는 동작을 설명하면 다음과 같다. First, an operation in which intra coding is performed will be described.
제1가산기(130)는 입력 매크로 블록과 인트라 프레임 예측부(160)로부터 출력되는 예측 매크로 블록의 차를 출력한다. 이를 위하여 스위치(SW1)는 인트라 프레임 예측부(160)의 출력이 제1 가산기(130)로 제공되도록 스위칭된다. 인트라 프레임 예측부(160)는 저장부(150)에 저장되어 있는 이전 프레임에 대해 부호화되고 재구성된 매크로 블록을 이용하여 예측 매크로 블록을 생성하고, 생성된 예측 매크로 블록을 출력한다. 인트라 프레임 예측부(160)의 동작에 대한 상세한 설명은 후술하기로 한다.The
변환/양자화부(110)는 제1가산기(130)에서 출력되는 현재 매크로 블록과 예측 매크로 블록간의 차를 DCT를 통해 주파수 대역 신호로 변환하고, 변환된 DCT 계수들을 양자화한다. 변환/양자화부(110)로부터 출력되는 양자화된 DCT 계수들은 역 양자화/역변환부(120) 및 부호화부(190)로 입력된다.The transform /
부호화부(190)는 양자화된 DCT 계수들을, 예를 들어 가변길이 부호화 또는 콘텍스트 적응 가변길이부호화(context-adaptive VLC) 방식에 따라 엔트로피 부호화하여 출력한다.The
역양자화/역변환부(120)는 양자화된 DCT 계수를 역 양자화하고 역 DCT한다. 제2가산기(135)는 역 DCT 결과, 즉 역양자화/역변환부(120)의 출력 데이터를 인트라 프레임 예측부(160)에서 출력되는 예측 매크로 블록과 가산한다. 이 때, 영상은 매크로 블록 단위로 부호화됨에 따라 매크로 블록간 양자화 차이에 의한 블로킹(blocking)을 포함하므로, 블로킹 효과를 제거하기 위하여 디블로킹부(140)에 의해 디블로킹 필터링이 수행된다. 최종 필터링되어 복원된 매크로 블록은 프레임 저장부(150)에 저장되어, 다음 매크로 블록의 예측에 사용된다.The inverse quantization /
다음으로, 인터 부호화(inter coding)가 이루어지는 동작을 설명하면 다음과 같다. Next, an operation in which inter coding is performed is as follows.
움직임 추정부(180)는 현재 매크로 블록과 이전에 프레임 저장부(150)에 저장된 참조 프레임들 가운데 가장 유사한 매크로 블록을 추정한다. 이 때, 참조 프레임은 움직임 추정을 위해 이전에 부호화되어 저장된 픽처들을 일컫는다. 여기서, 참조 프레임은 MPEG-2의 경우 I-픽쳐(Intra-picture), P-픽쳐(Predictive-picture)가 될 수 있고, H.264의 경우 I-픽쳐, P-픽쳐 뿐 만 아니라 B-픽쳐(Bi-directional predictive-picture)가 될 수 있다. The
움직임 추정부(180)는 글로벌 움직임 추정부(181) 및 로컬 움직임 추정 부(182)를 포함한다. 글로벌 움직임 추정부(181)는 저장부(150)에 저장된 참조 프레임과 현재 프레임으로부터 3차원 카메라(105)의 움직임에 의한 화면 전체의 글로벌 움직임을 추정하여, 글로벌 움직임 파라미터들(카메라 움직임 파라미터들)을 출력한다. 글로벌 움직임 파라미터들은, 줌 팩터(s), 팬 앵글(pan angle), 틸트 앵글(tilt angle), 스윙 앵글(swing angle) 및 초점 길이(focal length)로 구성되는 카메라 움직임 파라미터들(이하, 제1 카메라 움직임 파라미터 셋이라고도 함)일 수 있다. 또는, 글로벌 움직임 파라미터들은, 줌 팩터(s), 팬 앵글(pan angle), 틸트 앵글(tilt angle), 스윙 앵글(swing angle) 및 초점 길이(focal length)의 5개의 카메라 움직임 파라미터들에 기초하여 얻을 수 있는 파라미터들(이하, 제2 카메라 움직임 파라미터 셋이라고도 함)일 수 있다. 이러한 글로벌 움직임 파라미터들은 부호화부(190)를 통해 동영상 복호화기(도 2의 200)로 전송된다. The
로컬 움직임 추정부(182)는 화면 일부에서 국부적으로 발생한 로컬 움직임(예를 들어, 사람이나 물체의 이동에 의한 움직임 등)을 추정한다. 구체적으로는, 로컬 움직임 추정부(182)는 참조 프레임에 대한 입력 매크로 블록의 움직임 추정을 수행하여 움직임 벡터(motion vector) 및 참조 프레임을 나타내는 인덱스 등을 포함한 움직임 데이터를 출력한다. The
움직임 보상부(170)는 움직임 추정부(180)의 추정 결과를 이용하여, 움직임 추정에 이용된 참조 프레임으로부터 움직임이 예측된 매크로 블록을 생성하여 출력한다. 이렇게 생성된 매크로 블록을 움직임 보상된 매크로 블록이라 한다. 움직임 보상부(170) 역시 세부적으로, 글로벌 움직임 보상부(미도시) 및 로컬 움직임 보상 부(미도시)를 구비할 수 있다. 글로벌 움직임 보상부(미도시)는 글로벌 움직임 추정부(181)에서의 글로벌 움직임 추정 결과, 즉, 글로벌 움직임 파라미터들에 기초하여, 참조 프레임으로부터 글로벌 움직임이 보상된 영상(매크로 블록)을 생성한다. 로컬 움직임 보상부(미도시)는 로컬 움직임 추정부(182)에서의 로컬 움직임 추정 결과에 기초하여, 글로벌 움직임이 보상된 영상으로부터 로컬 움직임을 보상하여 최종 보상 영상, 즉 글로벌 움직임과 로컬 움직임이 모두 보상된 영상(매크로 블록)을 출력한다.The
글로벌 움직임 추정부(181) 및 보상부는 3차원 카메라(105)에 의한 글로벌 움직임이 있는 경우에만 작동할 수 있다. 보안 영상 시스템과 같이 3차원 카메라 사용되는 영상 시스템의 경우, 카메라 제어부(195)의 제어에 따라 3차원 카메라(105)는 줌인/줌아웃(zoom-in/zoom-out)이나 팬(pan), 틸트(tilt)와 같은 3차원 움직임을 수행한다. 이 때, 카메라 제어부(195)는 카메라(105)의 움직임 여부를 판단하여, 카메라 움직임 여부를 나타내는 플래그(CSW2)를 출력할 수 있다. 따라서, 카메라 제어부(195)로부터 출력되는 플래그(CSW2)가 활성화된 경우, 즉 카메라 움직임이 있는 경우에만, 글로벌 움직임 추정부(181) 및 보상부가 작동될 수 있다.The
본 실시예에서는, 플래그(CSW2)에 응답하여 스위치(SW2)가 입력 신호를 글로벌 움직임 추정부(181)와 로컬 움직임 추정부(182)에 선택적으로 제공한다. 따라서, 플래그(CSW2)가 활성화된 경우, 즉 카메라 움직임이 있는 경우에는 입력 신호는 글로벌 움직임 추정부(181)로 입력되어, 글로벌 움직임 추정이 먼저 이루어지고 로컬 움직임이 추정된다. 반면, 플래그(CSW2)가 활성화되지 않은 경우, 즉 카메라 움직임이 없는 경우에는 입력 신호는 로컬 움직임 추정부(182)로 입력되어, 로컬 움직임 추정만 이루어진다.In this embodiment, the switch SW2 selectively provides the input signal to the global
스위치(SW1)는 움직임 보상부(170)의 출력, 즉 움직임 보상된 매크로 블록이 제1 가산기(130)로 제공되도록 스위칭된다.The switch SW1 is switched so that the output of the
제1가산기(130)는 입력 매크로 블록으로부터 움직임이 보상된 매크로 블록을 감산하여 그 차를 구하고, 변환/양자화부(110)는 제1가산기(130)의 출력을 DCT 및 양자화하며, 부호화부(190)는 양자화된 DCT 계수와 움직임 추정부(180)에서 추정된 움직임 벡터를 함께 엔트로피 부호화하여 압축된 비트 스트림을 출력한다. The
제1 카메라 움직임 파라미터 셋(줌 팩터, 팬 앵글, 틸트 앵글(tilt angle), 스윙 앵글 및 초점 길이)은 카메라 제어부(195)로부터 출력될 수도 있다. 즉, 카메라 제어부(195)가 제1 카메라 움직임 파라미터 셋을 글로벌 움직임 추정부(181) 혹은 글로벌 움직임 보상부(미도시)로 제공할 수 있다. 이 경우에는, 글로벌 움직임 추정부(181)에 의해 글로벌 움직임 파라미터를 추정하는 과정은 생략되거나 간략화될 수 있다.The first camera motion parameter set (zoom factor, pan angle, tilt angle, swing angle, and focal length) may be output from the
도 2는 본 발명의 일 실시예에 따른 동영상 복호화기(200)에 대한 블록도를 도시한 것이다. 본 발명의 일 실시예에 따른 동영상 복호화기(200)는 버퍼(210), 디코더(복호화부, 215), 역양자화부(220), 버퍼(225), 역변환부(230), 가산기(235), 디블로킹(de-blcoking)부(240), 저장부(245), 인트라 프레임 예측부(250), 글로벌 움직임 보상부(255) 및 로컬 움직임 보상부(260)를 포함한다. 이러한 구성은 기존의 H.264 동영상 복호화기의 구성에 비하여 글로벌 움직임 보상 부(255)가 추가된 구조를 가진다. 2 is a block diagram of a video decoder 200 according to an embodiment of the present invention. The video decoder 200 according to an exemplary embodiment of the present invention includes a
먼저, 인트라 복호화(intra decoding)가 이루어지는 동작을 설명하면 다음과 같다. First, an operation in which intra decoding is performed is as follows.
버퍼(210, 225)는 입력 신호를 일시적으로 저장하는 역할을 한다.The
동영상 압축 부호화기(100)로부터 수신된 입력 신호, 즉 엔트로피 부호화된 신호(비트 스트림)는 버퍼(210)를 통해 디코더(215)로 입력된다. 디코더(215)는 엔트로피 부호화된 비트스트림을 복호화하여, 양자화된 DCT 계수들을 출력한다.An input signal received from the
역양자화부(220)는 디코더(215)의 출력 신호, 즉 양자화된 DCT 계수를 역 양자화하여 버퍼(225)로 출력한다. 버퍼(225)의 출력 신호는 역변환부(230)로 입력되고, 역변환부(230)는 역 DCT를 수행한다. 역양자화부(220) 및 역변환부(230)는 동영상 부호화기(100)의 역양자화/역변환부(120)의 기능과 실질적으로 동일하다.The
가산기(235)는 역 DCT 결과 데이터를 인트라 프레임 예측부(250)에서 출력되는 예측 매크로 블록과 가산한다. 이를 위하여, 스위치(SW3)는 인트라 프레임 예측부(250)의 출력이 가산기(235)로 입력되도록 스위칭된다.The
가산기(235)의 출력 데이터는 디블로킹부(240)에 의해 디블로킹 필터링이 수행된다. 최종 필터링되어 복원된 매크로 블록은 저장부(245)에 저장되며, 또한 다음 매크로 블록의 예측에 사용된다. 디블로킹부(240), 인트라 프레임 예측부(250)는 각각 동영상 부호화기(100)의 디블로킹부(140), 인트라 프레임 예측부(160)의 기능과 실질적으로 동일하다.The output data of the
다음으로, 인터 복호화(inter decoding)가 이루어지는 동작을 설명하면 다 음과 같다. Next, an operation in which inter decoding is performed is as follows.
인터 복호화(inter decoding) 동작시, 입력 신호가 버퍼(210), 디코더(215), 역양자화부(220), 버퍼(225) 및 역변환부(230)를 거치는 과정은 상술한 인트라 복호화 동작시와 동일하므로, 이에 대한 상세한 설명은 생략된다.In the inter decoding operation, an input signal passes through the
가산기(235)는 역 DCT 결과 데이터를 로컬 움직임 보상부(260)에서 출력되는 움직임이 보상된 매크로 블록과 가산한다. 이를 위하여, 스위치(SW3)는 로컬 움직임 보상부(260)의 출력이 가산기(235)로 입력되도록 스위칭된다. The
글로벌 움직임 보상부(255)는 동영상 부호화부(100)로부터 전송된 카메라 움직임 파라미터들을 이용하여, 참조 프레임으로부터 글로벌 움직임이 보상된 영상을 재구성한다. 좀 더 구체적으로는, 글로벌 움직임 보상부(255)는 카메라 움직임이 있을 경우, 카메라 움직임 파라미터들을 이용해서, 후술되는 수학식 1과 같이 이전 프레임내 화소좌표(X,Y)에 해당하는 화소값들을 현재 프레임내 예측된 화소좌표(X', Y')으로 가져온다. 이때 (X', Y')은 실수 좌표가 될 수 있으므로, 인터폴레이션(예를 들어, bilinear interpolation)을 이용해서 정수 좌표의 화소값을 예측한다. The
로컬 움직임 보상부(260)는 글로벌 움직임이 있는 경우에는, 글로벌 움직임 보상부(255)로부터 글로벌 움직임이 보상된 영상을 수신하여, 로컬 움직임이 보상된 영상을 재구성한다. 이를 위하여 스위치(SW4)는 저장부(245)의 출력이 글로벌 움직임 보상부(255)로 입력되도록 스위칭된다. 따라서, 로컬 움직임 보상부(260)의 출력은 글로벌 움직임과 로컬 움직임이 보상되어 재구성된 영상이다.If there is a global motion, the
글로벌 움직임이 없는 경우에는, 저장부(245)의 출력은 글로벌 움직임 보상부(255)를 거치지 않고 로컬 움직임 보상부(260)로 입력된다. 이를 위하여 스위치(SW4)는 저장부(245)의 출력이 로컬 움직임 보상부(260)로 입력되도록 스위칭된다. When there is no global motion, the output of the
가산기(235)의 출력 데이터는 디블로킹부(240)에 의해 디블로킹 필터링이 수행된 후 저장부(245)에 저장된다.The output data of the
상술한 바와 같이, 본 발명의 일 실시예에 따른 동영상 부호화기/복호화기에서는 카메라 움직임에 의해 변화된 전체적인 화면의 변화를 보상해준 화면에서 국부적인 움직임들을 추가로 더 보상해 주므로, 좋은 화질의 영상을 얻을 수 있게 된다.As described above, the video encoder / decoder according to an embodiment of the present invention further compensates local movements on the screen that compensates for the change of the overall screen changed by the camera movement, thereby obtaining a good image quality. It becomes possible.
도 3은 본 발명의 일 실시예에 따른 글로벌 움직임 추정 및 보상 방법을 나타내는 흐름도이다. 본 발명의 일 실시예에 따른 글로벌 움직임 추정 및 보상 방법은 동영상 부호화기의 글로벌 움직임 추정부(181) 및 움직임 보상부(170)에 의해 수행될 수 있다.3 is a flowchart illustrating a global motion estimation and compensation method according to an embodiment of the present invention. The global motion estimation and compensation method according to an embodiment of the present invention may be performed by the global
도 1 및 도 3을 참조하여, 본 발명의 일 실시예에 따른 글로벌 움직임 추정 및 보상 방법을 설명하면 다음과 같다.Referring to Figures 1 and 3, the global motion estimation and compensation method according to an embodiment of the present invention will be described.
먼저, 제1 영상 신호를 수신하여 다수(예를 들어, N, N은 2이상의 정수)의 특징점들을 선택한다(S10). 제1 영상 신호는 현재 입력 영상으로서, 현재 프레임 혹은 현재 매크로 블록일 수 있다. 특징점이란 제1 영상 신호에서 특징이 되는 부분 영상으로서, 주로 에지(edge)나 하이 텍스쳐(high texture)를 포함하는 영상의 일 부분이다. 예를 들어, 사람이 등장하는 영상 신호에서는, 사람의 눈, 코, 입 등이 각각 특징점이 될 수 있다.First, a plurality of feature points (eg, N and N are integers of 2 or more) are selected by receiving the first image signal (S10). The first image signal is a current input image and may be a current frame or a current macro block. The feature point is a partial image that is a feature of the first image signal, and is a part of an image including an edge or a high texture. For example, in an image signal in which a person appears, a human eye, a nose, a mouth, and the like may be characteristic points.
다음으로, 제1 영상신호와 제2 영상신호를 비교하여 선택된 특징점들에 대한 매칭 과정이 수행된다(S20). 특징점의 매칭은 블록 매칭 알고리즘과 같은 특징점 매칭 알고리즘이 사용될 수 있다. 제2 영상 신호는 제1 영상 신호의 이전 영상 신호 혹은 참조 영상 신호가 될 수 있다.Next, a matching process for the selected feature points is performed by comparing the first image signal and the second image signal (S20). For feature point matching, a feature point matching algorithm such as a block matching algorithm may be used. The second video signal may be a previous video signal or a reference video signal of the first video signal.
특징점 매칭 과정을 통하여 제2 영상 신호의 특징점들의 화소 좌표값들(X, Y)에 해당하는 제1 영상 신호에서의 화소 좌표값들(X', Y')을 구할 수 있다. The pixel coordinate values X 'and Y' of the first image signal corresponding to the pixel coordinate values X and Y of the feature points of the second image signal may be obtained through the feature point matching process.
카메라 움직임이 있는 경우, 카메라 움직임 파라미터들을 이용하여 이전 프레임내 화소좌표(X,Y)에 해당하는 현재 프레임내의 화소좌표(X', Y')를 얻을 수 있다. When there is camera movement, the pixel coordinates X 'and Y' in the current frame corresponding to the pixel coordinates X and Y in the previous frame may be obtained using camera movement parameters.
도 4는 카메라 움직임이 있는 경우의, 화소좌표의 변경을 나타내는 도면이다. 도 4를 참조하면, 팬 앵글(pan angle, α), 틸트 앵글(tilt angle, β), 스윙 앵글(swing angle, γ)이 주어지고, 초점 길이(focal length, F)가 F1에서 F2로 변경될 때, 화소좌표(X, Y)는 새로운 화소좌표(X', Y')로 변경된다. 이와 같이, 카메라 움직임이 있는 경우의 이전 프레임내의 화소좌표(X,Y)와 현재 프레임내의 화소좌표(X', Y')와의 관계는 다음의 수학식 1과 같다.4 is a diagram illustrating a change in pixel coordinate when there is camera movement. Referring to FIG. 4, a pan angle α, a tilt angle β, a swing angle γ are given, and a focal length F is F 1 to F 2. When changed to, the pixel coordinates X and Y are changed to the new pixel coordinates X 'and Y'. In this way, the relationship between the pixel coordinates (X, Y) in the previous frame and the pixel coordinates (X ', Y') in the current frame when there is camera movement is expressed by
여기서, F1, F2는 각각 줌(zoom) 이전과 이후의 카메라의 초점 길이(focal length)이다. 줌 팩터(s)는 F2/F1이다. 그리고, rij(i, j=1,2,3)는 3D 회전 매트릭스 R 의 요소들이다. 수학식 1의 파라미터들은 5개의 3D 카메라 움직임 파라미터들, 즉 줌 팩터(s), 팬 앵글(pan angle, α), 틸트 앵글(tilt angle, β), 스윙 앵글(swing angle, γ) 및 초점 길이(focal length, F)로 구성된다.Where F 1 and F 2 are the focal lengths of the camera before and after zoom, respectively. The zoom factor s is F 2 / F 1 . And r ij (i, j = 1,2,3) are the elements of the 3D rotation matrix R. Parameters of
그 다음으로, 특징점 매칭을 통해 얻어진 특징점들에 대한 이전 프레임(제2 영상 신호)내 화소좌표(X,Y)와 현재 프레임(제1 영상 신호)내 화소좌표(X', Y') 셋들(sets)을 이용하여, 글로벌 움직임 파라미터 추정 과정이 수행된다(S30). Next, sets of pixel coordinates X and Y in the previous frame (second image signal) and pixel coordinates X 'and Y' in the current frame (first image signal) for the feature points obtained through feature point matching ( sets), a global motion parameter estimation process is performed (S30).
글로벌 움직임 파라미터 추정은 RTLS(recursive total least mean squares) 알고리즘을 이용하여 글로벌 움직임 추정부(181)에 의해 이루어질 수 있다. Global motion parameter estimation may be performed by the global
RTLS 알고리즘을 이용한 글로벌 움직임 파라미터 추정 과정(S30)에 대한 세부적인 과정들이 도 5에 개시된다. Detailed processes for the global motion parameter estimation process S30 using the RTLS algorithm are described in FIG. 5.
이를 참조하면, 먼저, 치환(permutation)을 통하여 a 벡터()로부터 q벡터()를 구한다(S110). 여기서, a 벡터()는 여덟 개의 움직임 파라미터들(제2 카메라 움직임 파라미터 셋)로서, 상술한 5개의 카메라 움직임 파라미터들(제1 카메라 움직임 파라미터 셋)로부터 다음의 수학식 2에 의해 구해질 수 있다. Referring to this, first, a vector (a permutation) From q vector ( To obtain (S110). Where a vector ( ) Is eight motion parameters (second camera motion parameter set), and can be obtained from
q 벡터()는 다음의 수학식 3과 같이 정의될 수 있다.q vector ( ) May be defined as in Equation 3 below.
다음으로, q벡터()와 를 임의의 값(, )으로 초기화한다(S120).Next, q vector ( )Wow Is a random value ( , Initialize to) (S120).
그리고, 변수 k 및 m을 각각 1로 초기화한다(S130).The variables k and m are initialized to 1, respectively (S130).
그런 다음, 입력 벡터( )를 선택한다(S140). 입력 벡터( )는 다음의 수학식 4에 의해 구해질 수 있다.Then, input vector ( Select (S140). Input vector ( ) Can be obtained by the following equation (4).
여기서,here,
다음으로, 매트릭스 반전 정리(matrix inversion lemma)를 이용하여 를 업데이트한다(S150). 업데이트에 적용되는 수식은 다음의 수학식 5와 같다. Next, we use the matrix inversion lemma Update (S150). The equation applied to the update is shown in Equation 5 below.
여기서,here,
따라서, 는 이전 값으로부터 간단하게 업데이트될 수 있다.therefore, Can simply be updated from the previous value.
다음으로 수학식 6을 이용하여 α를 산출한다(S160).Next, α is calculated using Equation 6 (S160).
여기서,here,
이고,ego,
D는 대칭의 9 x 9 넌-네거티브 매트릭스(9 x 9 symmetric non-negative matrix)이다.D is a 9 x 9 symmetric non-negative matrix.
다음으로, 산출된 α와, 를 이용하여 다음의 수학식 7과 같이 q벡터( )를 업데이트한다(S170).Next, with the calculated α, By using the q vector ( ) Is updated (S170).
상기의 단계들(S140 내지 S170)을 k=1부터 N(선택된 특징점의 수)까지, m=1,2 에 대하여 반복적으로 수행한다. 즉, S170 단계 이후, m=2인지 체크하여(S180), m=2가 아니면 m은 1 가산하여(S200), S140 단계로 복귀하고, 또한, k=N인지 체크하여(S190), k=N이 아니면 k를 1 가산하여(S210), S140 단계로 복귀한다.Steps S140 to S170 are repeatedly performed for m = 1,2 from k = 1 to N (number of selected feature points). That is, after step S170, check whether m = 2 (S180), if m = 2, add m by one (S200), return to step S140, and check whether k = N (S190) and k = If not N, k is added (S210), and the process returns to step S140.
마지막으로, 수학식 8에 의해 q벡터()와로부터 a벡터( )를 산출한다. Finally, the q vector ( ) And a vector ( ) Is calculated.
다시 도 3을 참조하면, 글로벌 움직임 파라미터 추정 과정(S30)이 수행된 다음 로컬 움직임이 존재하는지 판단하여(S40), 로컬 움직임이 존재하면 로컬 움직임 을 제거하여 다시 글로벌 움직임 파라미터 추정 과정(S30)을 수행한다. 로컬 움직임이 존재하지 않으면, 다음 단계 3차원 해석 및 글로벌 움직임 보상 단계(S60)가 수행된다. 로컬 움직임을 찾아 로컬 움직임을 제거하는 것을 로컬 움직임으로 인한 글로벌 움직임 파라미터가 적절하지 않게 추정되는 것을 방지하기 위함이다. 즉, 글로벌 움직임 파라미터 추정 단계에서는 가능한한 로컬 움직임은 배제하여 글로벌 움직임 파라미터를 추정하게 된다.Referring back to FIG. 3, after the global motion parameter estimation process S30 is performed, it is determined whether there is a local motion (S40), and if there is a local motion, the local motion is removed and the global motion parameter estimation process S30 is performed again. Perform. If there is no local motion, the next step three-dimensional analysis and global motion compensation step (S60) is performed. Finding local motion and removing local motion is to prevent the global motion parameter due to local motion from being incorrectly estimated. That is, in the global motion parameter estimating step, the local motion is estimated as much as possible to estimate the global motion parameter.
글로벌 움직임 보상 단계(S60)에서는, 글로벌 움직임 파라미터 추정 과정(S30)에서의 추정 결과, 즉 추정된 글로벌 움직임 파라미터들인 a벡터( )를 이용하여 글로벌 움직임이 보상된 영상을 생성한다.In the global motion compensation step S60, the estimation result in the global motion parameter estimating process S30, that is, the a vector (the estimated global motion parameters) ( ) To generate an image compensated for global motion.
상술한 본 발명의 카메라 움직임 파라미터를 이용한 동영상 압축 부호화 방식은 전체적으로 카메라의 3차원 움직임을 보상하므로 기존 방식과 비교하여 같은 화질에서 훨씬 더 고 압축율을 얻을 수 있다. 예를 들면, 카메라가 줌인하는 경우, 기존 방식들은 블록단위로 움직임을 추정하여 서로 다른 움직임 벡터의 정보들을 보내는데 반해, 본 발명에 따른 방식은 줌 파라미터만을 전송하여 화면을 구성할 수 있으므로 매우 효율적이다. Since the video compression encoding method using the camera motion parameter of the present invention as a whole compensates for the three-dimensional motion of the camera, it is possible to obtain a much higher compression rate at the same image quality as compared with the conventional method. For example, when the camera zooms in, the conventional methods estimate the motion on a block-by-block basis and send information of different motion vectors, whereas the method according to the present invention is very efficient because the screen can be configured by transmitting only zoom parameters. .
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷 을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet). It includes being. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
본 발명에 대해 상기 실시예를 참고하여 설명하였으나, 이는 예시적인 것에 불과하며, 본 발명에 속하는 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야할 것이다.Although the present invention has been described with reference to the above embodiments, it is merely illustrative, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. . Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
본 발명에 따르면, 카메라의 3차원 움직임에 따른 화면 전체의 글로벌 움직임을 보상하므로 기존 방식과 비교하여 같은 화질에서 훨씬 더 고 압축율을 얻을 수 있다. 또한 본 발명에 따른 글로벌 움직임 보상을 하게 되면 종래 기술과 비교할 때, 카메라의 3차원 움직임이 존재하는 경우, 훨씬 더 좋은 예측 부호화 성능을 얻을 수 있다. 따라서, 본 발명이 보안 영상 시스템이나, DTV, CCTV 등의 영상 시스템에 적용될 경우 이들 영상 시스템의 성능 및 품질이 향상될 수 있다.According to the present invention, since the global motion of the entire screen due to the three-dimensional motion of the camera is compensated, it is possible to obtain a much higher compression ratio in the same image quality compared to the conventional method. In addition, when performing the global motion compensation according to the present invention, when compared to the prior art, even when the three-dimensional motion of the camera, there is much better predictive coding performance can be obtained. Therefore, when the present invention is applied to a security video system or a video system such as DTV, CCTV, the performance and quality of these video systems can be improved.
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060057237A KR100814715B1 (en) | 2006-06-26 | 2006-06-26 | Moving-picture coding apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060057237A KR100814715B1 (en) | 2006-06-26 | 2006-06-26 | Moving-picture coding apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080000031A KR20080000031A (en) | 2008-01-02 |
KR100814715B1 true KR100814715B1 (en) | 2008-03-18 |
Family
ID=39212397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060057237A KR100814715B1 (en) | 2006-06-26 | 2006-06-26 | Moving-picture coding apparatus and method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100814715B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010041862A (en) * | 1999-01-12 | 2001-05-25 | 요트.게.아. 롤페즈 | Camera motion parameters estimation method |
KR20020042166A (en) * | 2000-11-30 | 2002-06-05 | 구자홍 | Apparatus and method for transcoding video |
KR20060064504A (en) * | 2004-12-08 | 2006-06-13 | 한국전자통신연구원 | System for detecting targets and method thereof |
-
2006
- 2006-06-26 KR KR1020060057237A patent/KR100814715B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010041862A (en) * | 1999-01-12 | 2001-05-25 | 요트.게.아. 롤페즈 | Camera motion parameters estimation method |
KR20020042166A (en) * | 2000-11-30 | 2002-06-05 | 구자홍 | Apparatus and method for transcoding video |
KR20060064504A (en) * | 2004-12-08 | 2006-06-13 | 한국전자통신연구원 | System for detecting targets and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20080000031A (en) | 2008-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101045199B1 (en) | Method and apparatus for adaptive noise filtering of pixel data | |
KR101177031B1 (en) | Method and apparatus for minimizing number of reference pictures used for inter-coding | |
KR100703200B1 (en) | Intra-coding apparatus and method | |
CA2703775C (en) | Method and apparatus for selecting a coding mode | |
KR101482896B1 (en) | Optimized deblocking filters | |
EP1478189A2 (en) | Method and apparatus for encoding/decoding image using image residue prediction | |
EP1509045A2 (en) | Lossless image encoding/decoding method and apparatus using intercolor plane prediction | |
EP1429564A1 (en) | Moving picture encoding/transmission system, moving picture encoding/transmission method, and encoding apparatus, decoding apparatus, encoding method, decoding method, and program usable for the same | |
JP5043874B2 (en) | Intra prediction coding method of image data | |
KR20090095317A (en) | Method and apparatus for encoding and decoding image | |
JP2006025429A (en) | Coding method and circuit device for executing this method | |
US20120087411A1 (en) | Internal bit depth increase in deblocking filters and ordered dither | |
US20120008686A1 (en) | Motion compensation using vector quantized interpolation filters | |
WO2006073579A2 (en) | Methods and apparatus for providing a rate control | |
TWI468018B (en) | Video coding using vector quantized deblocking filters | |
KR100738075B1 (en) | Apparatus and method for encoding and decoding image | |
JP2004241957A (en) | Image processor and encoding device, and methods therefor | |
US20060193526A1 (en) | Video encoder with low complexity noise reduction | |
JP2005295215A (en) | Moving image encoding device | |
KR100814715B1 (en) | Moving-picture coding apparatus and method | |
JPH0984024A (en) | Coder for moving image signal | |
Matsuda et al. | Block-based spatio-temporal prediction for video coding | |
JPH0775095A (en) | Rate control circuit | |
KR100635009B1 (en) | Mothod and apparatus for motion estimation considering total moving of image | |
JP2008099175A (en) | Video coder, and video coding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] | ||
FPAY | Annual fee payment |
Payment date: 20130312 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140226 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150311 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170412 Year of fee payment: 10 |
|
LAPS | Lapse due to unpaid annual fee |