KR100814715B1 - Moving-picture coding apparatus and method - Google Patents

Moving-picture coding apparatus and method Download PDF

Info

Publication number
KR100814715B1
KR100814715B1 KR1020060057237A KR20060057237A KR100814715B1 KR 100814715 B1 KR100814715 B1 KR 100814715B1 KR 1020060057237 A KR1020060057237 A KR 1020060057237A KR 20060057237 A KR20060057237 A KR 20060057237A KR 100814715 B1 KR100814715 B1 KR 100814715B1
Authority
KR
South Korea
Prior art keywords
motion
global motion
vector
camera
video signal
Prior art date
Application number
KR1020060057237A
Other languages
Korean (ko)
Other versions
KR20080000031A (en
Inventor
김응태
Original Assignee
한국산업기술대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국산업기술대학교산학협력단 filed Critical 한국산업기술대학교산학협력단
Priority to KR1020060057237A priority Critical patent/KR100814715B1/en
Publication of KR20080000031A publication Critical patent/KR20080000031A/en
Application granted granted Critical
Publication of KR100814715B1 publication Critical patent/KR100814715B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

동영상 부호화기, 복호화기 및 그 방법이 개시된다. 본 발명의 동영상 부호화 장치는, 카메라의 움직임이 있는 경우, 카메라 움직임 파라미터들을 이용하여 참조 영상 신호로부터 상기 카메라의 움직임에 의한 화면 전체의 글로벌 움직임을 보상하여, 움직임 보상된 영상을 출력하는 움직임 예측/보상부; 현재 영상 신호와 상기 움직임 보상된 영상간의 차를 출력하는 감산기; 상기 차를 주파수 대역으로 변환하고 양자화하는 변환/양자화부; 및 양자화된 결과를 부호화하는 부호화부를 구비한다. 본 발명에 의하면, 기존 방식과 비교하여 같은 화질에서 훨씬 더 고 압축율을 얻을 수 있다.Disclosed are a video encoder, a decoder, and a method thereof. The video encoding apparatus of the present invention, when there is camera movement, compensates for global movement of the entire screen by the movement of the camera from a reference video signal using camera motion parameters, and outputs a motion compensated image. Compensation unit; A subtractor for outputting a difference between a current video signal and the motion compensated video; A conversion / quantization unit for converting and quantizing the difference into a frequency band; And an encoding unit for encoding the quantized result. According to the present invention, a much higher compression ratio can be obtained at the same image quality as compared with the conventional method.

Description

동영상 부호화기, 복호화기 및 그 방법{Moving-picture coding apparatus and method}Video encoder, decoder and method {Moving-picture coding apparatus and method}

도 1은 본 발명의 일 실시예에 따른 동영상 부호화기에 대한 블록도를 도시한 것이다.1 is a block diagram of a video encoder according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 동영상 복호화기에 대한 블록도를 도시한 것이다. 2 is a block diagram of a video decoder according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 글로벌 움직임 추정 및 보상 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a global motion estimation and compensation method according to an embodiment of the present invention.

도 4는 카메라 움직임이 있는 경우의, 화소좌표의 변경을 나타내는 도면이다. 4 is a diagram illustrating a change in pixel coordinate when there is camera movement.

도 5는 본 발명의 일 실시예에 따른 RTLS 알고리즘을 이용한 글로벌 움직임 파라미터 추정 과정의 세부적인 과정들을 나타내는 흐름도이다.5 is a flowchart illustrating detailed processes of the global motion parameter estimation process using the RTLS algorithm according to an embodiment of the present invention.

본 발명은 동영상 압축 부호화 방법 및 장치에 관한 것으로, 특히, 카메라에 의한 화면 전체의 움직임을 보상하여 부호화/복호화하는 방법 및 장치에 관한 것이 다.The present invention relates to a video compression encoding method and apparatus, and more particularly, to a method and apparatus for compensating / decoding a motion of an entire screen by a camera.

최근 디지털 비디오 서비스를 위한 제품 및 통신매체들이 급속하게 발전되고있다. 그 중 MPEG 또는 H.264와 같은 동영상 표준화 규격을 이용한 비디오 응용 기술들이 ATM(Asynchronous transfer Mode)이나 공중파 통신 등을 통해 일반 가정에까지 비디오 서비스를 제공하고 있는 추세이다. 이처럼 다양한 비디오 서비스를 현재의 통신 매체를 통해 제공하기 위해서는 효율적인 동영상 압축 부호화 방식 및 장치가 필요하다. 특히 H.264 압축 부호화 방식은 MPEG-2 방식과 비교하여 압축률을 높임으로써 보다 개선된 화질을 제공하도록 다양한 압축 방식들이 제안되었다. 예를 들어, Wigand 등(T.Wiegand et. al)의 "Overview of the H.264/AVC Video Coding Standard", IEEE trans. on Circuits and Systems for Video Tech., vol. 13, no. 7, pp. 560-576, July 2003 등이 있다. Recently, products and communication media for digital video services have been rapidly developed. Among them, video application technologies using video standardization standards such as MPEG or H.264 are providing video services to homes through ATM (Asynchronous Transfer Mode) or over-the-air communication. In order to provide various video services through current communication media, an efficient video compression encoding method and apparatus are needed. In particular, the H.264 compression coding scheme has been proposed in various compression schemes to provide better image quality by increasing the compression rate compared to the MPEG-2 scheme. See, eg, "Overview of the H.264 / AVC Video Coding Standard" by T. Wiegand et al., IEEE trans. on Circuits and Systems for Video Tech., vol. 13, no. 7, pp. 560-576, July 2003, and the like.

종래 기술에 따른 H.264/AVC 부호화기는 인트라 프레임(intra-frame) 예측 부호화기, 인터 프레임(inter-frame) 예측 부호화기, 변환 부호화, 양자화 및 엔트로피 부호화기 등으로 구성되어져 있다. 이를 통해 고 압축으로 부호화를 수행한다. 특히, 움직임 보상 회로의 경우, 이전 프레임과 현재 프레임 사이의 시간적인 변화만을 추정하여 이를 보상하므로, 많은 량의 정보를 줄일 수 있게 해준다. 그러므로, 프레임간의 움직임 추정기법은 고 성능 동영상 압축 부호화 방식의 매우 중요한 기술이다.The H.264 / AVC encoder according to the prior art is composed of an intra-frame predictive encoder, an inter-frame predictive encoder, a transform encoding, a quantization and an entropy encoder, and the like. Through this, encoding is performed with high compression. In particular, in the case of the motion compensation circuit, only a temporal change between the previous frame and the current frame is estimated and compensated for, thereby reducing a large amount of information. Therefore, inter-frame motion estimation is a very important technique of high-performance video compression coding.

H.264를 포함한 MPEG 압축 부호화 방식들은 움직임 추정을 위해 한 프레임 영상을 블록단위로 나누어서, 각각의 블록마다 움직임 추정 기법을 수행하게 된다. 각 블록 단위의 움직임과 관련하여 상하좌우에 화소간 좌표 변화량을 움직임 벡터라고 하며, 한 개의 움직임 벡터가 블록의 움직임 변화를 좌우하게 된다. MPEG compression coding schemes including H.264 divide a frame image into block units for motion estimation and perform a motion estimation technique for each block. The amount of coordinate change between pixels in up, down, left, and right in relation to the motion of each block unit is called a motion vector, and one motion vector determines the motion change of the block.

만약 카메라가 움직이면, 카메라 움직임으로 인한 프레임간의 변화는 국부적으로 나타나기 보다는 전체적으로 나타난다. 그러므로 화면의 전체적인 움직임을 나타내는 파라미터를 찾아내서, 이 파라미터만을 보낸다면 매우 적은 량으로 화면을 재 구성할 수 있게 된다. If the camera moves, the change between frames due to camera movement is seen globally rather than locally. Therefore, if you find a parameter representing the overall motion of the screen and send only this parameter, the screen can be reconstructed in a very small amount.

DVR(digital video recorder)나 IP 카메라 시스템에서 사용되는 PTZ(pan-tilt-zoom) CCTV 카메라의 경우, 카메라가 줌인/아웃 및 3차원 회전을 하게 된다. 이러한 응용 시스템에 있어서, 카메라의 3차원 움직임에 해당하는 카메라 파라미터를 이용하여 이를 보완해 주면, 매우 적은 량의 데이터로 상당히 많은 움직임 보상을 해 줄 수 있다. In the case of pan-tilt-zoom (PTZ) CCTV cameras used in digital video recorders (DVR) or IP camera systems, the camera zooms in and out and rotates in three dimensions. In such an application system, if the camera parameter corresponding to the three-dimensional motion of the camera is used to compensate for this, a very small amount of data can compensate for a considerable amount of motion.

본 발명이 이루고자하는 기술적 과제는 카메라의 움직임 파라미터를 이용하여 화면 전체의 글로벌 움직임을 보상함으로써, 고효율의 압축 성능을 얻을 수 있는 동영상 부호화/복호화 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide a video encoding / decoding apparatus and method capable of obtaining high-efficiency compression performance by compensating for global motion of an entire screen using motion parameters of a camera.

상기 기술적 과제를 이루기 위한, 본 발명의 일 면에 따른 동영상 부호화 장치는, 플래그에 기초하여 카메라의 움직임이 있는 경우에만, 기 저장된 참조 영상 신호와 현재 영상 신호를 이용하여 화면 전체의 글로벌 움직임을 추정하여 글로벌 움직임 파라미터들을 산출하는 글로벌 움직임 추정부; 상기 글로벌 움직임 파라미터들을 이용하여 상기 글로벌 움직임을 보상하고, 상기 글로벌 움직임이 보상된 영상을 출력하는 글로벌 움직임 보상부; 상기 현재 영상 신호의 로컬 움직임을 추정하는 로컬 움직임 추정부; 상기 로컬 움직임 추정부의 추정 결과에 기초하여 상기 글로벌 움직임이 보상된 영상에 대하여 상기 로컬 움직임을 보상하여 움직임 보상된 영상을 출력하는 로컬 움직임 보상부; 상기 카메라를 제어하는 카메라 제어부로부터 출력되는 상기 카메라의 움직임 여부를 나타내는 플래그를 수신하고, 상기 플래그에 응답하여 상기 카메라로부터 출력되는 상기 현재 영상 신호를 상기 글로벌 움직임 추정부 또는 상기 로컬 움직임 추정부로 선택적으로 제공하는 스위치; 상기 현재 영상 신호와 상기 움직임 보상된 영상간의 차를 출력하는 감산기; 상기 차를 주파수 대역으로 변환하고 양자화하는 변환/양자화부; 및 양자화된 결과를 부호화하는 부호화부를 구비한다. 상기 글로벌 움직임 추정부는 상기 현재 영상 신호를 수신하여 다수의 특징점들을 선택하고, 상기 현재 영상 신호와 상기 참조 영상 신호를 비교하여 상기 다수의 특징점들에 대한 매칭을 통해 상기 다수의 특징점들 각각에 대하여 상기 참조 영상 신호 내에서의 제1 화소좌표값들에 대응하는 상기 현재 영상 신호 내에서의 제2 화소좌표값들을 추출하고, 상기 제1 및 제2 화소좌표값을 이용하여 상기 글로벌 움직임 파라미터들을 추정할 수 있다.In order to achieve the above technical problem, the video encoding apparatus according to an aspect of the present invention estimates global motion of the entire screen using a previously stored reference video signal and a current video signal only when there is a camera movement based on a flag. A global motion estimator for calculating global motion parameters; A global motion compensator configured to compensate for the global motion by using the global motion parameters and to output an image compensated for the global motion; A local motion estimator for estimating local motion of the current video signal; A local motion compensator for outputting a motion compensated image by compensating the local motion with respect to the image compensated for the global motion based on an estimation result of the local motion estimator; Receives a flag indicating whether the camera is output from the camera control unit for controlling the camera, and selectively transmits the current video signal output from the camera in response to the flag to the global motion estimation unit or the local motion estimation unit Providing switch; A subtractor for outputting a difference between the current video signal and the motion compensated video; A conversion / quantization unit for converting and quantizing the difference into a frequency band; And an encoding unit for encoding the quantized result. The global motion estimator receives the current video signal, selects a plurality of feature points, compares the current video signal with the reference video signal, and matches the plurality of feature points with respect to each of the plurality of feature points. Extract second pixel coordinate values in the current image signal corresponding to first pixel coordinate values in a reference image signal, and estimate the global motion parameters using the first and second pixel coordinate values. Can be.

상기 기술적 과제를 이루기 위한, 본 발명의 일 면에 따른 동영상 복호화 장치는, 영상 부호화 장치로부터 수신된 글로벌 움직임 파라미터를 이용하여 참조 영상 신호로부터 카메라의 움직임에 의한 화면 전체의 글로벌 움직임을 보상하여, 움직임 보상된 영상을 출력하는 움직임 예측/보상부; 부호화된 영상 신호를 복호화하는 복호화부; 상기 복호화부의 출력 신호를 역양자화하고, 역양자화된 결과를 시간대역으로 역 변환하는 역양자화/역변환부; 및 상기 역양자화/역변환부의 출력 신호를 상기 움직임 보상된 영상 신호와 합산하는 가산기를 구비한다. In order to achieve the above technical problem, a video decoding apparatus according to an aspect of the present invention uses a global motion parameter received from an image encoding device to compensate for a global motion of an entire screen by a camera motion from a reference video signal, A motion predictor / compensator for outputting a compensated image; A decoder which decodes an encoded video signal; An inverse quantization / inverse transform unit for inversely quantizing an output signal of the decoder and inversely converting the inverse quantized result into a time band; And an adder for adding the output signal of the inverse quantization / inverse transform unit with the motion compensated image signal.

상기 기술적 과제를 이루기 위한, 본 발명의 일 면에 따른 동영상 부호화/복호화 방법은, 카메라를 제어하는 카메라 제어부로부터 출력되는 상기 카메라의 움직임 여부를 나타내는 플래그를 수신하고, 상기 플래그에 응답하여 상기 카메라로부터 출력되는 현재 영상 신호를 글로벌 움직임 추정부 또는 로컬 움직임 추정부로 선택적으로 제공하는 단계; 상기 플래그에 기초하여 상기 카메라의 움직임이 있는 경우에만, 기 저장된 참조 영상 신호와 상기 현재 영상 신호를 이용하여 화면 전체의 글로벌 움직임을 추정하여 글로벌 움직임 파라미터들을 산출하는 글로벌 움직임 추정 단계; 상기 글로벌 움직임 파라미터들을 이용하여 상기 글로벌 움직임을 보상하고, 상기 글로벌 움직임이 보상된 영상을 출력하는 글로벌 움직임 보상 단계; 상기 현재 영상 신호의 로컬 움직임을 추정하는 로컬 움직임 추정 단계; 상기 로컬 움직임 추정부의 추정 결과에 기초하여 상기 글로벌 움직임이 보상된 영상에 대하여 상기 로컬 움직임을 보상하여 움직임 보상된 영상을 출력하는 로컬 움직임 보상 단계;상기 현재 영상 신호와 상기 움직임 보상된 영상간의 차를 출력하는 단계; 상기 차를 주파수 대역으로 변환하고 양자화하는 단계; 및 양자화된 결과를 부호화하여 출력하는 단계를 구비한다.According to an aspect of the present invention, there is provided a video encoding / decoding method, which receives a flag indicating whether the camera is output from a camera controller for controlling a camera, and receives a flag from the camera in response to the flag. Selectively providing an output current video signal to a global motion estimator or a local motion estimator; A global motion estimation step of calculating global motion parameters by estimating global motion of the entire screen using a pre-stored reference video signal and the current video signal only when there is motion of the camera based on the flag; A global motion compensation step of compensating for the global motion by using the global motion parameters and outputting an image in which the global motion is compensated; A local motion estimation step of estimating local motion of the current video signal; A local motion compensation step of outputting a motion compensated image by compensating the local motion with respect to the image compensated for the global motion based on an estimation result of the local motion estimator; Outputting; Converting and quantizing the difference into a frequency band; And encoding and outputting the quantized result.

이하에서 첨부된 도면을 참조하여 본 발명을 보다 상세하게 설명하기로 한다. Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 동영상 부호화기에 대한 블록도를 도시한 것이다.1 is a block diagram of a video encoder according to an embodiment of the present invention.

도시된 바에 따른 부호화기(100)는 변환/양자화부(110), 역양자화/역변환부(120), 제1 및 제2가산기(130, 135), 디블로킹(de-blcoking)부(140), 저장부(150), 인트라 프레임 예측부(160), 움직임 보상부(170), 움직임 추정부(180), 부호화부(190) 및 카메라 제어부(195)를 포함한다.The encoder 100 as shown is a transform / quantizer 110, inverse quantization / inverse transform unit 120, the first and second adders (130, 135), de-blcoking unit 140, The storage unit 150 includes an intra frame predictor 160, a motion compensator 170, a motion estimator 180, an encoder 190, and a camera controller 195.

도시된 동영상 부호화기(100)는 소정의 픽셀 크기(예를 들어 16x16 픽셀 크기)의 매크로 블록 단위로 입력되는 영상을 처리하며, 여러 개의 매크로 블록은 슬라이스 단위로 묶이게 된다. 영상 크기에 따라서 한 프레임은 여러 개의 슬라이스를 포함할 수 있다.The illustrated video encoder 100 processes an input image in units of macro blocks having a predetermined pixel size (for example, 16 × 16 pixels), and several macro blocks are bundled in slice units. According to the image size, one frame may include several slices.

먼저, 인트라 부호화(intra coding)가 이루어지는 동작을 설명하면 다음과 같다. First, an operation in which intra coding is performed will be described.

제1가산기(130)는 입력 매크로 블록과 인트라 프레임 예측부(160)로부터 출력되는 예측 매크로 블록의 차를 출력한다. 이를 위하여 스위치(SW1)는 인트라 프레임 예측부(160)의 출력이 제1 가산기(130)로 제공되도록 스위칭된다. 인트라 프레임 예측부(160)는 저장부(150)에 저장되어 있는 이전 프레임에 대해 부호화되고 재구성된 매크로 블록을 이용하여 예측 매크로 블록을 생성하고, 생성된 예측 매크로 블록을 출력한다. 인트라 프레임 예측부(160)의 동작에 대한 상세한 설명은 후술하기로 한다.The first adder 130 outputs a difference between the input macro block and the prediction macro block output from the intra frame predictor 160. To this end, the switch SW1 is switched so that the output of the intra frame predictor 160 is provided to the first adder 130. The intra frame predictor 160 generates a prediction macro block by using a macroblock encoded and reconstructed with respect to a previous frame stored in the storage 150, and outputs the generated prediction macroblock. A detailed description of the operation of the intra frame predictor 160 will be described later.

변환/양자화부(110)는 제1가산기(130)에서 출력되는 현재 매크로 블록과 예측 매크로 블록간의 차를 DCT를 통해 주파수 대역 신호로 변환하고, 변환된 DCT 계수들을 양자화한다. 변환/양자화부(110)로부터 출력되는 양자화된 DCT 계수들은 역 양자화/역변환부(120) 및 부호화부(190)로 입력된다.The transform / quantization unit 110 converts the difference between the current macroblock and the prediction macroblock output from the first adder 130 into a frequency band signal through the DCT, and quantizes the transformed DCT coefficients. The quantized DCT coefficients output from the transform / quantization unit 110 are input to the inverse quantization / inverse transform unit 120 and the encoder 190.

부호화부(190)는 양자화된 DCT 계수들을, 예를 들어 가변길이 부호화 또는 콘텍스트 적응 가변길이부호화(context-adaptive VLC) 방식에 따라 엔트로피 부호화하여 출력한다.The encoder 190 outputs the quantized DCT coefficients by entropy coding according to, for example, variable length coding or context-adaptive VLC.

역양자화/역변환부(120)는 양자화된 DCT 계수를 역 양자화하고 역 DCT한다. 제2가산기(135)는 역 DCT 결과, 즉 역양자화/역변환부(120)의 출력 데이터를 인트라 프레임 예측부(160)에서 출력되는 예측 매크로 블록과 가산한다. 이 때, 영상은 매크로 블록 단위로 부호화됨에 따라 매크로 블록간 양자화 차이에 의한 블로킹(blocking)을 포함하므로, 블로킹 효과를 제거하기 위하여 디블로킹부(140)에 의해 디블로킹 필터링이 수행된다. 최종 필터링되어 복원된 매크로 블록은 프레임 저장부(150)에 저장되어, 다음 매크로 블록의 예측에 사용된다.The inverse quantization / inverse transform unit 120 inverse quantizes and inverses DCT the quantized DCT coefficients. The second adder 135 adds the inverse DCT result, that is, the output data of the inverse quantization / inverse transformer 120 with the prediction macro block output from the intra frame predictor 160. In this case, since the image is blocked in units of macroblocks and includes blocking due to quantization differences between macroblocks, deblocking filtering is performed by the deblocking unit 140 to remove the blocking effect. The final filtered and reconstructed macroblock is stored in the frame storage unit 150 and used for prediction of the next macroblock.

다음으로, 인터 부호화(inter coding)가 이루어지는 동작을 설명하면 다음과 같다. Next, an operation in which inter coding is performed is as follows.

움직임 추정부(180)는 현재 매크로 블록과 이전에 프레임 저장부(150)에 저장된 참조 프레임들 가운데 가장 유사한 매크로 블록을 추정한다. 이 때, 참조 프레임은 움직임 추정을 위해 이전에 부호화되어 저장된 픽처들을 일컫는다. 여기서, 참조 프레임은 MPEG-2의 경우 I-픽쳐(Intra-picture), P-픽쳐(Predictive-picture)가 될 수 있고, H.264의 경우 I-픽쳐, P-픽쳐 뿐 만 아니라 B-픽쳐(Bi-directional predictive-picture)가 될 수 있다. The motion estimation unit 180 estimates the most similar macroblock among the current macroblock and reference frames previously stored in the frame storage unit 150. In this case, the reference frame refers to pictures previously encoded and stored for motion estimation. Here, the reference frame may be an I-picture or a P-picture in the case of MPEG-2, and a B-picture as well as an I-picture and a P-picture in H.264. (Bi-directional predictive-picture)

움직임 추정부(180)는 글로벌 움직임 추정부(181) 및 로컬 움직임 추정 부(182)를 포함한다. 글로벌 움직임 추정부(181)는 저장부(150)에 저장된 참조 프레임과 현재 프레임으로부터 3차원 카메라(105)의 움직임에 의한 화면 전체의 글로벌 움직임을 추정하여, 글로벌 움직임 파라미터들(카메라 움직임 파라미터들)을 출력한다. 글로벌 움직임 파라미터들은, 줌 팩터(s), 팬 앵글(pan angle), 틸트 앵글(tilt angle), 스윙 앵글(swing angle) 및 초점 길이(focal length)로 구성되는 카메라 움직임 파라미터들(이하, 제1 카메라 움직임 파라미터 셋이라고도 함)일 수 있다. 또는, 글로벌 움직임 파라미터들은, 줌 팩터(s), 팬 앵글(pan angle), 틸트 앵글(tilt angle), 스윙 앵글(swing angle) 및 초점 길이(focal length)의 5개의 카메라 움직임 파라미터들에 기초하여 얻을 수 있는 파라미터들(이하, 제2 카메라 움직임 파라미터 셋이라고도 함)일 수 있다. 이러한 글로벌 움직임 파라미터들은 부호화부(190)를 통해 동영상 복호화기(도 2의 200)로 전송된다. The motion estimator 180 includes a global motion estimator 181 and a local motion estimator 182. The global motion estimator 181 estimates global motion of the entire screen due to the movement of the 3D camera 105 from the reference frame stored in the storage 150 and the current frame, and thus the global motion parameters (camera motion parameters). Outputs The global motion parameters are camera motion parameters (hereinafter referred to as first) consisting of a zoom factor (s), a pan angle, a tilt angle, a swing angle and a focal length. Camera motion parameter set). Or, the global motion parameters are based on five camera motion parameters based on a zoom factor s, a pan angle, a tilt angle, a swing angle and a focal length. The parameters may be obtained (hereinafter also referred to as a second camera motion parameter set). These global motion parameters are transmitted to the video decoder (200 of FIG. 2) through the encoder 190.

로컬 움직임 추정부(182)는 화면 일부에서 국부적으로 발생한 로컬 움직임(예를 들어, 사람이나 물체의 이동에 의한 움직임 등)을 추정한다. 구체적으로는, 로컬 움직임 추정부(182)는 참조 프레임에 대한 입력 매크로 블록의 움직임 추정을 수행하여 움직임 벡터(motion vector) 및 참조 프레임을 나타내는 인덱스 등을 포함한 움직임 데이터를 출력한다. The local motion estimator 182 estimates a local motion (eg, a motion caused by the movement of a person or an object) generated locally on a portion of the screen. Specifically, the local motion estimation unit 182 performs motion estimation of an input macro block with respect to a reference frame and outputs motion data including a motion vector and an index indicating a reference frame.

움직임 보상부(170)는 움직임 추정부(180)의 추정 결과를 이용하여, 움직임 추정에 이용된 참조 프레임으로부터 움직임이 예측된 매크로 블록을 생성하여 출력한다. 이렇게 생성된 매크로 블록을 움직임 보상된 매크로 블록이라 한다. 움직임 보상부(170) 역시 세부적으로, 글로벌 움직임 보상부(미도시) 및 로컬 움직임 보상 부(미도시)를 구비할 수 있다. 글로벌 움직임 보상부(미도시)는 글로벌 움직임 추정부(181)에서의 글로벌 움직임 추정 결과, 즉, 글로벌 움직임 파라미터들에 기초하여, 참조 프레임으로부터 글로벌 움직임이 보상된 영상(매크로 블록)을 생성한다. 로컬 움직임 보상부(미도시)는 로컬 움직임 추정부(182)에서의 로컬 움직임 추정 결과에 기초하여, 글로벌 움직임이 보상된 영상으로부터 로컬 움직임을 보상하여 최종 보상 영상, 즉 글로벌 움직임과 로컬 움직임이 모두 보상된 영상(매크로 블록)을 출력한다.The motion compensator 170 generates and outputs a macro block whose motion is predicted from the reference frame used for the motion estimation using the estimation result of the motion estimator 180. The macro block thus generated is called a motion compensated macro block. In detail, the motion compensator 170 may include a global motion compensator (not shown) and a local motion compensator (not shown). The global motion compensator (not shown) generates an image (macro block) compensated for the global motion from the reference frame based on the global motion estimation result of the global motion estimator 181, that is, the global motion parameters. The local motion compensator (not shown) compensates the local motion from the image in which the global motion is compensated based on the local motion estimation result in the local motion estimator 182, so that the final compensation image, that is, both the global motion and the local motion, is The compensated image (macro block) is output.

글로벌 움직임 추정부(181) 및 보상부는 3차원 카메라(105)에 의한 글로벌 움직임이 있는 경우에만 작동할 수 있다. 보안 영상 시스템과 같이 3차원 카메라 사용되는 영상 시스템의 경우, 카메라 제어부(195)의 제어에 따라 3차원 카메라(105)는 줌인/줌아웃(zoom-in/zoom-out)이나 팬(pan), 틸트(tilt)와 같은 3차원 움직임을 수행한다. 이 때, 카메라 제어부(195)는 카메라(105)의 움직임 여부를 판단하여, 카메라 움직임 여부를 나타내는 플래그(CSW2)를 출력할 수 있다. 따라서, 카메라 제어부(195)로부터 출력되는 플래그(CSW2)가 활성화된 경우, 즉 카메라 움직임이 있는 경우에만, 글로벌 움직임 추정부(181) 및 보상부가 작동될 수 있다.The global motion estimator 181 and the compensator may operate only when there is global motion by the 3D camera 105. In the case of a video system using a 3D camera such as a security video system, the 3D camera 105 may be zoom-in / zoom-out, pan, or tilt under the control of the camera controller 195. Perform three-dimensional movements, such as tilt. In this case, the camera controller 195 may determine whether the camera 105 moves, and output a flag CSW2 indicating whether the camera moves. Therefore, when the flag CSW2 output from the camera controller 195 is activated, that is, when there is camera movement, the global motion estimator 181 and the compensator may be operated.

본 실시예에서는, 플래그(CSW2)에 응답하여 스위치(SW2)가 입력 신호를 글로벌 움직임 추정부(181)와 로컬 움직임 추정부(182)에 선택적으로 제공한다. 따라서, 플래그(CSW2)가 활성화된 경우, 즉 카메라 움직임이 있는 경우에는 입력 신호는 글로벌 움직임 추정부(181)로 입력되어, 글로벌 움직임 추정이 먼저 이루어지고 로컬 움직임이 추정된다. 반면, 플래그(CSW2)가 활성화되지 않은 경우, 즉 카메라 움직임이 없는 경우에는 입력 신호는 로컬 움직임 추정부(182)로 입력되어, 로컬 움직임 추정만 이루어진다.In this embodiment, the switch SW2 selectively provides the input signal to the global motion estimation unit 181 and the local motion estimation unit 182 in response to the flag CSW2. Accordingly, when the flag CSW2 is activated, that is, when there is camera movement, the input signal is input to the global motion estimation unit 181, so that global motion estimation is performed first and local motion is estimated. On the other hand, when the flag CSW2 is not activated, that is, when there is no camera motion, the input signal is input to the local motion estimator 182 to perform only local motion estimation.

스위치(SW1)는 움직임 보상부(170)의 출력, 즉 움직임 보상된 매크로 블록이 제1 가산기(130)로 제공되도록 스위칭된다.The switch SW1 is switched so that the output of the motion compensator 170, that is, the motion compensated macro block is provided to the first adder 130.

제1가산기(130)는 입력 매크로 블록으로부터 움직임이 보상된 매크로 블록을 감산하여 그 차를 구하고, 변환/양자화부(110)는 제1가산기(130)의 출력을 DCT 및 양자화하며, 부호화부(190)는 양자화된 DCT 계수와 움직임 추정부(180)에서 추정된 움직임 벡터를 함께 엔트로피 부호화하여 압축된 비트 스트림을 출력한다. The first adder 130 subtracts the motion-compensated macroblock from the input macroblock to obtain the difference, and the transform / quantization unit 110 performs DCT and quantization on the output of the first adder 130, 190 entropy-codes the quantized DCT coefficient and the motion vector estimated by the motion estimation unit 180 to output a compressed bit stream.

제1 카메라 움직임 파라미터 셋(줌 팩터, 팬 앵글, 틸트 앵글(tilt angle), 스윙 앵글 및 초점 길이)은 카메라 제어부(195)로부터 출력될 수도 있다. 즉, 카메라 제어부(195)가 제1 카메라 움직임 파라미터 셋을 글로벌 움직임 추정부(181) 혹은 글로벌 움직임 보상부(미도시)로 제공할 수 있다. 이 경우에는, 글로벌 움직임 추정부(181)에 의해 글로벌 움직임 파라미터를 추정하는 과정은 생략되거나 간략화될 수 있다.The first camera motion parameter set (zoom factor, pan angle, tilt angle, swing angle, and focal length) may be output from the camera controller 195. That is, the camera controller 195 may provide the first camera motion parameter set to the global motion estimator 181 or the global motion compensator (not shown). In this case, the process of estimating the global motion parameter by the global motion estimation unit 181 may be omitted or simplified.

도 2는 본 발명의 일 실시예에 따른 동영상 복호화기(200)에 대한 블록도를 도시한 것이다. 본 발명의 일 실시예에 따른 동영상 복호화기(200)는 버퍼(210), 디코더(복호화부, 215), 역양자화부(220), 버퍼(225), 역변환부(230), 가산기(235), 디블로킹(de-blcoking)부(240), 저장부(245), 인트라 프레임 예측부(250), 글로벌 움직임 보상부(255) 및 로컬 움직임 보상부(260)를 포함한다. 이러한 구성은 기존의 H.264 동영상 복호화기의 구성에 비하여 글로벌 움직임 보상 부(255)가 추가된 구조를 가진다. 2 is a block diagram of a video decoder 200 according to an embodiment of the present invention. The video decoder 200 according to an exemplary embodiment of the present invention includes a buffer 210, a decoder (decoder 215), an inverse quantizer 220, a buffer 225, an inverse transform unit 230, and an adder 235. , A de-blcoking unit 240, a storage unit 245, an intra frame predictor 250, a global motion compensator 255, and a local motion compensator 260. This configuration has a structure in which the global motion compensation unit 255 is added as compared to the conventional H.264 video decoder.

먼저, 인트라 복호화(intra decoding)가 이루어지는 동작을 설명하면 다음과 같다. First, an operation in which intra decoding is performed is as follows.

버퍼(210, 225)는 입력 신호를 일시적으로 저장하는 역할을 한다.The buffers 210 and 225 temporarily store input signals.

동영상 압축 부호화기(100)로부터 수신된 입력 신호, 즉 엔트로피 부호화된 신호(비트 스트림)는 버퍼(210)를 통해 디코더(215)로 입력된다. 디코더(215)는 엔트로피 부호화된 비트스트림을 복호화하여, 양자화된 DCT 계수들을 출력한다.An input signal received from the video compression encoder 100, that is, an entropy coded signal (bit stream), is input to the decoder 215 through the buffer 210. The decoder 215 decodes the entropy coded bitstream and outputs quantized DCT coefficients.

역양자화부(220)는 디코더(215)의 출력 신호, 즉 양자화된 DCT 계수를 역 양자화하여 버퍼(225)로 출력한다. 버퍼(225)의 출력 신호는 역변환부(230)로 입력되고, 역변환부(230)는 역 DCT를 수행한다. 역양자화부(220) 및 역변환부(230)는 동영상 부호화기(100)의 역양자화/역변환부(120)의 기능과 실질적으로 동일하다.The inverse quantizer 220 inversely quantizes an output signal of the decoder 215, that is, a quantized DCT coefficient, and outputs the inverse quantized coefficient to the buffer 225. The output signal of the buffer 225 is input to the inverse transformer 230, and the inverse transformer 230 performs inverse DCT. The inverse quantizer 220 and the inverse transformer 230 are substantially the same as the functions of the inverse quantizer / inverse transformer 120 of the video encoder 100.

가산기(235)는 역 DCT 결과 데이터를 인트라 프레임 예측부(250)에서 출력되는 예측 매크로 블록과 가산한다. 이를 위하여, 스위치(SW3)는 인트라 프레임 예측부(250)의 출력이 가산기(235)로 입력되도록 스위칭된다.The adder 235 adds the inverse DCT result data to the prediction macro block output from the intra frame predictor 250. To this end, the switch SW3 is switched so that the output of the intra frame predictor 250 is input to the adder 235.

가산기(235)의 출력 데이터는 디블로킹부(240)에 의해 디블로킹 필터링이 수행된다. 최종 필터링되어 복원된 매크로 블록은 저장부(245)에 저장되며, 또한 다음 매크로 블록의 예측에 사용된다. 디블로킹부(240), 인트라 프레임 예측부(250)는 각각 동영상 부호화기(100)의 디블로킹부(140), 인트라 프레임 예측부(160)의 기능과 실질적으로 동일하다.The output data of the adder 235 is deblocked filtered by the deblocking unit 240. The final filtered and reconstructed macroblock is stored in the storage unit 245 and is also used for prediction of the next macroblock. The deblocking unit 240 and the intra frame predicting unit 250 are substantially the same as the functions of the deblocking unit 140 and the intra frame predicting unit 160 of the video encoder 100, respectively.

다음으로, 인터 복호화(inter decoding)가 이루어지는 동작을 설명하면 다 음과 같다.  Next, an operation in which inter decoding is performed is as follows.

인터 복호화(inter decoding) 동작시, 입력 신호가 버퍼(210), 디코더(215), 역양자화부(220), 버퍼(225) 및 역변환부(230)를 거치는 과정은 상술한 인트라 복호화 동작시와 동일하므로, 이에 대한 상세한 설명은 생략된다.In the inter decoding operation, an input signal passes through the buffer 210, the decoder 215, the inverse quantization unit 220, the buffer 225, and the inverse transformer 230. Since the same, detailed description thereof will be omitted.

가산기(235)는 역 DCT 결과 데이터를 로컬 움직임 보상부(260)에서 출력되는 움직임이 보상된 매크로 블록과 가산한다. 이를 위하여, 스위치(SW3)는 로컬 움직임 보상부(260)의 출력이 가산기(235)로 입력되도록 스위칭된다. The adder 235 adds the inverse DCT result data to the macro block compensated for the motion output from the local motion compensator 260. To this end, the switch SW3 is switched so that the output of the local motion compensator 260 is input to the adder 235.

글로벌 움직임 보상부(255)는 동영상 부호화부(100)로부터 전송된 카메라 움직임 파라미터들을 이용하여, 참조 프레임으로부터 글로벌 움직임이 보상된 영상을 재구성한다. 좀 더 구체적으로는, 글로벌 움직임 보상부(255)는 카메라 움직임이 있을 경우, 카메라 움직임 파라미터들을 이용해서, 후술되는 수학식 1과 같이 이전 프레임내 화소좌표(X,Y)에 해당하는 화소값들을 현재 프레임내 예측된 화소좌표(X', Y')으로 가져온다. 이때 (X', Y')은 실수 좌표가 될 수 있으므로, 인터폴레이션(예를 들어, bilinear interpolation)을 이용해서 정수 좌표의 화소값을 예측한다. The global motion compensator 255 reconstructs the image in which the global motion is compensated from the reference frame by using the camera motion parameters transmitted from the video encoder 100. More specifically, when there is a camera motion, the global motion compensator 255 uses the camera motion parameters to obtain pixel values corresponding to the pixel coordinates X and Y in the previous frame, as shown in Equation 1 below. Bring to the predicted pixel coordinates (X ', Y') in the current frame. At this time, since (X ', Y') may be real coordinates, pixel values of integer coordinates are predicted using interpolation (for example, bilinear interpolation).

로컬 움직임 보상부(260)는 글로벌 움직임이 있는 경우에는, 글로벌 움직임 보상부(255)로부터 글로벌 움직임이 보상된 영상을 수신하여, 로컬 움직임이 보상된 영상을 재구성한다. 이를 위하여 스위치(SW4)는 저장부(245)의 출력이 글로벌 움직임 보상부(255)로 입력되도록 스위칭된다. 따라서, 로컬 움직임 보상부(260)의 출력은 글로벌 움직임과 로컬 움직임이 보상되어 재구성된 영상이다.If there is a global motion, the local motion compensator 260 receives an image compensated for the global motion from the global motion compensator 255, and reconstructs the image for which the local motion is compensated. To this end, the switch SW4 is switched so that the output of the storage unit 245 is input to the global motion compensation unit 255. Therefore, the output of the local motion compensator 260 is an image reconstructed by compensating for the global motion and the local motion.

글로벌 움직임이 없는 경우에는, 저장부(245)의 출력은 글로벌 움직임 보상부(255)를 거치지 않고 로컬 움직임 보상부(260)로 입력된다. 이를 위하여 스위치(SW4)는 저장부(245)의 출력이 로컬 움직임 보상부(260)로 입력되도록 스위칭된다. When there is no global motion, the output of the storage unit 245 is input to the local motion compensator 260 without passing through the global motion compensator 255. To this end, the switch SW4 is switched so that the output of the storage unit 245 is input to the local motion compensation unit 260.

가산기(235)의 출력 데이터는 디블로킹부(240)에 의해 디블로킹 필터링이 수행된 후 저장부(245)에 저장된다.The output data of the adder 235 is stored in the storage unit 245 after deblocking filtering is performed by the deblocking unit 240.

상술한 바와 같이, 본 발명의 일 실시예에 따른 동영상 부호화기/복호화기에서는 카메라 움직임에 의해 변화된 전체적인 화면의 변화를 보상해준 화면에서 국부적인 움직임들을 추가로 더 보상해 주므로, 좋은 화질의 영상을 얻을 수 있게 된다.As described above, the video encoder / decoder according to an embodiment of the present invention further compensates local movements on the screen that compensates for the change of the overall screen changed by the camera movement, thereby obtaining a good image quality. It becomes possible.

도 3은 본 발명의 일 실시예에 따른 글로벌 움직임 추정 및 보상 방법을 나타내는 흐름도이다. 본 발명의 일 실시예에 따른 글로벌 움직임 추정 및 보상 방법은 동영상 부호화기의 글로벌 움직임 추정부(181) 및 움직임 보상부(170)에 의해 수행될 수 있다.3 is a flowchart illustrating a global motion estimation and compensation method according to an embodiment of the present invention. The global motion estimation and compensation method according to an embodiment of the present invention may be performed by the global motion estimation unit 181 and the motion compensation unit 170 of the video encoder.

도 1 및 도 3을 참조하여, 본 발명의 일 실시예에 따른 글로벌 움직임 추정 및 보상 방법을 설명하면 다음과 같다.Referring to Figures 1 and 3, the global motion estimation and compensation method according to an embodiment of the present invention will be described.

먼저, 제1 영상 신호를 수신하여 다수(예를 들어, N, N은 2이상의 정수)의 특징점들을 선택한다(S10). 제1 영상 신호는 현재 입력 영상으로서, 현재 프레임 혹은 현재 매크로 블록일 수 있다. 특징점이란 제1 영상 신호에서 특징이 되는 부분 영상으로서, 주로 에지(edge)나 하이 텍스쳐(high texture)를 포함하는 영상의 일 부분이다. 예를 들어, 사람이 등장하는 영상 신호에서는, 사람의 눈, 코, 입 등이 각각 특징점이 될 수 있다.First, a plurality of feature points (eg, N and N are integers of 2 or more) are selected by receiving the first image signal (S10). The first image signal is a current input image and may be a current frame or a current macro block. The feature point is a partial image that is a feature of the first image signal, and is a part of an image including an edge or a high texture. For example, in an image signal in which a person appears, a human eye, a nose, a mouth, and the like may be characteristic points.

다음으로, 제1 영상신호와 제2 영상신호를 비교하여 선택된 특징점들에 대한 매칭 과정이 수행된다(S20). 특징점의 매칭은 블록 매칭 알고리즘과 같은 특징점 매칭 알고리즘이 사용될 수 있다. 제2 영상 신호는 제1 영상 신호의 이전 영상 신호 혹은 참조 영상 신호가 될 수 있다.Next, a matching process for the selected feature points is performed by comparing the first image signal and the second image signal (S20). For feature point matching, a feature point matching algorithm such as a block matching algorithm may be used. The second video signal may be a previous video signal or a reference video signal of the first video signal.

특징점 매칭 과정을 통하여 제2 영상 신호의 특징점들의 화소 좌표값들(X, Y)에 해당하는 제1 영상 신호에서의 화소 좌표값들(X', Y')을 구할 수 있다. The pixel coordinate values X 'and Y' of the first image signal corresponding to the pixel coordinate values X and Y of the feature points of the second image signal may be obtained through the feature point matching process.

카메라 움직임이 있는 경우, 카메라 움직임 파라미터들을 이용하여 이전 프레임내 화소좌표(X,Y)에 해당하는 현재 프레임내의 화소좌표(X', Y')를 얻을 수 있다. When there is camera movement, the pixel coordinates X 'and Y' in the current frame corresponding to the pixel coordinates X and Y in the previous frame may be obtained using camera movement parameters.

도 4는 카메라 움직임이 있는 경우의, 화소좌표의 변경을 나타내는 도면이다. 도 4를 참조하면, 팬 앵글(pan angle, α), 틸트 앵글(tilt angle, β), 스윙 앵글(swing angle, γ)이 주어지고, 초점 길이(focal length, F)가 F1에서 F2로 변경될 때, 화소좌표(X, Y)는 새로운 화소좌표(X', Y')로 변경된다. 이와 같이, 카메라 움직임이 있는 경우의 이전 프레임내의 화소좌표(X,Y)와 현재 프레임내의 화소좌표(X', Y')와의 관계는 다음의 수학식 1과 같다.4 is a diagram illustrating a change in pixel coordinate when there is camera movement. Referring to FIG. 4, a pan angle α, a tilt angle β, a swing angle γ are given, and a focal length F is F 1 to F 2. When changed to, the pixel coordinates X and Y are changed to the new pixel coordinates X 'and Y'. In this way, the relationship between the pixel coordinates (X, Y) in the previous frame and the pixel coordinates (X ', Y') in the current frame when there is camera movement is expressed by Equation 1 below.

Figure 112006044870564-pat00001
Figure 112006044870564-pat00001

Figure 112006044870564-pat00002
Figure 112006044870564-pat00002

여기서, F1, F2는 각각 줌(zoom) 이전과 이후의 카메라의 초점 길이(focal length)이다. 줌 팩터(s)는 F2/F1이다. 그리고, rij(i, j=1,2,3)는 3D 회전 매트릭스 R 의 요소들이다. 수학식 1의 파라미터들은 5개의 3D 카메라 움직임 파라미터들, 즉 줌 팩터(s), 팬 앵글(pan angle, α), 틸트 앵글(tilt angle, β), 스윙 앵글(swing angle, γ) 및 초점 길이(focal length, F)로 구성된다.Where F 1 and F 2 are the focal lengths of the camera before and after zoom, respectively. The zoom factor s is F 2 / F 1 . And r ij (i, j = 1,2,3) are the elements of the 3D rotation matrix R. Parameters of Equation 1 include five 3D camera motion parameters: zoom factor (s), pan angle (α), tilt angle (β), swing angle (γ) and focal length (focal length, F).

그 다음으로, 특징점 매칭을 통해 얻어진 특징점들에 대한 이전 프레임(제2 영상 신호)내 화소좌표(X,Y)와 현재 프레임(제1 영상 신호)내 화소좌표(X', Y') 셋들(sets)을 이용하여, 글로벌 움직임 파라미터 추정 과정이 수행된다(S30). Next, sets of pixel coordinates X and Y in the previous frame (second image signal) and pixel coordinates X 'and Y' in the current frame (first image signal) for the feature points obtained through feature point matching ( sets), a global motion parameter estimation process is performed (S30).

글로벌 움직임 파라미터 추정은 RTLS(recursive total least mean squares) 알고리즘을 이용하여 글로벌 움직임 추정부(181)에 의해 이루어질 수 있다.

Figure 112006044870564-pat00003
Global motion parameter estimation may be performed by the global motion estimation unit 181 using a recursive total least mean squares (RTLS) algorithm.
Figure 112006044870564-pat00003

RTLS 알고리즘을 이용한 글로벌 움직임 파라미터 추정 과정(S30)에 대한 세부적인 과정들이 도 5에 개시된다. Detailed processes for the global motion parameter estimation process S30 using the RTLS algorithm are described in FIG. 5.

이를 참조하면, 먼저, 치환(permutation)을 통하여 a 벡터(

Figure 112006044870564-pat00004
)로부터 q벡터(
Figure 112006044870564-pat00005
)를 구한다(S110). 여기서, a 벡터(
Figure 112006044870564-pat00006
)는 여덟 개의 움직임 파라미터들(제2 카메라 움직임 파라미터 셋)로서, 상술한 5개의 카메라 움직임 파라미터들(제1 카메라 움직임 파라미터 셋)로부터 다음의 수학식 2에 의해 구해질 수 있다. Referring to this, first, a vector (a permutation)
Figure 112006044870564-pat00004
From q vector (
Figure 112006044870564-pat00005
To obtain (S110). Where a vector (
Figure 112006044870564-pat00006
) Is eight motion parameters (second camera motion parameter set), and can be obtained from Equation 2 below from the five camera motion parameters (first camera motion parameter set) described above.

Figure 112006044870564-pat00007
Figure 112006044870564-pat00007

q 벡터(

Figure 112006044870564-pat00008
)는 다음의 수학식 3과 같이 정의될 수 있다.q vector (
Figure 112006044870564-pat00008
) May be defined as in Equation 3 below.

Figure 112006044870564-pat00009
Figure 112006044870564-pat00009

다음으로, q벡터(

Figure 112006044870564-pat00010
)와
Figure 112006044870564-pat00011
를 임의의 값(
Figure 112006044870564-pat00012
,
Figure 112006044870564-pat00013
)으로 초기화한다(S120).Next, q vector (
Figure 112006044870564-pat00010
)Wow
Figure 112006044870564-pat00011
Is a random value (
Figure 112006044870564-pat00012
,
Figure 112006044870564-pat00013
Initialize to) (S120).

그리고, 변수 k 및 m을 각각 1로 초기화한다(S130).The variables k and m are initialized to 1, respectively (S130).

그런 다음, 입력 벡터(

Figure 112006044870564-pat00014
)를 선택한다(S140). 입력 벡터(
Figure 112006044870564-pat00015
)는 다음의 수학식 4에 의해 구해질 수 있다.Then, input vector (
Figure 112006044870564-pat00014
Select (S140). Input vector (
Figure 112006044870564-pat00015
) Can be obtained by the following equation (4).

Figure 112006044870564-pat00016
Figure 112006044870564-pat00016

여기서,here,

Figure 112006044870564-pat00017
Figure 112006044870564-pat00017

다음으로, 매트릭스 반전 정리(matrix inversion lemma)를 이용하여

Figure 112006044870564-pat00018
를 업데이트한다(S150).
Figure 112006044870564-pat00019
업데이트에 적용되는 수식은 다음의 수학식 5와 같다. Next, we use the matrix inversion lemma
Figure 112006044870564-pat00018
Update (S150).
Figure 112006044870564-pat00019
The equation applied to the update is shown in Equation 5 below.

Figure 112006044870564-pat00020
Figure 112006044870564-pat00020

여기서,here,

Figure 112006044870564-pat00021
Figure 112006044870564-pat00021

따라서,

Figure 112006044870564-pat00022
는 이전 값으로부터 간단하게 업데이트될 수 있다.therefore,
Figure 112006044870564-pat00022
Can simply be updated from the previous value.

다음으로 수학식 6을 이용하여 α를 산출한다(S160).Next, α is calculated using Equation 6 (S160).

Figure 112006044870564-pat00023
Figure 112006044870564-pat00023

여기서,here,

Figure 112006044870564-pat00024
Figure 112006044870564-pat00024

Figure 112006044870564-pat00025
Figure 112006044870564-pat00025

Figure 112006044870564-pat00026
Figure 112006044870564-pat00026

이고,ego,

D는 대칭의 9 x 9 넌-네거티브 매트릭스(9 x 9 symmetric non-negative matrix)이다.D is a 9 x 9 symmetric non-negative matrix.

다음으로, 산출된 α와,

Figure 112006044870564-pat00027
를 이용하여 다음의 수학식 7과 같이 q벡터(
Figure 112006044870564-pat00028
)를 업데이트한다(S170).Next, with the calculated α,
Figure 112006044870564-pat00027
By using the q vector (
Figure 112006044870564-pat00028
) Is updated (S170).

Figure 112006044870564-pat00029
Figure 112006044870564-pat00029

상기의 단계들(S140 내지 S170)을 k=1부터 N(선택된 특징점의 수)까지, m=1,2 에 대하여 반복적으로 수행한다. 즉, S170 단계 이후, m=2인지 체크하여(S180), m=2가 아니면 m은 1 가산하여(S200), S140 단계로 복귀하고, 또한, k=N인지 체크하여(S190), k=N이 아니면 k를 1 가산하여(S210), S140 단계로 복귀한다.Steps S140 to S170 are repeatedly performed for m = 1,2 from k = 1 to N (number of selected feature points). That is, after step S170, check whether m = 2 (S180), if m = 2, add m by one (S200), return to step S140, and check whether k = N (S190) and k = If not N, k is added (S210), and the process returns to step S140.

마지막으로, 수학식 8에 의해 q벡터(

Figure 112006044870564-pat00030
)와로부터 a벡터(
Figure 112006044870564-pat00031
)를 산출한다. Finally, the q vector (
Figure 112006044870564-pat00030
) And a vector (
Figure 112006044870564-pat00031
) Is calculated.

Figure 112006044870564-pat00032
Figure 112006044870564-pat00032

다시 도 3을 참조하면, 글로벌 움직임 파라미터 추정 과정(S30)이 수행된 다음 로컬 움직임이 존재하는지 판단하여(S40), 로컬 움직임이 존재하면 로컬 움직임 을 제거하여 다시 글로벌 움직임 파라미터 추정 과정(S30)을 수행한다. 로컬 움직임이 존재하지 않으면, 다음 단계 3차원 해석 및 글로벌 움직임 보상 단계(S60)가 수행된다. 로컬 움직임을 찾아 로컬 움직임을 제거하는 것을 로컬 움직임으로 인한 글로벌 움직임 파라미터가 적절하지 않게 추정되는 것을 방지하기 위함이다. 즉, 글로벌 움직임 파라미터 추정 단계에서는 가능한한 로컬 움직임은 배제하여 글로벌 움직임 파라미터를 추정하게 된다.Referring back to FIG. 3, after the global motion parameter estimation process S30 is performed, it is determined whether there is a local motion (S40), and if there is a local motion, the local motion is removed and the global motion parameter estimation process S30 is performed again. Perform. If there is no local motion, the next step three-dimensional analysis and global motion compensation step (S60) is performed. Finding local motion and removing local motion is to prevent the global motion parameter due to local motion from being incorrectly estimated. That is, in the global motion parameter estimating step, the local motion is estimated as much as possible to estimate the global motion parameter.

글로벌 움직임 보상 단계(S60)에서는, 글로벌 움직임 파라미터 추정 과정(S30)에서의 추정 결과, 즉 추정된 글로벌 움직임 파라미터들인 a벡터(

Figure 112006044870564-pat00033
)를 이용하여 글로벌 움직임이 보상된 영상을 생성한다.In the global motion compensation step S60, the estimation result in the global motion parameter estimating process S30, that is, the a vector (the estimated global motion parameters) (
Figure 112006044870564-pat00033
) To generate an image compensated for global motion.

상술한 본 발명의 카메라 움직임 파라미터를 이용한 동영상 압축 부호화 방식은 전체적으로 카메라의 3차원 움직임을 보상하므로 기존 방식과 비교하여 같은 화질에서 훨씬 더 고 압축율을 얻을 수 있다. 예를 들면, 카메라가 줌인하는 경우, 기존 방식들은 블록단위로 움직임을 추정하여 서로 다른 움직임 벡터의 정보들을 보내는데 반해, 본 발명에 따른 방식은 줌 파라미터만을 전송하여 화면을 구성할 수 있으므로 매우 효율적이다. Since the video compression encoding method using the camera motion parameter of the present invention as a whole compensates for the three-dimensional motion of the camera, it is possible to obtain a much higher compression rate at the same image quality as compared with the conventional method. For example, when the camera zooms in, the conventional methods estimate the motion on a block-by-block basis and send information of different motion vectors, whereas the method according to the present invention is very efficient because the screen can be configured by transmitting only zoom parameters. .

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷 을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet). It includes being. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

본 발명에 대해 상기 실시예를 참고하여 설명하였으나, 이는 예시적인 것에 불과하며, 본 발명에 속하는 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야할 것이다.Although the present invention has been described with reference to the above embodiments, it is merely illustrative, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. . Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

본 발명에 따르면, 카메라의 3차원 움직임에 따른 화면 전체의 글로벌 움직임을 보상하므로 기존 방식과 비교하여 같은 화질에서 훨씬 더 고 압축율을 얻을 수 있다. 또한 본 발명에 따른 글로벌 움직임 보상을 하게 되면 종래 기술과 비교할 때, 카메라의 3차원 움직임이 존재하는 경우, 훨씬 더 좋은 예측 부호화 성능을 얻을 수 있다. 따라서, 본 발명이 보안 영상 시스템이나, DTV, CCTV 등의 영상 시스템에 적용될 경우 이들 영상 시스템의 성능 및 품질이 향상될 수 있다.According to the present invention, since the global motion of the entire screen due to the three-dimensional motion of the camera is compensated, it is possible to obtain a much higher compression ratio in the same image quality compared to the conventional method. In addition, when performing the global motion compensation according to the present invention, when compared to the prior art, even when the three-dimensional motion of the camera, there is much better predictive coding performance can be obtained. Therefore, when the present invention is applied to a security video system or a video system such as DTV, CCTV, the performance and quality of these video systems can be improved.

Claims (13)

플래그에 기초하여 카메라의 움직임이 있는 경우에만, 기 저장된 참조 영상 신호와 현재 영상 신호를 이용하여 화면 전체의 글로벌 움직임을 추정하여 글로벌 움직임 파라미터들을 산출하는 글로벌 움직임 추정부;A global motion estimator for estimating global motion of the entire screen by using a previously stored reference video signal and a current video signal based on a flag, and calculating global motion parameters; 상기 글로벌 움직임 파라미터들을 이용하여 상기 글로벌 움직임을 보상하고, 상기 글로벌 움직임이 보상된 영상을 출력하는 글로벌 움직임 보상부; A global motion compensator configured to compensate for the global motion by using the global motion parameters and to output an image compensated for the global motion; 상기 현재 영상 신호의 로컬 움직임을 추정하는 로컬 움직임 추정부;A local motion estimator for estimating local motion of the current video signal; 상기 로컬 움직임 추정부의 추정 결과에 기초하여 상기 글로벌 움직임이 보상된 영상에 대하여 상기 로컬 움직임을 보상하여 움직임 보상된 영상을 출력하는 로컬 움직임 보상부; A local motion compensator for outputting a motion compensated image by compensating the local motion with respect to the image compensated for the global motion based on an estimation result of the local motion estimator; 상기 카메라를 제어하는 카메라 제어부로부터 출력되는 상기 카메라의 움직임 여부를 나타내는 플래그를 수신하고, 상기 플래그에 응답하여 상기 카메라로부터 출력되는 상기 현재 영상 신호를 상기 글로벌 움직임 추정부 또는 상기 로컬 움직임 추정부로 선택적으로 제공하는 스위치; Receives a flag indicating whether the camera is output from the camera control unit for controlling the camera, and selectively transmits the current video signal output from the camera in response to the flag to the global motion estimation unit or the local motion estimation unit Providing switch; 상기 현재 영상 신호와 상기 움직임 보상된 영상간의 차를 출력하는 감산기;A subtractor for outputting a difference between the current video signal and the motion compensated video; 상기 차를 주파수 대역으로 변환하고 양자화하는 변환/양자화부; 및A conversion / quantization unit for converting and quantizing the difference into a frequency band; And 양자화된 결과를 부호화하는 부호화부를 구비하는 것을 특징으로 하는 영상 부호화 장치.And an encoding unit for encoding the quantized result. 제1항에 있어서, 상기 글로벌 움직임 추정부는The method of claim 1, wherein the global motion estimation unit 상기 현재 영상 신호를 수신하여 다수의 특징점들을 선택하고, 상기 현재 영상 신호와 상기 참조 영상 신호를 비교하여 상기 다수의 특징점들에 대한 매칭을 통해 상기 다수의 특징점들 각각에 대하여 상기 참조 영상 신호 내에서의 제1 화소좌표값들에 대응하는 상기 현재 영상 신호 내에서의 제2 화소좌표값들을 추출하고, 상기 제1 및 제2 화소좌표값을 이용하여 상기 글로벌 움직임 파라미터들을 추정하는 영상 부호화 장치.Receiving the current video signal to select a plurality of feature points, compare the current video signal and the reference video signal to match the plurality of feature points in the reference video signal for each of the plurality of feature points And extracting the second pixel coordinate values in the current image signal corresponding to the first pixel coordinate values of and estimating the global motion parameters using the first and second pixel coordinate values. 제2항에 있어서, The method of claim 2, 상기 다수의 특징점들은 제1 내지 제N(2이상의 정수) 특징점을 포함하고,The plurality of feature points include first to Nth (integer two or more) feature points, 상기 글로벌 움직임 추정부는 The global motion estimator 소정의 제1 벡터(q 벡터)를 초기화하고, 상기 제1 벡터와 상기 제1 내지 제N 특징점 중 대응하는 특징점에 대한 상기 제1 화소좌표값들과 상기 제2 화소좌표값들을 이용하여 상기 제1 벡터(q벡터)를 업데이트하는 단계를 상기 제1 내지 제N 특징점에 대하여 순차적으로 반복 수행하여 마지막으로 업데이트된 제1 벡터(q벡터)로부터 상기 글로벌 움직임 파라미터를 산출하는 것을 특징으로 하는 영상 부호화 장치.Initialize a predetermined first vector (q vector) and use the first pixel coordinate values and the second pixel coordinate values with respect to a corresponding feature point among the first vector and the first to Nth feature points. Iteratively repeating the step of updating the first vector (qvector) with respect to the first to Nth feature point to calculate the global motion parameter from the last updated first vector (qvector) Device. 제3항에 있어서, 상기 글로벌 움직임 추정부는 The method of claim 3, wherein the global motion estimation unit 상기 로컬 움직임을 추정하고, 추정된 로컬 움직임을 제거한 후 상기 글로벌 움직임 파라미터들을 산출하는 것을 특징으로 하는 영상 부호화 장치. And calculating the global motion parameters after estimating the local motion, removing the estimated local motion. 제3항에 있어서, 상기 글로벌 움직임 파라미터들로 구성되는 제2 벡터(a벡터)와 상기 제1 벡터(q 벡터)의 관계는
Figure 112007073717983-pat00039
(여기서,
Figure 112007073717983-pat00040
는 q벡터를,
Figure 112007073717983-pat00041
는 벡터를, a1 내지 a8은 상기 글로벌 움직임 파라미터들임)이고,
The method of claim 3, wherein a relationship between the second vector (a vector) and the first vector (q vector) including the global motion parameters is
Figure 112007073717983-pat00039
(here,
Figure 112007073717983-pat00040
Is the vector,
Figure 112007073717983-pat00041
Is a vector, a 1 to a 8 are the global motion parameters,
상기 a1 내지 a8A 1 to a 8 are
Figure 112007073717983-pat00042
Figure 112007073717983-pat00042
(여기서, F1, F2는 각각 카메라 움직임 전 후의 초점 길이, s는 상기 줌팩터, rij(i, j=1,2,3)는 3차원 회전 매트릭스의 각 요소로서 상기 카메라의 줌 팩터(s), 팬 앵글(pan angle, α), 틸트 앵글(tilt angle, β), 스윙 앵글(swing angle, γ) 및 초점 길이(focal length, F)를 포함하는 카메라 움직임 파라미터들에 의해 정해짐)인 것을 특징으로 하는 영상 부호화 장치. Where F 1 and F 2 are the focal lengths before and after the camera movement, s is the zoom factor, and r ij (i, j = 1,2,3) is the element of the three-dimensional rotation matrix as the zoom factor of the camera. (s), determined by camera movement parameters including pan angle (α), tilt angle (β), swing angle (γ) and focal length (F) Video encoding apparatus.
제 5항에 있어서, 상기 카메라 움직임 파라미터들은 상기 카메라 제어부로부터 수신되는 것을 특징으로 하는 영상 부호화 장치.The image encoding apparatus of claim 5, wherein the camera motion parameters are received from the camera controller. 카메라를 제어하는 카메라 제어부로부터 출력되는 상기 카메라의 움직임 여부를 나타내는 플래그를 수신하는 단계; Receiving a flag indicating whether the camera is output from a camera controller for controlling a camera; 상기 플래그에 응답하여 상기 카메라로부터 출력되는 현재 영상 신호를 글로벌 움직임 추정부 또는 로컬 움직임 추정부로 선택적으로 제공하는 단계;Selectively providing a current video signal output from the camera to a global motion estimator or a local motion estimator in response to the flag; 상기 플래그에 기초하여 상기 카메라의 움직임이 있는 경우에만, 상기 글로벌 움직임 추정부에 의하여, 기 저장된 참조 영상 신호와 상기 현재 영상 신호를 이용하여 화면 전체의 글로벌 움직임을 추정하여 글로벌 움직임 파라미터들을 산출하는 글로벌 움직임 추정 단계;Only when there is motion of the camera based on the flag, the global motion estimator calculates global motion parameters by estimating global motion of the entire screen using a pre-stored reference video signal and the current video signal. Motion estimation step; 상기 글로벌 움직임 파라미터들을 이용하여 상기 글로벌 움직임을 보상하고, 상기 글로벌 움직임이 보상된 영상을 출력하는 글로벌 움직임 보상 단계;A global motion compensation step of compensating for the global motion by using the global motion parameters and outputting an image in which the global motion is compensated; 상기 로컬 움직임 추정부에 의하여, 상기 현재 영상 신호의 로컬 움직임을 추정하는 로컬 움직임 추정 단계;A local motion estimation step of estimating a local motion of the current video signal by the local motion estimator; 상기 로컬 움직임 추정부의 추정 결과에 기초하여 상기 글로벌 움직임이 보상된 영상에 대하여 상기 로컬 움직임을 보상하여 움직임 보상된 영상을 출력하는 로컬 움직임 보상 단계;A local motion compensation step of outputting a motion compensated image by compensating the local motion with respect to the image with the global motion compensated based on an estimation result of the local motion estimator; 상기 현재 영상 신호와 상기 움직임 보상된 영상간의 차를 출력하는 단계;Outputting a difference between the current video signal and the motion compensated video; 상기 차를 주파수 대역으로 변환하고 양자화하는 단계; 및Converting and quantizing the difference into a frequency band; And 양자화된 결과를 부호화하여 출력하는 단계를 구비하는 영상 부호화/복호화 방법.And encoding and outputting the quantized result. 제7항에 있어서, 상기 글로벌 움직임 추정 단계는The method of claim 7, wherein the global motion estimation step 상기 화면 전체의 로컬 움직임을 추정하고, 추정된 로컬 움직임을 제거한 후 상기 글로벌 움직임 파라미터들을 산출하는 것을 특징으로 하는 영상 부호화/복호화 방법.And estimating local motion of the entire screen and calculating the global motion parameters after removing the estimated local motion. 제8항에 있어서, 상기 글로벌 움직임 추정 단계는The method of claim 8, wherein the global motion estimation step 상기 현재 영상 신호로부터 제1 내지 제N 특징점을 포함하는 다수의 특징점들을 선택하는 단계;Selecting a plurality of feature points including first to Nth feature points from the current video signal; 상기 현재 영상신호와 상기 참조 영상 신호를 비교하여 상기 선택된 제1 내지 제N 특징점 각각에 대하여 상기 참조 영상 신호 내에서의 제1 화소좌표값들에 대응하는 상기 현재 영상 신호 내에서의 제2 화소좌표값들을 추출하는 단계; 및A second pixel coordinate in the current video signal corresponding to first pixel coordinate values in the reference video signal for each of the selected first to Nth feature points by comparing the current video signal with the reference video signal Extracting values; And 상기 제1 내지 제N 특징점 각각에 대한 상기 제1 화소좌표값들과 상기 제2 화소좌표값들을 이용하여 상기 글로벌 움직임 파라미터들을 추정하는 단계를 구비하는 영상 부호화/복호화 방법.Estimating the global motion parameters using the first pixel coordinate values and the second pixel coordinate values for each of the first to Nth feature points. 제9항에 있어서, 상기 글로벌 움직임 파라미터들을 추정하는 단계는10. The method of claim 9, wherein estimating the global motion parameters 제1 벡터(q 벡터)를 초기화하는 단계;Initializing a first vector (q vector); 상기 제1 벡터와 상기 제1 내지 제N 특징점 중 대응하는 특징점에 대한 상기 제1 화소좌표값들과 상기 제2 화소좌표값들을 이용하여 상기 제1 벡터(q벡터)를 업데이트하는 단계를 상기 제1 내지 제N 특징점에 대하여 순차적으로 반복하는 단계; 및Updating the first vector (q vector) by using the first pixel coordinate values and the second pixel coordinate values of the first vector and the corresponding feature point among the first to Nth feature points. Iteratively repeating for the first to Nth feature points; And 상기 순차적으로 반복하는 단계를 통하여 마지막으로 업데이트된 제1 벡터(q)로부터 상기 글로벌 움직임 파라미터를 산출하는 단계를 구비하는 특징으로 하는 영상 부호화/복호화 방법.And calculating the global motion parameter from the last updated first vector q through the sequentially repeating steps. 제10항에 있어서, 상기 글로벌 움직임 파라미터들로 구성되는 제2 벡터(a벡터)와 상기 제1 벡터(q 벡터)의 관계는
Figure 112007073717983-pat00043
(여기서,
Figure 112007073717983-pat00044
는 q벡터를,
Figure 112007073717983-pat00045
는 a벡터를, a1 내지 a8은 상기 글로벌 움직임 파라미터들로서 상기 a벡터의 구성요소임)이고,
11. The method of claim 10, wherein the relationship between the second vector (a vector) and the first vector (q vector), which are composed of the global motion parameters, is
Figure 112007073717983-pat00043
(here,
Figure 112007073717983-pat00044
Is the vector,
Figure 112007073717983-pat00045
Is a vector, a 1 to a 8 are components of the a vector as the global motion parameters,
상기 a1 내지 a8A 1 to a 8 are
Figure 112007073717983-pat00046
Figure 112007073717983-pat00046
(여기서, F1, F2는 각각 카메라 움직임 전 후의 초점 길이, s는 줌팩터, rij(i, j=1,2,3)는 3차원 회전 매트릭스의 각 요소로서 상기 카메라의 줌 팩터(s), 팬 앵글(pan angle, α), 틸트 앵글(tilt angle, β), 스윙 앵글(swing angle, γ) 및 초점 길이(focal length, F)를 포함하는 카메라 움직임 파라미터들에 의해 정해짐)인 것을 특징으로 하는 영상 부호화/복호화 방법.Where F 1 and F 2 are the focal lengths before and after the camera movement, s is the zoom factor, and r ij (i, j = 1,2,3) are the elements of the three-dimensional rotation matrix, respectively. s), determined by camera movement parameters including pan angle (α), tilt angle (β), swing angle (γ) and focal length (F)) Video encoding / decoding method.
제7항에 있어서, 상기 영상 부호화/복호화 방법은The method of claim 7, wherein the video encoding / decoding method 상기 글로벌 움직임 파라미터들이 영상 부호화 장치로부터 영상 복호화 장치로 전송되는 단계; 및Transmitting the global motion parameters from an image encoding apparatus to an image decoding apparatus; And 상기 영상 복호화 장치에서 상기 글로벌 움직임 파라미터들을 이용하여 수신되는 영상 신호를 디코딩하는 단계를 더 구비하는 것을 특징으로 하는 영상 부호화/복호화 방법.And decoding the received video signal by using the global motion parameters in the video decoding apparatus. 제7항 내지 제12항 중의 어느 하나의 항에 기재된 영상 부호화/복호화 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for realizing the video encoding / decoding method according to any one of claims 7 to 12.
KR1020060057237A 2006-06-26 2006-06-26 Moving-picture coding apparatus and method KR100814715B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060057237A KR100814715B1 (en) 2006-06-26 2006-06-26 Moving-picture coding apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060057237A KR100814715B1 (en) 2006-06-26 2006-06-26 Moving-picture coding apparatus and method

Publications (2)

Publication Number Publication Date
KR20080000031A KR20080000031A (en) 2008-01-02
KR100814715B1 true KR100814715B1 (en) 2008-03-18

Family

ID=39212397

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060057237A KR100814715B1 (en) 2006-06-26 2006-06-26 Moving-picture coding apparatus and method

Country Status (1)

Country Link
KR (1) KR100814715B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010041862A (en) * 1999-01-12 2001-05-25 요트.게.아. 롤페즈 Camera motion parameters estimation method
KR20020042166A (en) * 2000-11-30 2002-06-05 구자홍 Apparatus and method for transcoding video
KR20060064504A (en) * 2004-12-08 2006-06-13 한국전자통신연구원 System for detecting targets and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010041862A (en) * 1999-01-12 2001-05-25 요트.게.아. 롤페즈 Camera motion parameters estimation method
KR20020042166A (en) * 2000-11-30 2002-06-05 구자홍 Apparatus and method for transcoding video
KR20060064504A (en) * 2004-12-08 2006-06-13 한국전자통신연구원 System for detecting targets and method thereof

Also Published As

Publication number Publication date
KR20080000031A (en) 2008-01-02

Similar Documents

Publication Publication Date Title
KR101045199B1 (en) Method and apparatus for adaptive noise filtering of pixel data
KR101177031B1 (en) Method and apparatus for minimizing number of reference pictures used for inter-coding
KR100703200B1 (en) Intra-coding apparatus and method
CA2703775C (en) Method and apparatus for selecting a coding mode
KR101482896B1 (en) Optimized deblocking filters
EP1478189A2 (en) Method and apparatus for encoding/decoding image using image residue prediction
EP1509045A2 (en) Lossless image encoding/decoding method and apparatus using intercolor plane prediction
EP1429564A1 (en) Moving picture encoding/transmission system, moving picture encoding/transmission method, and encoding apparatus, decoding apparatus, encoding method, decoding method, and program usable for the same
JP5043874B2 (en) Intra prediction coding method of image data
KR20090095317A (en) Method and apparatus for encoding and decoding image
JP2006025429A (en) Coding method and circuit device for executing this method
US20120087411A1 (en) Internal bit depth increase in deblocking filters and ordered dither
US20120008686A1 (en) Motion compensation using vector quantized interpolation filters
WO2006073579A2 (en) Methods and apparatus for providing a rate control
TWI468018B (en) Video coding using vector quantized deblocking filters
KR100738075B1 (en) Apparatus and method for encoding and decoding image
JP2004241957A (en) Image processor and encoding device, and methods therefor
US20060193526A1 (en) Video encoder with low complexity noise reduction
JP2005295215A (en) Moving image encoding device
KR100814715B1 (en) Moving-picture coding apparatus and method
JPH0984024A (en) Coder for moving image signal
Matsuda et al. Block-based spatio-temporal prediction for video coding
JPH0775095A (en) Rate control circuit
KR100635009B1 (en) Mothod and apparatus for motion estimation considering total moving of image
JP2008099175A (en) Video coder, and video coding method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20130312

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140226

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150311

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170412

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee