KR20140084636A - Camera Movement Control Apparatus and Method using Motion Vector - Google Patents
Camera Movement Control Apparatus and Method using Motion Vector Download PDFInfo
- Publication number
- KR20140084636A KR20140084636A KR1020120154297A KR20120154297A KR20140084636A KR 20140084636 A KR20140084636 A KR 20140084636A KR 1020120154297 A KR1020120154297 A KR 1020120154297A KR 20120154297 A KR20120154297 A KR 20120154297A KR 20140084636 A KR20140084636 A KR 20140084636A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- difference operation
- motion vector
- reference image
- motion
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
본 발명은 카메라의 이동제어장치 및 그 방법에 관한 것으로서, 카메라를 통해 입력되는 영상신호에서 객체의 움직임을 파악하고, 파악된 객체의 움직임에 따라 자동으로 카메라의 이동방향이 제어되어 객체의 움직임을 지속적으로 감시함으로써 객체에 대한 능동적인 감시가 가능한 카메라의 이동제어 장치 및 그 방법에 관한 것이다.
The present invention relates to an apparatus and method for controlling movement of a camera, and more particularly, to a motion control apparatus and method for controlling movement of an object in a video signal inputted through a camera, And more particularly, to a camera movement control apparatus capable of actively monitoring an object by continuous monitoring.
일반적으로 영상을 촬영하는 카메라는 설정된 시간간격으로 입력되는 영상의 프레임에 기초하여 객체의 움직임을 분석하고, 분석된 객체의 움직임에 기초하여 객체의 움직임을 감시하는 데 이용되기도 한다.In general, a camera for capturing an image is used to analyze the motion of an object based on a frame of the input image at a predetermined time interval, and to monitor movement of the object based on the motion of the analyzed object.
그런데, 이와 같은 감시용 카메라는 배경의 변화가 없는 상황에서 고정되어 영상을 촬영하기 때문에, 움직이는 객체가 카메라의 감시 범위를 벗어나게 되면 지속적인 감시를 할 수 없는 문제점이 있다. However, since such a surveillance camera captures an image in a state in which there is no background change, there is a problem that continuous monitoring can not be performed if the moving object deviates from the surveillance range of the camera.
또한, 카메라가 객체의 이동에 따라 움직이는 경우에도 이것은 관리자가 조이스틱 등을 조절하여 카메라의 방향을 제어하는 수준에 지나지 않는다.
Also, even if the camera moves according to the movement of the object, it is only a level that the manager controls the direction of the camera by adjusting the joystick and the like.
본 발명은 전술한 문제점을 해결하기 위하여 창안된 것으로서, 카메라를 통해 입력되는 영상신호에서 객체의 움직임을 파악하고, 파악된 객체의 움직임에 따라 자동으로 카메라의 이동방향이 제어되어 객체의 움직임을 지속적으로 감시할 수 있는 카메라의 이동제어장치 및 그 방법을 제공하는 것을 목적으로 한다.
Disclosure of Invention Technical Problem [8] Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide an image processing apparatus, And a method of controlling the movement of the camera.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 카메라의 이동제어장치는, 입력되는 영상신호에서 기준영상을 선택하는 기준영상 선택부; 상기 기준영상 선택부에 의해 선택된 기준영상을 기준으로 현재 영상에 대한 차연산을 수행하는 차연산 수행부; 상기 차연산 수행부에 의해 수행된 차연산의 결과가 설정된 임계값 이상이면, 현재 영상과 기준영상에 기초하여 객체의 움직임을 추정하며 예측움직임벡터를 산출하는 움직임벡터 산출부; 및 상기 움직임벡터 산출부에 의해 산출된 예측움직임벡터에 기초하여 카메라의 이동방향을 제어하는 이동방향 제어부를 포함하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided an apparatus for controlling movement of a camera, comprising: a reference image selector for selecting a reference image from an input image signal; A difference calculation unit for performing a difference operation on the current image based on the reference image selected by the reference image selection unit; A motion vector calculator for estimating a motion of an object based on a current image and a reference image and calculating a predicted motion vector when the result of the difference computation performed by the difference computation unit is greater than or equal to a preset threshold value; And a moving direction control unit for controlling the moving direction of the camera based on the predicted motion vector calculated by the motion vector calculating unit.
상기 차연산 수행부는, 화면 내의 영상을 임의의 크기를 갖는 탐색영역으로 나누고, 각각의 탐색영역에 대한 모션벡터를 생성하여 차연산을 수행할 수 있다.The difference operation performing unit may divide an image in a screen into search areas having an arbitrary size, and generate motion vectors for the respective search areas to perform a difference operation.
상기 차연산 수행부는, 현재 영상에 대하여 차연산의 결과가 임계값보다 작으면, 다음 영상에 대하여 차연산을 수행할 수 있다.The difference operation performing unit may perform a difference operation on the next image if the result of the difference operation on the current image is smaller than the threshold value.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 카메라의 이동제어방법은, 입력되는 영상신호에서 기준영상을 선택하는 단계; 상기 기준영상 선택단계에 의해 선택된 기준영상을 기준으로 현재 영상에 대한 차연산을 수행하는 단계; 상기 차연산 수행단계에 의해 수행된 차연산의 결과가 설정된 임계값 이상이면, 해당 영상과 기준영상에 기초하여 객체의 움직임을 추정하며 예측움직임벡터를 산출하는 단계; 및 상기 움직임벡터 산출단계에 의해 산출된 예측움직임벡터에 기초하여 카메라의 이동방향을 제어하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of controlling movement of a camera, the method comprising: selecting a reference image from an input video signal; Performing a difference operation on the current image based on the reference image selected by the reference image selection step; Calculating a predicted motion vector by estimating a motion of an object based on the corresponding image and the reference image if the result of the difference operation performed by the difference operation performing step is greater than or equal to a set threshold value; And controlling the moving direction of the camera based on the predicted motion vector calculated by the motion vector calculating step.
상기 차연산 수행단계는, 화면 내의 영상을 임의의 크기를 갖는 탐색영역으로 나누고, 각각의 탐색영역에 대한 모션벡터를 생성하여 차연산을 수행할 수 있다.The difference calculation step may divide the image in the screen into search areas having an arbitrary size, and generate motion vectors for the respective search areas to perform a difference operation.
상기 차연산 수행단계는, 현재 영상에 대하여 차연산의 결과가 임계값보다 작으면, 다음 영상에 대하여 차연산을 수행할 수 있다.
In the performing the difference operation, if the result of the difference operation on the current image is smaller than the threshold value, the difference operation can be performed on the next image.
본 발명에 따르면, 입력되는 영상신호에 대하여 움직임을 감지하여 객체의 움직임벡터를 예측하며, 예측된 객체의 움직임벡터에 기초하여 카메라의 전반적인 이동방향을 제어함으로써 객체에 대한 고정적인 감시를 수행하는 것이 아니라, 객체의 움직임에 따른 능동적인 감시가 가능하게 된다.
According to the present invention, it is possible to perform a fixed monitoring of an object by detecting a motion of an input video signal to predict a motion vector of the object, and controlling the overall moving direction of the camera based on the predicted motion vector of the object However, active monitoring can be performed according to the motion of the object.
도 1은 본 발명의 실시예에 따른 카메라의 이동제어장치를 개략적으로 도시한 도면이다.
도 2는 블록 정합법의 예를 나타낸 도면이다.
도 3은 움직임벡터의 산출을 위한 프레임간의 관계를 나타낸 도면이다.
도 4는 프레임간의 누적 임직임벡터 값과 객체영역 설정의 예를 나타낸 도면이다.
도 5는 탐색영역의 범위를 예시한 도면이다.
도 6은 본 발명의 실시예에 따른 카메라의 이동제어방법을 나타낸 흐름도이다.
도 7은 시뮬레이션을 통한 예측 영상의 예를 나타낸 도면이다.
도 8은 10 프레임 간격의 전역 움직임 추정을 통한 움직임벡터와 연산시간 결과를 나타낸 도면이다.
도 9는 10 프레임 간격의 9 탐색영역을 이용한 움직임벡터와 연산시간 결과를 나타낸 도면이다.
도 10은 40 프레임 간격의 전역 움직임 추정을 통한 움직임벡터와 연산시간 결과를 나타낸 도면이다.
도 11은 40 프레임 간격의 9 탐색영역을 이용한 움직임벡터와 연산시간 결과를 나타낸 도면이다.1 is a schematic view of a camera movement control apparatus according to an embodiment of the present invention.
2 is a diagram showing an example of a block matching method.
3 is a diagram showing a relationship among frames for calculation of a motion vector.
FIG. 4 is a diagram showing an example of setting an accumulated occupancy vector value between frames and an object area.
5 is a diagram illustrating a range of a search area.
6 is a flowchart illustrating a camera movement control method according to an embodiment of the present invention.
7 is a diagram showing an example of a prediction image through simulation.
FIG. 8 is a diagram illustrating motion vectors and calculation time results through global motion estimation at intervals of 10 frames.
FIG. 9 is a diagram showing motion vectors and arithmetic time results using 9 search areas at intervals of 10 frames.
FIG. 10 is a diagram illustrating motion vectors and calculation time results through global motion estimation at intervals of 40 frames.
FIG. 11 is a diagram showing motion vectors and calculation time results using 9 search areas at intervals of 40 frames.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 이하의 설명에 있어서, 당업자에게 주지 저명한 기술에 대해서는 그 상세한 설명을 생략할 수 있다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, a detailed description of known techniques well known to those skilled in the art may be omitted.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 불구하고 동일한 참조부호를 부여할 수도 있다. 그러나, 이와 같은 경우라 하더라도 해당 구성 요소가 실시예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시예에서의 각각의 구성요소에 대한 설명에 기초하여 판단하여야 할 것이다.In describing the constituent elements of the present invention, the same reference numerals may be given to constituent elements having the same name, and the same reference numerals may be given thereto even though they are different from each other. However, even in such a case, it does not mean that the corresponding component has different functions according to the embodiment, or does not mean that the different components have the same function. It should be judged based on the description of each component in the example.
또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected or connected to the other component, Quot; may be "connected," "coupled," or "connected. &Quot;
도 1은 본 발명의 실시예에 따른 카메라의 이동제어장치를 개략적으로 도시한 도면이다.1 is a schematic view of a camera movement control apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 카메라의 이동제어장치(100)는, 기준영상 선택부(110), 차연산 수행부(120), 움직임벡터 산출부(130) 및 이동방향 제어부(140)를 포함한다.Referring to FIG. 1, a camera
기준영상 선택부(110)는 카메라(도시하지 않음)를 통해 입력되는 영상신호에서 기준영상을 선택한다. The reference image selection unit 110 selects a reference image from a video signal input through a camera (not shown).
차연산 수행부(120)는 기준영상 선택부(110)에 의해 선택된 기준영상을 기준으로 현재 영상에 대한 차연산을 수행한다. 이때, 차연산 수행부(120)는 영상신호 부호화 방법의 인트라 예측방법, 인터 예측방법 등을 이용하여 차연산을 수행할 수 있다. 이와 같은 차연산 수행방법은 공지의 기술이므로 여기서는 그 상세한 설명을 생략한다.The difference
움직임벡터 산출부(130)는 차연산 수행부(120)에 의해 수행된 차연산의 결과가 설정된 임계값 이상이면, 현재 영상과 기준영상에 기초하여 객체의 움직임을 추정하며 예측움직임벡터를 산출한다. 즉, 움직임벡터 산출부(130)는 기준영상에 대한 현재영상의 차연산의 결과가 임계값 이상인 경우에만 객체의 움직임을 추정한다.The
이동방향 제어부(140)는 움직임벡터 산출부(130)에 의해 산출된 예측움직임벡터에 기초하여 카메라의 이동방향을 제어한다. 즉, 움직임벡터 산출부(130)에 의해 객체에 대한 예측움직임벡터가 산출되면, 산출된 예측움직임벡터에 기초하여 객체의 속도 및 방향을 예측할 수 있으며, 그에 따라 객체의 움직임을 지속적으로 감시하기 위한 카메라의 방향을 제어할 수 있다.The movement
이동 객체 추적 기술과 관련된 종래의 기술들은 차연산을 이용하는 방법과 광류 벡터를 이용하는 방법으로 나누어 볼 수 있다. Conventional techniques related to moving object tracking technology can be divided into a method using a difference operation and a method using an optical vector.
화소간 차연산에 의한 방법은 일반적으로 한 화면을 잡아내는 카메라가 고정된 형태로 배경의 변화가 없는 상황에서의 감시가 목적이다. 최근 동영상 정보를 이용하여 이동 물체의 영역을 검출하는 다양한 방법이 있으며, 배경차이와 색상 또는 모양의 특징, 그리고 움직임 정보를 이용하는 방법 등이 대표적이다. The method of pixel difference calculation is generally aimed at monitoring in a situation where there is no change of the background in the form of a fixed camera capturing a screen. Recently, there are various methods of detecting the area of the moving object by using the video information, and the background difference, the feature of color or shape, and the method of using motion information are representative.
배경의 차이를 이용하는 방법은 움직임 정보를 검출하기 전에 서로 다른 각도에서 얻은 배경 영상을 하나의 모자이크 영상으로 합성한다. 그 후에 모자이크 영상에서 현재 영상의 배경영상을 찾아서 이를 현재 영상과 비교하여 움직임 영역을 검출한다.The method of using the background difference is to combine the background images obtained from different angles into one mosaic image before detecting the motion information. After that, the background image of the current image is found in the mosaic image and compared with the current image to detect the motion area.
물체의 색과 모양정보를 이용하는 방법은 색이나 모양 특징값 등을 이용해 이동 물체를 모델링하고 이 모델과 가장 부합되는 영역을 이동 물체의 영역으로 결정한다. 움직임 정보를 이용하는 방법 중 또 하나는 차연산을 이용하는 방법으로 두 장의 연속된 프레임을 이루는 화소의 시간에 따른 차이값이 큰 영역을 움직임이 있는 것으로 정의하는 방법이다. 보통 차연산을 얻기 위해서 전역의 움직임 추정(GME: Global Motion Estimation)을 수행하지만 계산량이 많다는 문제점이 있다. In the method of using the color and shape information of an object, a moving object is modeled using a color or shape feature value, and a region that best matches the model is determined as a region of the moving object. Another method of using motion information is to use a difference operation to define a region having a large difference value according to time of a pixel constituting two consecutive frames as a motion. Global Motion Estimation (GME) is performed to obtain the ordinary difference operation, but there is a problem that the calculation amount is large.
움직임 검출 및 추적은 일반적으로 차연산 기반의 알고리즘을 사용하며, 이것은 크게 전역 움직임 추정(GME: Global Motion Estimation), 전역 움직임 보상(GMC: Global Motion Compensation), 그리고 움직임이 있는 영상 범위의 국부화(Localization)로 이루어진다. 이것은 영상을 일정한 프레임을 가지고 이전 영상 현재 영상으로 나누어 카메라의 움직임에 의해 발생한 두 영상 사이의 움직임을 추정하는 방법이다. 그러나 이런 방법은 다음과 같은 문제를 가지고 있다.Motion detection and tracking generally use a computation-based algorithm, which is largely divided into global motion estimation (GME), global motion compensation (GMC), and localization of moving image ranges Localization. This is a method of estimating the motion between two images caused by camera motion by dividing the image into the previous image current image with a certain frame. However, this method has the following problems.
첫째, 영상에 나타난 이동 물체의 속도에 따라 정확한 이동 물체 영역의 검출이 불가능한 경우이다. 시간간격이 일정한 연속 영상을 이용해서 차연산을 얻는 경우는 별 문제가 없으나 고속으로 이동하는 물체의 경우에는 물체의 영역과 함께 배경이 되는 부분도 검출결과에 포함될 수 있다. 이와 반대로 물체가 너무 저속으로 이동할 경우 물체의 일부분만 검출된다는 문제가 있다. 따라서 이동 객체의 속도에 맞는 이전 영상을 선택하여야만 한다.First, it is impossible to detect the exact moving object area according to the speed of the moving object shown in the image. There is no problem in obtaining a difference operation using a continuous image having a constant time interval. However, in the case of an object moving at a high speed, the detection result may include a part of the object as well as a background. On the other hand, when the object moves too low, there is a problem that only a part of the object is detected. Therefore, it is necessary to select a previous image corresponding to the speed of the moving object.
둘째, GME의 경우 계산량이 많아 시간이 오래 걸린다. 일반적으로 영상 내의 모든 화소를 이용해서 이전 영상과 현재 영상을 전역탐색(Full search)하기 때문에 계산량이 많아진다Second, GME takes a lot of time because it is computationally expensive. Generally, since the previous image and the current image are fully searched using all the pixels in the image, the calculation amount is increased
프레임간 움직임 벡터(MV: Motion Vector)를 얻어내기 위해서는 먼저 영상의 주체를 파악해야 하며, 이는 영상 내의 움직임의 중심이 되는 대상을 일컫는다. 기본적으로 배경이 중심이 되는 경우와 객체가 중심이 되는 경우가 있으며, MV를 예측하는 방법에는 화소반복법과 블록정합법이 있다. 화소단위로 움직임벡터를 예측하는 화소 반복법은 탐색영역결정이 불필요하고 보다 정확한 값을 예측하며 국부적인 운동까지 검출할 수 있으며 적은 움직임에 유효하다. In order to obtain an inter-frame motion vector (MV), the subject of the image must be grasped first, and this refers to the object that becomes the center of motion in the image. Basically, there are cases where the background is centered and the object is centered. There are pixel iteration and block matching methods for predicting MVs. The pixel iterative method for predicting a motion vector on a pixel-by-pixel basis requires no search area determination, predicts a more accurate value, can detect local motion, and is effective for less motion.
블록 정합법은 블록내의 모든 화소는 동일한 움직임을 가진다는 가정과 물체의 운동을 평행이동으로 가정한다. 각각의 블록은 독립적이며 이 방법은 잡음에 강하고 계산량이 적어 실시간 처리에 유용하다. 일반적으로 블록은 8x8 또는 16x16으로 한다. 블록의 크기가 작을수록 보다 정확한 움직임벡터를 예측할 수 있으나 계산량이 많아진다.The block matching method assumes that all pixels in a block have the same motion and that the motion of the object is a parallel motion. Each block is independent and this method is robust to noise and low computational complexity and is useful for real-time processing. Generally, blocks are 8x8 or 16x16. The smaller the size of the block, the more accurate the motion vector can be predicted, but the larger the amount of computation.
블록 정합법은 도 2에 도시한 바와 같이, MB(Macro Block)을 나타내는 탐색 위치를 정하고 그것의 SAD(Sum of Absolute Difference)값을 구하여 그중 가장 작은 값을 가지는 방향을 움직임벡터로 정한다.As shown in FIG. 2, the block matching method determines a search position indicating a macroblock (MB), obtains a sum of absolute difference (SAD) thereof, and determines a direction having the smallest value as a motion vector.
객체 추적 기술과 관련된 종래의 기술들은 전술한 바와 같이 차연산을 이용하는 방법이 대표적이다. 화소간 차연산에 의한 방법은 일반적으로 한 화면을 잡아내는 카메라가 고정된 형태로 배경의 변화가 없는 상황에서의 감시가 목적이다.Conventional techniques related to object tracking techniques are representative of using a difference operation as described above. The method of pixel difference calculation is generally aimed at monitoring in a situation where there is no change of the background in the form of a fixed camera capturing a screen.
차연산에서의 움직임을 판단하는 근거는 도 3에 도시한 바와 같이, 이전 프레임과 현재 프레임에서 해당 격자점들의 화소값을 비교하여 차이가 존재한다면, 어떤 움직임이 있다고 판단할 수 있다. 따라서 두 프레임간 동일 위치의 대응 화소간 차연산을 수행한다. 이러한 차연산은 수학식 1과 같이 표현될 수 있다. x, y는 각 프레임의 격자구조 상에서의 교차점의 위치를 나타내며, Ft는 현재 프레임을, 그리고 Ft -1은 이전 프레임을 나타내고, G( )함수는 각 화소값을 의미한다.As a basis for determining the motion in the difference operation, as shown in FIG. 3, if there is a difference between the pixel values of the corresponding lattice points in the previous frame and the current frame, it can be determined that there is some motion. Therefore, a difference operation between corresponding pixels at the same position is performed between two frames. This difference operation can be expressed as Equation (1). x and y denote the positions of the intersections on the grid structure of each frame, F t denotes the current frame, F t -1 denotes the previous frame, and G () denotes each pixel value.
[수학식 1][Equation 1]
그러나, 움직임의 추적에 따라 제어하고자 하는 장비의 방향을 바꾸는 상황에서는 동일한 좌표에 해당하는 차분 영상을 구하는 것은 큰 의미가 없다. 이러한 상황은 도 3에서 보듯이, 인접한 두 프레임의 배경 화면이 카메라의 이동으로 인하여 서로 다르다. 즉, 이전 프레임에서의 특정 위치의 화소는 새로운 프레임에서는 카메라의 이동 변량 △P, △T만큼 이동된 위치에 있게 된다. 이러한 이유로 화소값의 차분을 구하기 위한 대상 영역은 두 프레임 영역간의 교차되는 영역에 국한하여 처리한다. 이는 서로 다른 시각에 취해진 인접한 프레임간의 교차되지 않는 영역은 비디오 프레임의 전체 영역에 비해 상대적으로 좁기 때문에 교차되는 영역에서의 화소 차만으로도 움직임의 검출이 가능하다. 따라서 두 프레임에서 동일 화소에 대해 비교가 이루어질 수 있도록 카메라의 이동 변량인 △P, △T에 따른 △i, △j를 고려하여야 한다.However, it is not meaningful to obtain the difference image corresponding to the same coordinates in the situation of changing the direction of the equipment to be controlled according to the tracking of the motion. As shown in FIG. 3, the background of the two adjacent frames is different due to the movement of the camera. That is, the pixel at the specific position in the previous frame is located at the position shifted by the movement variable AP and DELTA T of the camera in the new frame. For this reason, the target area for obtaining the difference of the pixel values is limited to an intersecting area between two frame areas. This is because the non-intersecting area between adjacent frames taken at different times is relatively narrow compared with the entire area of the video frame, so that it is possible to detect the motion by only the pixel difference in the intersecting area. Therefore, Δi and Δj according to the movement variables ΔP and ΔT of the camera should be considered so that comparison can be made for the same pixel in two frames.
이와 같이 화소간 비교를 통해 차를 구할 때의 문제는 각 프레임의 영상들은 조도, 초점 등과 같은 주변환경에 영향을 받기 때문에 동일 장면임에도 불구하고 인접한 시간에서 취해진 두 프레임간에 대응하는 위치의 화소값이 동일하지 않다는 것이다. 따라서 이러한 환경에 따른 가변성을 수용할 수 있도록 임계치를 두어, 해당 위치의 차 연산 결과가 임계치 이하인 경우는 동일한 화소값으로 간주하고, 그 보다 큰 차이를 가지면 이동 객체가 위치한 것으로 간주한다.Since the images of each frame are influenced by the surrounding environment such as illuminance and focus, the pixel value at the corresponding position between two frames taken at the adjacent time It is not the same. Therefore, a threshold value is set so as to accommodate the variability according to such an environment. When the difference calculation result of the position is less than the threshold value, the pixel value is regarded as the same pixel value.
도 4는 프레임간의 누적 움직임벡터 값과 객체영역을 설정하는 예를 설명하기 위해 도시한 도면이다.FIG. 4 is a diagram illustrating an example of setting an accumulated motion vector value and an object region between frames.
움직이는 객체의 속성에는 객체의 크기 및 무게중심, 객체의 움직임 벡터등을 이용할 수 있다. 수학식 2를 표현한다면 면적 기여도별로 누적시킨 MV에서 누적값이 9 픽셀(pixel) 이상의 값이 나오면 주변의 블록도 객체가 반절 이상 겹쳐져 있는 형태를 가지므로 그 주변의 블록도 객체의 영역으로 확장을 한다. 또 12 픽셀 이상의 경우는 해당 블록에서 객체가 거의 빠져나간 형태라고 간주하며 해당 블록을 객체 영역이 아닌 배경 영역으로 제거하며 BMA를 이용하여 가장 비슷한 부분을 찾아 새롭게 객체 영역을 설정한다.The attributes of the moving object can be the size of the object, the center of gravity, and the motion vector of the object. If Equation (2) is expressed, if the cumulative value of the MV accumulated by the area contribution is greater than 9 pixels, the neighboring block has the shape of the object overlapping more than half a circle. do. In the case of more than 12 pixels, it is considered that the object is almost exited from the corresponding block, and the corresponding block is removed as the background area instead of the object area, and a new object area is set by finding the most similar part using BMA.
[수학식 2]&Quot; (2) "
화면 내의 모션벡터를 검출을 하기 위해서는 먼저 영상의 주체를 파악해야 한다. 대부분의 영상에서 모션베이스 제어를 위한 영상의 주체는 배경이 주로 많이 사용된다. 그 이유는 객체를 중심으로 하는 3인칭 시점의 장면이 많고 객체가 움직일 때 객체를 중심으로 배경이 움직이는 장면이 많기 때문이다. 그렇기 때문에 배경의 움직임에 따라 모션 베이스 제어를 하는 경우가 많다.In order to detect a motion vector in the screen, the subject of the image must first be grasped. In most of the images, the subject of the motion base control is mostly used as the background. The reason for this is that there are many scenes in the third person centered around the object and there are many scenes where the background moves around the object when the object moves. Therefore, motion-based control is often performed according to background motion.
객체가 영상의 주체가 될 때의 특징은 일반적으로 배경의 움직임은 거의 없고 객체가 움직이거나 이동하는 것이다. 이에 기초하여, 기준영상 선택부(110)는 움직임벡터가 설정된 값 이상이 되는 시작 영상을 기준영상으로 선택할 수 있다. 그러나, 기준영상 선택부(110)가 기준영상의 선택방법은 기재된 방법에 한정되지 않으며, 다양한 방법이 이용될 수 있다.When an object becomes a subject of an image, the characteristic is generally that there is little background motion and the object moves or moves. On the basis of this, the reference image selector 110 can select a start image having a motion vector equal to or greater than a set value as a reference image. However, the method of selecting the reference image by the reference image selection unit 110 is not limited to the described method, and various methods can be used.
차연산 수행부(120)는 화면 내의 영상의 특성을 판별하기 위해서는 먼저 BMA을 이용하여 영상 전체의 모션벡터를 산출할 수 있다. 그 다음으로 블록단위의 모션벡터를 영상의 크기에 따라 도 5에 도시한 바와 같이 임의의 크기를 갖는 9개의 로컬모션벡터(LMV; Local Motion Vector)로 나누고 나누어진 9개의 LMV의 값을 이용하여 영상의 특성을 파악할 수 있다.The difference
우선 9 탐색영역(Search Range)을 지정한 후 16×16 블록 단위로 모션벡터를 생성한다. 이때 9 탐색영역의 범위는 임의대로 변경할 수 있다. First, 9 search areas are specified, and motion vectors are generated in units of 16 × 16 blocks. At this time, the range of the 9 search areas can be arbitrarily changed.
도 6은 본 발명의 실시예에 따른 카메라의 이동제어방법을 나타낸 흐름도이다.6 is a flowchart illustrating a camera movement control method according to an embodiment of the present invention.
도 1 내지 도 6을 참조하면, 기준영상 선택부(110)는 입력되는 영상신호에서 기준영상을 선택한다(S110).1 to 6, the reference image selector 110 selects a reference image from an input image signal (S110).
차연산 수행부(120)는 기준영상 선택부(110)에 의해 선택된 기준영상을 기준으로 현재 영상에 대한 차연산을 수행한다(S120). 이때, 차연산 수행부(120)는, 화면 내의 영상을 임의의 크기를 갖는 탐색영역으로 나누고, 각각의 탐색영역에 대한 모션벡터를 생성하여 차연산을 수행할 수 있다. 또한, 차연산 수행부(120)는, 현재 영상에 대하여 차연산의 결과가 임계값보다 작으면, 다음 영상에 대하여 차연산을 수행할 수 있다.The difference
움직임벡터 산출부(130)는 차연산 수행부(120)에 의해 수행된 차연산의 결과가 설정된 임계값 이상이면, 현재 영상과 기준영상에 기초하여 객체의 움직임을 추정하며 예측움직임벡터를 산출한다(S130). 즉, 움직임벡터 산출부(130)는 객체의 이동속도가 설정된 값 이상으로 빠를 경우에 움직임벡터를 예측하고, 다음 영상을 예측한다.The
이동방향 제어부(140)는 움직임벡터 산출부(130)에 의해 산출된 예측움직임벡터에 기초하여 카메라의 이동방향을 제어한다(S140). The movement
본 발명의 실시예에서는 블록 정합법을 이용해 영상 전체를 계산한 GMV(Global Motion Vector) 생성 및 추출과, 사용자 임의로 블록의 범위를 지정 후 MV를 추출하는 방법을 선택하였다. 위의 방법은 Visual Studio 10소프트웨어를 사용하여 실험하였으며, 실험에는 미리 녹화된 CIF 포맷의 영상 데이터를 사용하였다. 화면이 급작스럽게 변환되는 영상은 배제를 하여 실험을 진행하였다. 차연산에 대한 임계값은 30으로 두고 실험을 진행하였다. 차연산 임계값보다 낮은 경우는 배경과 객체의 움직임 변화가 있으나 미미하다고 판단하며, 계속 영상을 분석한다. 움직임 추정 과정에서 얻어진 MV에 따른 움직임 방향을 판단하는 방법은 다음과 같다. In the embodiment of the present invention, GMV (Global Motion Vector) generation and extraction are performed using the block matching method. The above method was experimented by using Visual Studio 10 software. In the experiment, pre-recorded CIF format image data was used. Experiments were carried out by excluding video images whose images were suddenly converted. The threshold value for the difference operation was set to 30, and the experiment was conducted. If the difference is lower than the threshold, the motion of the background and the object is considered to be small, but the motion is continuously analyzed. A method of determining the direction of motion according to the MV obtained in the motion estimation process is as follows.
즉, x, y의 값중 어느 한 값이 임계값인 2 또는 -2 이상일 경우에만 이동방향 정보를 사용한다. 만약 두 값이 모두 임계값 미만인 경우 이동방향 정보를 사용하지 않고 다시 영상분석을 실행한다. 먼저 첫 번째 프레임과 두 번째 프레임을 입력받고, 두 프레임간 움직임 예측(Motion Estimation: ME)을 수행한다. 그 후 얻어진 MV를 통해서 예측프레임(Prediction Frame)과 에러 영상(Error Image)을 얻어내며, MV의 평균으로 상, 하, 좌, 우의 이동방향을 얻어낸다. That is, the moving direction information is used only when any one of the values of x and y is equal to or greater than the threshold value of 2 or -2. If both of the values are less than the threshold value, the image analysis is performed again without using the moving direction information. First, the first frame and the second frame are input, and motion estimation (ME) between the two frames is performed. Then, a prediction frame (Prediction Frame) and an error image (Error Image) are obtained through the obtained MV, and the moving directions of the up, down, left, and right are obtained as an average of MV.
도 7의 시뮬레이션에 사용된 프레임은 Tabletennis 과 Harry Potter영상이다. 첫 번째와 두 번째 프레임 사이에서 MV를 얻어내고, 이를 통해서 세 번째의 예측 영상을 얻어냈다. 이렇게 얻어진 예측 영상을 다음 기준영상으로 등록한 후 이어지는 다음 프레임을 이용해 같은 처리를 한다. 첫 번째로 영상 내 프레임 간격을 10으로 했을 때 얻어낸 MV를 얻어내는 실험에서 영상의 전체 범위를 연산하여 얻어낸 MV와 연산시간은 도 8과 같다.The frames used in the simulation of Fig. 7 are Tabletennis and Harry Potter images. The MV is obtained between the first and second frames, and the third prediction image is obtained. After the prediction image thus obtained is registered as the next reference image, the same process is performed using the following frame. First, the MV obtained by calculating the entire range of the image and the calculation time in the experiment for obtaining the MV obtained when the frame interval in the image is 10 is shown in FIG.
영상 내 프레임 간격이 짧은 경우 배경과 객체의 움직임이 미미하므로 차연산 과정에서 임계값에 의해서 움직임이 없는 것으로 판별된다. HarryPotter영상의 경우 영상의 움직임이 매우 빠르다. 이런 경우 배경과 객체의 변화폭이 커서 차연산 과정에서 움직임이 있는 것으로 판별된다. 이후의 MV 값은 3, 0으로 우측 방향에 대한 이동방향을 얻었다.If the frame interval in the image is short, the movement of the background and the object is small. Therefore, it is determined that there is no motion due to the threshold value in the difference calculation process. In case of Harry Potter image, the motion of the image is very fast. In this case, the variation of the background and the object is large, and it is determined that there is motion in the difference calculation process. The subsequent MV values were 3 and 0, and the direction of movement with respect to the right direction was obtained.
9-Search Range를 이용한 도 9의 결과도 도 8과 마찬가지로 차연산 과정에서 배경과 객체의 움직임이 미미한 경우 MV연산을 하지 않는다. 배경과 객체의 변화폭이 큰 HarryPotter 영상은 차연산 이후의 MV연산을 수행하며, MV 값은 2, 0으로 우측 방향에 대한 이동방향을 얻었다.The result of FIG. 9 using the 9-Search Range is not MV computed when the motion of the background and the object is insignificant as in FIG. In the Harry Potter image with a large variation of the background and object, the MV operation after the difference operation is performed, and the MV direction is 2, 0, and the movement direction to the right direction is obtained.
도 10의 데이터는 영상의 프레임간격을 40으로 하여 얻어낸 MV결과이다. Tabletennis의 경우엔 움직임의 주체가 작은 탁구공이라 프레임을 늘려도 차연산 과정에서 임계값에 의해 움직임이 없다고 판별되었다. 다른 영상의 경우엔 프레임 간격이 늘어남에 따라 움직임 추정과정이 실행되었으며, 각 영상에 대한 이동방향을 얻어내었다.The data in FIG. 10 is the MV result obtained by setting the frame interval of the image to 40. FIG. In the case of Tabletennis, the subject of the movement is a small table tennis ball. In the case of other images, the motion estimation process was performed as the frame interval increased, and the direction of movement for each image was obtained.
도 11의 데이터는 도 10과 동일한 프레임에서 9-Search Range를 이용해 얻은 이동방향이다. 전역 움직임 추정에 비해서 연산시간이 줄어든 것을 확인할 수 있으며, MV도 전역 움직임 추정과 비슷한 값을 얻었다. MV에 따라 상, 하, 좌, 우의 이동방향 값도 얻어내었다.The data in Fig. 11 is the moving direction obtained by using the 9-Search Range in the same frame as Fig. The computation time is reduced compared to global motion estimation, and MV is similar to global motion estimation. The moving direction values of up, down, left, and right according to MV were also obtained.
본 발명의 실시예에서는 영상의 프레임간 MV추출과 이를 이용한 예측 영상, 그리고 이동 방향 데이터를 얻어내었다. 실제 영상과 예측 영상을 비교했을 때 육안으로 보기에도 거의 비슷한 움직임 방향과 영상을 얻어낼 수 있는 것을 확인하였다. 이 실험으로 얻어낸 이동방향 데이터를 이용해 카메라 장비가 고정된 위치를 감시하는 것이 아닌, 이동방방 지정정보를 바탕으로 좀 더 능동적으로 감시하는 것이 가능하다. In the embodiment of the present invention, MV extraction between frames of an image, a predicted image using the extracted MV, and moving direction data are obtained. When comparing the actual image with the predicted image, it was confirmed that almost similar motion direction and image can be obtained even with the naked eye. It is possible to monitor more actively based on the moving direction designation information, rather than monitoring the fixed position of the camera equipment using the moving direction data obtained by this experiment.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.The present invention is not necessarily limited to these embodiments, as all the constituent elements constituting the embodiment of the present invention are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer-readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer, thereby implementing embodiments of the present invention. As the storage medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, or the like may be included.
또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이며, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 따라서, 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. In addition, the embodiments disclosed in the present invention are not intended to limit the scope of the present invention but to limit the scope of the technical idea of the present invention. Accordingly, the scope of protection of the present invention should be construed according to the claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the present invention.
Claims (6)
상기 기준영상 선택부에 의해 선택된 기준영상을 기준으로 현재 영상에 대한 차연산을 수행하는 차연산 수행부;
상기 차연산 수행부에 의해 수행된 차연산의 결과가 설정된 임계값 이상이면, 현재 영상과 기준영상에 기초하여 객체의 움직임을 추정하며 예측움직임벡터를 산출하는 움직임벡터 산출부; 및
상기 움직임벡터 산출부에 의해 산출된 예측움직임벡터에 기초하여 카메라의 이동방향을 제어하는 이동방향 제어부
를 포함하는 것을 특징으로 하는 카메라의 이동제어장치.
A reference image selection unit for selecting a reference image from an input image signal;
A difference calculation unit for performing a difference operation on the current image based on the reference image selected by the reference image selection unit;
A motion vector calculator for estimating a motion of an object based on a current image and a reference image and calculating a predicted motion vector when the result of the difference computation performed by the difference computation unit is greater than or equal to a preset threshold value; And
And a motion direction control unit for controlling a moving direction of the camera based on the predicted motion vector calculated by the motion vector calculation unit,
And a controller for controlling the movement of the camera.
상기 차연산 수행부는,
화면 내의 영상을 임의의 크기를 갖는 탐색영역으로 나누고, 각각의 탐색영역에 대한 모션벡터를 생성하여 차연산을 수행하는 것을 특징으로 하는 카메라의 이동제어장치.
The method according to claim 1,
Wherein the difference operation performing unit comprises:
Wherein the motion of the camera is calculated by dividing the image in the screen into search regions having an arbitrary size and generating motion vectors for the respective search regions.
상기 차연산 수행부는,
현재 영상에 대하여 차연산의 결과가 임계값보다 작으면, 다음 영상에 대하여 차연산을 수행하는 것을 특징으로 하는 카메라의 이동제어장치.
The method according to claim 1,
Wherein the difference operation performing unit comprises:
Wherein if the result of the difference operation is smaller than the threshold value, the difference operation is performed on the next image.
상기 기준영상 선택단계에 의해 선택된 기준영상을 기준으로 현재 영상에 대한 차연산을 수행하는 단계;
상기 차연산 수행단계에 의해 수행된 차연산의 결과가 설정된 임계값 이상이면, 현재 영상과 기준영상에 기초하여 객체의 움직임을 추정하며 예측움직임벡터를 산출하는 단계; 및
상기 움직임벡터 산출단계에 의해 산출된 예측움직임벡터에 기초하여 카메라의 이동방향을 제어하는 단계
를 포함하는 것을 특징으로 하는 카메라의 이동제어방법.
Selecting a reference image from an input video signal;
Performing a difference operation on the current image based on the reference image selected by the reference image selection step;
Estimating a motion of an object based on a current image and a reference image and calculating a predicted motion vector if the result of the difference operation performed by the difference operation performing step is greater than a preset threshold value; And
Controlling the moving direction of the camera based on the predicted motion vector calculated by the motion vector calculating step
And moving the camera to a predetermined position.
상기 차연산 수행단계는,
화면 내의 영상을 임의의 크기를 갖는 탐색영역으로 나누고, 각각의 탐색영역에 대한 모션벡터를 생성하여 차연산을 수행하는 것을 특징으로 하는 카메라의 이동제어방법.
5. The method of claim 4,
The step of performing the difference operation includes:
A moving image is divided into a search area having an arbitrary size and a motion vector is generated for each search area to perform a difference operation.
상기 차연산 수행단계는,
현재 영상에 대하여 차연산의 결과가 임계값보다 작으면, 다음 영상에 대하여 차연산을 수행하는 것을 특징으로 하는 카메라의 이동제어방법.
5. The method of claim 4,
The step of performing the difference operation includes:
And performing a difference operation on the next image if the result of the difference operation on the current image is smaller than the threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120154297A KR101456340B1 (en) | 2012-12-27 | 2012-12-27 | Camera Movement Control Apparatus and Method using Motion Vector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120154297A KR101456340B1 (en) | 2012-12-27 | 2012-12-27 | Camera Movement Control Apparatus and Method using Motion Vector |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140084636A true KR20140084636A (en) | 2014-07-07 |
KR101456340B1 KR101456340B1 (en) | 2014-11-03 |
Family
ID=51734483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120154297A KR101456340B1 (en) | 2012-12-27 | 2012-12-27 | Camera Movement Control Apparatus and Method using Motion Vector |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101456340B1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR950026285A (en) * | 1994-02-04 | 1995-09-18 | 김광호 | Method and device for controlling camera direction of video phone |
KR20080017521A (en) * | 2006-08-21 | 2008-02-27 | 문철홍 | Method for multiple movement body tracing movement using of difference image |
KR101219126B1 (en) * | 2011-04-29 | 2013-01-09 | 조선대학교산학협력단 | Control Method And System According to Image Motion Information Estimated with Image Characteristic |
-
2012
- 2012-12-27 KR KR1020120154297A patent/KR101456340B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101456340B1 (en) | 2014-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10404917B2 (en) | One-pass video stabilization | |
JP6213843B2 (en) | Image processing system, image processing method, and program | |
US8948448B2 (en) | Method and apparatus for trajectory estimation, and method for segmentation | |
US8289402B2 (en) | Image processing apparatus, image pickup apparatus and image processing method including image stabilization | |
CN101236656B (en) | Movement target detection method based on block-dividing image | |
KR100985805B1 (en) | Apparatus and method for image stabilization using adaptive Kalman filter | |
KR20180084085A (en) | METHOD, APPARATUS AND ELECTRONIC DEVICE | |
JP2010258710A5 (en) | ||
CN106663325B (en) | Image processing apparatus and image processing method thereof | |
CN112703533A (en) | Object tracking | |
KR102274320B1 (en) | Method and apparatus for processing the image | |
JP6292540B2 (en) | Information processing system, information processing method, and program | |
JP4496992B2 (en) | Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium | |
KR101896307B1 (en) | Method and apparatus for processing depth image | |
JP5177030B2 (en) | Target tracking device | |
JP6613976B2 (en) | Imaging control program, imaging control method, and imaging control apparatus | |
JPWO2016185708A1 (en) | Image processing apparatus, image processing method, and image processing program | |
KR20160048428A (en) | Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera | |
JP2012181710A (en) | Object tracking device, method and program | |
KR101456340B1 (en) | Camera Movement Control Apparatus and Method using Motion Vector | |
US20190327390A1 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
Sincan et al. | Moving object detection by a mounted moving camera | |
JP2018028864A (en) | Camera calibration device, method, and program | |
JP2006302115A (en) | Object detection method and object detection device | |
KR20160043484A (en) | Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170901 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180917 Year of fee payment: 5 |