KR101460317B1 - Detection apparatus of moving object in unstable camera environment and method thereof - Google Patents

Detection apparatus of moving object in unstable camera environment and method thereof Download PDF

Info

Publication number
KR101460317B1
KR101460317B1 KR1020130035247A KR20130035247A KR101460317B1 KR 101460317 B1 KR101460317 B1 KR 101460317B1 KR 1020130035247 A KR1020130035247 A KR 1020130035247A KR 20130035247 A KR20130035247 A KR 20130035247A KR 101460317 B1 KR101460317 B1 KR 101460317B1
Authority
KR
South Korea
Prior art keywords
image
moving object
camera
affine motion
motion
Prior art date
Application number
KR1020130035247A
Other languages
Korean (ko)
Other versions
KR20140119989A (en
Inventor
백준기
이승원
김나현
백인호
Original Assignee
중앙대학교 산학협력단
(주) 넥스트칩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단, (주) 넥스트칩 filed Critical 중앙대학교 산학협력단
Priority to KR1020130035247A priority Critical patent/KR101460317B1/en
Publication of KR20140119989A publication Critical patent/KR20140119989A/en
Application granted granted Critical
Publication of KR101460317B1 publication Critical patent/KR101460317B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Abstract

불안정(unstable)한 카메라 환경에서 촬영된 이미지로부터 이동 객체를 검출하는 이동 객체 검출 장치가 개시된다. 카메라 움직임 추정부는 연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정한다. 이동 객체 검출부는 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 연속되는 복수의 영상으로부터 이동 객체를 검출한다. 본 발명에 따르면, 고정되지 않은 이동성을 가진 불안정한 카메라 환경에서도 카메라의 움직임을 포착하여 이동 객체를 정확하게 검출할 수 있다. A moving object detection apparatus for detecting a moving object from an image photographed in an unstable camera environment is disclosed. The camera motion estimator estimates the motion of the camera by estimating an affine matrix from a plurality of consecutive images. The moving object detection unit detects a moving object from a plurality of consecutive images using the difference of Gaussian based on the estimated camera motion. According to the present invention, movement of a camera can be detected even in an unstable camera environment having non-fixed mobility, thereby accurately detecting a moving object.

Description

불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법{Detection apparatus of moving object in unstable camera environment and method thereof}[0001] The present invention relates to an apparatus and method for detecting a moving object in an unstable camera environment,

본 발명은 불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법에 관한 것으로, 더욱 상세하게는, 불안정한(unstable) 카메라 환경에서 카메라의 움직임을 포착하여 이동 객체를 검출하는 불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for detecting a moving object in an unstable camera environment, and more particularly, to a moving object detecting apparatus and method in an unstable camera environment that captures camera movement in an unstable camera environment, And methods.

이동 객체 검출은 컴퓨터 비젼, 비디오 프로세싱에서 가장 기본적인 문제이고, 이는 로봇 비젼, 휴먼 컴퓨터 인터페이스 그리고 PTZ(Pan-Tilt-Zoom) 카메라 또는 UVA(Unmanned Aerial Vehicle) 카메라를 포함하는 다양한 형태의 카메라를 이용하는 지능형 감시 시스템과 같은 전자제품 영역에 널리 적용되고 있다. Moving object detection is the most fundamental problem in computer vision and video processing, and it is an intelligent type that uses various types of cameras including robot vision, human computer interface and PTZ (Pan-Tilt-Zoom) camera or UVA (Unmanned Aerial Vehicle) And is widely applied to electronic products such as surveillance systems.

이와 관련된 선행기술을 구체적으로 살펴보면, 한국공개공보 제2007-0068408호(발명의 명칭 : 카메라 움직임 추정 방법 및 비디오 움직임 식별 장치)에는 카메라 움직임 분석 및 이동 물체 분석을 위한 방법 및 시스템과 샷 변경 없이도 비디오 및 비디오 세그먼트 내의 카메라 움직임 파라미터들로부터 주로 시멘틱을 추출하는 방법을 개시하고 있다. Korean Patent Publication No. 2007-0068408 entitled " Camera motion estimation method and video motion identification device ") discloses a method and system for camera motion analysis and moving object analysis, And a method for extracting primarily semantics from camera motion parameters in a video segment.

또한, 한국공개공보 제2012-0125045호(발명의 명칭 : 물체 추적 장치 및 방법)에는 물체를 추적함에 있어 물체가 아핀 변환이 아닌 비 아핀 변환을 보일 때 부분적인 가려짐이 있을 때 물체를 구성하는 로컬 패치의 탄성적 구조를 활용하여 우수한 성능으로 물체를 추적하고, 실시간 추적을 가능하게 하는 물체 추적 방법 및 장치를 개시하고 있다. In addition, Korean Laid-Open Publication No. 2012-0125045 (entitled " object tracking device and method ") describes a method for tracking an object when an object exhibits non-affine transformation rather than affine transformation, Discloses an object tracking method and apparatus for tracking an object with excellent performance utilizing a resilient structure of a local patch and enabling real-time tracking.

본 발명이 이루고자 하는 기술적 과제는, 고정되지 않은 이동성을 가진 불안정한 카메라 환경에서도 카메라의 움직임을 포착하여 이동 객체를 검출할 수 있는 불안정한 카메라 환경에서의 이동 객체 검출 장치를 제공하는 데 있다. An object of the present invention is to provide an apparatus for detecting a moving object in an unstable camera environment capable of detecting a moving object by capturing motion of a camera even in an unstable camera environment having a non-fixed mobility.

본 발명이 이루고자 하는 다른 기술적 과제는, 고정되지 않은 이동성을 가진 불안정한 카메라 환경에서도 카메라의 움직임을 포착하여 이동 객체를 검출할 수 있는 불안정한 카메라 환경에서의 이동 객체 검출 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. Another object of the present invention is to provide a program for causing a computer to execute a method of detecting a moving object in an unstable camera environment capable of detecting a moving object by capturing motion of a camera even in an unstable camera environment having non- And a computer readable recording medium recorded thereon.

상기의 기술적 과제를 달성하기 위한 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치는, 불안정(unstable)한 카메라 환경에서 촬영된 이미지로부터 이동 객체를 검출하는 이동 객체 검출 장치에 있어서, 연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정하는 카메라 움직임 추정부; 및 상기 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 상기 연속되는 복수의 영상으로부터 이동 객체를 검출하는 이동 객체 검출부;를 구비한다. According to another aspect of the present invention, there is provided a moving object detection apparatus for detecting a moving object from an image photographed in an unstable camera environment, A camera motion estimator estimating an affine matrix from an image of the camera; And a moving object detection unit detecting a moving object from the plurality of consecutive images using a difference of Gaussian based on the estimated camera motion.

상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법은, 불안정(unstable)한 카메라 환경에서 촬영된 이미지로부터 이동 객체를 검출하는 이동 객체 검출 장치에 의해 수행되는 이동 객체 검출 방법에 있어서, (a) 연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정하는 카메라 움직임 추정 단계; 및 (b) 상기 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 상기 연속되는 복수의 영상으로부터 이동 객체를 검출하는 이동 객체 검출 단계;를 갖는다. According to another aspect of the present invention, there is provided a method of detecting a moving object in an unstable camera environment, the method comprising: detecting a moving object from an image captured in an unstable camera environment; A method for detecting an object, comprising the steps of: (a) estimating an affine matrix from a plurality of consecutive images to estimate a camera motion; And (b) a moving object detecting step of detecting a moving object from the plurality of consecutive images using a difference of Gaussian based on the estimated camera motion.

상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터로 읽을 수 있는 매체는 상기한 방법 중 어느 하나를 컴퓨터에서 실행시키기 위한 프로그램을 기록한다. According to another aspect of the present invention, there is provided a computer readable medium storing a program for causing a computer to execute any one of the above methods.

본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법에 의하면, 고정되지 않은 이동성을 가진 불안정한 카메라 환경에서도 카메라의 움직임을 포착하여 이동 객체를 정확하게 검출할 수 있다. The apparatus and method for detecting moving objects in an unstable camera environment according to the present invention can accurately detect a moving object by capturing camera movement even in an unstable camera environment having unfixed mobility.

도 1은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치의 구성을 도시한 블록도,
도 2는 본 발명에 따른 카메라 움직임 추정부의 구성을 도시한 블록도,
도 3은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법의 동작 과정을 도시한 흐름도,
도 4는 본 발명의 일실시예에 따른 카메라 움직임 추정 과정을 도시한 도면,
도 5는 본 발명의 일실시예에 따라 아핀 모델(affine model)을 이용하여 카메라 움직임을 추정한 결과를 도시한 도면,
도 6은 본 발명의 일실시예에 따라 가우시안 차(Difference of Gaussian)를 도시한 도면,
도 7은 본 발명의 일실시예에 따른 이동 객체 검출 과정을 도시한 도면, 그리고,
도 8 내지 도 11은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법을 적용하여 수행된 결과를 도시한 도면이다.
FIG. 1 is a block diagram showing a configuration of an apparatus for detecting a moving object in an unstable camera environment according to the present invention.
2 is a block diagram illustrating the configuration of a camera motion estimator according to the present invention.
FIG. 3 is a flowchart illustrating an operation procedure of a moving object detection method in an unstable camera environment according to the present invention;
4 is a flowchart illustrating a camera motion estimation process according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a result of camera motion estimation using an affine model according to an embodiment of the present invention. FIG.
FIG. 6 is a diagram illustrating a Gaussian difference according to an embodiment of the present invention. FIG.
7 is a diagram illustrating a moving object detection process according to an embodiment of the present invention,
FIGS. 8 to 11 are views illustrating results of a moving object detection method in an unstable camera environment according to the present invention.

이하에서 첨부의 도면들을 참조하여 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of an apparatus and method for detecting moving objects in an unstable camera environment according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치의 구성을 도시한 블록도이고, 도 2는 본 발명에 따른 카메라 움직임 추정부의 구성을 도시한 블록도이다. 또한, 도 3은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법의 동작 과정을 도시한 흐름도이다. FIG. 1 is a block diagram showing a configuration of a moving object detecting apparatus in an unstable camera environment according to the present invention, and FIG. 2 is a block diagram showing the configuration of a camera motion estimating unit according to the present invention. 3 is a flowchart illustrating an operation procedure of a moving object detection method in an unstable camera environment according to the present invention.

도 1을 참조하면, 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치(이하, '이동 객체 검출 장치'라 함)(100)는 카메라 움직임 추정부(200)와 이동 객체 검출부(300)로 구성된다. Referring to FIG. 1, a moving object detecting apparatus (hereinafter, referred to as 'moving object detecting apparatus') 100 in an unstable camera environment according to the present invention includes a camera motion estimating unit 200 and a moving object detecting unit 300 .

고정된 cctv와는 달리 고정된 영역을 촬영하는 것이 아닌, 이동 객체를 따라 좌우, 상하로 이동하는 카메라는 실제 이동 객체(moving object)를 촬영하면서 카메라 자체 움직임이 발생하게 된다. 따라서 이동 객체를 검출함에 앞서 카메라의 움직임을 먼저 추정해야 한다. 즉, 도 3에 도시된 바와 같이 본 발명에 따른 이동 객체 검출 장치 및 방법은 모션 보상(motion compensation)을 위한 카메라 움직임을 추정하는 단계와 객체 검출 단계로 구성된다. Unlike a fixed cctv camera, a camera that moves left and right and up and down along a moving object instead of capturing a fixed area moves the camera itself while taking a moving object. Therefore, it is necessary to estimate the motion of the camera before detecting the moving object. That is, as shown in FIG. 3, the moving object detecting apparatus and method according to the present invention comprises a step of estimating camera motion for motion compensation and an object detecting step.

따라서 카메라 움직임 추정부(200)는 연속되는 복수의 영상을 이용하여 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정한다. Therefore, the camera motion estimation unit 200 estimates the motion of the camera by estimating an affine matrix using a plurality of consecutive images.

구체적으로, 도 2를 참조하면, 카메라 움직임 추정부(200)는 로컬 아핀 모션(local affine motion) 추정부(210)와 글로벌 아핀 모션(global affine motion) 추정부(220)로 이루어진다. 2, the camera motion estimation unit 200 includes a local affine motion estimator 210 and a global affine motion estimator 220. The local affine motion estimator 210 and the global affine motion estimator 220 are the same as those of FIG.

로컬 아핀 모션 추정부(210)는 카메라로부터 획득된 임의의 영상에서 셋 이상의 임의의 영역(region)을 선택하여 아핀 모션(affine motion) 기반의 옵티컬 플로우(optical flow) 알고리즘을 이용하여 로컬 아핀 모션을 추정한다. 도 4의 (a)에 도시된 바와 같이, 어느 영상에서 네 영역(점선으로 된 영역)을 선택하고, 각 영역에서 로컬 아핀 모션을 추정한다. 이때 영상 내의 영역은 사용자가 미리 설정하거나, 관리자가 임의로 설정해 줄 수 있다. 또한, 선택되는 영역의 갯수는 셋 이상인 것이 바람직하다. The local affine motion estimator 210 selects an arbitrary region from three or more images in an arbitrary image obtained from the camera and performs a local affine motion using an optical flow algorithm based on an affine motion . As shown in Fig. 4 (a), four regions (dotted line regions) are selected from an image, and local affine motion is estimated in each region. At this time, the area in the image may be preset by the user or may be set by the administrator. It is also preferable that the number of selected regions is three or more.

이렇게 추정된 로컬 아핀 모션을 토대로 글로벌 아핀 모션 추정부(220)는 연속되는 복수의 영상으로부터 앞서 선택된 네 영역 내의 중심점이 각각 어느 정도 이동하였는지 분석하여 글로벌 아핀 모션을 추정하게 된다. 도 4의 (b)에 도시된 바와 같이, 선택된 네 영역 내의 중심점이 각각 어디로 이동하였는지 분석하여 글로벌 아핀 모션을 추정할 수 있다. Based on the estimated local affine motion, the global affine motion estimator 220 estimates the global affine motion by analyzing how far the center points in the previously selected four regions have shifted from the successive multiple images. As shown in FIG. 4 (b), global affine motion can be estimated by analyzing where the center points in the selected four regions have moved.

나아가, 도 4의 (c)에 도시된 바와 같이 에러를 최소화하기 위해 글로벌 아핀 모션 추정 후 리파인(refine) 과정을 거쳐 최종 글로벌 아핀 모션을 추정할 수 있다.Further, as shown in FIG. 4 (c), a global affine motion estimation may be performed through a global affine motion estimation and a refine process to minimize an error.

일반적인 아핀 변환(affine transformation)은 다음 수학식 1과 같이 표현될 수 있다. The general affine transformation can be expressed as: < EMI ID = 1.0 >

Figure 112013028196914-pat00001
Figure 112013028196914-pat00001

여기서,

Figure 112013028196914-pat00002
는 아핀 카메라 모델 매트릭스(affine camera model matrix),
Figure 112013028196914-pat00003
는 선형 아핀 파라미터(linear affine parameter), 그리고,
Figure 112013028196914-pat00004
는 변형된 파라미터(translation parameter)를 의미한다. here,
Figure 112013028196914-pat00002
Is an affine camera model matrix,
Figure 112013028196914-pat00003
Is a linear affine parameter,
Figure 112013028196914-pat00004
Quot; means a translation parameter.

로컬 아핀 모션은 아핀 모델 기반의 옵티컬 플로우(optical flow) 방법을 사용하여 추정된다. 구체적으로, 현 영상 내의 임의의 영역을 I(x, y, t)라고 하면, 다음(subsequent) 영상 내의 동일 영역은 I(x, y, t+1)이며, 움직임 추정은 상술한 두 영상 사이에서 아핀 변환을 이용하여 움직임의 추정이 시작된다. 아핀 매트릭스를 추정하기 위해 다음 수학식 2의 2차 에러 함수(quadratic error function)를 최소화할 수 있다. Local affine motion is estimated using an optical flow method based on the affine model. Specifically, assuming that an arbitrary area in the current image is I (x, y, t), the same area in the subsequent image is I (x, y, t + 1) The motion estimation is started using the affine transformation. To estimate the affine matrix, a quadratic error function of the following equation (2) can be minimized.

Figure 112013028196914-pat00005
Figure 112013028196914-pat00005

여기서,

Figure 112013028196914-pat00006
, 그리고,
Figure 112013028196914-pat00007
는 전체 영역을 의미한다. here,
Figure 112013028196914-pat00006
, And,
Figure 112013028196914-pat00007
Means the entire area.

수학식 2의

Figure 112013028196914-pat00008
Figure 112013028196914-pat00009
의 비선형 함수이기 때문에 에러값을 최소화하기 위해서는 다음 수학식 3을 이용하여 선형화해야 한다. In Equation (2)
Figure 112013028196914-pat00008
The
Figure 112013028196914-pat00009
, It is necessary to linearize the error value using the following equation (3).

Figure 112013028196914-pat00010
Figure 112013028196914-pat00010

여기서,

Figure 112013028196914-pat00011
Figure 112013028196914-pat00012
는 수평/수직 방향의
Figure 112013028196914-pat00013
의 공간 미분(spatial derivative), 그리고,
Figure 112013028196914-pat00014
Figure 112013028196914-pat00015
의 시간 미분(temporal derivative)을 의미한다. here,
Figure 112013028196914-pat00011
Wow
Figure 112013028196914-pat00012
Horizontal / vertical direction
Figure 112013028196914-pat00013
And the spatial derivative of
Figure 112013028196914-pat00014
The
Figure 112013028196914-pat00015
And a temporal derivative of < / RTI >

수학식 3에 기재된 에러 함수는 용어를 재정렬하여 다음 수학식 4와 같이 단순화 시킬 수 있다. The error function described in Equation (3) can be rearranged to simplify the following Equation (4).

Figure 112013028196914-pat00016
Figure 112013028196914-pat00016

여기서,

Figure 112013028196914-pat00017
이다. here,
Figure 112013028196914-pat00017
to be.

Figure 112013028196914-pat00018
Figure 112013028196914-pat00019
의 2차 함수이기 때문에 상술한 에러값을 최소화하는 벡터
Figure 112013028196914-pat00020
를 위한 솔루션은
Figure 112013028196914-pat00021
관점에서 미분하여 결과값을 0(zero)으로 만드는 것이다. 따라서 벡터
Figure 112013028196914-pat00022
에 대해 해결되어야 하는 선형 방정식의 집합은 다음 수학식 5와 같다.
Figure 112013028196914-pat00018
The
Figure 112013028196914-pat00019
, The vector minimizing the above error value
Figure 112013028196914-pat00020
The solution for
Figure 112013028196914-pat00021
From the point of view, the result is differentiated to 0 (zero). Therefore,
Figure 112013028196914-pat00022
The set of linear equations to be solved for Equation 5 is as follows.

Figure 112013028196914-pat00023
Figure 112013028196914-pat00023

여기서,

Figure 112013028196914-pat00024
는 6x6 매트릭스이다. 이때, 매트릭스
Figure 112013028196914-pat00025
는 역변환(invertible)이 된다는 보장은 없지만,
Figure 112013028196914-pat00026
Figure 112013028196914-pat00027
영역이 충분히 크고(large) 입력된 이미지가 충분한 콘텐트(content)를 가진다면 일반적으로 역변환될 것이다. here,
Figure 112013028196914-pat00024
Is a 6x6 matrix. At this time,
Figure 112013028196914-pat00025
Is not guaranteed to be invertible,
Figure 112013028196914-pat00026
The
Figure 112013028196914-pat00027
If the region is large enough and the input image has sufficient content, it will generally be inversely transformed.

아핀 변환은 영상의 중심축을 기준으로 수행되며 중심점은 아핀 변환에 상관없이 변형(translation)에 대해서만 고려된다. 각 영역의 중심점은

Figure 112013028196914-pat00028
로 정의되며,
Figure 112013028196914-pat00029
이다.
Figure 112013028196914-pat00030
는 변형 벡터를 나타낸다. 변형에 의해 이동된 점
Figure 112013028196914-pat00031
은 다음 수학식 6에 기재된 바와 같이 정의된다. The affine transformation is performed based on the center axis of the image, and the center point is considered only for the transformation regardless of the affine transformation. The center point of each area is
Figure 112013028196914-pat00028
Lt; / RTI >
Figure 112013028196914-pat00029
to be.
Figure 112013028196914-pat00030
Represents a deformation vector. Point moved by deformation
Figure 112013028196914-pat00031
Is defined as shown in Equation (6) below.

Figure 112013028196914-pat00032
Figure 112013028196914-pat00032

Figure 112013028196914-pat00033
이 글로벌 아핀 모션
Figure 112013028196914-pat00034
에 의해
Figure 112013028196914-pat00035
로 이동된다고 했을 때 추정하고자 하는 모션
Figure 112013028196914-pat00036
는 최소 자승법을 이용하여 다음 수학식 7과 같이 계산할 수 있다.
Figure 112013028196914-pat00033
This global affine motion
Figure 112013028196914-pat00034
By
Figure 112013028196914-pat00035
The motion to be estimated
Figure 112013028196914-pat00036
Can be calculated by the following equation (7) using the least squares method.

Figure 112013028196914-pat00037
Figure 112013028196914-pat00037

더욱 세밀한

Figure 112013028196914-pat00038
를 추정하기 위해 최종 리파인(refine) 과정을 거칠 수 있다. 리파인 단계는 도 4 (c)에 도시된 바와 같이 다음 영상의
Figure 112013028196914-pat00039
를 사용하여 아핀 변환 후 이동된 영상과 현재 영상의 동일한 네 영역만을 가지고 가우시안 피라미드 스킴(Gaussian pyramid scheme)을 수행하지 않고 수학식 5를 이용하여 구한
Figure 112013028196914-pat00040
Figure 112013028196914-pat00041
에 보상하여 최종 아핀 매트릭스
Figure 112013028196914-pat00042
를 추정한다. More detailed
Figure 112013028196914-pat00038
A final refinement process may be performed to estimate the total number of users. As shown in Fig. 4 (c), in the refinement step,
Figure 112013028196914-pat00039
Using Equation 5 without performing a Gaussian pyramid scheme with only the same four regions of the shifted image and the current image after affine transformation,
Figure 112013028196914-pat00040
To
Figure 112013028196914-pat00041
Lt; RTI ID = 0.0 > affine matrix
Figure 112013028196914-pat00042
.

Figure 112013028196914-pat00043
Figure 112013028196914-pat00043

도 5는 추정된 카메라 움직임을 이용하여 입력 이미지에 대해 아핀 변환을 수행한 결과를 도시한 도면이다. 도 5의 (a)는 현재 영상을 나타내고, (b)는 다음 영상을 나타내고, (c)는 현재 영상과 다음 영상 간 차분 이미지를 나타내며, (d)는 현재 영상과 아핀 모델을 이용하여 보상된 다음 영상 간 차분 이미지를 나타내며, 그리고, (e)는 현재 영상과 리파인된 아핀 모델을 이용하여 보상된 다음 영상 간 차분 이미지를 나타낸다. FIG. 5 is a diagram illustrating a result of performing affine transformation on an input image using an estimated camera motion. FIG. 5A shows the current image, FIG. 5B shows the next image, FIG. 5C shows the difference image between the current image and the next image, FIG. (E) represents the next inter-image difference image compensated using the current image and the refined affine model.

이동 객체 검출부(300)는 추정된 카메라 움직임을 토대로 가우시안의 차(DoG: Difference of Gaussian)를 이용하여 연속되는 복수의 영상으로부터 이동 객체를 검출한다. 즉, 객체 검출 단계에서는 가우시안 차(DoG)를 사용한 프레임 디퍼런스 스킴(frame difference scheme)과 논파라메트릭 커널 덴서티 추정(non-parametric kernel density estimation) 알고리즘을 사용하여 이동 객체를 검출하게 된다. 이때, 복수의 영상은 3장의 영상을 이용하는 것이 바람직하다. The moving object detecting unit 300 detects a moving object from a plurality of consecutive images using Difference of Gaussian (DoG) based on the estimated camera motion. That is, in the object detection step, a moving object is detected using a frame difference scheme using a Gaussian difference (DoG) and a non-parametric kernel density estimation algorithm. At this time, it is preferable to use three images for a plurality of images.

프레임 디퍼런스 스킴(frame difference scheme)은 글로벌 아핀 모션 추정부(220)에 의해 추정된 글로벌 아핀 모션 매트릭스를 이용하여 다음 영상을 현재 영상으로 보상(compensation)하고, 이전 영상에서 추정된 글로벌 아핀 모션 매트릭스를 역 변환(inverse)하여 이전 영상을 현재 영상으로 보상한다. The frame difference scheme compensates the next image to the current image using the global affine motion matrix estimated by the global affine motion estimating unit 220 and calculates the global affine motion matrix And inversely transforms the previous image into a current image.

현재 영상과 현재 영상과 인접한 앞서 상술한 보상된 두 영상(다음 영상과 이전 영상)을 토대로 평균을 구한 평균 영상을 생성한다. 평균 영상 생성은 다음 수학식 9와 같이 정의된다. An average image obtained by averaging the current image and the compensated two images (the next image and the previous image) adjacent to the current image is obtained. The average image generation is defined by the following equation (9).

Figure 112013028196914-pat00044
Figure 112013028196914-pat00044

여기서,

Figure 112013028196914-pat00045
Figure 112013028196914-pat00046
은 보상된 이전 영상과 보상된 다음 영상을 의미한다. here,
Figure 112013028196914-pat00045
Wow
Figure 112013028196914-pat00046
Means the compensated previous image and the compensated next image.

평균 영상과 연속된 영상을 차분하면 아핀 모션 추정 오차와 아핀 변환 과정에서 사용되는 보간(interpolation)으로 인해 객체 검출 오차가 발생하게 된다. 이러한 문제를 보완하기 위해 현재 영상과 인접한 보상된 두 영상을 사용하여 평균 영상을 생성하는 것이고, 또한, 잡음(noise) 제거를 위해 평균 영상과 보상된 두 영상에 서로 다른 σ(sigma)를 가진 가우시안 블러를 수행한다. 다음으로 가우시안 차(DoG: Difference of Gaussian)를 이용하여 평균 영상과 보상된 두 영상을 각각 차분한다. 이렇게 생성된 두 개의 DoG 영상 생성은 다음과 같이 정의된다. When the average image and the continuous image are separated, object detection error occurs due to affine motion estimation error and interpolation used in the affine transformation process. In order to overcome this problem, an average image is generated using the compensated two images adjacent to the current image. In addition, in order to remove noise, the average image and the compensated two images have different sigma (sigma) Perform blur. Next, the difference between the average image and the compensated two images is obtained by using a Difference of Gaussian (DoG). The two generated DoG images are defined as follows.

Figure 112013028196914-pat00047
Figure 112013028196914-pat00047

Figure 112013028196914-pat00048
Figure 112013028196914-pat00048

여기서,

Figure 112013028196914-pat00049
는 가우시안 블러 커널을 의미한다. 가우시안 블러를 통해 잡음을 제거하면서 동시에 객체의 이동 영역을 검출할 수 있다. 도 6은 DoG를 사용한 결과 영상을 보여준다. 도 6의 (a)는 평균 영상을 나타내고, (b)는 보상된 이전 영상, (c)는 보상된 다음 영상을 나타내며, (d)는 (a)와 (b) 사이 DoG를 나타내며, 그리고, (e)는 (a)와 (c) 사이 DoG를 나타낸다. 즉, 도 6의 (d)와 (e)에 도시된 바와 같이, 객체가 이동하지 않은 영역은 DoG에 의해
Figure 112013028196914-pat00050
Figure 112013028196914-pat00051
가 동일한 값을 가지지만, 객체가 이동한 영역에서는
Figure 112013028196914-pat00052
Figure 112013028196914-pat00053
의 부호가 반대가 되는 특성을 가지게 된다. here,
Figure 112013028196914-pat00049
Means the Gaussian Blur kernel. Through the Gaussian blur, the moving region of the object can be detected simultaneously while the noise is removed. Figure 6 shows the resulting image using DoG. 6 (a) shows an average image, (b) shows a compensated previous image, (c) shows a compensated next image, (d) shows a DoG between (a) and (b) (e) represents DoG between (a) and (c). That is, as shown in (d) and (e) of FIG. 6, the area in which the object has not moved is determined by DoG
Figure 112013028196914-pat00050
and
Figure 112013028196914-pat00051
Has the same value, but in the area where the object moved
Figure 112013028196914-pat00052
and
Figure 112013028196914-pat00053
The sign of the sign is opposite.

즉, 차분하여 얻어진 차분 영상은 객체가 이동한 영역에서 그렇지 않은 영상과 부호가 반대가 되는 특성을 가지며, 이러한 특성으로부터 이동 객체를 검출할 수 있다. 즉, 상술한 특성을 사용하여 객체의 이동 영역을 검출하면 다음과 같다. In other words, the difference image obtained by subtraction has the characteristic that the image and the sign are opposite to each other in the region where the object moves, and the moving object can be detected from this characteristic. That is, when the moving region of the object is detected using the above-described characteristic, the following is obtained.

Figure 112013028196914-pat00054
Figure 112013028196914-pat00054

여기서,

Figure 112013028196914-pat00055
는 입력 값의 부호를 나타내고,
Figure 112013028196914-pat00056
는 잡음 제거를 위한 스레시홀드(threshold)이다. here,
Figure 112013028196914-pat00055
Represents the sign of the input value,
Figure 112013028196914-pat00056
Is a threshold for noise cancellation.

그러나 차분 영상은 객체 중심에 구멍(hole)이 생길 수 있으며, 여전히 잡음이 남아있을 수 있다. 따라서 이러한 문제를 해결하기 위해 논파라메트릭 커널 덴서티 추정(non-parametric kernel density estimation)을 통해 최종 객체 영역을 검출한다. However, the difference image may have a hole in the center of the object, and still noise may remain. Therefore, to solve this problem, non-parametric kernel density estimation is used to detect the final object area.

Figure 112013028196914-pat00057
Figure 112013028196914-pat00057

여기서,

Figure 112013028196914-pat00058
Figure 112013028196914-pat00059
가 1인 총 화소 개수이고,
Figure 112013028196914-pat00060
Figure 112013028196914-pat00061
Figure 112013028196914-pat00062
가 1인 화소의 좌표를 의미하며, 그리고,
Figure 112013028196914-pat00063
는 밴드위스(bandwidth)를 나타낸다.
Figure 112013028196914-pat00064
로부터 최종 객체 검출은 다음과 같이 정의된다. here,
Figure 112013028196914-pat00058
The
Figure 112013028196914-pat00059
Is the total number of pixels,
Figure 112013028196914-pat00060
Wow
Figure 112013028196914-pat00061
The
Figure 112013028196914-pat00062
Quot; 1 " means the coordinates of a pixel having " 1 &
Figure 112013028196914-pat00063
Represents a bandwidth.
Figure 112013028196914-pat00064
The final object detection is defined as follows.

Figure 112013028196914-pat00065
Figure 112013028196914-pat00065

여기서,

Figure 112013028196914-pat00066
은 객체 검출을 위한 스레쉬홀드(threshold)로 Otsu threshold를 사용하여 결정된다.
Figure 112013028196914-pat00067
로부터 라벨링을 수행하고 크기가 작은 영역은 제거하여 최종 객체 영역을 검출하게 된다. here,
Figure 112013028196914-pat00066
Is determined using the Otsu threshold as a threshold for object detection.
Figure 112013028196914-pat00067
And the small area is removed to detect the final object area.

도 7은 본 발명에 따른 이동 객체 검출 방법을 적용하여 이동 객체를 검출한 결과를 도시한다. 도 7의 (a)는 원본 영상, (b)는 객체의 이동 영역을 검출한 결과 영상을 나타내며, 그리고, (c)와 (d)는 각각

Figure 112013028196914-pat00068
와 이동 객체를 검출한 결과를 나타낸다. 즉, 수학식 12에 의해 검출된 객체 이동 영역은 도 7의 (b)에 도시되어 있고, 도 7의 (c)에 도시된 바와 같이 논파라메트릭 커널 덴서티 추정(non-parametric kernel density estimation)을 통해 추정된 밀도를 통해 최종 객체가 검출된 결과를 도 7의 (d)를 통해 확인할 수 있다. FIG. 7 shows a result of detecting a moving object by applying the moving object detecting method according to the present invention. 7 (a) shows an original image, (b) shows a resultant image obtained by detecting a moving region of an object, and (c) and (d)
Figure 112013028196914-pat00068
And the moving object. That is, the object moving region detected by Equation (12) is shown in FIG. 7 (b), and non-parametric kernel density estimation as shown in FIG. 7 (c) The result of the detection of the final object through the density estimated by the method shown in FIG. 7 (d) can be confirmed.

도 8 내지 도 9는 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법을 적용하여 수행된 결과를 도시한 도면이다. 카메라 움직임 추정을 위해 입력 영상에서 선택되는 임의의 영상의 크기는 61x61을 사용하였으며, 이전 영상에서 검출된 객체 영역을 제외한 영역에서 위치를 선택하였다. DoG를 위한 가우시안 커널의 크기는 15x15를 사용하였으며,

Figure 112013028196914-pat00069
는 0.5를,
Figure 112013028196914-pat00070
는 3으로 설정하였다. 8 to 9 are diagrams illustrating results of a moving object detection method in an unstable camera environment according to the present invention. For camera motion estimation, the size of an arbitrary image selected from the input image is 61x61, and the position is selected in the region excluding the object region detected in the previous image. The size of the Gaussian kernel for DoG is 15x15,
Figure 112013028196914-pat00069
0.5,
Figure 112013028196914-pat00070
Was set to 3.

도 8은 직접 촬영된 불안정한 카메라 환경에서 객체 검출한 결과를 도시하고 있다. 도 8을 참조하면, 카메라가 이동하면서 지속적으로 객체 영역을 검출하는 것을 볼 수 있다. 그러나 (d)와 (f) 영상의 경우, 영상의 외곽에서 강한 에지 성분이 존재하는 경우 객체 오검출이 검출됨을 알 수 있다. 이러한 오차는 렌즈 왜곡으로 인해 영상 바깥쪽으로 갈수록 아핀 변환의 오차가 커지게 되어 발생하는 오차이다. FIG. 8 shows the results of object detection in an unstable camera environment directly photographed. Referring to FIG. 8, it can be seen that the camera continuously detects the object area while moving. However, in the case of (d) and (f) images, it can be seen that an object misdetection is detected when strong edge components exist in the outline of the image. This error is an error that occurs due to an increase in the affine transformation error toward the outside of the image due to the lens distortion.

도 9는 도 8과 촬영 환경은 비슷하지만, 카메라 상에 줌인/줌아웃(zoom in/zoom out) 기능이 존재하며, 좀 더 빠른 카메라 움직임이 존재하는 환경에서 실험한 결과이다. 카메라 이동과 줌이 존재하여도 객체 영역이 검출되었지만, (d)와 (f) 영상과 같이 급격한 카메라 움직임이 발생되면, 영상에서 모션 블록이 발생되어 객체 검출 오차가 발생됨을 알 수 있다. FIG. 9 is a result of experiment in a case where there is a zoom in / zoom out function on a camera similar to the shooting environment of FIG. 8, but there is a faster camera movement. Even if the camera movement and zoom exist, the object region is detected. However, if a sudden camera movement such as (d) and (f) is generated, motion blocks are generated in the image and an object detection error is generated.

도 10과 도 11은 무인 비행기(UAV: Unmanned Aerial Vehicle)로부터 촬영된 영상으로 UCF aerial action data set를 사용하여 객체를 검출한 결과이다. 무인 비행기가 이동하면서 촬영을 하기 때문에 기존 배경 차분을 사용한 이동 객체 검출을 사용하기에 적합하지 않다. 따라서 본 발명에 따른 이동 객체 검출 방법을 사용하여 안정적으로 객체를 검출할 수 있음을 알 수 있다. FIGS. 10 and 11 show the result of detecting an object using an UCF aerial action data set as an image taken from an unmanned aerial vehicle (UAV). It is not suitable to use the moving object detection using the background difference because the unmanned aerial photographing is performed while moving. Therefore, it can be seen that the object can be detected stably by using the moving object detecting method according to the present invention.

본 발명에 따른 이동 객체 검출 장치 및 이동 객체 검출 방법은 영상의 임의의 복수의 영역에서 검출된 로컬 아핀 모션을 이용하여 글로벌 아핀 모션을 추정하므로, 빠르게 글로벌 매트릭스(global matrix)를 추정할 수 있다. 또한, 팬-틸트-줌 카메라(pan-tilt-zoom camera)나 무인 비행기(UAV: Unmanned Aerial Vehicle) 카메라와 같이 계속 움직이는 영상을 촬영하는 경우 배경이 모델링 되기 전에 새로운 배경의 영상이 입력되므로 배경 차분 방법을 사용하는 것은 바람직하지 않다. 따라서 본 발명에 따른 이동 객체 검출 방법은 배경 모델링을 사용하지 않고 인접한 영상만을 사용하여 이동 객체를 검출하므로 카메라가 계속 이동하는 환경에서 더욱 적합하며, 배경 모델링을 위한 메모리를 줄일 수 있어 계산량 및 계산 속도를 줄일 수 있다. The moving object detecting apparatus and the moving object detecting method according to the present invention can quickly estimate a global matrix by estimating global affine motion using local affine motion detected in any of a plurality of regions of an image. Also, when continuously moving images such as a pan-tilt-zoom camera or a UAV (Unmanned Aerial Vehicle) camera, a new background image is input before the background is modeled, It is not desirable to use the method. Therefore, the moving object detection method according to the present invention is more suitable in an environment where the camera moves continuously because the moving object is detected using only the adjacent image without using the background modeling, and memory for background modeling can be reduced, .

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 유무선 통신망으로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and a carrier wave (transmission via the Internet). In addition, the computer-readable recording medium may be distributed to a computer system connected to a wired / wireless communication network, and a computer-readable code may be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

100 : 이동 객체 검출 장치
200 : 카메라 움직임 추정부
210 : 로컬 아핀 모션 추정부
220 : 글로벌 아핀 모션 추정부
300 : 이동 객체 검출부
100: Moving object detection device
200: camera motion estimation unit
210: local affine motion estimation unit
220: global affine motion estimation unit
300: Moving object detection unit

Claims (13)

삭제delete 불안정(unstable)한 카메라 환경에서 촬영된 이미지로부터 이동 객체를 검출하는 이동 객체 검출 장치에 있어서,
연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정하는 카메라 움직임 추정부; 및
상기 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 상기 연속되는 복수의 영상으로부터 이동 객체를 검출하는 이동 객체 검출부;를 포함하며,
상기 카메라 움직임 추정부는,
상기 영상에서 셋 이상의 임의의 영역(region)을 선택하여 아핀 모션(affine motion) 기반의 옵티컬 플로우(optical flow) 알고리즘을 이용하여 로컬 아핀 모션(local affine motion)을 추정하는 로컬 아핀 모션 추정부; 및
상기 연속되는 복수의 영상으로부터 상기 선택된 임의의 영역 내에 위치하는 중심점을 상호 비교하여 글로벌 아핀 모션(global affine motion)을 추정하는 글로벌 아핀 모션 추정부;를 포함하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치.
A moving object detection apparatus for detecting a moving object from an image photographed in an unstable camera environment,
A camera motion estimator estimating an affine matrix from a plurality of consecutive images to estimate a motion of the camera; And
And a moving object detector for detecting a moving object from the plurality of consecutive images using a difference of Gaussian based on the estimated camera motion,
The camera-
A local affine motion estimator for estimating a local affine motion using an optical flow algorithm based on an affine motion by selecting an arbitrary region of at least three from the image; And
And a global affine motion estimator for estimating a global affine motion by comparing center points located in the selected arbitrary region from the plurality of consecutive images. Object detection device.
제 2항에 있어서,
상기 글로벌 아핀 모션 추정부는 상기 추정된 글로벌 아핀 모션에 대해 리파인(refine)하는 과정을 추가로 수행하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치.
3. The method of claim 2,
Wherein the global affine motion estimator further performs a process of refining the estimated global affine motion. ≪ RTI ID = 0.0 > 15. < / RTI >
제 2항에 있어서,
상기 이동 객체 검출부는, 상기 글로벌 아핀 모션 추정부에 의해 추정된 글로벌 아핀 모션 매트릭스를 이용하여 다음 영상을 현재 영상으로 보상하고, 이전 영상에서 추정된 글로벌 아핀 모션 매트릭스를 역변환(inverse)하여 상기 이전 영상을 현재 영상으로 보상하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치.
3. The method of claim 2,
Wherein the moving object detection unit compensates the next image with the current image using the global affine motion matrix estimated by the global affine motion estimating unit and inverses the global affine motion matrix estimated from the previous image, Is compensated with the current image.
제 4항에 있어서,
상기 이동 객체 검출부는, 현재 영상과 상기 현재 영상과 인접한 보상된 두 영상을 토대로 평균을 구한 평균 영상을 생성하고, 상기 평균 영상과 상기 보상된 두 영상에 가우시안 블러를 수행하여, 가우시안 차를 이용하여 상기 평균 영상과 상기 보상된 두 영상을 각각 차분하여 차분 영상을 생성하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치.
5. The method of claim 4,
Wherein the moving object detection unit generates an average image obtained by averaging the current image and the compensated two images adjacent to the current image, performs Gaussian blurring on the average image and the compensated two images, Wherein the difference image is generated by subtracting the average image and the compensated two images from each other, thereby generating a difference image.
제 5항에 있어서,
상기 생성된 차분 영상은 객체가 이동한 영역에 대해 객체가 이동하지 않은 영역과 서로 다른 부호값을 가지는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치.
6. The method of claim 5,
Wherein the generated difference image has a different sign value from an area in which the object has not moved with respect to an area in which the object has moved, in the unstable camera environment.
삭제delete 불안정(unstable)한 카메라 환경에서 촬영된 이미지로부터 이동 객체를 검출하는 이동 객체 검출 장치에 의해 수행되는 이동 객체 검출 방법에 있어서,
(a) 연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정하는 카메라 움직임 추정 단계; 및
(b) 상기 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 상기 연속되는 복수의 영상으로부터 이동 객체를 검출하는 이동 객체 검출 단계;를 포함하며,
상기 (a) 단계는,
(a1) 상기 영상에서 셋 이상의 임의의 영역(region)을 선택하여 아핀 모션(affine motion) 기반의 옵티컬 플로우(optical flow) 알고리즘을 이용하여 로컬 아핀 모션(local affine motion)을 추정하는 로컬 아핀 모션 추정 단계; 및
(a2) 상기 연속되는 복수의 영상으로부터 상기 선택된 임의의 영역 내에 위치하는 중심점을 상호 비교하여 글로벌 아핀 모션(global affine motion)을 추정하는 글로벌 아핀 모션 추정 단계;를 포함하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법.
A moving object detecting method performed by a moving object detecting apparatus for detecting a moving object from an image photographed in an unstable camera environment,
(a) estimating a motion of a camera by estimating an affine matrix from a plurality of consecutive images; And
(b) a moving object detecting step of detecting a moving object from the plurality of consecutive images using a difference of Gaussian based on the estimated camera motion,
The step (a)
(a1) a local affine motion estimation method for estimating a local affine motion using an optical flow algorithm based on affine motion by selecting an arbitrary region from three or more images in the image, step; And
(a2) a global affine motion estimation step of estimating a global affine motion by comparing the center points located in the selected arbitrary area from the plurality of consecutive images; and A method for detecting moving objects in a mobile terminal.
제 8항에 있어서,
상기 (a2) 단계는 상기 추정된 글로벌 아핀 모션에 대해 리파인(refine)하는 과정을 추가로 수행하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법.
9. The method of claim 8,
Wherein the step (a2) further performs a process of refining the estimated global affine motion.
제 8항에 있어서,
상기 (b) 단계는, 상기 (a2) 단계에 의해 추정된 글로벌 아핀 모션 매트릭스를 이용하여 다음 영상을 현재 영상으로 보상하고, 이전 영상에서 추정된 글로벌 아핀 모션 매트릭스를 역변환(inverse)하여 상기 이전 영상을 현재 영상으로 보상하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법.
9. The method of claim 8,
Wherein the step (b) comprises: compensating the next image using the global affine motion matrix estimated in the step (a2) with the current image, inverse the estimated global affine motion matrix in the previous image, Is compensated with the current image.
제 10항에 있어서,
상기 (b) 단계는, 현재 영상과 상기 현재 영상과 인접한 보상된 두 영상을 토대로 평균을 구한 평균 영상을 생성하고, 상기 평균 영상과 상기 보상된 두 영상에 가우시안 블러를 수행하여, 가우시안 차를 이용하여 상기 평균 영상과 상기 보상된 두 영상을 각각 차분하여 차분 영상을 생성하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법.
11. The method of claim 10,
The step (b) may include: generating an average image based on the current image and an average based on the compensated two images adjacent to the current image, performing Gaussian blurring on the average image and the compensated two images, Wherein the difference image is generated by subtracting the average image and the compensated two images from each other, thereby generating a difference image in the unstable camera environment.
제 11항에 있어서,
상기 생성된 차분 영상은 객체가 이동한 영역에 대해 객체가 이동하지 않은 영역과 서로 다른 부호값을 가지는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법.
12. The method of claim 11,
Wherein the generated difference image has a different sign value from an area in which an object has not moved with respect to an area in which the object has moved, in the unstable camera environment.
제 8항 내지 제 12항 중 어느 한 항에 기재된 불안정한 카메라 환경에서의 이동 객체 검출 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium having recorded thereon a program for causing a computer to execute a moving object detection method in an unstable camera environment according to any one of claims 8 to 12.
KR1020130035247A 2013-04-01 2013-04-01 Detection apparatus of moving object in unstable camera environment and method thereof KR101460317B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130035247A KR101460317B1 (en) 2013-04-01 2013-04-01 Detection apparatus of moving object in unstable camera environment and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130035247A KR101460317B1 (en) 2013-04-01 2013-04-01 Detection apparatus of moving object in unstable camera environment and method thereof

Publications (2)

Publication Number Publication Date
KR20140119989A KR20140119989A (en) 2014-10-13
KR101460317B1 true KR101460317B1 (en) 2014-11-14

Family

ID=51992033

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130035247A KR101460317B1 (en) 2013-04-01 2013-04-01 Detection apparatus of moving object in unstable camera environment and method thereof

Country Status (1)

Country Link
KR (1) KR101460317B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013741B2 (en) 2015-07-07 2018-07-03 Korea Institute Of Science And Technology Method for deblurring video using modeling blurred video with layers, recording medium and device for performing the method
US10719942B2 (en) 2017-07-13 2020-07-21 Hanwha Defense Co., Ltd. Real-time image processing system and method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102491638B1 (en) * 2015-12-23 2023-01-26 한화테크윈 주식회사 Apparatus and method for image processing
CN113905077B (en) * 2021-10-28 2024-03-08 南京工程学院 Modularized unmanned aerial vehicle anti-shake cradle head system based on LoRa

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070068408A (en) * 2004-10-25 2007-06-29 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘 피 Video content understanding through real time video motion analysis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070068408A (en) * 2004-10-25 2007-06-29 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘 피 Video content understanding through real time video motion analysis

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013741B2 (en) 2015-07-07 2018-07-03 Korea Institute Of Science And Technology Method for deblurring video using modeling blurred video with layers, recording medium and device for performing the method
US10719942B2 (en) 2017-07-13 2020-07-21 Hanwha Defense Co., Ltd. Real-time image processing system and method

Also Published As

Publication number Publication date
KR20140119989A (en) 2014-10-13

Similar Documents

Publication Publication Date Title
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
US10902614B2 (en) Image recognition by setting a ratio of combining the feature correlation coefficients for the respective acquired image feature amounts
KR100721543B1 (en) A method for removing noise in image using statistical information and a system thereof
JP7078139B2 (en) Video stabilization methods and equipment, as well as non-temporary computer-readable media
US10769798B2 (en) Moving object detection apparatus, moving object detection method and program
US8977060B2 (en) Motion stabilization and detection of articulated objects
US9838604B2 (en) Method and system for stabilizing video frames
JP6654789B2 (en) Apparatus, program, and method for tracking object considering multiple candidates at change points
KR101436369B1 (en) Apparatus and method for detecting multiple object using adaptive block partitioning
KR101460317B1 (en) Detection apparatus of moving object in unstable camera environment and method thereof
WO2015029588A1 (en) Image processing system, image processing method, and program
CN113396423A (en) Method of processing information from event-based sensors
KR101202642B1 (en) Method and apparatus for estimating global motion using the background feature points
CN110991280A (en) Video tracking method and device based on template matching and SURF
CN115760912A (en) Moving object tracking method, device, equipment and computer readable storage medium
Chereau et al. Robust motion filtering as an enabler to video stabilization for a tele-operated mobile robot
KR101396838B1 (en) Video stabilization method and system by selection one of various motion models
KR101309519B1 (en) Apparatus and method for tracking object
KR101661476B1 (en) Video stabiliaztion method based on smoothing filtering of undesirable motion, recording medium and device for performing the method
KR101355976B1 (en) Method and apparatus for object tracking using stereo feature matching
CN113163112B (en) Fusion focus control method and system
KR101438451B1 (en) Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same
CN117561540A (en) System and method for performing computer vision tasks using a sequence of frames
KR101576426B1 (en) Apparatus and Method for surveillance using fish eyes lens
Yousaf et al. Real time video stabilization methods in IR domain for UAVs—A review

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171011

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191002

Year of fee payment: 6