KR20140119989A - Detection apparatus of moving object in unstable camera environment and method thereof - Google Patents
Detection apparatus of moving object in unstable camera environment and method thereof Download PDFInfo
- Publication number
- KR20140119989A KR20140119989A KR20130035247A KR20130035247A KR20140119989A KR 20140119989 A KR20140119989 A KR 20140119989A KR 20130035247 A KR20130035247 A KR 20130035247A KR 20130035247 A KR20130035247 A KR 20130035247A KR 20140119989 A KR20140119989 A KR 20140119989A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- moving object
- camera
- affine motion
- detecting
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법에 관한 것으로, 더욱 상세하게는, 불안정한(unstable) 카메라 환경에서 카메라의 움직임을 포착하여 이동 객체를 검출하는 불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for detecting a moving object in an unstable camera environment, and more particularly, to a moving object detecting apparatus and method in an unstable camera environment that captures camera movement in an unstable camera environment, And methods.
이동 객체 검출은 컴퓨터 비젼, 비디오 프로세싱에서 가장 기본적인 문제이고, 이는 로봇 비젼, 휴먼 컴퓨터 인터페이스 그리고 PTZ(Pan-Tilt-Zoom) 카메라 또는 UVA(Unmanned Aerial Vehicle) 카메라를 포함하는 다양한 형태의 카메라를 이용하는 지능형 감시 시스템과 같은 전자제품 영역에 널리 적용되고 있다. Moving object detection is the most fundamental problem in computer vision and video processing, and it is an intelligent type that uses various types of cameras including robot vision, human computer interface and PTZ (Pan-Tilt-Zoom) camera or UVA (Unmanned Aerial Vehicle) And is widely applied to electronic products such as surveillance systems.
이와 관련된 선행기술을 구체적으로 살펴보면, 한국공개공보 제2007-0068408호(발명의 명칭 : 카메라 움직임 추정 방법 및 비디오 움직임 식별 장치)에는 카메라 움직임 분석 및 이동 물체 분석을 위한 방법 및 시스템과 샷 변경 없이도 비디오 및 비디오 세그먼트 내의 카메라 움직임 파라미터들로부터 주로 시멘틱을 추출하는 방법을 개시하고 있다. Korean Patent Publication No. 2007-0068408 entitled " Camera motion estimation method and video motion identification device ") discloses a method and system for camera motion analysis and moving object analysis, And a method for extracting primarily semantics from camera motion parameters in a video segment.
또한, 한국공개공보 제2012-0125045호(발명의 명칭 : 물체 추적 장치 및 방법)에는 물체를 추적함에 있어 물체가 아핀 변환이 아닌 비 아핀 변환을 보일 때 부분적인 가려짐이 있을 때 물체를 구성하는 로컬 패치의 탄성적 구조를 활용하여 우수한 성능으로 물체를 추적하고, 실시간 추적을 가능하게 하는 물체 추적 방법 및 장치를 개시하고 있다. In addition, Korean Laid-Open Publication No. 2012-0125045 (entitled " object tracking device and method ") describes a method for tracking an object when an object exhibits non-affine transformation rather than affine transformation, Discloses an object tracking method and apparatus for tracking an object with excellent performance utilizing a resilient structure of a local patch and enabling real-time tracking.
본 발명이 이루고자 하는 기술적 과제는, 고정되지 않은 이동성을 가진 불안정한 카메라 환경에서도 카메라의 움직임을 포착하여 이동 객체를 검출할 수 있는 불안정한 카메라 환경에서의 이동 객체 검출 장치를 제공하는 데 있다. An object of the present invention is to provide an apparatus for detecting a moving object in an unstable camera environment capable of detecting a moving object by capturing motion of a camera even in an unstable camera environment having a non-fixed mobility.
본 발명이 이루고자 하는 다른 기술적 과제는, 고정되지 않은 이동성을 가진 불안정한 카메라 환경에서도 카메라의 움직임을 포착하여 이동 객체를 검출할 수 있는 불안정한 카메라 환경에서의 이동 객체 검출 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. Another object of the present invention is to provide a program for causing a computer to execute a method of detecting a moving object in an unstable camera environment capable of detecting a moving object by capturing motion of a camera even in an unstable camera environment having non- And a computer readable recording medium recorded thereon.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치는, 불안정(unstable)한 카메라 환경에서 촬영된 이미지로부터 이동 객체를 검출하는 이동 객체 검출 장치에 있어서, 연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정하는 카메라 움직임 추정부; 및 상기 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 상기 연속되는 복수의 영상으로부터 이동 객체를 검출하는 이동 객체 검출부;를 구비한다. According to another aspect of the present invention, there is provided a moving object detection apparatus for detecting a moving object from an image photographed in an unstable camera environment, A camera motion estimator estimating an affine matrix from an image of the camera; And a moving object detection unit detecting a moving object from the plurality of consecutive images using a difference of Gaussian based on the estimated camera motion.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법은, 불안정(unstable)한 카메라 환경에서 촬영된 이미지로부터 이동 객체를 검출하는 이동 객체 검출 장치에 의해 수행되는 이동 객체 검출 방법에 있어서, (a) 연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정하는 카메라 움직임 추정 단계; 및 (b) 상기 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 상기 연속되는 복수의 영상으로부터 이동 객체를 검출하는 이동 객체 검출 단계;를 갖는다. According to another aspect of the present invention, there is provided a method of detecting a moving object in an unstable camera environment, the method comprising: detecting a moving object from an image captured in an unstable camera environment; A method for detecting an object, comprising the steps of: (a) estimating an affine matrix from a plurality of consecutive images to estimate a camera motion; And (b) a moving object detecting step of detecting a moving object from the plurality of consecutive images using a difference of Gaussian based on the estimated camera motion.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터로 읽을 수 있는 매체는 상기한 방법 중 어느 하나를 컴퓨터에서 실행시키기 위한 프로그램을 기록한다. According to another aspect of the present invention, there is provided a computer readable medium storing a program for causing a computer to execute any one of the above methods.
본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법에 의하면, 고정되지 않은 이동성을 가진 불안정한 카메라 환경에서도 카메라의 움직임을 포착하여 이동 객체를 정확하게 검출할 수 있다. The apparatus and method for detecting moving objects in an unstable camera environment according to the present invention can accurately detect a moving object by capturing camera movement even in an unstable camera environment having unfixed mobility.
도 1은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치의 구성을 도시한 블록도,
도 2는 본 발명에 따른 카메라 움직임 추정부의 구성을 도시한 블록도,
도 3은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법의 동작 과정을 도시한 흐름도,
도 4는 본 발명의 일실시예에 따른 카메라 움직임 추정 과정을 도시한 도면,
도 5는 본 발명의 일실시예에 따라 아핀 모델(affine model)을 이용하여 카메라 움직임을 추정한 결과를 도시한 도면,
도 6은 본 발명의 일실시예에 따라 가우시안 차(Difference of Gaussian)를 도시한 도면,
도 7은 본 발명의 일실시예에 따른 이동 객체 검출 과정을 도시한 도면, 그리고,
도 8 내지 도 11은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법을 적용하여 수행된 결과를 도시한 도면이다. FIG. 1 is a block diagram showing a configuration of an apparatus for detecting a moving object in an unstable camera environment according to the present invention.
2 is a block diagram illustrating the configuration of a camera motion estimator according to the present invention.
FIG. 3 is a flowchart illustrating an operation procedure of a moving object detection method in an unstable camera environment according to the present invention;
4 is a flowchart illustrating a camera motion estimation process according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a result of camera motion estimation using an affine model according to an embodiment of the present invention. FIG.
FIG. 6 is a diagram illustrating a Gaussian difference according to an embodiment of the present invention. FIG.
7 is a diagram illustrating a moving object detection process according to an embodiment of the present invention,
FIGS. 8 to 11 are views illustrating results of a moving object detection method in an unstable camera environment according to the present invention.
이하에서 첨부의 도면들을 참조하여 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of an apparatus and method for detecting moving objects in an unstable camera environment according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치의 구성을 도시한 블록도이고, 도 2는 본 발명에 따른 카메라 움직임 추정부의 구성을 도시한 블록도이다. 또한, 도 3은 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법의 동작 과정을 도시한 흐름도이다. FIG. 1 is a block diagram showing a configuration of a moving object detecting apparatus in an unstable camera environment according to the present invention, and FIG. 2 is a block diagram showing the configuration of a camera motion estimating unit according to the present invention. 3 is a flowchart illustrating an operation procedure of a moving object detection method in an unstable camera environment according to the present invention.
도 1을 참조하면, 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 장치(이하, '이동 객체 검출 장치'라 함)(100)는 카메라 움직임 추정부(200)와 이동 객체 검출부(300)로 구성된다. Referring to FIG. 1, a moving object detecting apparatus (hereinafter, referred to as 'moving object detecting apparatus') 100 in an unstable camera environment according to the present invention includes a camera
고정된 cctv와는 달리 고정된 영역을 촬영하는 것이 아닌, 이동 객체를 따라 좌우, 상하로 이동하는 카메라는 실제 이동 객체(moving object)를 촬영하면서 카메라 자체 움직임이 발생하게 된다. 따라서 이동 객체를 검출함에 앞서 카메라의 움직임을 먼저 추정해야 한다. 즉, 도 3에 도시된 바와 같이 본 발명에 따른 이동 객체 검출 장치 및 방법은 모션 보상(motion compensation)을 위한 카메라 움직임을 추정하는 단계와 객체 검출 단계로 구성된다. Unlike a fixed cctv camera, a camera that moves left and right and up and down along a moving object instead of capturing a fixed area moves the camera itself while taking a moving object. Therefore, it is necessary to estimate the motion of the camera before detecting the moving object. That is, as shown in FIG. 3, the moving object detecting apparatus and method according to the present invention comprises a step of estimating camera motion for motion compensation and an object detecting step.
따라서 카메라 움직임 추정부(200)는 연속되는 복수의 영상을 이용하여 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정한다. Therefore, the camera
구체적으로, 도 2를 참조하면, 카메라 움직임 추정부(200)는 로컬 아핀 모션(local affine motion) 추정부(210)와 글로벌 아핀 모션(global affine motion) 추정부(220)로 이루어진다. 2, the camera
로컬 아핀 모션 추정부(210)는 카메라로부터 획득된 임의의 영상에서 셋 이상의 임의의 영역(region)을 선택하여 아핀 모션(affine motion) 기반의 옵티컬 플로우(optical flow) 알고리즘을 이용하여 로컬 아핀 모션을 추정한다. 도 4의 (a)에 도시된 바와 같이, 어느 영상에서 네 영역(점선으로 된 영역)을 선택하고, 각 영역에서 로컬 아핀 모션을 추정한다. 이때 영상 내의 영역은 사용자가 미리 설정하거나, 관리자가 임의로 설정해 줄 수 있다. 또한, 선택되는 영역의 갯수는 셋 이상인 것이 바람직하다. The local
이렇게 추정된 로컬 아핀 모션을 토대로 글로벌 아핀 모션 추정부(220)는 연속되는 복수의 영상으로부터 앞서 선택된 네 영역 내의 중심점이 각각 어느 정도 이동하였는지 분석하여 글로벌 아핀 모션을 추정하게 된다. 도 4의 (b)에 도시된 바와 같이, 선택된 네 영역 내의 중심점이 각각 어디로 이동하였는지 분석하여 글로벌 아핀 모션을 추정할 수 있다. Based on the estimated local affine motion, the global
나아가, 도 4의 (c)에 도시된 바와 같이 에러를 최소화하기 위해 글로벌 아핀 모션 추정 후 리파인(refine) 과정을 거쳐 최종 글로벌 아핀 모션을 추정할 수 있다.Further, as shown in FIG. 4 (c), a global affine motion estimation may be performed through a global affine motion estimation and a refine process to minimize an error.
일반적인 아핀 변환(affine transformation)은 다음 수학식 1과 같이 표현될 수 있다. The general affine transformation can be expressed as: < EMI ID = 1.0 >
여기서, 는 아핀 카메라 모델 매트릭스(affine camera model matrix), 는 선형 아핀 파라미터(linear affine parameter), 그리고, 는 변형된 파라미터(translation parameter)를 의미한다. here, Is an affine camera model matrix, Is a linear affine parameter, Quot; means a translation parameter.
로컬 아핀 모션은 아핀 모델 기반의 옵티컬 플로우(optical flow) 방법을 사용하여 추정된다. 구체적으로, 현 영상 내의 임의의 영역을 I(x, y, t)라고 하면, 다음(subsequent) 영상 내의 동일 영역은 I(x, y, t+1)이며, 움직임 추정은 상술한 두 영상 사이에서 아핀 변환을 이용하여 움직임의 추정이 시작된다. 아핀 매트릭스를 추정하기 위해 다음 수학식 2의 2차 에러 함수(quadratic error function)를 최소화할 수 있다. Local affine motion is estimated using an optical flow method based on the affine model. Specifically, assuming that an arbitrary area in the current image is I (x, y, t), the same area in the subsequent image is I (x, y, t + 1) The motion estimation is started using the affine transformation. To estimate the affine matrix, a quadratic error function of the following equation (2) can be minimized.
여기서, , 그리고, 는 전체 영역을 의미한다. here, , And, Means the entire area.
수학식 2의 는 의 비선형 함수이기 때문에 에러값을 최소화하기 위해서는 다음 수학식 3을 이용하여 선형화해야 한다. In Equation (2) The , It is necessary to linearize the error value using the following equation (3).
여기서, 와 는 수평/수직 방향의 의 공간 미분(spatial derivative), 그리고, 는 의 시간 미분(temporal derivative)을 의미한다. here, Wow Horizontal / vertical direction And the spatial derivative of The And a temporal derivative of < / RTI >
수학식 3에 기재된 에러 함수는 용어를 재정렬하여 다음 수학식 4와 같이 단순화 시킬 수 있다. The error function described in Equation (3) can be rearranged to simplify the following Equation (4).
여기서, 이다. here, to be.
는 의 2차 함수이기 때문에 상술한 에러값을 최소화하는 벡터 를 위한 솔루션은 관점에서 미분하여 결과값을 0(zero)으로 만드는 것이다. 따라서 벡터 에 대해 해결되어야 하는 선형 방정식의 집합은 다음 수학식 5와 같다. The , The vector minimizing the above error value The solution for From the point of view, the result is differentiated to 0 (zero). Therefore, The set of linear equations to be solved for Equation 5 is as follows.
여기서, 는 6x6 매트릭스이다. 이때, 매트릭스 는 역변환(invertible)이 된다는 보장은 없지만, 는 영역이 충분히 크고(large) 입력된 이미지가 충분한 콘텐트(content)를 가진다면 일반적으로 역변환될 것이다. here, Is a 6x6 matrix. At this time, Is not guaranteed to be invertible, The If the region is large enough and the input image has sufficient content, it will generally be inversely transformed.
아핀 변환은 영상의 중심축을 기준으로 수행되며 중심점은 아핀 변환에 상관없이 변형(translation)에 대해서만 고려된다. 각 영역의 중심점은 로 정의되며, 이다. 는 변형 벡터를 나타낸다. 변형에 의해 이동된 점 은 다음 수학식 6에 기재된 바와 같이 정의된다. The affine transformation is performed based on the center axis of the image, and the center point is considered only for the transformation regardless of the affine transformation. The center point of each area is Lt; / RTI > to be. Represents a deformation vector. Point moved by deformation Is defined as shown in Equation (6) below.
이 글로벌 아핀 모션 에 의해 로 이동된다고 했을 때 추정하고자 하는 모션 는 최소 자승법을 이용하여 다음 수학식 7과 같이 계산할 수 있다. This global affine motion By The motion to be estimated Can be calculated by the following equation (7) using the least squares method.
더욱 세밀한 를 추정하기 위해 최종 리파인(refine) 과정을 거칠 수 있다. 리파인 단계는 도 4 (c)에 도시된 바와 같이 다음 영상의 를 사용하여 아핀 변환 후 이동된 영상과 현재 영상의 동일한 네 영역만을 가지고 가우시안 피라미드 스킴(Gaussian pyramid scheme)을 수행하지 않고 수학식 5를 이용하여 구한 를 에 보상하여 최종 아핀 매트릭스 를 추정한다. More detailed A final refinement process may be performed to estimate the total number of users. As shown in Fig. 4 (c), in the refinement step, Using Equation 5 without performing a Gaussian pyramid scheme with only the same four regions of the shifted image and the current image after affine transformation, To Lt; RTI ID = 0.0 > affine matrix .
도 5는 추정된 카메라 움직임을 이용하여 입력 이미지에 대해 아핀 변환을 수행한 결과를 도시한 도면이다. 도 5의 (a)는 현재 영상을 나타내고, (b)는 다음 영상을 나타내고, (c)는 현재 영상과 다음 영상 간 차분 이미지를 나타내며, (d)는 현재 영상과 아핀 모델을 이용하여 보상된 다음 영상 간 차분 이미지를 나타내며, 그리고, (e)는 현재 영상과 리파인된 아핀 모델을 이용하여 보상된 다음 영상 간 차분 이미지를 나타낸다. FIG. 5 is a diagram illustrating a result of performing affine transformation on an input image using an estimated camera motion. FIG. 5A shows the current image, FIG. 5B shows the next image, FIG. 5C shows the difference image between the current image and the next image, FIG. (E) represents the next inter-image difference image compensated using the current image and the refined affine model.
이동 객체 검출부(300)는 추정된 카메라 움직임을 토대로 가우시안의 차(DoG: Difference of Gaussian)를 이용하여 연속되는 복수의 영상으로부터 이동 객체를 검출한다. 즉, 객체 검출 단계에서는 가우시안 차(DoG)를 사용한 프레임 디퍼런스 스킴(frame difference scheme)과 논파라메트릭 커널 덴서티 추정(non-parametric kernel density estimation) 알고리즘을 사용하여 이동 객체를 검출하게 된다. 이때, 복수의 영상은 3장의 영상을 이용하는 것이 바람직하다. The moving
프레임 디퍼런스 스킴(frame difference scheme)은 글로벌 아핀 모션 추정부(220)에 의해 추정된 글로벌 아핀 모션 매트릭스를 이용하여 다음 영상을 현재 영상으로 보상(compensation)하고, 이전 영상에서 추정된 글로벌 아핀 모션 매트릭스를 역 변환(inverse)하여 이전 영상을 현재 영상으로 보상한다. The frame difference scheme compensates the next image to the current image using the global affine motion matrix estimated by the global affine
현재 영상과 현재 영상과 인접한 앞서 상술한 보상된 두 영상(다음 영상과 이전 영상)을 토대로 평균을 구한 평균 영상을 생성한다. 평균 영상 생성은 다음 수학식 9와 같이 정의된다. An average image obtained by averaging the current image and the compensated two images (the next image and the previous image) adjacent to the current image is obtained. The average image generation is defined by the following equation (9).
여기서, 와 은 보상된 이전 영상과 보상된 다음 영상을 의미한다. here, Wow Means the compensated previous image and the compensated next image.
평균 영상과 연속된 영상을 차분하면 아핀 모션 추정 오차와 아핀 변환 과정에서 사용되는 보간(interpolation)으로 인해 객체 검출 오차가 발생하게 된다. 이러한 문제를 보완하기 위해 현재 영상과 인접한 보상된 두 영상을 사용하여 평균 영상을 생성하는 것이고, 또한, 잡음(noise) 제거를 위해 평균 영상과 보상된 두 영상에 서로 다른 σ(sigma)를 가진 가우시안 블러를 수행한다. 다음으로 가우시안 차(DoG: Difference of Gaussian)를 이용하여 평균 영상과 보상된 두 영상을 각각 차분한다. 이렇게 생성된 두 개의 DoG 영상 생성은 다음과 같이 정의된다. When the average image and the continuous image are separated, object detection error occurs due to affine motion estimation error and interpolation used in the affine transformation process. In order to overcome this problem, an average image is generated using the compensated two images adjacent to the current image. In addition, in order to remove noise, the average image and the compensated two images have different sigma (sigma) Perform blur. Next, the difference between the average image and the compensated two images is obtained by using a Difference of Gaussian (DoG). The two generated DoG images are defined as follows.
여기서, 는 가우시안 블러 커널을 의미한다. 가우시안 블러를 통해 잡음을 제거하면서 동시에 객체의 이동 영역을 검출할 수 있다. 도 6은 DoG를 사용한 결과 영상을 보여준다. 도 6의 (a)는 평균 영상을 나타내고, (b)는 보상된 이전 영상, (c)는 보상된 다음 영상을 나타내며, (d)는 (a)와 (b) 사이 DoG를 나타내며, 그리고, (e)는 (a)와 (c) 사이 DoG를 나타낸다. 즉, 도 6의 (d)와 (e)에 도시된 바와 같이, 객체가 이동하지 않은 영역은 DoG에 의해 과 가 동일한 값을 가지지만, 객체가 이동한 영역에서는 과 의 부호가 반대가 되는 특성을 가지게 된다. here, Means the Gaussian Blur kernel. Through the Gaussian blur, the moving region of the object can be detected simultaneously while the noise is removed. Figure 6 shows the resulting image using DoG. 6 (a) shows an average image, (b) shows a compensated previous image, (c) shows a compensated next image, (d) shows a DoG between (a) and (b) (e) represents DoG between (a) and (c). That is, as shown in (d) and (e) of FIG. 6, the area in which the object has not moved is determined by DoG and Has the same value, but in the area where the object moved and The sign of the sign is opposite.
즉, 차분하여 얻어진 차분 영상은 객체가 이동한 영역에서 그렇지 않은 영상과 부호가 반대가 되는 특성을 가지며, 이러한 특성으로부터 이동 객체를 검출할 수 있다. 즉, 상술한 특성을 사용하여 객체의 이동 영역을 검출하면 다음과 같다. In other words, the difference image obtained by subtraction has the characteristic that the image and the sign are opposite to each other in the region where the object moves, and the moving object can be detected from this characteristic. That is, when the moving region of the object is detected using the above-described characteristic, the following is obtained.
여기서, 는 입력 값의 부호를 나타내고, 는 잡음 제거를 위한 스레시홀드(threshold)이다. here, Represents the sign of the input value, Is a threshold for noise cancellation.
그러나 차분 영상은 객체 중심에 구멍(hole)이 생길 수 있으며, 여전히 잡음이 남아있을 수 있다. 따라서 이러한 문제를 해결하기 위해 논파라메트릭 커널 덴서티 추정(non-parametric kernel density estimation)을 통해 최종 객체 영역을 검출한다. However, the difference image may have a hole in the center of the object, and still noise may remain. Therefore, to solve this problem, non-parametric kernel density estimation is used to detect the final object area.
여기서, 는 가 1인 총 화소 개수이고, 와 는 가 1인 화소의 좌표를 의미하며, 그리고, 는 밴드위스(bandwidth)를 나타낸다. 로부터 최종 객체 검출은 다음과 같이 정의된다. here, The Is the total number of pixels, Wow The Quot; 1 " means the coordinates of a pixel having " 1 & Represents a bandwidth. The final object detection is defined as follows.
여기서, 은 객체 검출을 위한 스레쉬홀드(threshold)로 Otsu threshold를 사용하여 결정된다. 로부터 라벨링을 수행하고 크기가 작은 영역은 제거하여 최종 객체 영역을 검출하게 된다. here, Is determined using the Otsu threshold as a threshold for object detection. And the small area is removed to detect the final object area.
도 7은 본 발명에 따른 이동 객체 검출 방법을 적용하여 이동 객체를 검출한 결과를 도시한다. 도 7의 (a)는 원본 영상, (b)는 객체의 이동 영역을 검출한 결과 영상을 나타내며, 그리고, (c)와 (d)는 각각 와 이동 객체를 검출한 결과를 나타낸다. 즉, 수학식 12에 의해 검출된 객체 이동 영역은 도 7의 (b)에 도시되어 있고, 도 7의 (c)에 도시된 바와 같이 논파라메트릭 커널 덴서티 추정(non-parametric kernel density estimation)을 통해 추정된 밀도를 통해 최종 객체가 검출된 결과를 도 7의 (d)를 통해 확인할 수 있다. FIG. 7 shows a result of detecting a moving object by applying the moving object detecting method according to the present invention. 7 (a) shows an original image, (b) shows a resultant image obtained by detecting a moving region of an object, and (c) and (d) And the moving object. That is, the object moving region detected by Equation (12) is shown in FIG. 7 (b), and non-parametric kernel density estimation as shown in FIG. 7 (c) The result of the detection of the final object through the density estimated by the method shown in FIG. 7 (d) can be confirmed.
도 8 내지 도 9는 본 발명에 따른 불안정한 카메라 환경에서의 이동 객체 검출 방법을 적용하여 수행된 결과를 도시한 도면이다. 카메라 움직임 추정을 위해 입력 영상에서 선택되는 임의의 영상의 크기는 61x61을 사용하였으며, 이전 영상에서 검출된 객체 영역을 제외한 영역에서 위치를 선택하였다. DoG를 위한 가우시안 커널의 크기는 15x15를 사용하였으며, 는 0.5를, 는 3으로 설정하였다. 8 to 9 are diagrams illustrating results of a moving object detection method in an unstable camera environment according to the present invention. For camera motion estimation, the size of an arbitrary image selected from the input image is 61x61, and the position is selected in the region excluding the object region detected in the previous image. The size of the Gaussian kernel for DoG is 15x15, 0.5, Was set to 3.
도 8은 직접 촬영된 불안정한 카메라 환경에서 객체 검출한 결과를 도시하고 있다. 도 8을 참조하면, 카메라가 이동하면서 지속적으로 객체 영역을 검출하는 것을 볼 수 있다. 그러나 (d)와 (f) 영상의 경우, 영상의 외곽에서 강한 에지 성분이 존재하는 경우 객체 오검출이 검출됨을 알 수 있다. 이러한 오차는 렌즈 왜곡으로 인해 영상 바깥쪽으로 갈수록 아핀 변환의 오차가 커지게 되어 발생하는 오차이다. FIG. 8 shows the results of object detection in an unstable camera environment directly photographed. Referring to FIG. 8, it can be seen that the camera continuously detects the object area while moving. However, in the case of (d) and (f) images, it can be seen that an object misdetection is detected when strong edge components exist in the outline of the image. This error is an error that occurs due to an increase in the affine transformation error toward the outside of the image due to the lens distortion.
도 9는 도 8과 촬영 환경은 비슷하지만, 카메라 상에 줌인/줌아웃(zoom in/zoom out) 기능이 존재하며, 좀 더 빠른 카메라 움직임이 존재하는 환경에서 실험한 결과이다. 카메라 이동과 줌이 존재하여도 객체 영역이 검출되었지만, (d)와 (f) 영상과 같이 급격한 카메라 움직임이 발생되면, 영상에서 모션 블록이 발생되어 객체 검출 오차가 발생됨을 알 수 있다. FIG. 9 is a result of experiment in a case where there is a zoom in / zoom out function on a camera similar to the shooting environment of FIG. 8, but there is a faster camera movement. Even if the camera movement and zoom exist, the object region is detected. However, if a sudden camera movement such as (d) and (f) is generated, motion blocks are generated in the image and an object detection error is generated.
도 10과 도 11은 무인 비행기(UAV: Unmanned Aerial Vehicle)로부터 촬영된 영상으로 UCF aerial action data set를 사용하여 객체를 검출한 결과이다. 무인 비행기가 이동하면서 촬영을 하기 때문에 기존 배경 차분을 사용한 이동 객체 검출을 사용하기에 적합하지 않다. 따라서 본 발명에 따른 이동 객체 검출 방법을 사용하여 안정적으로 객체를 검출할 수 있음을 알 수 있다. FIGS. 10 and 11 show the result of detecting an object using an UCF aerial action data set as an image taken from an unmanned aerial vehicle (UAV). It is not suitable to use the moving object detection using the background difference because the unmanned aerial photographing is performed while moving. Therefore, it can be seen that the object can be detected stably by using the moving object detecting method according to the present invention.
본 발명에 따른 이동 객체 검출 장치 및 이동 객체 검출 방법은 영상의 임의의 복수의 영역에서 검출된 로컬 아핀 모션을 이용하여 글로벌 아핀 모션을 추정하므로, 빠르게 글로벌 매트릭스(global matrix)를 추정할 수 있다. 또한, 팬-틸트-줌 카메라(pan-tilt-zoom camera)나 무인 비행기(UAV: Unmanned Aerial Vehicle) 카메라와 같이 계속 움직이는 영상을 촬영하는 경우 배경이 모델링 되기 전에 새로운 배경의 영상이 입력되므로 배경 차분 방법을 사용하는 것은 바람직하지 않다. 따라서 본 발명에 따른 이동 객체 검출 방법은 배경 모델링을 사용하지 않고 인접한 영상만을 사용하여 이동 객체를 검출하므로 카메라가 계속 이동하는 환경에서 더욱 적합하며, 배경 모델링을 위한 메모리를 줄일 수 있어 계산량 및 계산 속도를 줄일 수 있다. The moving object detecting apparatus and the moving object detecting method according to the present invention can quickly estimate a global matrix by estimating global affine motion using local affine motion detected in any of a plurality of regions of an image. Also, when continuously moving images such as a pan-tilt-zoom camera or a UAV (Unmanned Aerial Vehicle) camera, a new background image is input before the background is modeled, It is not desirable to use the method. Therefore, the moving object detection method according to the present invention is more suitable in an environment where the camera moves continuously because the moving object is detected using only the adjacent image without using the background modeling, and memory for background modeling can be reduced, .
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 유무선 통신망으로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and a carrier wave (transmission via the Internet). In addition, the computer-readable recording medium may be distributed to a computer system connected to a wired / wireless communication network, and a computer-readable code may be stored and executed in a distributed manner.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.
100 : 이동 객체 검출 장치
200 : 카메라 움직임 추정부
210 : 로컬 아핀 모션 추정부
220 : 글로벌 아핀 모션 추정부
300 : 이동 객체 검출부100: Moving object detection device
200: camera motion estimation unit
210: local affine motion estimation unit
220: global affine motion estimation unit
300: Moving object detection unit
Claims (13)
연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정하는 카메라 움직임 추정부; 및
상기 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 상기 연속되는 복수의 영상으로부터 이동 객체를 검출하는 이동 객체 검출부;를 포함하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치. A moving object detection apparatus for detecting a moving object from an image photographed in an unstable camera environment,
A camera motion estimator estimating an affine matrix from a plurality of consecutive images to estimate a motion of the camera; And
And a moving object detecting unit detecting a moving object from the plurality of consecutive images using a difference of Gaussian based on the estimated camera motion. .
상기 카메라 움직임 추정부는,
상기 영상에서 셋 이상의 임의의 영역(region)을 선택하여 아핀 모션(affine motion) 기반의 옵티컬 플로우(optical flow) 알고리즘을 이용하여 로컬 아핀 모션(local affine motion)을 추정하는 로컬 아핀 모션 추정부; 및
상기 연속되는 복수의 영상으로부터 상기 선택된 임의의 영역 내에 위치하는 중심점을 상호 비교하여 글로벌 아핀 모션(global affine motion)을 추정하는 글로벌 아핀 모션 추정부;를 포함하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치. The method according to claim 1,
The camera-
A local affine motion estimator for estimating a local affine motion using an optical flow algorithm based on an affine motion by selecting an arbitrary region of at least three from the image; And
And a global affine motion estimator for estimating a global affine motion by comparing center points located in the selected arbitrary region from the plurality of consecutive images. Object detection device.
상기 글로벌 아핀 모션 추정부는 상기 추정된 글로벌 아핀 모션에 대해 리파인(refine)하는 과정을 추가로 수행하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치. 3. The method of claim 2,
Wherein the global affine motion estimator further performs a process of refining the estimated global affine motion. ≪ RTI ID = 0.0 > 15. < / RTI >
상기 이동 객체 검출부는, 상기 글로벌 아핀 모션 추정부에 의해 추정된 글로벌 아핀 모션 매트릭스를 이용하여 다음 영상을 현재 영상으로 보상하고, 이전 영상에서 추정된 글로벌 아핀 모션 매트릭스를 역변환(inverse)하여 상기 이전 영상을 현재 영상으로 보상하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치. 3. The method of claim 2,
Wherein the moving object detection unit compensates the next image with the current image using the global affine motion matrix estimated by the global affine motion estimating unit and inverses the global affine motion matrix estimated from the previous image, Is compensated with the current image.
상기 이동 객체 검출부는, 현재 영상과 상기 현재 영상과 인접한 보상된 두 영상을 토대로 평균을 구한 평균 영상을 생성하고, 상기 평균 영상과 상기 보상된 두 영상에 가우시안 블러를 수행하여, 가우시안 차를 이용하여 상기 평균 영상과 상기 보상된 두 영상을 각각 차분하여 차분 영상을 생성하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치. 5. The method of claim 4,
Wherein the moving object detection unit generates an average image obtained by averaging the current image and the compensated two images adjacent to the current image, performs Gaussian blurring on the average image and the compensated two images, Wherein the difference image is generated by subtracting the average image and the compensated two images from each other, thereby generating a difference image.
상기 생성된 차분 영상은 객체가 이동한 영역에 대해 객체가 이동하지 않은 영역과 서로 다른 부호값을 가지는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 장치. 6. The method of claim 5,
Wherein the generated difference image has a different sign value from an area in which the object has not moved with respect to an area in which the object has moved, in the unstable camera environment.
(a) 연속되는 복수의 영상으로부터 아핀 매트릭스(affine matrix)를 추정하여 카메라의 움직임을 추정하는 카메라 움직임 추정 단계; 및
(b) 상기 추정된 카메라 움직임을 토대로 가우시안의 차(difference of Gaussian)를 이용하여 상기 연속되는 복수의 영상으로부터 이동 객체를 검출하는 이동 객체 검출 단계;를 포함하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법. A moving object detecting method performed by a moving object detecting apparatus for detecting a moving object from an image photographed in an unstable camera environment,
(a) estimating a motion of a camera by estimating an affine matrix from a plurality of consecutive images; And
(b) a moving object detecting step of detecting a moving object from the plurality of consecutive images using a difference of Gaussian based on the estimated camera motion. Moving object detection method.
상기 (a) 단계는,
(a1) 상기 영상에서 셋 이상의 임의의 영역(region)을 선택하여 아핀 모션(affine motion) 기반의 옵티컬 플로우(optical flow) 알고리즘을 이용하여 로컬 아핀 모션(local affine motion)을 추정하는 로컬 아핀 모션 추정 단계; 및
(a2) 상기 연속되는 복수의 영상으로부터 상기 선택된 임의의 영역 내에 위치하는 중심점을 상호 비교하여 글로벌 아핀 모션(global affine motion)을 추정하는 글로벌 아핀 모션 추정 단계;를 포함하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법. 8. The method of claim 7,
The step (a)
(a1) a local affine motion estimation method for estimating a local affine motion using an optical flow algorithm based on affine motion by selecting an arbitrary region from three or more images in the image, step; And
(a2) a global affine motion estimation step of estimating a global affine motion by comparing the center points located in the selected arbitrary area from the plurality of consecutive images; and A method for detecting moving objects in a mobile terminal.
상기 (a2) 단계는 상기 추정된 글로벌 아핀 모션에 대해 리파인(refine)하는 과정을 추가로 수행하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법. 9. The method of claim 8,
Wherein the step (a2) further performs a process of refining the estimated global affine motion.
상기 (b) 단계는, 상기 (a2) 단계에 의해 추정된 글로벌 아핀 모션 매트릭스를 이용하여 다음 영상을 현재 영상으로 보상하고, 이전 영상에서 추정된 글로벌 아핀 모션 매트릭스를 역변환(inverse)하여 상기 이전 영상을 현재 영상으로 보상하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법. 8. The method of claim 7,
Wherein the step (b) comprises: compensating the next image using the global affine motion matrix estimated in the step (a2) with the current image, inverse the estimated global affine motion matrix in the previous image, Is compensated with the current image.
상기 (b) 단계는, 현재 영상과 상기 현재 영상과 인접한 보상된 두 영상을 토대로 평균을 구한 평균 영상을 생성하고, 상기 평균 영상과 상기 보상된 두 영상에 가우시안 블러를 수행하여, 가우시안 차를 이용하여 상기 평균 영상과 상기 보상된 두 영상을 각각 차분하여 차분 영상을 생성하는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법. 11. The method of claim 10,
The step (b) may include: generating an average image based on the current image and an average based on the compensated two images adjacent to the current image, performing Gaussian blurring on the average image and the compensated two images, Wherein the difference image is generated by subtracting the average image and the compensated two images from each other, thereby generating a difference image in the unstable camera environment.
상기 생성된 차분 영상은 객체가 이동한 영역에 대해 객체가 이동하지 않은 영역과 서로 다른 부호값을 가지는 것을 특징으로 하는 불안정한 카메라 환경에서의 이동 객체 검출 방법. 12. The method of claim 11,
Wherein the generated difference image has a different sign value from an area in which an object has not moved with respect to an area in which the object has moved, in the unstable camera environment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130035247A KR101460317B1 (en) | 2013-04-01 | 2013-04-01 | Detection apparatus of moving object in unstable camera environment and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130035247A KR101460317B1 (en) | 2013-04-01 | 2013-04-01 | Detection apparatus of moving object in unstable camera environment and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140119989A true KR20140119989A (en) | 2014-10-13 |
KR101460317B1 KR101460317B1 (en) | 2014-11-14 |
Family
ID=51992033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130035247A KR101460317B1 (en) | 2013-04-01 | 2013-04-01 | Detection apparatus of moving object in unstable camera environment and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101460317B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170075444A (en) * | 2015-12-23 | 2017-07-03 | 한화테크윈 주식회사 | Apparatus and method for image processing |
US10719942B2 (en) | 2017-07-13 | 2020-07-21 | Hanwha Defense Co., Ltd. | Real-time image processing system and method |
CN113905077A (en) * | 2021-10-28 | 2022-01-07 | 南京工程学院 | Modularization unmanned aerial vehicle anti-shake cloud platform system based on loRa |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101671391B1 (en) | 2015-07-07 | 2016-11-02 | 한국과학기술연구원 | Method for deblurring video using modeling blurred video with layers, recording medium and device for performing the method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7447337B2 (en) * | 2004-10-25 | 2008-11-04 | Hewlett-Packard Development Company, L.P. | Video content understanding through real time video motion analysis |
-
2013
- 2013-04-01 KR KR1020130035247A patent/KR101460317B1/en active IP Right Grant
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170075444A (en) * | 2015-12-23 | 2017-07-03 | 한화테크윈 주식회사 | Apparatus and method for image processing |
KR20230015487A (en) * | 2015-12-23 | 2023-01-31 | 한화테크윈 주식회사 | Apparatus and method for image processing |
US10719942B2 (en) | 2017-07-13 | 2020-07-21 | Hanwha Defense Co., Ltd. | Real-time image processing system and method |
CN113905077A (en) * | 2021-10-28 | 2022-01-07 | 南京工程学院 | Modularization unmanned aerial vehicle anti-shake cloud platform system based on loRa |
CN113905077B (en) * | 2021-10-28 | 2024-03-08 | 南京工程学院 | Modularized unmanned aerial vehicle anti-shake cradle head system based on LoRa |
Also Published As
Publication number | Publication date |
---|---|
KR101460317B1 (en) | 2014-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10728570B2 (en) | Apparatus and methods for real time estimation of differential motion in live video | |
US10902614B2 (en) | Image recognition by setting a ratio of combining the feature correlation coefficients for the respective acquired image feature amounts | |
KR101071352B1 (en) | Apparatus and method for tracking object based on PTZ camera using coordinate map | |
KR100721543B1 (en) | A method for removing noise in image using statistical information and a system thereof | |
US9838604B2 (en) | Method and system for stabilizing video frames | |
JP7151488B2 (en) | Moving object detection device, moving object detection method and program | |
KR102068719B1 (en) | Motion detection in images | |
JP6654789B2 (en) | Apparatus, program, and method for tracking object considering multiple candidates at change points | |
CN110008795B (en) | Image target tracking method and system and computer readable recording medium | |
KR101460317B1 (en) | Detection apparatus of moving object in unstable camera environment and method thereof | |
CN113396423A (en) | Method of processing information from event-based sensors | |
WO2015029588A1 (en) | Image processing system, image processing method, and program | |
CN115760912A (en) | Moving object tracking method, device, equipment and computer readable storage medium | |
CN110991280A (en) | Video tracking method and device based on template matching and SURF | |
KR101202642B1 (en) | Method and apparatus for estimating global motion using the background feature points | |
Cho et al. | Non-coaxial event-guided motion deblurring with spatial alignment | |
KR101309519B1 (en) | Apparatus and method for tracking object | |
CN117561540A (en) | System and method for performing computer vision tasks using a sequence of frames | |
KR101396838B1 (en) | Video stabilization method and system by selection one of various motion models | |
KR101661476B1 (en) | Video stabiliaztion method based on smoothing filtering of undesirable motion, recording medium and device for performing the method | |
KR101355976B1 (en) | Method and apparatus for object tracking using stereo feature matching | |
CN113163112B (en) | Fusion focus control method and system | |
KR101438451B1 (en) | Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same | |
KR101576426B1 (en) | Apparatus and Method for surveillance using fish eyes lens | |
KR102453392B1 (en) | Method and Apparatus for Video Denoising Considering Moving Object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20171011 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190107 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20191002 Year of fee payment: 6 |