KR101980653B1 - Target detecting and tracking method - Google Patents

Target detecting and tracking method Download PDF

Info

Publication number
KR101980653B1
KR101980653B1 KR1020180084223A KR20180084223A KR101980653B1 KR 101980653 B1 KR101980653 B1 KR 101980653B1 KR 1020180084223 A KR1020180084223 A KR 1020180084223A KR 20180084223 A KR20180084223 A KR 20180084223A KR 101980653 B1 KR101980653 B1 KR 101980653B1
Authority
KR
South Korea
Prior art keywords
tracking
image
target
filter
psr
Prior art date
Application number
KR1020180084223A
Other languages
Korean (ko)
Other versions
KR101980653B9 (en
Inventor
김철중
송태언
Original Assignee
한화시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템 주식회사 filed Critical 한화시스템 주식회사
Priority to KR1020180084223A priority Critical patent/KR101980653B1/en
Application granted granted Critical
Publication of KR101980653B1 publication Critical patent/KR101980653B1/en
Publication of KR101980653B9 publication Critical patent/KR101980653B9/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4084Transform-based scaling, e.g. FFT domain scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Abstract

Disclosed are a target detecting method and a target tracking method capable of optimizing target detection and tracking times. According to the present invention, the target detecting method comprises the processes of: determining whether an image of a target is inputted after a user′s tracking command when receiving the image; using a plurality of filters to detect the target in the case of an image inputted without the user′s tracking command; and allowing the user to set a desired target and order tracking. Moreover, the target tracking method comprises the processes of: determining whether an image of a target is inputted after a user′s tracking command when receiving the image; generating a minimum output sum of squared error MOSSE filter in the case of a first frame after the tracking command when the image is an image inputted after the user′s tracking command; calculating a peak to side-lobe ratio (PSR) and deriving a finale tracking result in the case of a second or later frame inputted after the user′s tracking command; comparing the PSR with a threshold value, and updating the MOSSE filter and changed into an automatic tracking mode when the PSR is greater than the threshold value; and being changed into a memory tracking mode or a target loss mode in accordance with the target tracking of a set memory tracking time when the PSR is less than the threshold value.

Description

표적 탐지 및 추적 방법{Target detecting and tracking method}{Target detecting and tracking method}

본 발명은 표적 탐지 및 추적 방법에 관한 것으로, 특히 복잡한 배경 내의 대공 침투 표적을 고속 탐지 및 추적할 수 있는 표적 탐지 및 추적 방법에 관한 것이다.The present invention relates to a target detection and tracking method, and more particularly, to a target detection and tracking method capable of high-speed detection and tracking of an air intrusion target in a complex background.

실시간 고속 탐지 및 추적을 위한 영상 추적기의 임베디드 장비 포팅을 위해 전통적으로 중심 추적 기법, 상관 추적 기법과 같은 연산 소모가 적은 기법을 이용한다.In order to port embedded devices of real - time high - speed detection and tracking video tracer, we use traditionally less computationally intensive techniques such as center tracking and correlation tracking.

중심 추적 기법은 분할된 표적의 중심을 산출하는 기본 처리 방식에 따라 시변 공간에서 이동하는 표적을 배경으로부터 안정적으로 추출하는 것이 성능 목표이며, 표적을 식별하고 배경과 구분하기 위하여 입력 영상의 밝기 정보를 이용한다. 또한, 상관 추적 기법은 참조 영상(표적 영역)과 탐색 영역(표적을 포함한 처리 영역)의 정합을 기본 처리 방식으로 하여 연속 영상에서의 표적의 변위를 매 프레임마다 블록 정합을 통하여 탐색하는 구조이며, 상관도 산출보다는 구조적 측면에서의 정합 방식의 개선과 참조 형상에 현재 표적의 정보를 효과적으로 반영하는 기술이 전체 추적 성능을 크게 좌우한다The center tracking method is a performance goal of stably extracting a moving target from a background in a time-varying space according to a basic processing method of calculating a center of a divided target. In order to identify a target and distinguish the target from the background, . In addition, the correlation tracking technique searches for the displacement of the target in the continuous image through block matching every frame using the matching of the reference image (target area) and the search area (the processing area including the target) as a basic processing method, The overall tracking performance largely depends on the improvement of the matching method in the structural aspect rather than the correlation calculation and the technique that effectively reflects the information of the current target on the reference shape

이러한 중심 추적 기법, 상관 추적 기법을 이용하면 하늘 배경의 대공 표적 추적에 용이하다. 즉, 표적 이외에는 배경이 비교적 단조롭기 때문에 적은 연산 시간으로 높은 효율을 얻을 수 있고, 그에 따라 추적 성공율이 상당히 높아질 수 있다. 그러나, 이들 추적 기법은 표적이 숲이나 타워 등과 같은 복잡한 배경 내로 진입하는 경우 추적이 용이하지 않은 단점이 있다. 즉, 중심 추적 기법은 배경 변화에 민감하여 지향하는 표적의 중심 위치에 대한 신뢰도가 낮은 단점이 있고, 상관 추적 기법은 표적이나 배경이 급변하는 경우에 대한 대응이 취약하다는 단점이 있다. 따라서, 이들 추적 기법을 이용하여 복잡 배경 내로 진입하는 표적을 추적하는 경우 추적 결과가 의도한 곳과는 다른 엉뚱한 곳으로 가는 문제가 발생하게 된다.Using this center tracking method and correlation tracking method, it is easy to track the antiaircraft target of the sky background. That is, since the background is relatively monotonous except for the target, high efficiency can be obtained with a small computation time, and the success rate of the tracking can be considerably increased accordingly. However, these tracking techniques have disadvantages in that tracking is not easy when the target enters a complex background such as a forest or a tower. In other words, there is a disadvantage that the center tracking method is sensitive to the background change and has low reliability for the center position of the target, and the correlation tracking method has a disadvantage that the response to the case where the target or background is rapidly changed is weak. Therefore, when tracking a target entering a complex background using these tracking techniques, the result of tracking results in a different location from the intended location.

이렇게 복잡한 배경에서의 표적 추적이 용이하지 않은 문제점을 보완하기 위해서는 연산 시간이 오래 소요되는 기법을 이용할 수 밖에 없다. 그러나, 연산 시간이 오래 소요되는 기법은 실시간 임베디드 장비 성능에 좋지 않은 영향을 미칠 수 있다. 예를 들어, 100㎐ 장비에 30㎐의 연산 시간을 가진 기법을 적용하면 실시간 처리 지연으로 인해 장비의 전체 성능이 떨어질 수 있다.In order to solve the problem that it is not easy to track the target in such a complicated background, it is necessary to use a technique which takes a long calculation time. However, the computation-intensive techniques can have a negative impact on the performance of real-time embedded devices. For example, applying a technique with a computation time of 30 Hz to a 100 Hz device may degrade the overall performance of the device due to real-time processing delays.

한국등록특허 제10-1087592호Korean Patent No. 10-1087592

본 발명은 표적의 탐지 및 추적 시간을 최적화할 수 있는 표적 탐지 및 추적 방법을 제공한다.The present invention provides a method of detecting and tracking a target that can optimize the detection and tracking time of the target.

본 발명은 복잡한 배경에서도 표적의 실시간 고속 추적이 가능한 표적 탐지 및 추적 방법을 제공한다.The present invention provides a target detection and tracking method capable of real-time high-speed tracking of a target even in a complex background.

본 발명의 제 1 양태에 따른 표적 탐지 방법은 표적의 영상이 수신되면 사용자의 추적 명령 후 입력되는 영상인지를 판단하는 과정; 사용자의 추적 명령 없이 입력되는 영상이면 복수의 필터를 이용하여 표적을 탐지하는 과정; 및 사용자가 원하는 표적을 설정하고 추적을 명령하는 과정을 포함한다.According to a first aspect of the present invention, there is provided a target detection method, comprising: determining whether a target image is input after a tracking command of a user when the target image is received; Detecting a target using a plurality of filters if the input image is input without a user's tracking command; And setting a target desired by the user and commanding the tracking.

상기 표적을 탐지하는 과정은, 입력 영상으로부터 가우시안 영상 및 라플라시안 영상을 획득하는 과정과, 상기 가우시안 영상 및 라플라시안 영상의 임계값을 각각 결정한 후 이진화하는 과정과, 상기 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합하는 과정과, 상기 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출하는 과정을 포함한다.The step of detecting the target may include the steps of obtaining a Gaussian image and a Laplacian image from the input image, determining threshold values of the Gaussian image and the Laplacian image, respectively, and then binarizing the Gaussian image and the Laplacian image, And extracting a boundary line of the target from the binarized image and detecting a center point.

상기 라플라시안 영상은 상기 가우시안 영상으로부터 획득한다.The Laplacian image is obtained from the Gaussian image.

상기 가우시안 영상 및 라플라시안 영상의 임계값 결정 이전에 가우시안 영상의 히스토그램 획득과 라플라시안 절대값 영상을 획득하는 과정을 더 포함한다.Acquiring a histogram of the Gaussian image and obtaining a Laplacian absolute value image before determining the threshold value of the Gaussian image and the Laplacian image.

상기 가우시안 영상 및 라플라시안 영상의 이진화 및 이진화 영상의 결합은 동시에 실시된다.The combination of the Gaussian image and the Laplacian image is performed simultaneously.

상기 표적을 탐지하는 과정은, 가우시안 영상을 획득하고 가우시안 영상으로부터 라플라시안 영상을 획득하는 과정과, 상기 가우시안 영상의 히스토그램 획득하고 라플라시안 절대값 영상을 획득하는 과정과, 상기 가우시안 영상 및 라플라시안 영상의 임계값을 결정한 후 이진화하는 과정과, 상기 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합하는 과정과, 세그멘테이션 및 라벨링을 실시하여 상기 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출하는 과정과, 표적 후보를 전시하고 사용자가 원하는 표적을 설정하도록 하는 과정을 포함한다.A method of detecting a target includes the steps of acquiring a Gaussian image and acquiring a Laplacian image from the Gaussian image, acquiring a histogram of the Gaussian image and acquiring a Laplacian absolute value image, and determining a threshold value of the Gaussian image and the Laplacian image A step of binarizing the Gaussian binarization image and a Laplacian binarization image; a step of segmenting and labeling the binarized image to extract a boundary line of the target from the binarized image to detect a center point; And allowing the user to set a desired target.

상기 가우시안 영상 및 라플라시안 영상의 이진화 및 이진화 영상을 결합하는 과정은 동시에 실시된다.The process of combining the Gaussian image and the Laplacian image with the binarization and binarization images is performed at the same time.

상기 탐지 과정 중 적어도 하나의 과정은 IPP(Intergrated Performance Primitives) 라이브러리를 이용한다.At least one of the detection processes uses an IPP (Integrated Performance Primitives) library.

본 발명의 제 2 양태에 따른 표적 추적 방법은 표적의 영상이 수신되면 사용자의 추적 명령 후 입력되는 영상인지를 판단하는 과정; 사용자의 추적 명령 후 입력되는 영상이면 추적 명령 후 첫번째 프레임의 경우 MOSSE 필터를 생성하는 과정; 사용자의 추적 명령 후 입력되는 두번째 이상의 프레임이면 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)을 계산한 후 최종 추적 결과를 도출하는 과정 PSR과 임계값를 비교하여 PSR이 임계값보다 클 경우 MOSSE 필터를 업데이트한 후 자동 추적 모드로 천이하는 과정; 및 PSR이 임계값 작을 경우 설정된 기억 추적 시간의 표적 추적에 따라 기억 추적 모드 또는 표적 손실 모드로 천이하는 과정을 포함한다.A target tracking method according to a second aspect of the present invention includes the steps of: determining whether a target image is input after a tracking command of a user when the target image is received; Generating a MOSSE filter for a first frame after a tracking command if the input image is an input image after a user's tracking command; If the PSR is larger than the threshold value by comparing the PSR with the threshold, calculate the ratio of the peak to side-lobe ratio (PSR) The process of transitioning to automatic tracking mode after updating the MOSSE filter; And transitioning to the memory tracking mode or the target loss mode according to the target tracking of the set tracking time when the PSR is smaller than the threshold.

상기 MOSSE 필터를 생성하는 과정은, 복수의 특징 영상을 획득하는 과정과, 이전 프레임의 커널 필터를 생성하고 고속 퓨리에 변환하는 과정과, 복수의 특징 영상과 커널 필터를 교차 상관하여 MOSSE 필터를 생성하는 과정을 포함한다.The step of generating the MOSSE filter includes the steps of acquiring a plurality of feature images, generating a kernel filter of a previous frame and performing fast Fourier transform, and generating a MOSSE filter by cross-correlating a plurality of feature images with a kernel filter ≪ / RTI >

상기 복수의 특징 영상은, 1D 소벨(sobel) x 방향, 1D 소벨(sobel) y 방향, 1D 소벨(sobel) x, y 방향, 이전 프레임의 64×64 영상 및 이전 프레임 영상의 라플라시안 절대값 영상을 포함한다.The plurality of feature images may include a Laplacian absolute value image of a 64 × 64 image and a previous frame image in 1D Sobel x direction, 1D Sobel y direction, 1D Sobel x, y direction, .

상기 MOSSE 필터는 복수의 특징 영상의 고속 퓨리에 변환 결과와 상기 커널 필터의 고속 퓨리에 변환 결과를 교차 상관하여 생성한다.The MOSSE filter generates cross-correlation between the fast Fourier transform result of the plurality of feature images and the FFT result of the kernel filter.

상기 PSR을 계산하는 과정은, 복수의 특징 영상과 이전 프레임의 MOSSE 필터를 교차 상관하여 상관 맵을 생성하는 과정과, 상기 상관 맵을 역 고속 퓨리에 변환하여 정규화하는 과정과, 정규화된 상관 맵에서 x, y 좌표의 피크값을 계산하는 과정과, 정규화된 상관 맵의 피크점 기준에서 일정 영역을 제외한 피크값을 찾아 피크치 대비 노이즈 값을 측정한 PSR을 계산하는 과정을 포함한다.Wherein the step of calculating the PSR comprises: generating a correlation map by cross-correlating a plurality of feature images with a MOSSE filter of a previous frame; normalizing the correlation map by inverse fast Fourier transform; calculating a peak value of the y coordinate, and calculating a PSR by measuring a noise value of the peak value by searching for a peak value excluding a certain region on the basis of a peak point of the normalized correlation map.

상기 최종 추적 결과를 도출하는 과정, 복수의 특징 영상에 PSR을 곱하여 하나의 상관 맵을 생성하는 과정과, 하나의 상관 맵에서 x, y 좌표 계산 후 PSR을 계산하는 과정과, x, y 피크값으로부터 서브 픽셀을 계산하여 최종 추적 결과를 도출하는 과정을 포함한다.Calculating a PSR after calculating x and y coordinates in one correlation map, calculating xR and yR in a correlation map, calculating xR and yR, And deriving a final tracking result.

상기 MOSSE 필터를 업데이트하는 과정은, 현재 프레임에서 도출한 추적 결과의 중심에서 커널 필터를 생성한 후 고속 퓨리에 변환하는 과정과, 복수의 특징 영상의 고속 퓨리에 변환 결과와 커널 필터의 고속 퓨리에 변환 결과를 교차 상관하는 과정과, 기존의 MOSSE 필터와 현재 프레임에서 구한 교차 상관 결과를 가중합하여 MOSSE 필터를 업데이트하는 과정을 포함한다.The updating of the MOSSE filter may include generating a kernel filter at the center of the tracking result derived from the current frame and then performing fast Fourier transform on the result of the fast Fourier transform of the plurality of feature images and a fast Fourier transform result of the kernel filter And a process of weighting the cross correlation result obtained in the current frame with the existing MOSSE filter to update the MOSSE filter.

상기 고속 퓨리에 변환 및 상기 역 고속 퓨리에 변환은 IPP(Intergrated Performance Primitives) 라이브러리를 이용한다.The fast Fourier transform and the inverse fast Fourier transform use an IPP (Integrated Performance Primitives) library.

본 발명의 제 3 양태에 따른 표적 탐지 및 추적 방법은 입력 영상에서 복수의 필터를 이용하여 표적을 탐지하는 탐지 과정; 및 탐지 과정 후 복수의 특징 영상을 추출하고 MOSSE(Minimum Output Sum of Sqarrel Error) 필터를 생성한 후 상기 MOSSE 필터를 이용하여 탐지된 표적을 추적하는 추적 과정을 포함한다.A target detection and tracking method according to a third aspect of the present invention includes a detection process of detecting a target using a plurality of filters in an input image; And a tracking process of extracting a plurality of feature images after the detection process and generating a MOSSE (Minimum Output Sum of Sqarrel Error) filter and tracking the detected target using the MOSSE filter.

상기 탐지 과정은, 입력되는 영상이 사용자의 추적 명령 후 입력되는 영상인지를 판단하는 과정과, 사용자의 추적 명령 없이 입력되는 영상이면 복수의 필터를 이용하여 표적을 탐지하는 과정과, 사용자가 원하는 표적을 설정하고 추적을 명령하는 과정을 포함한다.Detecting a target by using a plurality of filters if the input image is an input image without a tracking command of the user; And instructing the tracking.

상기 표적을 탐지하는 과정은, 입력 영상으로부터 가우시안 영상 및 라플라시안 영상을 획득하는 과정과, 상기 가우시안 영상 및 라플라시안 영상의 임계값을 각각 결정한 후 이진화하는 과정과, 상기 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합하는 과정과, 상기 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출하는 과정을 포함한다.The step of detecting the target may include the steps of obtaining a Gaussian image and a Laplacian image from the input image, determining threshold values of the Gaussian image and the Laplacian image, respectively, and then binarizing the Gaussian image and the Laplacian image, And extracting a boundary line of the target from the binarized image and detecting a center point.

상기 라플라시안 영상은 상기 가우시안 영상으로부터 획득한다.The Laplacian image is obtained from the Gaussian image.

상기 가우시안 영상 및 라플라시안 영상의 임계값 결정 이전에 가우시안 영상의 히스토그램 획득과 라플라시안 절대값 영상을 획득하는 과정을 더 포함한다.Acquiring a histogram of the Gaussian image and obtaining a Laplacian absolute value image before determining the threshold value of the Gaussian image and the Laplacian image.

상기 가우시안 영상 및 라플라시안 영상의 이진화 및 이진화 영상의 결합은 동시에 실시된다.The combination of the Gaussian image and the Laplacian image is performed simultaneously.

상기 탐지 과정은, 입력되는 영상이 사용자의 추적 명령 후 입력되는 영상인지를 판단하는 과정과, 사용자의 추적 명령 없이 입력되는 영상이면 가우시안 영상을 획득하고 가우시안 영상으로부터 라플라시안 영상을 획득하는 과정과, 상기 가우시안 영상의 히스토그램 획득하고 라플라시안 절대값 영상을 획득하는 과정과, 상기 가우시안 영상 및 라플라시안 영상의 임계값을 결정한 후 이진화하는 과정과, 상기 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합하는 과정과, 세그멘테이션 및 라벨링을 실시하여 상기 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출하는 과정과, 표적 후보를 전시하고 사용자가 원하는 표적을 설정한 후 사용자가 추적을 명령하는 과정을 포함한다.Determining whether the input image is an input image after a tracking command of a user, acquiring a Gaussian image if the input image is an input image without a tracking command of the user, and acquiring a Laplacian image from the Gaussian image; Acquiring a histogram of a Gaussian image and obtaining a Laplacian absolute value image; determining a threshold value of the Gaussian image and the Laplacian image and then binarizing the histogram; combining the Gaussian binarization image and the Laplacian binarization image; Extracting a boundary of the target from the binarized image to detect a center point, displaying a target candidate, setting a target desired by the user, and then instructing the user to trace the target.

상기 가우시안 영상 및 라플라시안 영상의 이진화 및 이진화 영상을 결합하는 과정은 동시에 실시된다.The process of combining the Gaussian image and the Laplacian image with the binarization and binarization images is performed at the same time.

상기 탐지 과정 중 적어도 하나의 과정은 IPP(Intergrated Performance Primitives) 라이브러리를 이용한다.At least one of the detection processes uses an IPP (Integrated Performance Primitives) library.

상기 추적 과정은, 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)과 임계값의 크기에 따라 표적을 자동 추적하는 자동 추적 과정과, 상기 PSR과 임계값의 크기 및 표적의 기억 추적 시간 내의 추적에 따라 기억에 의해 표적을 추적하는 기억 추적 과정과, 상기 기억 추적 시간을 넘을 경우 표적이 손실된 것으로 판단하는 표적 손실 과정을 포함한다.The tracking process includes an automatic tracking process of automatically tracking a target according to a peak to side-lobe ratio (PSR) and a size of a threshold value, and an automatic tracking process of tracking the size of the PSR, And a target loss process for determining that the target is lost when the memory tracking time is exceeded.

상기 추적 과정은, 입력되는 영상이 사용자의 추적 명령 후 입력되는 영상인지를 판단하는 과정과, 사용자의 추적 명령 후 입력되는 영상이면 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)을 계산하고 PSR과 임계값을 비교하는 과정과, 상기 PSR이 임계값보다 클 경우 표적을 자동 추적하는 과정과, 상기 PSR이 임계값보다 작을 경우 설정된 기억 추적 시간 내에 표적이 추적되었는지를 판단하는 과정과, 상기 기억 추적 시간 이내에 표적이 추적되면 칼만 필터 예측값을 검출하여 기억에 의해 표적을 추적하는 과정과, 상기 기억 추적 시간을 넘어 표적이 추적되지 않으면 표적이 손실된 것으로 판단하는 과정을 포함한다.The method includes the steps of determining whether an input image is an input image after a user's tracking command, calculating a peak to side-lobe ratio (PSR) Comparing the PSR with a threshold value; automatically tracking the target if the PSR is greater than a threshold value; determining if the target is tracked within a set memory tracking time when the PSR is less than a threshold value; Detecting a Kalman filter predicted value when the target is tracked within the memory tracking time and tracking the target by memory; and determining that the target is lost if the target is not tracked beyond the memory tracking time.

상기 추적 과정은, 사용자의 추적 명령 후 입력되는 첫번째 프레임의 경우 MOSSE 필터를 생성하는 과정과, 사용자의 추적 명령 후 입력되는 두번째 이상의 프레임이면 PSR을 계산한 후 최종 추적 결과를 도출하는 과정을 포함한다.The tracking process includes a process of generating a MOSSE filter in the case of a first frame input after a tracking instruction of the user and a process of calculating a final tracking result after calculating a PSR in a second or more frames inputted after a tracking instruction of the user .

상기 MOSSE 필터를 생성하는 과정은, 복수의 특징 영상을 획득하는 과정과, 이전 프레임의 커널 필터를 생성하고 고속 퓨리에 변환하는 과정과, 복수의 특징 영상과 커널 필터를 교차 상관하여 MOSSE 필터를 생성하는 과정을 포함한다.The step of generating the MOSSE filter includes the steps of acquiring a plurality of feature images, generating a kernel filter of a previous frame and performing fast Fourier transform, and generating a MOSSE filter by cross-correlating a plurality of feature images with a kernel filter ≪ / RTI >

상기 PSR을 계산하는 과정은, 복수의 특징 영상과 이전 프레임의 MOSSE 필터를 교차 상관하여 상관 맵을 생성하는 과정과, 상기 상관 맵을 역 고속 퓨리에 변환하여 정규화하는 과정과, 정규화된 상관 맵에서 x, y 좌표의 피크값을 계산하는 과정과, 정규화된 상관 맵의 피크점 기준에서 일정 영역을 제외한 피크값을 찾아 피크치 대비 노이즈 값을 측정한 PSR을 계산하는 과정을 포함한다.Wherein the step of calculating the PSR comprises: generating a correlation map by cross-correlating a plurality of feature images with a MOSSE filter of a previous frame; normalizing the correlation map by inverse fast Fourier transform; calculating a peak value of the y coordinate, and calculating a PSR by measuring a noise value of the peak value by searching for a peak value excluding a certain region on the basis of a peak point of the normalized correlation map.

상기 최종 추적 결과를 도출하는 과정은, 복수의 특징 영상에 PSR을 곱하여 하나의 상관 맵을 생성하는 과정과, 하나의 상관 맵에서 x, y 좌표 계산 후 PSR을 계산하는 과정과, x, y 피크값으로부터 서브 픽셀을 계산하여 최종 추적 결과를 도출하는 과정을 포함한다.The step of deriving the final tracking result includes: generating a correlation map by multiplying a plurality of feature images by a PSR; calculating PSR after calculating x and y coordinates in one correlation map; And deriving a final tracking result by calculating subpixels from the values.

상기 PSR과 임계값를 비교하여 PSR이 임계값보다 클 경우 MOSSE 필터를 업데이트하는 과정을 더 포함한다.Comparing the PSR with a threshold value, and updating the MOSSE filter if the PSR is greater than the threshold value.

상기 MOSSE 필터를 업데이트하는 과정은, 현재 프레임에서 도출한 추적 결과의 중심에서 커널 필터를 생성한 후 고속 퓨리에 변환하는 과정과, 복수의 특징 영상의 고속 퓨리에 변환 결과와 커널 필터의 고속 퓨리에 변환 결과를 교차 상관하는 과정과, 기존의 MOSSE 필터와 현재 프레임에서 구한 교차 상관 결과를 가중합하여 MOSSE 필터를 업데이트하는 과정을 포함한다.The updating of the MOSSE filter may include generating a kernel filter at the center of the tracking result derived from the current frame and then performing fast Fourier transform on the result of the fast Fourier transform of the plurality of feature images and a fast Fourier transform result of the kernel filter And a process of weighting the cross correlation result obtained in the current frame with the existing MOSSE filter to update the MOSSE filter.

상기 고속 퓨리에 변환 및 상기 역 고속 퓨리에 변환은 IPP(Intergrated Performance Primitives) 라이브러리를 이용한다.The fast Fourier transform and the inverse fast Fourier transform use an IPP (Integrated Performance Primitives) library.

본 발명의 제 4 양태에 따른 표적 탐지 및 추적 방법은 표적의 영상이 수신되면 사용자의 추적 명령 후 입력되는 영상인지를 판단하는 과정; 사용자의 추적 명령 없이 입력되는 영상이면 복수의 필터를 이용하여 표적을 탐지하는 과정; 사용자가 원하는 표적을 설정하고 추적을 명령하는 과정; 사용자의 추적 명령 후 입력되는 영상이면 추적 명령 후 첫번째 프레임의 경우 MOSSE 필터를 생성하는 과정; 사용자의 추적 명령 후 입력되는 두번째 이상의 프레임이면 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)을 계산한 후 최종 추적 결과를 도출하는 과정; PSR과 임계값를 비교하여 PSR이 임계값보다 클 경우 MOSSE 필터를 업데이트한 후 자동 추적 모드로 천이하는 과정; 및 PSR이 임계값 작을 경우 설정된 기억 추적 시간의 표적 추적에 따라 기억 추적 모드 또는 표적 손실 모드로 천이하는 과정을 포함한다.According to a fourth aspect of the present invention, there is provided a target detection and tracking method comprising: determining whether a target image is an input image after a tracking command is received; Detecting a target using a plurality of filters if the input image is input without a user's tracking command; A process in which a user sets a desired target and commands a tracking; Generating a MOSSE filter for a first frame after a tracking command if the input image is an input image after a user's tracking command; Calculating a peak to side-lobe ratio (PSR) of a second or more frames input after a user's tracking command and deriving final tracking results; Comparing the PSR with the threshold value, and if the PSR is greater than the threshold value, updating the MOSSE filter and transiting to the automatic tracking mode; And transitioning to the memory tracking mode or the target loss mode according to the target tracking of the set tracking time when the PSR is smaller than the threshold.

상기 표적을 탐지하는 과정은, 입력 영상으로부터 가우시안 영상 및 라플라시안 영상을 획득하는 과정과, 상기 가우시안 영상 및 라플라시안 영상의 임계값을 각각 결정한 후 이진화하는 과정과, 상기 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합하는 과정과, 상기 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출하는 과정을 포함한다.The step of detecting the target may include the steps of obtaining a Gaussian image and a Laplacian image from the input image, determining threshold values of the Gaussian image and the Laplacian image, respectively, and then binarizing the Gaussian image and the Laplacian image, And extracting a boundary line of the target from the binarized image and detecting a center point.

상기 라플라시안 영상은 상기 가우시안 영상으로부터 획득한다.The Laplacian image is obtained from the Gaussian image.

상기 가우시안 영상 및 라플라시안 영상의 임계값 결정 이전에 가우시안 영상의 히스토그램 획득과 라플라시안 절대값 영상을 획득하는 과정을 더 포함한다.Acquiring a histogram of the Gaussian image and obtaining a Laplacian absolute value image before determining the threshold value of the Gaussian image and the Laplacian image.

상기 가우시안 영상 및 라플라시안 영상의 이진화 및 이진화 영상의 결합은 동시에 실시된다.The combination of the Gaussian image and the Laplacian image is performed simultaneously.

상기 표적을 탐지하는 과정은, 가우시안 영상을 획득하고 가우시안 영상으로부터 라플라시안 영상을 획득하는 과정과, 상기 가우시안 영상의 히스토그램 획득하고 라플라시안 절대값 영상을 획득하는 과정과, 상기 가우시안 영상 및 라플라시안 영상의 임계값을 결정한 후 이진화하는 과정과, 상기 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합하는 과정과, 세그멘테이션 및 라벨링을 실시하여 상기 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출하는 과정과, 표적 후보를 전시하고 사용자가 원하는 표적을 설정하도록 하는 과정을 포함한다.A method of detecting a target includes the steps of acquiring a Gaussian image and acquiring a Laplacian image from the Gaussian image, acquiring a histogram of the Gaussian image and acquiring a Laplacian absolute value image, and determining a threshold value of the Gaussian image and the Laplacian image A step of binarizing the Gaussian binarization image and a Laplacian binarization image; a step of segmenting and labeling the binarized image to extract a boundary line of the target from the binarized image to detect a center point; And allowing the user to set a desired target.

상기 가우시안 영상 및 라플라시안 영상의 이진화 및 이진화 영상을 결합하는 과정은 동시에 실시된다.The process of combining the Gaussian image and the Laplacian image with the binarization and binarization images is performed at the same time.

상기 탐지 과정 중 적어도 하나의 과정은 IPP(Intergrated Performance Primitives) 라이브러리를 이용한다.At least one of the detection processes uses an IPP (Integrated Performance Primitives) library.

상기 MOSSE 필터를 생성하는 과정은, 복수의 특징 영상을 획득하는 과정과, 이전 프레임의 커널 필터를 생성하고 고속 퓨리에 변환하는 과정과, 복수의 특징 영상과 커널 필터를 교차 상관하여 MOSSE 필터를 생성하는 과정을 포함한다.The step of generating the MOSSE filter includes the steps of acquiring a plurality of feature images, generating a kernel filter of a previous frame and performing fast Fourier transform, and generating a MOSSE filter by cross-correlating a plurality of feature images with a kernel filter ≪ / RTI >

상기 PSR을 계산하는 과정은, 복수의 특징 영상과 이전 프레임의 MOSSE 필터를 교차 상관하여 상관 맵을 생성하는 과정과, 상기 상관 맵을 역 고속 퓨리에 변환하여 정규화하는 과정과, 정규화된 상관 맵에서 x, y 좌표의 피크값을 계산하는 과정과, 정규화된 상관 맵의 피크점 기준에서 일정 영역을 제외한 피크값을 찾아 피크치 대비 노이즈 값을 측정한 PSR을 계산하는 과정을 포함한다.Wherein the step of calculating the PSR comprises: generating a correlation map by cross-correlating a plurality of feature images with a MOSSE filter of a previous frame; normalizing the correlation map by inverse fast Fourier transform; calculating a peak value of the y coordinate, and calculating a PSR by measuring a noise value of the peak value by searching for a peak value excluding a certain region on the basis of a peak point of the normalized correlation map.

상기 최종 추적 결과를 도출하는 과정, 복수의 특징 영상에 PSR을 곱하여 하나의 상관 맵을 생성하는 과정과, 하나의 상관 맵에서 x, y 좌표 계산 후 PSR을 계산하는 과정과, x, y 피크값으로부터 서브 픽셀을 계산하여 최종 추적 결과를 도출하는 과정을 포함한다.Calculating a PSR after calculating x and y coordinates in one correlation map, calculating xR and yR in a correlation map, calculating xR and yR, And deriving a final tracking result.

상기 MOSSE 필터를 업데이트하는 과정은, 현재 프레임에서 도출한 추적 결과의 중심에서 커널 필터를 생성한 후 고속 퓨리에 변환하는 과정과, 복수의 특징 영상의 고속 퓨리에 변환 결과와 커널 필터의 고속 퓨리에 변환 결과를 교차 상관하는 과정과, 기존의 MOSSE 필터와 현재 프레임에서 구한 교차 상관 결과를 가중합하여 MOSSE 필터를 업데이트하는 과정을 포함한다.The updating of the MOSSE filter may include generating a kernel filter at the center of the tracking result derived from the current frame and then performing fast Fourier transform on the result of the fast Fourier transform of the plurality of feature images and a fast Fourier transform result of the kernel filter And a process of weighting the cross correlation result obtained in the current frame with the existing MOSSE filter to update the MOSSE filter.

상기 고속 퓨리에 변환 및 상기 역 고속 퓨리에 변환은 IPP(Intergrated Performance Primitives) 라이브러리를 이용한다.The fast Fourier transform and the inverse fast Fourier transform use an IPP (Integrated Performance Primitives) library.

본 발명의 실시 예들에 따른 표적 탐지 및 추적 방법은 입력 영상에서 복수의 필터를 이용하여 표적을 탐지하는 탐지 과정과, 탐지 과정 후 복수의 특징 영상을 추출하고 MOSSE(Minimum Output Sum of Sqarrel Error) 필터를 생성한 후 상기 MOSSE 필터를 이용하여 탐지된 표적을 추적하는 추적 과정을 포함한다.A target detection and tracking method according to embodiments of the present invention includes a detection process of detecting a target using a plurality of filters in an input image, a detection process of extracting a plurality of feature images after a detection process, a MOSSE (Minimum Output Sum of Sqarrel Error) And tracking the detected target using the MOSSE filter.

본 발명은 표적 탐지 과정의 적어도 일 과정과 표적 추적 과정의 적어도 일 과정을 IPP(interrupted poisson process) 라이브러리를 이용하여 구현하였으므로 IPP 라이브러리를 지원하는 임베디드 환경에서 얼마든지 사용 가능한 장점이 있다. 또한, 탐지 및 추적의 연산 시간을 최적화할 수 있고, 그에 따라 고속 추적이 필요한 환경에서 적용이 가능하다. 그리고, 복잡한 배경 내에 추적이 비교적 용이하므로 복잡 배경 내 추적이 필요한 환경에서 활용 가능하다.Since at least one process of the target detection process and at least one process of the target tracking process are implemented using an IPP (interrupted poison process) library, the present invention can be used in an embedded environment supporting the IPP library. In addition, the computation time of detection and tracking can be optimized, so that it can be applied in environments requiring high-speed tracking. And, it is relatively easy to track in a complex background, so it can be used in an environment that requires tracking in a complicated background.

도 1은 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 방법을 설명하기 위한 흐름도.
도 2는 본 발명의 일 실시 예에 따른 표적 탐지 방법을 설명하기 위한 흐름도.
도 3 및 도 4는 본 발명의 일 실시 예에 따른 표적 추적 방법을 설명하기 위한 흐름도.
도 5 내지 도 12는 본 발명의 일 실시 예에 따른 표적 탐지 방법의 각 과정에서의 영상 사진.
도 13 내지 도 17은 본 발명의 일 실시 예에 따른 표적 추적 방법의 각 과정에서의 영상 사진.
도 18은 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치의 구성도.
도 19 및 도 20은 각각 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치의 표적 탐지부 및 표적 추적부의 구성도.
도 21 내지 도 26은 본 발명의 일 시험 예의 각 프레임의 추적 사진.
도 27에 본 발명의 일 시험 예의 탐지 및 추적 수행 시간을 설명하기 위한 그래프.
1 is a flow chart for explaining a target detection and tracking method according to an embodiment of the present invention;
2 is a flowchart illustrating a method of detecting a target according to an embodiment of the present invention.
FIG. 3 and FIG. 4 are flowcharts for explaining a target tracking method according to an embodiment of the present invention; FIG.
FIG. 5 to FIG. 12 are photographs of images in respective processes of the target detection method according to an embodiment of the present invention. FIG.
13 to 17 are photographs of images in each process of the target tracking method according to an embodiment of the present invention.
18 is a configuration diagram of a target detection and tracking apparatus according to an embodiment of the present invention;
19 and 20 are block diagrams of a target detection unit and a target tracking unit of a target detection and tracking apparatus according to an embodiment of the present invention, respectively.
Figs. 21 to 26 are photographs of traces of each frame in one test example of the present invention. Fig.
FIG. 27 is a graph for explaining the detection and tracking execution time of a test example of the present invention. FIG.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명하기로 한 다. 그러나, 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but is capable of other various forms of implementation, and that these embodiments are provided so that this disclosure will be thorough and complete, It is provided to let you know completely.

먼저, 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 방법을 개략적으로 설명하면 다음과 같다.First, a method of detecting and tracking a target according to an embodiment of the present invention will be schematically described as follows.

본 발명은 복수의 공간 필터(Spatial filter)를 이용하여 표적을 탐지하는 탐지 과정과, 복수의 특징 영상을 추출하고 MOSSE(Minimum Output Sum of Sqarrel Error) 필터를 이용하여 탐지된 표적을 추적하는 추적 과정을 포함할 수 있다. 또한, 추적 과정은 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)의 임계값와의 크기에 따라 표적을 자동 추적하는 자동 추적 과정과, 기억에 따라 추적하는 기억 추적 과정으로 나뉠 수 있고, 기억 추적 시간에 따라 표적이 손실된 것으로 판단하는 표적 손실 과정으로 나뉠 수 있다. 즉, 추적 과정은 PSR과 기억 시간에 따라 자동 추적 과정, 기억 추적 과정 및 표적 손실 과정을 포함할 수 있다.The present invention provides a tracking method for detecting a target using a plurality of spatial filters, a tracking process for extracting a plurality of characteristic images and tracking a detected target using a MOSSE (Minimum Output Sum of Sqarrel Error) . ≪ / RTI > In addition, the tracking process can be divided into an automatic tracking process for automatically tracking the target according to the threshold value of the peak to side-lobe ratio (PSR) and a memory tracking process for tracking according to the memory, And the target loss process in which the target is judged to be lost according to the memory tracking time. That is, the tracking process may include an automatic tracking process, a memory tracking process, and a target loss process depending on the PSR and the storage time.

한편, 탐지 과정은 복수의 공간 필터(Spatial filter)를 이용하는데, 공간 필터는 병렬화 기법과 IPP(Intergrated Performance Primitives) 라이브러리를 동시에 이용하여 고속화하였다. 또한, 이용된 공간 필터를 기반으로 두번의 이진화 과정을 거쳐 최종 탐지할 표적의 좌표를 산출한다. 탐지 과정에서 사용자가 추적 시작 명령 시 추적 과정으로 천이한다.On the other hand, the detection process uses a plurality of spatial filters, and the spatial filter is speeded up by using the parallelization technique and the IPP (Integrated Performance Primitives) library simultaneously. Based on the spatial filter used, the coordinates of the target to be finally detected are calculated through two binarization processes. In the detection process, the user transits to the tracking process at the start of tracking.

추적 과정에서는 5개의 특징 영상 추출과 MOSSE 필터의 시간 기반을 주파수 기반으로 변환하는 고속 퓨리에 변환(Fast Fourier Transform; FFT) 및 주파수 기반을 시간 기반으로 변환하는 역 고속 퓨리에 변환(Inverse Fast Fourier Transform; IFFT)을 IPP 라이브러리를 이용하여 고속화하였다. 각 5개의 MOSSE 필터 결과를 이용하여 각 PSR(Peat to Side-lobe Ratio)을 구하고, 이 값들을 정규화시켜 최종적으로 가중합(Weighted Sum)의 PSR 값을 도출하여 최종 추적점을 결정한다. 마지막으로 최종 PSR 값이 임계값를 넘어가면 해당 프레임에서 과거부터 현재까지 필터를 누적하여 업데이트한다.In the tracking process, five feature image extraction, Fast Fourier Transform (FFT) which transforms the time base of the MOSSE filter into a frequency base, and Inverse Fast Fourier Transform (IFFT) ) Was accelerated using an IPP library. The PSR of each weighted sum is derived by normalizing the PSR (Peak to Side-lobe Ratio) using each of the five MOSSE filter results, and finally determining the final tracking point. Finally, when the final PSR value exceeds the threshold value, the filter is cumulatively updated from the past to the present in the frame.

한편, 본 발명은 IPP 라이브러리를 이용함으로써 탐지 및 추적을 고속화할 수 있다. IPP는 사용자가 프로세서의 성능을 극대화하기 위해 고도로 최적화된 응용 프로그램을 작성할 수 있도록 프로그래밍 인터페이스를 제공하는 크로스 플랫폼 소프트웨어 라이브러리이다. 사용자는 프로세서 고유의 코드를 작성하지 않고도 고급 프로세서 기능에 접근이 가능하다. 이는 어플리케이션의 최적화를 용이하게 해 주고, 개발과 유지보수 시간을 절약 할 수 있으며, 빠른 연산 시간을 수행할 수 있게 해 준다. On the other hand, the present invention can speed up detection and tracking by using the IPP library. IPP is a cross-platform software library that provides a programming interface that allows users to write highly optimized applications to maximize processor performance. Users can access advanced processor features without writing processor-specific code. This simplifies application optimization, saves development and maintenance time, and enables faster computation times.

이러한 본 발명에 따른 표적 탐지 및 추적 방법을 도면을 이용하여 좀더 상세하게 설명하면 다음과 같다.The target detection and tracking method according to the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 방법을 설명하기 위한 흐름도이다. 또한, 도 2는 본 발명의 일 실시 예에 따른 표적 탐지 방법을 설명하기 위한 흐름도이고, 도 3 및 도 4는 본 발명의 일 실시 예에 따른 표적 추적 방법을 설명하기 위한 흐름도이다. 즉, 도 3 및 도 4는 표적 추적 방법의 추적 과정 및 업데이트 과정을 각각 설명하기 위한 흐름도이다.1 is a flowchart illustrating a method of detecting and tracking a target according to an embodiment of the present invention. FIG. 2 is a flowchart for explaining a target detection method according to an embodiment of the present invention. FIGS. 3 and 4 are flowcharts for explaining a target tracking method according to an embodiment of the present invention. 3 and 4 are flowcharts for explaining a tracking process and an updating process of the target tracking method, respectively.

도 1을 참조하여 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 방법을 설명하면 다음과 같다. 먼저, 대공 표적의 영상이 수신되면(S11) 탐지 과정인지 추적 과정인지를 판단한다(S12). 이때, 탐지 과정인지 추적 과정인지는 사용자의 추적 명령에 따라 판단할 수 있다. 즉, 사용자의 추적 명령 후 수신되는 영상이면 추적 과정으로 진입하고 사용자의 추적 명령 없이 수신되는 영상이면 탐지 과정으로 진입한다.A method of detecting and tracking a target according to an embodiment of the present invention will be described with reference to FIG. First, when an image of the air target is received (S11), it is determined whether it is a detection process or a tracking process (S12). At this time, whether the detection process or the tracking process is performed can be determined according to a tracking command of the user. That is, if the image is received after the user's tracking command, it enters the tracking process and enters the detection process if the image is received without the user's tracking command.

사용자의 추적 명령 없이 영상이 입력되어 탐지 과정으로 판단되면 복수의 필터(multiple filter)를 이용하여 표적을 탐지하는 과정(S13)을 수행한다. 예를 들어, 가우시안 필터와 라플라시안 필터를 이용하여 가우시안 영상 및 라플라시안 영상을 획득하고 이들 영상을 각각 이진화한 후 이진화된 결과를 결합하는 과정을 수행한다.If it is determined that the image is input without the tracking command of the user and the detection process is performed, a process of detecting the target using a plurality of filters (S13) is performed. For example, a Gaussian image and a Laplacian image are acquired using a Gaussian filter and a Laplacian filter, respectively, and a process of binarizing the images and combining the binarized results is performed.

이어서, 탐지 지점을 검출한 후(S14) 사용자가 원하는 표적을 설정하여 추적 시작 버튼을 눌러 추적 과정으로 진입한다(S15). 이때, 영상을 이진화하면 각 표적의 중심점이 명확하지 않게 되므로 세그멘테이션 및 라벨링을 실시하여 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출하고, 중심점의 성분에 칼만 필터를 적용한다. 그리고, 칼만 필터로 입력된 표적 중 꾸준히 검출된 표적에 대해서 표적 후보로 전시하고 사용자가 원하는 표적을 설정한 후 추적 시작 버튼을 눌러 추적 과정으로 진입한다.After detecting the detection point (S14), the user sets a desired target and presses the start tracking button to enter the tracking process (S15). At this time, if the image is binarized, the center point of each target becomes unclear. Therefore, segmentation and labeling are performed to extract the boundary of the target from the binarized image to detect the center point, and apply the Kalman filter to the center point component. Then, the target that has been detected continuously among the targets input by the Kalman filter is displayed as a target candidate, the user sets a desired target, and then the tracking start button is clicked to enter the tracking process.

사용자의 추적 명령 후 입력되는 영상으로 추적 과정으로 판단되면, 추적 명령 후 첫번째 프레임의 경우(S16) MOSSE 필터를 생성하는 과정(S17)을 수행한다. MOSSE 필터를 생성하기 위해 복수의 특징(feature) 영상을 획득하여 고속 퓨리에 변환(FFT)을 실시하고, 이전 프레임의 중심에서 커널 필터를 생성하여 고속 퓨리에 변환을 실시한 후 복수의 특징 영상의 FFT 결과와 커널 필터의 FFT 결과를 교차 상관(cross correlation)하여 복수의 MOSSE 필터를 생성한다. 즉, MOSSE 필터는 복수의 특징 영상의 수와 동일한 수로 생성된다.If it is determined that the input image is a tracking process after the tracking command of the user, the process of generating the MOSSE filter (S17) is performed in the case of the first frame after the tracking command (S16). A plurality of feature images are acquired to perform a fast Fourier transform (FFT) to generate a MOSSE filter, a kernel filter is generated at a center of a previous frame to perform a fast Fourier transform, And cross-correlates the FFT result of the kernel filter to generate a plurality of MOSSE filters. That is, the MOSSE filter is generated in the same number as the number of feature images.

사용자의 추적 명령 후 입력되는 두번째 이상의 프레임의 경우(S16) 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)을 계산한 후(S18) 서브 픽셀을 계산한다(S19). PSR은 복수의 특징 영상의 FFT 결과와 이전 프레임의 MOSSE 필터를 교차 상관하고 역 고속 퓨리에 변환(IFFT)를 수행하여 상관 맵을 생성한 후 정규화하고 x,y 좌표의 피크치를 계산한 후 계산할 수 있다. 또한, 서브 픽셀은 5개의 특징 영상에 대한 PSR을 곱하여 하나의 상관 맵을 생성한 후 하나의 상관 맵에서 x, y 좌표 계산 후 PSR을 계산하고, x, y 피크값으로부터 서브 픽셀을 계산할 수 있다.In step S16, a peak-to-side-lobe ratio (PSR) is calculated in step S18 and a subpixel is calculated in step S19. PSR can be calculated after cross-correlation of the FFT result of the plurality of feature images and the MOSSE filter of the previous frame and performing inverse fast Fourier transform (IFFT) to generate a correlation map, normalize and calculate the peak value of the x and y coordinates . In addition, the subpixel may be multiplied by the PSR of the five feature images to generate one correlation map, calculate the x and y coordinates in one correlation map, calculate the PSR, and calculate the subpixel from the x, y peak values .

이어서, PSR과 임계값를 비교하는데(S20), PSR이 임계값보다 클 경우 MOSSE 필터의 업데이트를 수행한 후(S21) 자동 추적 모드로 천이한다(S22). 즉, PSR이 특정 임계값를 넘어갈 경우 추적이 잘 되었다고 판단하고, 이 경우에 MOSSE 필터 업데이트를 수행한다.Next, the PSR is compared with the threshold value (S20). If the PSR is larger than the threshold value, the MOSSE filter is updated (S21) and then the automatic tracking mode is entered (S22). That is, if the PSR exceeds a certain threshold value, it is judged that the tracking is good, and in this case, the MOSSE filter update is performed.

그러나, PSR이 임계값 미만일 경우(S20) 기억 추적 모드 또는 표적 손실 모드로 천이한다. 즉, 소정 시간, 예를 들어 3초 이내에 표적을 추적할 경우(S23) 칼만필터 예측값을 검출하여(S24) 기억 추적 모드로 천이하고(S25), 3초 이상 표적을 잃어버린 경우 표적 손실 모드로 천이한다(S26). 한편, 기억 추적 모드 천이 후 3초 이내에 표적을 다시 찾으면 자동 추적 모드로 다시 천이되고 그렇지 않으면 표적 손실 모드로 천이한다.However, if the PSR is less than the threshold value (S20), the transition is made to the memory tracking mode or the target loss mode. That is, if the target is traced within a predetermined time, for example, within 3 seconds (S23), the Kalman filter predicted value is detected (S24) and transits to the memory tracking mode (S25). If the target is lost for 3 seconds or more, (S26). On the other hand, if the target is found again within 3 seconds after the memory tracking mode transition, the automatic tracking mode is transited again. Otherwise, the target loss mode is transited.

본 발명의 일 실시 예에 따른 표적 탐지 방법을 도면을 이용하여 더욱 상세히 설명하면 다음과 같다. 도 2는 본 발명의 일 실시 예에 따른 표적 탐지 방법의 흐르도이고, 도 5 내지 도 12는 표적 탐지 방법의 각 과정에서의 영상 사진이다.A target detection method according to an embodiment of the present invention will be described in more detail with reference to the drawings. FIG. 2 is a flow chart of a target detection method according to an embodiment of the present invention, and FIGS. 5 to 12 are image photographs of each step of the target detection method.

본 발명의 일 실시 예에 따른 탐지 방법은 가우시안 영상 및 라플라시안 영상을 획득하는 과정(S111, S112), 라플라시안 영상을 이진화하는 과정(S113, S114, S115), 가우시안 영상을 이진화하는 과정(S116, S117, S118), 라플라시안 이진화 영상과 가우시안 이진화 영상을 결합하는 과정(S119), 세그멘테이션 및 라벨링하는 과정(S120), 탐지 지점 검출 과정(S121) 및 추적 과정으로 천이하는 과정(S122)을 포함할 수 있다.A detection method according to an embodiment of the present invention includes a process of obtaining a Gaussian image and a Laplacian image (S111 and S112), a process of binarizing a Laplacian image (S113, S114, and S115), a process of binarizing a Gaussian image (S116 and S117 , S118), a process of combining the Laplacian binarization image and the Gaussian binarization image (S119), a segmentation and labeling process (S120), a detection point detection process (S121), and a process of transition to a tracking process (S122) .

먼저, 다중 필터를 이용하여 영상을 획득하는데, 가우시간(Gaussian) 영상을 획득한 후(S111) 라플라시안(Laplacian) 영상을 획득한다(S112). 예를 들어, 가우시안 필터를 이용하여 3×3 가우시안 영상을 획득하고, 라플라시안 필터를 이용하여 5×5 라플라시안 영상을 획득한다. 이때, 가우시안 영상을 획득한 후 라플라시안 영상을 획득할 수 있다. 즉, 가우시안 필터링에 의해 획득된 가우시안 영상에 대하여 라플라시안 필터링하여 라플라시안 영상을 획득할 수 있다. 가우시안 필터링에 의해 도 5에 도시된 바와 같은 원본 영상에서 도 6에 도시된 바와 같이 노이즈가 제거된 가우시안 영상을 획득할 수 있고, 라플라시안 필터링에 의해 도 7에 도시된 바와 같이 에지 성분이 부각된 라플라시안 영상을 획득할 수 있다.First, an image is acquired using a multi-filter. After acquiring a Gaussian image (S111), a Laplacian image is obtained (S112). For example, a 3 × 3 Gaussian image is acquired using a Gaussian filter, and a 5 × 5 Laplacian image is acquired using a Laplacian filter. At this time, the Laplacian image can be acquired after acquiring the Gaussian image. That is, the Laplacian image can be obtained by performing Laplacian filtering on the Gaussian image obtained by Gaussian filtering. 6, the Gaussian image from which noise has been removed can be obtained from the original image as shown in FIG. 5 by Gaussian filtering, and the Laplacian image Images can be acquired.

이어서, 라플라시안 절대값 영상을 획득하고(S113), 라플라시안 절대값 영상의 임계값(threshold)를 결정한 후(S114) 이진화한다(S115). 입력 영상 내에는 배경의 평균 밝기보다 밝은 표적 뿐만 아니라 어두운 표적이 존재할 수 있으므로 밝은 표적에 의한 양수 값 뿐만 아니라 어두운 표적에 의한 음수 값도 나타날 수 있다. 따라서, 라플라시안 절대값을 취하여 양수로 변환하고 라플라시안 절대값 영상의 평균 및 표준 편차를 이용하여 이진화한다. 이진화 과정은 임계값보다 큰 값을 1로 하고 작은 값을 0으로 하여 실시한다. 한편, 라플라시안 절대값 영상은 라플라시안 영상으로부터 획득하며 도 8에 도시된 바와 같이 획득될 수 있다.Subsequently, a Laplacian absolute value image is acquired (S113), a threshold value of the Laplacian absolute value image is determined (S114), and the binarized image is binarized (S115). In the input image, there may be a dark target as well as a bright target than the average brightness of the background, so not only a positive value by a bright target but also a negative value by a dark target may be displayed. Therefore, the Laplacian absolute value is taken, converted to a positive number, and binarized using the mean and standard deviation of the Laplacian absolute value image. The binarization process is performed with a value greater than the threshold value set to 1 and a smaller value set to 0. On the other hand, the Laplacian absolute value image is acquired from the Laplacian image and can be obtained as shown in FIG.

이어서, 도 9에 도시된 바와 같이 가우시안 영상의 히스토그램을 획득하고(S116), 가우시안 영상의 임계값을 결정한 후(S117) 이진화한다(S118). 가우시안 영상의 이진화는 라플라시안 영상의 이진화와 마찬가지로 임계값보다 큰 값을 1로 하고 작은 값을 0으로 하여 실시한다. 한편, 라플라시안 절대값 영상 획득, 임계값 결정 및 이진화 과정(S113, S114, S115)과 가우시안 영상 히스토크램 획득, 임계값 결정 및 이진화 과정(S116, S117, S118)은 동시에 진행될 수 있다. 즉, 라플라시안 영상의 이진화 과정과 가우시안 영상의 이진화 과정은 병렬로 진행될 수 있다. 물론, 가우시안 영상의 이진화 과정 후 가우시안 영상의 이진화 과정을 실시할 수도 있다. 그러나, 라플라시안 영상의 이진화 과정과 가우시안 영상의 이진화 과정을 병렬, 즉 동시에 진행함으로써 연산 속도를 빠르게 할 수 있다.Next, a histogram of the Gaussian image is acquired (S116), a threshold value of the Gaussian image is determined (S117), and binarized (S118). The binarization of the Gaussian image is performed by setting a value larger than the threshold value to 1 and a smaller value to 0, as in the case of binarization of the Laplacian image. Meanwhile, the Laplacian absolute value image acquisition, the threshold value determination and binarization process (S113, S114, S115), the Gaussian image histogram RAM acquisition, the threshold value determination and the binarization process (S116, S117, S118) can be performed at the same time. That is, the binarization process of the Laplacian image and the binarization process of the Gaussian image can be performed in parallel. Of course, the binarization process of the Gaussian image may be performed after the binarization process of the Gaussian image. However, it is possible to speed up the computation by performing the parallelization process of the Laplacian image and the Gaussian image in parallel.

이어서, 라플라시안 절대값 이진화 영상과 가우시안 절대값 이진화 영상을 결합한다(S119). 두개의 이진화 영상을 결합하면 도 10에 도시된 바와 같은 영상이 획득된다. 가우시안 영상을 이진화하면 대공에 대해서는 이진화가 잘되지만 타워, 산 등의 복잡 배경에 대해서는 이진화가 잘되지 않는다. 반대로, 라플라시안 영상을 이진화하면 대공에 대해서는 이진화가 잘되지 않지만 복잡 배경에 대해서는 이진화가 잘된다. 따라서, 가우시안 이진화와 라플라시안 이진화의 단점을 상호 보완하기 위해 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합한다. 이때, 라플라시안 이진화와 가우시안 이진화, 그리고 결합을 동시에 실시할 수 있다. 즉, 라플라시안 이진화에 의한 0 및 1과 가우시안 이진화에 의한 0 및 1을 or 연산하여 라플라시안 이진화 영상과 가우시안 이진화 영상을 결합할 수 있다.Next, the Laplacian absolute value binarization image and the Gaussian absolute value binarization image are combined (S119). When two binarization images are combined, an image as shown in FIG. 10 is obtained. If the Gaussian image is binarized, binarization can be done well for the large image, but binarization for the complex background such as tower and mountain is not performed well. On the other hand, binarization of the Laplacian image is not good for the large image but binarization for the complex image is good. Therefore, we combine Gaussian binary images and Laplacian binarization images to complement the disadvantages of Gaussian binarization and Laplacian binarization. At this time, Laplacian binarization, Gaussian binarization, and coupling can be performed at the same time. That is, 0 and 1 by Laplacian binarization and 0 and 1 by Gaussian binarization can be OR'ed to combine the Laplacian binarization image with the Gaussian binarization image.

이어서, 세그멘테이션 및 라벨링을 실시하여 검출된 표적 후보들에 대해 칼만 필터를 적용한다(S120). 영상을 이진화하면 이진화된 영상의 각 표적의 중심점이 명확하지 않게 된다. 따라서, 세그멘테이션 및 라벨링을 실시하여 도 11에 도시된 바와 같이 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출한다. 또한, 중심점의 성분을 가지고 칼만 필터를 적용하여 다음 프레임의 표적 위치를 예측할 수 있다.Subsequently, segmentation and labeling are performed, and a Kalman filter is applied to the detected target candidates (S120). When the image is binarized, the center of each target of the binarized image becomes unclear. Thus, segmentation and labeling are performed to extract the boundary of the target from the binarized image as shown in FIG. 11 to detect the center point. In addition, the Kalman filter can be applied with the component of the center point to predict the target position of the next frame.

이어서, 칼만 필터로 입력된 표적 중 꾸준히 검출된 표적에 대해서만 표적 후보로 전시하고 사용자가 이중 원하는 표적을 선택할 수 있도록 한다(S121). 도 12에 도시된 바와 같이 사용자가 원하는 표적을 설정한 후 추적 시작 버튼을 눌러 추적 과정으로 진입한다(S122).Then, only the target that has been continuously detected among the targets input by the Kalman filter is displayed as the target candidate, and the user can select the desired target (S121). As shown in FIG. 12, after the user sets a desired target, a tracking start button is clicked to enter a tracking process (S122).

탐지 과정에 의해 탐지된 표적을 추적하는데, 본 발명의 표적 추적 방법은 MOSSE 필터를 생성하고 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)한 후 서브픽셀을 계산하는 추적 과정과, 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)이 임계값 이상이면 MOSSE 필터를 업데이트하는 과정을 포함할 수 있다. 추적 과정을 도 3에 도시하였고, MOSSE 필터의 업데이트 과정을 도 4에 도시하였다. 또한, 13 내지 도 17은 본 발명의 일 실시 예에 따른 표적 추적 방법의 각 과정에서의 영상 사진이다.The target tracking method of the present invention tracks a target detected by a detection process. The target tracking method includes a tracking process of generating a MOSSE filter and calculating a subpixel after a peak to side-lobe ratio (PSR) And updating the MOSSE filter if the peak to side-lobe ratio (PSR) is greater than or equal to the threshold value. The tracking process is shown in FIG. 3, and the updating process of the MOSSE filter is shown in FIG. 13 to 17 are photographs of images in each step of the target tracking method according to an embodiment of the present invention.

도 3을 참조하면, 본 발명에 따른 표적 추적 방법의 추적 과정은 복수의 특징 영상을 획득하는 과정(S211)과, 추적 첫 프레임의 경우(S212) 커널 필터를 생성하고 고속 퓨리에 변환을 실시하는 과정(S213)과, 특징 영상과 커널 필터의 교차 상관(cross correlation)을 실시하는 과정(S214)과, MOSSE 필터를 생성하는 과정(S215)과, 추적 첫 프레임이 아닐 경우(S212) 특징 영상과 MOSSE 필터의 교차 상관을 실시하는 과정(S216)과, 상관을 정규화하는 과정(S217)과, 각 맵의 피크점을 검출하는 과정(S218)와, PSR을 산출하는 과정(S219)과, 하나의 상관 맵을 생성하는 과정(S220)과, 최종 PSR 산출하고 서브 픽셀값을 계산하는 과정(S221)을 포함할 수 있다. 즉, 추적 과정은 복수의 특징(feature) 영상을 획득하여 최초 MOSSE 필터를 생성하고, 복수의 상관 맵(Correlation map)(IFFT 영상)을 하나의 맵으로 합친 후 x, y 좌표의 최대점을 찾아 서브 픽셀을 계산한다. 부연하면, 추적 첫번째 프레임의 경우에는 복수의 특징(feature)의 FFT 영상과 커널(kernel) 필터의 FFT 영상의 교차 상관(Cross correlation)으로 최초 MOSSE 필터를 생성하고, 그 이후에는 기존 MOSSE 필터와 현재 프레임의 특징(feature) FFT 영상의 교차 상관(Cross Correlation) 후 IFFT 과정을 거쳐 상관 맵(Correlation map)을 획득하고 상관 맵 정규화를 수행한 후 하나의 상관 맵을 생성하여 x, y 좌표의 최대점을 찾아 서브 픽셀을 계산한다.Referring to FIG. 3, the tracking process of the target tracking method according to the present invention includes a process of obtaining a plurality of feature images (S211), a process of generating a kernel filter in the case of a first frame to be tracked (S212), and performing a fast Fourier transform (S214) for performing a cross correlation between the feature image and the kernel filter (S214), generating a MOSSE filter (S215), and if not for the first frame to be traced (S212) A step S216 of performing a cross correlation of the filter, a step of normalizing the correlation S217, a step of detecting a peak point of each map S218, a step of calculating a PSR S219, A process of generating a map (S220), a process of calculating a final PSR and calculating a subpixel value (S221). That is, in the tracking process, a plurality of feature images are acquired to generate an initial MOSSE filter, a plurality of correlation maps (IFFT images) are combined into one map, and a maximum point of x and y coordinates is found Calculate subpixels. Further, in the case of the first frame to be traced, a first MOSSE filter is generated by cross correlation between FFT images of a plurality of features and an FFT image of a kernel filter, and thereafter, Frame Features After cross correlation of FFT images, IFFT process is performed to obtain a correlation map, correlation map normalization is performed, and one correlation map is generated to obtain a maximum point of x, y coordinates And calculates a subpixel.

이러한 본 발명의 표적 추적 과정을 좀더 상세히 설명하면 다음과 같다.The target tracking process of the present invention will be described in more detail as follows.

S211 : 복수의 특징(feature) 영상을 획득한다. 복수의 특징 영상을 획득하기 위해 이전 프레임에서 소정의 영상을 획득하고, 획득한 영상에서 라플라시안 절대값 영상을 획득한다. 이전 프레임의 영상은 이전 프레임의 중심에서 64×64 영상을 획득할 수 있으며, 라플라시안 절대값을 취하여 양수로 변환한다. 이어서, 이전 프레임 중심의 64×64 영상으로부터 1D 소벨(sobel) x 방향과, 1D 소벨(sobel) y 방향 영상을 획득한 후 1D 소벨(sobel) x, y 방향 영상을 획득한다. 이렇게 하여 5개의 특징(feature) 영상을 획득할 수 있다. 즉, 1D 소벨(sobel) x 방향, 1D 소벨(sobel) y 방향, 1D 소벨(sobel) x, y 방향, 이전 프레임의 64×64 영상(원영상), 라플라시안 절대값 영상을 각각 획득할 수 있다. 도 13에는 이러한 5개의 특징 영상을 도시하였다. 즉, 도 13(a) 내지 도 13(e)는 각각 1D 소벨(sobel) x 방향 영상(도 13(a)), 1D 소벨(sobel) y 방향 영상(도 13(b)), 1D 소벨(sobel) x, y 방향 영상(도 13(c)), 이전 프레임의 64×64 영상(원영상) 영상(도 13(d)) 및 라플라시안 절대값 영상(도 13(e))을 각각 나타낸다. 이때, 도 13(a) 내지 도 13(e)은 드론을 대공 표적으로 각 단계별 영상이다.S211: Obtains a plurality of feature images. Acquires a predetermined image in a previous frame to acquire a plurality of feature images, and acquires a Laplacian absolute value image from the acquired image. An image of the previous frame can acquire a 64x64 image at the center of the previous frame, and takes a Laplacian absolute value and converts it to a positive number. Subsequently, 1D Sobel x direction and 1D Sobel y direction image are obtained from 64x64 image of the previous frame center, and 1D Sobel x, y direction image is obtained. Thus, five feature images can be obtained. That is, a 64 × 64 image (original image) and a Laplacian absolute value image of a previous frame can be acquired, respectively, in 1D Sobel x direction, 1D Sobel y direction, 1D Sobel x, y direction, . FIG. 13 shows these five feature images. 13 (a) through 13 (e) show images in a 1D Sobel x direction image (FIG. 13A), a 1D Sobel y direction image (FIG. 13B) 13 (c)), a 64 × 64 image (original image) image of the previous frame (FIG. 13 (d)), and a Laplacian absolute value image (FIG. 13 (a) to 13 (e) show images of the respective steps in the drones as targets.

이렇한 5개의 특징 영상에 대해 각각 코사인 윈도우를 곱하고, 코사인 윈도우 곱한 영상에 대해 고속 퓨리에 변환(FFT)을 실시한다. 즉, 사이드 로브에 의한 노이즈 유입을 방지하기 위해 5개의 특징 영상에 대하여 코사인 윈도우를 각각 곱하고, 고속 퓨리에 변환을 실시하여 시간 기반을 주파수 기반으로 변환한다. 이때, 각 영상에 대한 FFT는 IPP 라이브러리를 이용하여 고속화할 수 있다.Each of the five feature images is multiplied by a cosine window, and a fast Fourier transform (FFT) is performed on the cosine window multiplied image. That is, in order to prevent noise from being introduced by the side lobe, the five feature images are multiplied by the cosine window, respectively, and subjected to fast Fourier transform to convert the time base to the frequency base. At this time, the FFT for each image can be speeded up by using the IPP library.

S212 : 이렇게 복수의 특징 영상을 획득한 후 추적 첫 프레임인지 확인한다. 즉, 탐지 방법에서 표적을 탐지하고 추적 시작 버튼을 눌러 추적 명령을 내린 후 입력되는 첫번째 프레임인지 확인한다.S212: After acquiring the plurality of feature images in this way, it is confirmed whether or not the first frame is traced. That is, in the detection method, the target is detected and the trace start command is issued by pressing the start trace button, and it is confirmed that the first frame is inputted.

S213 : 추적 명령 후 입력되는 첫번째 프레임인 경우 이전 프레임의 커널(kernel) 필터를 생성하고, 고속 퓨리에 변환(FFT)한다. 즉, 이전 프레임의 중심에서 예를 들어 64×64로부터 커널 필터를 생성하고, 생성된 커널 필터를 고속 퓨리에 변환한다. 도 14에는 커널 필터에 의해 생성된 대공 표적으로서의 드론의 영상이다.S213: In the case of the first frame input after the tracking command, a kernel filter of the previous frame is generated and subjected to fast Fourier transform (FFT). That is, a kernel filter is generated from the center of the previous frame, for example, 64x64, and the generated kernel filter is subjected to fast Fourier transform. 14 shows an image of a dron as an air target generated by a kernel filter.

S214 : 5개의 특징 영상의 FFT 결과와 커널 필터의 FFT 결과(S213)에 대해 교차 상관(cross correlation)을 수행한다. 즉, S221 과정에서 생성된 5개 영상의 FFT 결과와 S213 과정에서 생성된 커널 필터의 FFT 결과를 각각 교차 상관한다.S214: Cross correlation is performed on the FFT result of the five feature images and the FFT result (S213) of the kernel filter. That is, the FFT result of the five images generated in step S221 and the FFT result of the kernel filter generated in step S213 are cross-correlated, respectively.

S215 : 특징 영상과 커널 필터의 교차 상관에 의해 복수의 MOSSE 필터가 최초 생성된다. 즉, 최초의 MOSSE 필터가 특징 영상 수에 따라 5개 생성된다. 도 15(a) 내지 도 15(d)는 MOSSE 필터의 영상이다. 즉, 도 15(a)는 1D 소벨(sobel) x 방향 영상과 커널 필터의 교차 상관에 의해 생성된 MOSSE 필터의 영상이고, 도 15(b)는 1D 소벨(sobel) y 방향 영상과 커널 필터의 교차 상관에 의해 생성된 MOSSE 필터의 영상이며, 도 15(c)는 1D 소벨(sobel) x, y 방향 영상과 커널 필터의 교차 상관에 의해 생성된 MOSSE 필터의 영상이고, 도 15(d)는 이전 프레임의 64×64 영상(원영상) 영상과 커널 필터의 교차 상관에 의해 생성된 MOSSE 필터의 영상이며, 도 15(e)는 라플라시안 절대값 영상과 커널 필터의 교차 상관에 의해 생성된 MOSSE 필터의 영상을 나타낸다.S215: A plurality of MOSSE filters are initially generated by cross-correlation between the feature image and the kernel filter. That is, five MOSSE filters are generated according to the number of feature images. 15 (a) to 15 (d) are images of a MOSSE filter. 15 (a) is an image of a MOSSE filter generated by a cross correlation between a 1D Sobel x-direction image and a kernel filter, FIG. 15 (b) is a view of a 1D Sobel y- 15 (c) is an image of a MOSSE filter generated by cross correlation of a 1D Sobel x, y direction image and a kernel filter, and FIG. 15 (d) FIG. 15 (e) shows an MOSSE filter image generated by the cross correlation between the 64 × 64 image (original image) image of the previous frame and the kernel filter. FIG. Respectively.

S216 : 추적 명령 후 입력되는 첫번째 프레임이 아닌 경우(S220), 즉 추적 명령 후 두번째 이상의 프레임인 경우 특징 영상과 MOSSE 필터를 교차 상관하여 상관 맵(correlation map)을 생성한다. 즉, 5개 특징 영상의 FFT 수행 결과와 이전 프레임의 MOSSE 필터를 각각 교차 상관한다. 이에 따라 도 16에 도시된 바와 같이 5개의 상관 맵이 생성된다. 도 16(a)는 1D 소벨(sobel) x 방향 영상과 도 15(a)의 MOSSE 필터의 교차 상관에 의한 상관 맵 영상이고, 도 16(b)는 1D 소벨(sobel) y 방향 영상과 도 15(b)의 MOSSE 필터의 교차 상관에 의한 상관 맵 영상이며, 도 16(c)는 1D 소벨(sobel) x, y 방향 영상과 도 15(c)의 MOSSE 필터의 교차 상관에 의한 상관 맵 영상이고, 도 16(d)는 이전 프레임의 64×64 영상(원영상) 영상과 도 15(d)의 MOSSE 필터의 교차 상관에 의한 상관 맵 영상이며, 도 16(e)는 라플라시안 절대값 영상과 도 15(e)의 MOSSE 필터의 교차 상관에 의한 상관 맵 영상을 나타낸다.S216: If the frame is not the first frame to be inputted after the tracking command (S220), that is, if the frame is the second frame or more after the tracking command, a correlation map is generated by cross-correlating the feature image and the MOSSE filter. That is, the result of the FFT of the five feature images is cross-correlated with the MOSSE filter of the previous frame, respectively. Thus, five correlation maps are generated as shown in FIG. 16 (a) is a correlation map image obtained by cross-correlation between a 1D Sobel x-direction image and the MOSSE filter of FIG. 15 (a), FIG. 16 (b) is a 1D Sobel y- 16C is a correlation map image obtained by cross-correlation of the 1D Sobel x, y direction image and the MOSSE filter of FIG. 15 (c), and FIG. 16 (d) is a correlation map image obtained by cross-correlation between the 64 × 64 image (original image) image of the previous frame and the MOSSE filter of FIG. 15 (d), and FIG. 16 (e) 15 (e) shows the correlation map image by the cross-correlation of the MOSSE filter.

S217 : 특징 영상과 MOSSE 필터의 교차 상관을 정규화한다. 이를 위해 각각의 교차 상관 결과에 대해 역 고속 퓨리에 변환(IFFT)을 수행한 후 상관 맵을 정규화한다. 즉, 5개의 교차 상관 결과에 대해 각각 IFFT를 수행한 후 각각의 상관 맵을 정규화한다. 이때, IFFT 역시 고속화를 위해 IPP 라이브러리를 적용한다.S217: The cross correlation between the feature image and the MOSSE filter is normalized. To do this, inverse fast Fourier transform (IFFT) is performed on each cross correlation result, and the correlation map is normalized. That is, IFFT is performed on each of the five cross-correlation results, and then each correlation map is normalized. At this time, the IFFT also applies the IPP library for speedup.

S218 : 각 맵의 피크점을 검출한다. 즉 정규화된 5개 상관 맵에서 x, y 좌표의 피크값을 계산한다.S218: The peak point of each map is detected. That is, the peak values of the x and y coordinates in the normalized five correlation maps.

S219 : PSR(peak to side-lobe ratio)을 계산한다. 즉, 정규화된 상관 맵에서 피크값을 계산한 후 PSR을 계산한다. 이를 위해 각 맵에 대한 피크점 기준에서 11×11을 제외한 영역에서의 피크값을 찾아 피크치 대비 노이즈 레벨을 측정한 PSR(peak to side-lobe ratio)를 산출한다. 이러한 PSR을 계산하는 수식은 아래와 같다.S219: Calculate the peak to side-lobe ratio (PSR). That is, the PSR is calculated after calculating the peak value in the normalized correlation map. For this purpose, a peak to side-lobe ratio (PSR) is calculated by measuring a peak value in a region except 11 × 11 from the peak point reference for each map and measuring the noise level relative to the peak. The formula for calculating this PSR is as follows.

Figure 112018071570238-pat00001
Figure 112018071570238-pat00001

Figure 112018071570238-pat00002
Figure 112018071570238-pat00002

Figure 112018071570238-pat00003
Figure 112018071570238-pat00003

여기서, Corrpeak은 과정 S216의 결과 값을 가지고 결과를 도출한 값이다. 즉, Corrpeak은 과정 S216으로부터 도출된 64×64 영상값 중에서 최대값을 찾는다는 의미이다. 여기서, 0 ≤ x <WIDTH는 x방향으로 0번째 픽셀부터 63번째 픽셀을 의미하며, 0 ≤ x <HEIGHT는 y방향으로 0번째 픽셀부터 63번째 픽셀을 의미한다. 따라서, 64×64의 결과 영상이므로 WIDTH와 HEIGHT의 값은 각각 64이다. 한편, Corrpeak 옆의 i는 각 특징(1D sobel x 방향, 1D sobel y 방향, 1D sobel x,y 방향, 원영상, LOG 절대 치)를 획득한 순서를 의미한다.Here, Corrpeak is a value derived from the result of step S216. That is, Corrpeak means to find the maximum value among the 64x64 image values derived from the process S216. Here, 0 ≤ x <WIDTH means 0th to 63rd pixels in the x direction and 0 ≤ x <HEIGHT means 0th to 63rd pixels in the y direction. Therefore, since the result image is 64 × 64, the values of WIDTH and HEIGHT are 64, respectively. On the other hand, i of Corrpeak means the order of acquiring each feature (1D sobel x direction, 1D sobel y direction, 1D sobel x, y direction, original image, LOG absolute value).

또한, SidelobePeak는 Corrpeak의 x, y 지점을 중심으로 11×11 영상 이외의 지점에서 최대값을 찾는 과정이다. x<Corrpeakx-11 and x>Corrpeakx+11는 x 방향으로 중심의 11 영역을 제외한 부분이며, y<Corrpeaky-11 and y>Corrpeaky+11는 y 방향으로 중심의 11 영역을 제외한 부분이다. SidelobePeak 옆 i는 각 특징(1D sobel x 방향, 1D sobel y 방향, 1F sobel x,y 방향, 원영상, LOG 절대 치)를 획득한 순서를 의미한다.In addition, SidelobePeak is a process of finding the maximum value at points other than the 11 × 11 image centered on the x and y points of Corrpeak. x <Corrpeak x -11 and x> Corrpeak x +11 is the portion excluding the eleventh region in the x direction and y <Corrpeak y -11 and y> Corrpeak y +11 is the portion excluding the eleven region in the y direction to be. SidelobePeak side i means the order of obtaining each feature (1D sobel x direction, 1D sobel y direction, 1F sobel x, y direction, original image, LOG absolute value).

PSR은 Corrpeak 및 SidelobePeak의 값을 서로 나눈다. 즉, 중심점의 값 대비 x, y 방향으로 11×11 외측 영역에서 구한 최대값의 비율을 구한다. 이는 피크값이 주변 피크값보다 몇배가 더 밝은지를 알아보기 위함이다. PSR 옆 i는 각 특징(1D sobel x 방향, 1D sobel y 방향, 1D sobel x,y 방향, 원영상, LOG 절대 치)를 획득한 순서를 의미한다.The PSR divides the values of Corrpeak and SidelobePeak. That is, the ratio of the maximum value obtained from the 11 × 11 outer region in the x and y directions with respect to the value of the center point is obtained. This is to see if the peak value is several times brighter than the surrounding peak value. PSR side i means the order of acquiring each feature (1D sobel x direction, 1D sobel y direction, 1D sobel x, y direction, original image, LOG absolute value).

S220 : 복수의 상관 맵으로부터 하나의 상관 맵을 생성한다. 5개의 PSR의 정규화를 수행한 후 정규화된 PSR을 곱하여 도 17에 도시된 바와 같이 하나의 상관 맵을 생성한다. 즉, 산출된 복수의 PSR을 전체 크기에서 한번 더 정규화하여 각각 정규화한 상관 맵(Correlation map)과 정규화한 PSR을 곱하고 이 결과값을 모두 더하여 하나의 상관 맵을 생성한다. 하나의 상관 맵을 생성하는 수식은 아래와 같다.S220: One correlation map is generated from a plurality of correlation maps. Normalization of the five PSRs is performed, and then the normalized PSRs are multiplied to generate one correlation map as shown in FIG. That is, a plurality of calculated PSRs are normalized once again at a full size, and a correlation map normalized by each of the plurality of PSRs is multiplied by a normalized PSR, and the resultant values are all added to generate one correlation map. The formula for generating one correlation map is as follows.

Figure 112018071570238-pat00004
Figure 112018071570238-pat00004

Figure 112018071570238-pat00005
Figure 112018071570238-pat00005

PSR_norm은 각각 구한 PSR 값에서 전체 PSR 합으로 나눈값이다. 즉, 각각의 PSR을 정규화하는 것이다. i는 각 특징(1D sobel x 방향, 1D sobel y 방향, 1D sobel x,y 방향, 원영상, LOG 절대치)를 획득한 순서이다.PSR_norm is a value obtained by dividing the PSR value obtained by the total PSR sum. That is, each PSR is normalized. i is the order of acquiring each feature (1D sobel x direction, 1D sobel y direction, 1D sobel x, y direction, original image, LOG absolute value).

Corrmix는 과정 S216으로부터 도출된 각각의 상관 맵(Correlation map)을 하나로 합친다. 즉, 과정 S220의 결과이다. PSR_norm을 과정 S216으로부터 구한 상관 맵에 곱하고 합친다. 즉, 각각의 상관 냅으로부터 정규화한 PSR을 곱하여 해당 인덱스의 가중치를 결정하고 이 값을 모두 합하여 하나의 상관 맵을 만든다.The Corr mix combines the respective correlation maps derived from the process S216 into one. That is, the result of the process S220. The PSR_norm is multiplied by the correlation map obtained from the process S216 and added together. That is, the correlation weight is multiplied by the normalized PSR from each correlation map to determine the weight of the corresponding index, and these values are summed together to form one correlation map.

S221 : 최종 PSR 산출하고 서브 픽셀값을 계산한다. 하나의 상관 맵에서 x, y 좌표의 피크값을 계산하고 상관 맵의 정규화를 수행한다. 그리고, 최종 PSR을 계산한 후 상관 맵 정규화에서 구한 x, y 값을 기준으로 서브 픽셀을 계산한다. 최종적으로 구한 하나의 상관 맵으로 피크점을 찾아 최종 PSR을 계산하는 동시에 피크 지점 기준으로 서브픽셀 값을 계산하여 최종 추적 결과를 도출한다. S221: The final PSR is calculated and the subpixel value is calculated. In one correlation map, the peak values of the x and y coordinates are calculated and normalization of the correlation map is performed. After calculating the final PSR, the subpixel is calculated based on the x and y values obtained from the correlation map normalization. The final PSR is calculated by finding a peak point with one correlation map finally obtained, and the subpixel value is calculated based on the peak point to derive the final tracking result.

도 4를 이용하여 추적 과정의 MOSSE 필터 업데이트 과정을 설명하면 다음과 같다. The process of updating the MOSSE filter in the tracking process will be described with reference to FIG.

하나의 상관 맵(Correlation map)으로 도출한 PSR을 이용하여 특정 임계값를 넘어가면 추적이 잘 되었다고 판단한다. 즉, 도 1의 과정 S20에 제시된 바와 같이 PSR이 임계값을 초과한 경우 MOSSE 필터 업데이트를 수행한다. 즉, PSR이 임계값보다 클 때 MOSSE 필터의 업데이트를 실시하며, MOSSE 필터의 업데이트 과정을 설명하면 다음과 같다. 한편, PSR이 임계값보다 작을 때 도 1을 이용하여 설명한 바와 같이 기억 추적 모드 또는 표적 손실 모드로 진입한다.It is judged that the tracking is performed when the PSR derived from one correlation map exceeds a specific threshold value. That is, as shown in step S20 of FIG. 1, when the PSR exceeds the threshold value, the MOSSE filter update is performed. That is, when the PSR is larger than the threshold value, the update of the MOSSE filter is performed, and the updating process of the MOSSE filter is described as follows. On the other hand, when the PSR is smaller than the threshold value, it enters the memory tracking mode or the target loss mode as described with reference to FIG.

먼저, 현재 프레임에서 도출한 추적 결과점을 중심으로 2σ 커널(kernel) 필터를 새로 생성하고(S301) 고속 퓨리에 변환(FFT)를 실시한다(S302). 이어서, 5개의 특징(feature) FFT 영상과 커널 필터 FFT 영상을 각각 교차 상관한다(S303). 그리고, 기존의 MOSSE 필터와 현재 프레임에서 구한 교차 상관 결과를 가중합(weighted sum)하여 MOSSE 필터를 업데이트한다(S304). 그리고, 도 1을 이용하여 설명한 바와 같이 자동 추적 모드로 진입한다. 가중 합에 의한 MOSSE 필터의 업데이트를 위한 수식은 아래와 같다.First, a 2? Kernel filter is newly generated around a tracking result point derived from the current frame (S301), and a fast Fourier transform (FFT) is performed (S302). Next, the five feature FFT images and the kernel filter FFT images are cross-correlated with each other (S303). Then, the MOSSE filter is updated by weighted summing the cross correlation results obtained from the existing MOSSE filter and the current frame (S304). Then, as described with reference to Fig. 1, the automatic tracking mode is entered. The formula for updating the MOSSE filter by weighted sum is as follows.

Figure 112018071570238-pat00006
Figure 112018071570238-pat00006

Figure 112018071570238-pat00007
Figure 112018071570238-pat00007

Figure 112018071570238-pat00008
Figure 112018071570238-pat00008

Figure 112018071570238-pat00009
Figure 112018071570238-pat00009

Kernel 필터를 생성하여 FFT를 수행하면 실수 부분과 허수 부분이 나오는데, 실수 부분은 real, 허수 부분은 image라 표기하여 Kernalreal, Kernalimage로 표기한다. 이는 과정 S213, S301 및 S302에 해당된다. 이는 추적 성능을 안정적으로 하기 위해 사용자가 개입하여 변형을 시도하는 것이다. Kernel 필터의 생성은 현재 구한 표적 중심으로 위치의 차를 x, y 방향으로 구하고 2 sigma 형태로 계산 후 서로 곱하여 양방향의 필터를 생성한다. 수식은 하기와 같다.When the kernel filter is created and the FFT is performed, the real part and the imaginary part appear. The real part is expressed as real, and the imaginary part is expressed as image, and expressed as Kernal real and Kernal image . This corresponds to the processes S213, S301 and S302. This is an attempt by the user to intervene to stabilize the tracking performance. The Kernel filter is generated by calculating the difference of position in the x and y direction from the current target center, calculating it in 2 sigma form, and multiplying it with each other to generate bidirectional filter. The formula is as follows.

Figure 112018071570238-pat00010
Figure 112018071570238-pat00010

여기서, i는 가로 또는 세로 성분의 위치이며, peak는 peak 지점의 위치이다. 즉, 상기 수식을 이용하여 x와 y 성분을 구하고 최종적으로 곱한다. 이렇게 구한 수식을 FFT하면 커널 필터의 실수(real) 및 허수(image) 성분이 나온다.Where i is the position of the horizontal or vertical component and peak is the position of the peak point. That is, x and y components are obtained using the above equations and finally multiplied. The FFT of these formulas yields the real and imaginary components of the kernel filter.

featurereal, featurelimage는 특징(1D sobel x 방향, 1D sobel y 방향, 1D sobel x,y 방향, 원영상, LOG 절대치)을 FFT하여 실수(real) 및 허수(image)로 나온 값이다.feature real and featurel image are values obtained by real and imaginary FFT of features (1D sobel x direction, 1D sobel y direction, 1D sobel x, y direction, original image, LOG absolute value).

CrossCorreal, CrossCorimage는 Kernalreal, Kernalimage와 featurereal, featurelimage를 이용하여 과정 S221 및 S303을 수행한 값이다.CrossCor real , and CrossCor image are values obtained by performing steps S221 and S303 using Kernal real , Kernal image , feature real , and feature image .

MOSSEreal, MOSSEimage는 상기에서 구한 Kernalreal, Kernalimage와 featurereal, featurelimage, 그리고 CrossCorreal, CrossCorimage를 이용하여 MOSSE 필터를 업데이트하는 과정이다. Learning_rate는 실험상 최적의 값으로 정하였고, Learning_rate 비율에 따라 과거 MOSSE 필터의 값을 유지하면서 현재 필터 값을 누적하는 방식으로 MOSSE 필터를 업데이트한다. MOSSE real and MOSSE image are the process of updating MOSSE filter using Kernal real , Kernal image , feature real , featurel image , and CrossCor real and CrossCor image obtained above. The Learning_rate is set to the optimum value in the experiment and the MOSSE filter is updated by accumulating the current filter value while maintaining the value of the past MOSSE filter according to the Learning_rate ratio.

도 18은 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치의 구성을 설명하기 위한 블럭도이다. 또한, 도 19는 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치의 표적 탐지부의 구성을 설명하기 위한 블럭도이고, 도 20은 표적 추적부의 구성을 설명하기 위한 블럭도이다.18 is a block diagram illustrating a configuration of a target detection and tracking apparatus according to an embodiment of the present invention. FIG. 19 is a block diagram for explaining a configuration of a target detection unit of a target detection and tracking apparatus according to an embodiment of the present invention, and FIG. 20 is a block diagram for explaining the configuration of a target tracking unit.

도 18을 참조하면, 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치는 표적 탐지부(1000)와 표적 추적부(2000)를 포함할 수 있다. 또한, 입력부(3000), 제어부(4000) 및 메모리부(5000)를 더 포함할 수 있다. 여기서, 표적 탐지부(1000)는 도 19에 도시된 바와 같이 입력 영상의 노이즈를 제거하고 에지를 부각시키는 표적 모델링부(1100)와, 표적 모델링부(1100)에 의해 에지가 부각된 영상의 절대값 및 임계값을 결정하는 전처리부(1200)와, 절개값 및 임계값이 결정된 영상을 이진화 처리하여 표적 영역을 추출하는 표적 영역 추출부(1300)와, 이진화된 영상의 중심점을 검출하여 표적 후보를 결정하는 표적 후보 결정부(1400)와, 표적 후보 중에서 사용자가 표적을 선택하도록 하는 표적 선택부(1500)를 포함할 수 있다. 또한, 표적 추적부(2000)는 도 20에 도시된 바와 같이 복수의 특징(feature) 영상을 획득하는 특징 영상 획득부(2100)와, 시간 기반의 신호를 주파수 기반의 신호로 변환하기 위해 고속 퓨리에 변환하는 고속 퓨리에 변환부(2200)와, 추적 명령 후 입력되는 영상이 첫번째 프레임인지와 PSR이 특정 임계값을 초과하는지 등을 판단하는 판단부(2300)와, 커널 필터와 MOSSE 필터를 포함하는 복수의 필터를 생성하는 필터 생성부(2400)와, 특징 영상과 MOSSE 필터를 교차 상관하여 복수의 상관 맵을 생성하고 복수의 상관 맵으로부터 하나의 상관 맵을 생성하는 맵 생성부(2500)와, 주파수 기반의 신호를 시간 기반의 신호로 변환하기 위해 역 고속 퓨리에 변환을 실시하는 역 고속 퓨리에 변환부(2600)와, 각 맵의 피크점을 검출하고 PSR 및 서브 픽셀 등을 계산하는 연산부(2700)를 포함할 수 있다.Referring to FIG. 18, the target detection and tracking apparatus according to an embodiment of the present invention may include a target detection unit 1000 and a target tracking unit 2000. Further, it may further include an input unit 3000, a control unit 4000, and a memory unit 5000. 19, the target detection unit 1000 includes a target modeling unit 1100 that removes noise from an input image and emphasizes an edge, and a target modeling unit 1100 that uses an absolute A target region extracting unit 1300 for extracting a target region by binarizing an image in which a cut-out value and a threshold value are determined, and a target region extracting unit 1300 for detecting a center point of the binarized image, And a target selection unit 1500 for allowing a user to select a target from the target candidates. 20, the target tracking unit 2000 includes a feature image acquiring unit 2100 for acquiring a plurality of feature images, a fast Fourier transform unit 2100 for converting a time-based signal into a frequency- A determination unit 2300 for determining whether the image input after the tracking command is the first frame and whether the PSR exceeds a predetermined threshold value, and a determination unit 2300 for determining whether a plurality of images including a kernel filter and a MOSSE filter A map generator 2500 for generating a plurality of correlation maps by cross-correlating the feature images with the MOSSE filters and generating a correlation map from the plurality of correlation maps, An inverse fast Fourier transform unit 2600 for performing an inverse fast Fourier transform to convert a signal based on a signal to a time base signal and an operation unit 2700 for detecting a peak point of each map and calculating a PSR,It can hamhal.

이러한 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치의 표적 탐지부(1000)를 도 19를 이용하여 더욱 상세하게 설명하면 다음과 같다.The target detection unit 1000 of the target detection and tracking apparatus according to an embodiment of the present invention will be described in detail with reference to FIG.

표적 모델링부(1100)는 입력부(3000)를 통해 입력되는 영상의 노이즈를 제거하고 에지 성분이 부각되도록 한다. 즉, 표적 모델링부(1100)는 입력 영상의 노이를 제거하고 에지 성분을 부각시킨다. 따라서, 표적 모델링부(1100)는 표적 후보 검출을 위한 사전 단계를 실행한다. 이를 위해 표적 모델링부(1100)는 복수의 필터를 포함할 수 있다. 예를 들어, 표적 모델링부(1100)는 입력 영상을 가우시안 필터링하여 가우시안 영상을 획득하는 가우시안 필터와, 가우시안 필터링된 영상을 라플라시안 필터링하는 라플라시안 필터를 포함할 수 있다. 이렇게 가우시안 필터를 이용하여 입력 영상을 필터링함으로써 입력 영상의 노이즈가 제거된 가우시안 영상을 획득할 수 있고, 라플라시안 필터를 이용하여 가우시안 필터 영상을 필터링함으로써 에지 성분이 부각된 라플라시안 영상을 획득할 수 있다.The target modeling unit 1100 removes the noise of the image input through the input unit 3000 and makes the edge components stand out. That is, the target modeling unit 1100 removes the noises of the input image and highlights the edge components. Therefore, the target modeling unit 1100 executes a preliminary step for target candidate detection. For this, the target modeling unit 1100 may include a plurality of filters. For example, the target modeling unit 1100 may include a Gaussian filter for Gaussian filtering the input image to obtain a Gaussian image, and a Laplacian filter for filtering the Gaussian filtered image. By filtering the input image using the Gaussian filter, it is possible to acquire the Gaussian image from which the noise of the input image is removed. By filtering the Gaussian filter image using the Laplacian filter, the Laplacian image with the edge component can be obtained.

전처리부(1200)는 가우시안 영상 및 라플라시안 영상에 대해 이진화 이전에 전처리를 실시한다. 즉, 전처리부(1200)는 라플라시안 절대값을 획득하고, 라플라시안 절대값 영상의 임계값(threshold)를 결정한다. 또한, 전처리부(1200)는 가우시안 영상의 히스토그램을 획득하고 가우시안 영상의 임계값을 결정한다. 이렇게 전처리부(1200)는 가우시안 영상의 임계값 및 라플라시안 영상의 임계값을 결정한다. 이때, 라플라시안 절대값 및 임계값 결정과 가우시안 영상 히스토그램 획득 및 임계값 결정은 동시에 진행될 수 있다. 즉, 라플라시안 절대값 및 임계값을 결정하는 제 1 전처리 수단과, 가우시안 영상 히스토그램 획득 및 임계값을 결정하는 제 2 전처리 수단이 별도로 마련되어 제 1 및 제 2 전처리 수단이 동시에 라플라시안 및 가우시안 임계값을 결정할 수 있다. 물론, 라플라시안 또는 가우시안의 어느 하나가 먼저 진행되고 다른 하나가 나중에 진행될 수도 있다. 그러나, 빠른 연산 속도를 위해 라플라시안 및 가우시안의 임계값 결정이 동시에 이루어질 수 있다.The preprocessing unit 1200 preprocesses the Gaussian image and the Laplacian image before binarization. That is, the preprocessor 1200 obtains the Laplacian absolute value and determines a threshold value of the Laplacian absolute value image. Also, the preprocessing unit 1200 obtains a histogram of the Gaussian image and determines a threshold value of the Gaussian image. The pre-processing unit 1200 determines the threshold value of the Gaussian image and the threshold value of the Laplacian image. At this time, the Laplacian absolute value and the threshold value determination, the Gaussian image histogram acquisition, and the threshold value determination can be performed at the same time. That is, the first preprocessing means for determining the Laplacian absolute value and the threshold value, and the second preprocessing means for acquiring the Gaussian image histogram and determining the threshold value are separately provided so that the first and second preprocessing means simultaneously determine the Laplacian and Gaussian threshold values . Of course, either Laplacian or Gaussian may proceed first and the other may proceed later. However, the threshold values of Laplacian and Gaussian can be determined simultaneously for fast computation speed.

표적 영역 추출부(1300)는 표적 영역을 추출하기 위해 전처리부(1200)에 의해 임계값이 결정된 가우시안 영상 및 라플라시안 영상을 이진화한다. 즉, 표적 영역 추출부(1300)는 가우시안 영상 및 라플라시안 영상의 임계값보다 큰 값을 1로 하고 작은 값을 0으로 하여 이진화를 실시한다. 이때, 라플라시안 및 가우시안의 이진화는 동시에 진행될 수 있다. 즉, 라플라시안 영상을 이진화하는 수단과, 가우시안 영상을 이진화하는 수단이 각각 마련되어 라플라시안 및 가우시안의 이진화가 동시에 진행될 수 있다. 물론, 가우시안 영상의 이진화 후 가우시안 영상의 이진화를 실시할 수도 있다. 그러나, 라플라시안 영상의 이진화와 가우시안 영상의 이진화를 동시에 진행함으로써 연산 속도를 빠르게 할 수 있다. 또한, 표적 영역 추출부(1300)는 가우시안 및 라플라시안의 이진화 영상을 결합할 수 있다. 즉, 결합 수단이 마련되어 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합할 수 있다. 가우시안 영상을 이진화하면 대공에 대해서는 이진화가 잘되지만 타워, 산 등의 복잡 배경에 대해서는 이진화가 잘되지 않는다. 반대로, 라플라시안 영상을 이진화하면 대공에 대해서는 이진화가 잘되지 않지만 복잡 배경에 대해서는 이진화가 잘된다. 따라서, 가우시안 이진화와 라플라시안 이진화의 단점을 상호 보완하기 위해 가우시안 이진화 영상과 라플라시안 이진화 영상을 결합한다. 따라서, 에지가 강조되어 표적 영역이 추출될 수 있다. 한편, 라플라시안 이진화와 가우시안 이진화, 그리고 결합을 동시에 실시할 수 있다. 즉, 라플라시안 이진화에 의한 0 및 1과 가우시안 이진화에 의한 0 및 1을 or 연산하여 라플라시안 이진화 영상과 가우시안 이진화 영상을 결합할 수 있다.The target region extracting unit 1300 binarizes the Gaussian image and the Laplacian image having the threshold value determined by the preprocessing unit 1200 to extract the target area. That is, the target area extracting unit 1300 performs binarization by setting a value greater than a threshold value of the Gaussian image and the Laplacian image to 1 and setting a smaller value to 0. [ At this time, binarization of Laplacian and Gaussian can proceed simultaneously. That is, a means for binarizing the Laplacian image and a means for binarizing the Gaussian image are provided, so that the binarization of Laplacian and Gaussian can be performed at the same time. Of course, binarization of the Gaussian image may be followed by binarization of the Gaussian image. However, the computation speed can be increased by simultaneously performing the binarization of the Laplacian image and the binarization of the Gaussian image. In addition, the target region extracting unit 1300 may combine binary images of Gaussian and Laplacian. That is, a combining unit is provided to combine the Gaussian binarization image and the Laplacian binarization image. If the Gaussian image is binarized, binarization can be done well for the large image, but binarization for the complex background such as tower and mountain is not performed well. On the other hand, binarization of the Laplacian image is not good for the large image but binarization for the complex image is good. Therefore, we combine Gaussian binary images and Laplacian binarization images to complement the disadvantages of Gaussian binarization and Laplacian binarization. Thus, the edge can be emphasized and the target area can be extracted. On the other hand, Laplacian binarization, Gaussian binarization, and coupling can be performed at the same time. That is, 0 and 1 by Laplacian binarization and 0 and 1 by Gaussian binarization can be OR'ed to combine the Laplacian binarization image with the Gaussian binarization image.

표적 후보 결정부(1400)는 이진화된 영상의 중심점을 검출하여 표적 후보를 결정한다. 즉, 이진화된 영상은 각 표적의 중심점이 명확하지 않기 때문에 세그멘테이션 및 라벨링을 실시하여 이진화된 영상에서 표적의 경계선을 추출하여 중심점을 검출한다. 또한, 세그멘테이션 및 라벨링되어 중심점이 검출된 영상에 칼만 필터를 적용하여 다음 프레임의 표적 위치를 예측할 수 있다.The target candidate determining unit 1400 detects a center point of the binarized image and determines a target candidate. That is, since the center point of each target is not clear, the binarized image is segmented and labeled to extract the boundary of the target from the binarized image to detect the center point. In addition, the target position of the next frame can be predicted by applying a Kalman filter to an image in which the center point is detected by segmentation and labeling.

표적 선택부(1500)는 칼만 필터로 입력된 표적 중 꾸준히 검출된 표적에 대해서만 표적 후보로 전시하고 사용자가 이중 원하는 표적을 선택할 수 있도록 한다. 따라서, 사용자가 원하는 표적을 설정한 후 추적 시작 버튼을 눌러 추적 과정으로 진입할 수 있다.The target selecting unit 1500 displays only the target that has been continuously detected among the targets input by the Kalman filter as a target candidate so that the user can select the desired target. Therefore, after the user sets a desired target, the tracking process can be started by pressing the start tracking button.

본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치의 표적 추적부(2000)를 도 20을 이용하여 좀더 상세히 설명하면 다음과 같다.The target tracking unit 2000 of the target detection and tracking apparatus according to an embodiment of the present invention will be described in more detail with reference to FIG.

특징 영상 획득부(2100) 복수의 특징(feature) 영상을 획득한다. 복수의 특징 영상을 획득하기 위해 이전 프레임에서 소정의 영상을 획득하고, 획득한 영상에서 라플라시안 절대값 영상을 획득한다. 이전 프레임의 영상은 이전 프레임의 중심에서 64×64 영상을 획득할 수 있으며, 라플라시안 절대값을 취하여 양수로 변환할 수 있다. 또한, 이전 프레임 중심의 64×64 영상으로부터 1D 소벨(sobel) x 방향과, 1D 소벨(sobel) y 방향 영상을 획득하고, 1D 소벨(sobel) x, y 방향 영상을 획득한다. 따라서, 특징 영상 획득부(2100)는 5개의 특징(feature) 영상을 획득할 수 있다. 즉, 1D 소벨(sobel) x 방향, 1D 소벨(sobel) y 방향, 1D 소벨(sobel) x, y 방향, 이전 프레임의 64×64 영상(원영상), 라플라시안 절대값 영상을 각각 획득할 수 있다.The feature image acquiring unit 2100 acquires a plurality of feature images. Acquires a predetermined image in a previous frame to acquire a plurality of feature images, and acquires a Laplacian absolute value image from the acquired image. The image of the previous frame can acquire a 64x64 image at the center of the previous frame, and can take a Laplacian absolute value and convert it to a positive number. Also, 1D Sobel x direction and 1D Sobel y direction images are obtained from the 64x64 image of the previous frame center, and 1D Sobel x and y direction images are obtained. Accordingly, the feature image acquisition unit 2100 can acquire five feature images. That is, a 64 × 64 image (original image) and a Laplacian absolute value image of a previous frame can be acquired, respectively, in 1D Sobel x direction, 1D Sobel y direction, 1D Sobel x, y direction, .

고속 퓨리에 변환부(2200)는 시간 기반의 신호를 주파수 기반의 신호로 변환하기 위해 고속 퓨리에 변환한다. 고속 퓨리에 변환부(2200)는 5개의 특징 영상에 대해 고속 퓨리에 변환을 실시하는데, 5개의 특징 영상 각각에 코사인 윈도우를 곱하고, 코사인 윈도우를 곱한 영상에 대해 고속 퓨리에 변환을 실시한다. 즉, 사이드 로브에 의한 노이즈 유입을 방지하기 위해 5개의 특징 영상에 대하여 코사인 윈도우를 각각 곱하고, 고속 퓨리에 변환을 실시하여 시간 기반을 주파수 기반으로 변환한다. 이때, 각 영상에 대한 FFT는 IPP 라이브러리를 이용하여 고속화할 수 있다. 또한, 고속 퓨리에 변환부(2200)는 추적 명령 후 입력되는 첫번째 프레임의 경우 생성되는 커널 필터에 대하여 고속 퓨리에 변환을 실시한다. 즉, 추적 명령 후 첫번째 프레임에 대하여 커널 필터를 생성하는데, 고속 퓨리에 변환부(2200)는 커널 필터에 대하여 고속 퓨리에 변환을 실시한다. 그리고, 고속 퓨리에 변환부(2200)는 현재 프레임에서 도출한 추적 결과점을 중심으로 새로 생성된 2σ 커널(kernel) 필터에 대하여 고속 퓨리에 변환을 실시할 수도 있다. 즉, 고속 퓨리에 변환부(2200)는 MOSSE 필터를 업데이트하기 위한 과정으로 새로 생성된 2σ 커널(kernel) 필터에 대해 고속 퓨리에 변환를 실시한다. 따라서, 고속 퓨리에 변환부(2200)는 5개의 특징 영상, 커널 필터에 대해 고속 퓨리에 변환을 실시한다.The fast Fourier transformer 2200 performs fast Fourier transform to convert a time-based signal into a frequency-based signal. The fast Fourier transform unit 2200 performs fast Fourier transform on five feature images. Each of the five feature images is multiplied by a cosine window, and fast Fourier transform is performed on an image multiplied by a cosine window. That is, in order to prevent noise from being introduced by the side lobe, the five feature images are multiplied by the cosine window, respectively, and subjected to fast Fourier transform to convert the time base to the frequency base. At this time, the FFT for each image can be speeded up by using the IPP library. In addition, the fast Fourier transform unit 2200 performs fast Fourier transform on the kernel filter generated in the case of the first frame input after the tracking command. That is, the kernel filter is generated for the first frame after the tracking command, and the fast Fourier transform unit 2200 performs fast Fourier transform on the kernel filter. The fast Fourier transform unit 2200 may perform a fast Fourier transform on a newly generated 2? Kernel filter centered on the tracking result point derived from the current frame. That is, the fast Fourier transform unit 2200 performs fast Fourier transform on the newly generated 2? Kernel filter as a process for updating the MOSSE filter. Therefore, the fast Fourier transform unit 2200 performs fast Fourier transform on the five feature images and the kernel filter.

판단부(2300)는 추적 명령 후 입력되는 영상이 첫번째 프레임인지 판단한다. 즉, 복수의 특징 영상을 획득한 후 탐지 방법에서 표적을 탐지하고 추적 시작 버튼을 눌러 추적 명령을 내린 후 입력되는 첫번째 프레임인지 확인한다. 판단부(2300)의 판단에 따라 필터 생성부(2400)에 의해 MOSSE 필터를 생성하거나, PSR을 계산하여 서브 픽셀을 계산할 수 있다. 또한, 판단부(2300)는 PSR이 특정 임계값을 초과하는지 판단한다. 판단부(2300)의 판단 결과에 따라 PSR이 특정 임계값을 초과하면 추적이 잘 되었다고 판단하고, MOSSE 업데이트를 수행한다. 즉, PSR이 임계값보다 클 때 MOSSE 필터의 업데이트를 실시한다. 한편, 판단부(2300)는 자동 추적 모드, 기억 추적 모드 또는 표적 손실 모드로 동작할지를 판단할 수 있다. 즉, 판단부(2300)는 PSR이 임계값보다 클 경우 MOSSE 필터의 업데이트를 수행한 후 자동 추적 모드로 천이하도록 한다. 그러나, PSR이 임계값 미만일 경우 기억 추적 모드 또는 표적 손실 모드로 천이하도록 한다. 즉, 소정 시간, 예를 들어 3초 이내에 표적을 추적할 경우 칼만필터 예측값을 검출하여 기억 추적 모드로 천이하도로 하고, 3초 이상 표적을 잃어버린 경우 표적 손실 모드로 천이하도록 한다. 한편, 기억 추적 모드 천이 후 3초 이내에 표적을 다시 찾으면 자동 추적 모드로 다시 천이되고 그렇지 않으면 표적 손실 모드로 천이하도록 한다.The determination unit 2300 determines whether the image input after the tracking command is the first frame. That is, after acquiring a plurality of feature images, the target is detected in the detection method, and a tracking command is issued by pressing the start tracking button, and it is confirmed whether the first frame is inputted. According to the determination of the determination unit 2300, the filter generation unit 2400 may generate the MOSSE filter or calculate the PSR to calculate the subpixel. In addition, the determination unit 2300 determines whether the PSR exceeds a specific threshold value. If the PSR exceeds the specific threshold value according to the determination result of the determination unit 2300, it is determined that the tracking is well performed and the MOSSE update is performed. That is, when the PSR is larger than the threshold value, the MOSSE filter is updated. Meanwhile, the determination unit 2300 may determine whether to operate in an automatic tracking mode, a memory tracking mode, or a target loss mode. That is, when the PSR is greater than the threshold value, the determination unit 2300 performs the update of the MOSSE filter and then transits to the automatic tracking mode. However, when the PSR is less than the threshold value, the transition is made to the memory tracking mode or the target loss mode. That is, when the target is traced within a predetermined time, for example, within 3 seconds, the Kalman filter predicted value is detected and transited to the memory tracking mode. If the target is lost for 3 seconds or more, the target loss mode is transited. On the other hand, if the target is found again within 3 seconds after the memory tracking mode transition, the automatic tracking mode is transited again. Otherwise, the target loss mode is transited.

필터 생성부(2400)는 커널 필터 생성부, MOSSE 필터 생성부를 포함할 수 있다. 커널 필터 생성부는 추적 명령 후 입력되는 첫번째 프레임의 경우 이전 프레임의 커널(kernel) 필터를 생성한다. 즉, 커널 필터 생성부는 이전 프레임의 중심에서 예를 들어 64×64로부터 커널 필터를 생성한다. 또한, 커널 필터 생성부는 현재 프레임에서 도출한 추적 결과점을 중심으로 2σ 커널(kernel) 필터를 새로 생성할 수 있다. 즉, 판단부(2300)의 판단 결과 PSR이 임계값을 초과하는 것으로 판단되면 MOSSE 필터를 업데이트하기 위한 과정으로 필터 생성부(2400)는 커널 필터를 새로 생성한다. 그리고, MOSSE 필터 생성부는 5개의 특징 영상의 FFT 결과와 커널 필터의 FFT 결과에 대해 교차 상관(cross correlation)을 수행하여 복수의 MOSSE 필터를 생성한다. 즉, 5개 특징 영상의 FFT 결과와 커널 필터의 FFT 결과를 각각 교차 상관하여 복수의 MOSSE 필터를 최초 생성한다.The filter generation unit 2400 may include a kernel filter generation unit and a MOSSE filter generation unit. The kernel filter generator generates a kernel filter of the previous frame in case of the first frame input after the tracking command. That is, the kernel filter generator generates a kernel filter from, for example, 64x64 at the center of the previous frame. Also, the kernel filter generator can newly generate a 2? Kernel filter around the tracking result point derived from the current frame. That is, if it is determined by the determination unit 2300 that the PSR exceeds the threshold value, the filter generation unit 2400 generates a new kernel filter in order to update the MOSSE filter. The MOSSE filter generator generates a plurality of MOSSE filters by performing cross correlation on the FFT result of the five feature images and the FFT result of the kernel filter. That is, a plurality of MOSSE filters are first generated by cross-correlating the FFT result of the five feature images and the FFT result of the kernel filter, respectively.

맵 생성부(2500)는 판단부(2300)의 판단 결과에 따라 추적 명령 후 입력되는 첫번째 프레임이 아닌 경우, 즉 추적 명령 후 두번째 이상의 프레임인 경우 특징 영상과 MOSSE 필터를 교차 상관하여 상관 맵(correlation map)을 생성한다. 즉, 5개 특징 영상의 FFT 수행 결과와 이전 프레임의 MOSSE 필터를 각각 교차 상관한다. 또한, 맵 생성부(2500)는 복수의 상관 맵으로부터 하나의 상관 맵을 생성한다. 5개의 PSR의 정규화를 수행한 후 정규화된 PSR을 곱하여 하나의 상관 맵을 생성한다. 즉, 맵 생성부(2500)는 산출된 복수의 PSR을 전체 크기에서 한번 더 정규화하여 각각 정규화한 상관 맵과 정규화한 PSR을 곱하고 이 결과값을 모두 더하여 하나의 상관 맵을 생성한다.If the frame is not the first frame input after the tracking command, that is, the frame is a second frame or more after the tracking command, the map generator 2500 cross-correlates the feature image with the MOSSE filter, map). That is, the result of the FFT of the five feature images is cross-correlated with the MOSSE filter of the previous frame, respectively. Further, the map generating unit 2500 generates one correlation map from a plurality of correlation maps. Normalization of the five PSRs is performed, and then the normalized PSRs are multiplied to generate one correlation map. That is, the map generator 2500 normalizes the calculated plurality of PSRs once again at a full size, multiplies the normalized correlation maps by the normalized PSRs, and adds the resultant values to generate a correlation map.

역 고속 퓨리에 변환부(2600)는 주파수 기반의 신호를 시간 기반의 신호로 변환한다. 역 고속 퓨리에 변환부(2600)는 특징 영상과 MOSSE 필터의 교차 상관을 정규화하기 위해 각각의 교차 상관 결과에 대해 역 고속 퓨리에 변환(IFFT)을 수행한다. 즉, 5개의 교차 상관 결과에 대해 각각 IFFT를 수행한 후 각각의 상관 맵을 정규화한다. 이때, IFFT 역시 고속화를 위해 IPP 라이브러리를 적용한다.The inverse fast Fourier transformer 2600 transforms the frequency-based signal into a time-based signal. The inverse fast Fourier transformer 2600 performs inverse fast Fourier transform (IFFT) on each cross correlation result to normalize the cross correlation between the feature image and the MOSSE filter. That is, IFFT is performed on each of the five cross-correlation results, and then each correlation map is normalized. At this time, the IFFT also applies the IPP library for speedup.

연산부(2700)는 각 맵의 피크점을 검출하고, PSR을 계산한다. 즉, 연산부(2700)는 정규화된 5개 상관 맵에서 x, y 좌표의 피크값을 계산한 후 PSR을 계산한다. PSR을 계산하기 위해 각 맵에 대한 피크점 기준에서 11×11을 제외한 영역에서의 피크값을 찾아 피크치 대비 노이즈 레벨을 측정한 PSR를 산출한다. 또한, 연산부(2700)는 최종 PSR 산출하고 서브 픽셀값을 계산한다. 즉, 하나의 상관 맵에서 x, y 좌표의 피크값을 계산한 후 상관 맵의 정규화를 수행하고, 최종 PSR을 계산한 후 상관 맵 정규화에서 구한 x, y 값을 기준으로 서브 픽셀을 계산한다. 최종적으로 구한 하나의 상관 맵으로 피크점을 찾아 최종 PSR을 계산하는 동시에 피크 지점 기준으로 서브픽셀 값을 계산하여 최종 추적 결과를 도출한다. 또한, 연산부(2700)는 MOSSE 필터를 업데이트하기 위한 과정으로 5개의 특징(feature) FFT 영상과 커널 필터 FFT 영상을 각각 교차 상관하고, 기존의 MOSSE 필터와 현재 프레임에서 구한 교차 상관 결과를 가중합(weighted sum)하여 MOSSE 필터를 업데이트한다.The arithmetic operation unit 2700 detects the peak point of each map and calculates the PSR. That is, the calculation unit 2700 calculates the peak values of the x and y coordinates in the normalized five correlation maps, and then calculates the PSR. In order to calculate the PSR, a peak value in a region excluding 11 11 from the peak point reference for each map is searched and a PSR obtained by measuring the noise level relative to the peak value is calculated. In addition, the operation unit 2700 calculates the final PSR and calculates the subpixel value. That is, the peak value of the x and y coordinates is calculated in one correlation map, the correlation map is normalized, the final PSR is calculated, and the subpixels are calculated based on the x and y values obtained from the correlation map normalization. The final PSR is calculated by finding a peak point with one correlation map finally obtained, and the subpixel value is calculated based on the peak point to derive the final tracking result. In addition, the operation unit 2700 cross-correlates each of the five feature FFT images with the kernel filter FFT image in order to update the MOSSE filter, and weights the cross correlation result obtained from the existing MOSSE filter and the current frame weighted sum) to update the MOSSE filter.

한편, 입력부(3000)는 촬영 디바이스에 의해 촬영된 영상을 전기적 신호로 변환하여 제공한다. 촬영 디바이스는 촬영을 위한 렌즈, 빛의 양을 조절하기 위한 조리개 등으로 구성될 수 있으며, 감시 카메라 등을 포함할 수 있다. On the other hand, the input unit 3000 converts the image photographed by the photographing device into an electrical signal and provides it. The photographing device may include a lens for photographing, a diaphragm for adjusting the amount of light, and the like, and may include a surveillance camera or the like.

메모리부(4000)는 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치를 이용한 표적 탐지 및 추적 방법의 과정에서 생성되는 데이터를 저장한다. 예를 들어, 메모리부(400)는 MOSSE 필터의 데이터가 저장될 수 있다. 이때, 메모리부(4000)의 MOSSE 필터 데이터는 입력되는 영상의 프레임마다 업데이트되어 저장된다.The memory unit 4000 stores data generated in the process of the target detection and tracking method using the target detection and tracking apparatus according to an embodiment of the present invention. For example, the memory unit 400 may store data of the MOSSE filter. At this time, the MOSSE filter data of the memory unit 4000 is updated and stored for each frame of the input image.

제어부(5000)는 본 발명의 일 실시 예에 따른 표적 탐지 및 추적 장치를 제어하여 표적 탐지 및 추적 방법이 구현되도록 한다. 즉, 도 18을 이용하여 설명한 표적 탐지 및 추적 장치의 각 구성을 제어하여 도 1 내지 도 4을 이용하여 설명한 표적 탐지 및 추적 방법이 구현되도록 한다. 표적 탐지 및 추적 방법은 도 1 내지 도 4를 이용하여 설명하였고, 이어지는 각 과정이 제어부(5000)에 의해 제어되므로 제어부(5000)의 기능 설명을 생략하겠다. The control unit 5000 controls the target detection and tracking apparatus according to an embodiment of the present invention so that the target detection and tracking method is implemented. That is, each of the configurations of the target detection and tracking apparatus described with reference to FIG. 18 is controlled to implement the target detection and tracking method described with reference to FIG. 1 to FIG. The target detection and tracking method has been described with reference to FIGS. 1 to 4, and the subsequent processes are controlled by the control unit 5000, so that the functional description of the control unit 5000 will be omitted.

본 발명의 일 실시 예에 따른 표적 탐지 및 추적 방법에 대해 시험하고 그 결과를 설명한다.The target detection and tracking method according to an embodiment of the present invention is tested and the results are described.

본 발명에 따른 표적 탐지 및 추적 방법을 이용하여 총 800프레임에 대한 추적 성능을 시험하였다. 표적은 약 1㎞ 떨어진 드론이며, 타워를 지나가는 영상에서 표적을 잘 추적하는지에 대해 시험을 진행하였다. 도 21 내지 도 26은 각 프레임의 추적 사진으로서, 도 21은 1 내지 290 프레임 중의 일 프레임의 사진이고, 도 22는 291 내지 334 프레임 중의 일 프레임 사진이며, 도 23은 335 내지 440 프레임 중의 일 프레임의 사진이고, 도 24는 441 내지 526 프레임 중의 일 프레임의 사진이며, 도 25는 527 내지 585 프레임 중의 일 프레임의 사진이고, 도 26은 586 내지 800 프레임 중의 일 프레임의 사진이다. 즉, 도 21은 대공 표적의 사진이며, 도 22는 표적이 타워를 진입하는 사진이고, 도 23 내지 도 26은 각각 표적이 타워를 관통하는 사진이다. 이때, 도 23, 도 24 및 도 26은 표적이 타워의 공간 사이로 노출된 사진이고, 도 25는 표적이 타워 사이에 가려진 사진이다. Tracking performance was tested for a total of 800 frames using the target detection and tracking method according to the present invention. The target was a drone, about 1 km away, and the test was conducted to track the target on the image passing through the tower. FIG. 21 is a photograph of one frame of 1 to 290 frames, FIG. 22 is a frame picture of 291 to 334 frames, FIG. 23 is a photograph of one frame of 335 to 440 frames, Fig. 24 is a photograph of one frame of 441 to 526 frames, Fig. 25 is a photograph of one frame of 527 to 585 frames, and Fig. 26 is a photograph of one frame of 586 to 800 frames. That is, FIG. 21 is a photograph of the air target, FIG. 22 is a photograph in which the target enters the tower, and FIGS. 23 to 26 are photographs in which the target passes through the tower. 23, 24, and 26 are photographs in which the target is exposed between the spaces of the tower, and FIG. 25 is a photograph in which the target is obscured between the towers.

실험 결과 순수한 대공 표적에서는 문제없이 추적하였고, 타워 진입 시 표적의 에지가 뚜렸하지 않은 경우, 즉 527 내지 585 프레임에 한해서 선형 칼만 필터를 이용하여 기억 추적 모드로 추적을 한 경우를 제외하면 모든 프레임에서 용이하게 추적을 수행하였다. 즉, 도 25에 도시된 바와 같이 표적이 타워에 진입하여 타워에 가려진 경우 선형 칼만 필터를 이용하여 기억 추적 모드로 추적하였고, 나머지 경우는 자동 추적 모드로 추적할 수 있다.Experimental results show that, except for pure tracking with no problems, and when the target edge is not clear at the time of entering the tower, that is, when tracking is performed in the memory tracking mode using a linear Kalman filter only for 527 to 585 frames, Tracking was easily performed. That is, as shown in FIG. 25, when the target enters the tower and is obscured by the tower, it is tracked in a memory tracking mode using a linear Kalman filter. In the remaining cases, tracking can be performed in an automatic tracking mode.

한편, 본 발명은 고속 탐지 및 추적을 위해 IPP 라이브러리를 이용하여 탐지 및 추적의 연산 시간을 고속화하였다. 알고리즘 연산을 수행한 PC의 환경은 아래와 같다. 도 27는 총 800 프레임의 영상에서 탐지 및 추적의 총 수행 시간을 도시한 그래프로서, 탐지 및 추적의 총 수행 시간은 전체 모듈의 수행을 모두 합한 값이며, 각각의 프레임에 대한 시간 측정 결과를 정리하여 나타낸다. 단위는 ㎳(1/1000초)이다. 도 27에 도시된 바와 같이 탐지의 수행 시간은 약 2.5㎳∼3.5㎳였으며, 추적의 수행 시간은 약 4.6㎳∼6.3㎳임을 알 수 있다. 이에 따라, IPP 라이브러리를 이용한 고속화 작업을 통해 연산 시간을 대폭 줄어들었음을 확인할 수 있다.Meanwhile, the present invention speeds up the calculation time of detection and tracking using the IPP library for high speed detection and tracking. The environment of the PC that performed the algorithm operation is as follows. FIG. 27 is a graph showing the total execution time of detection and tracking in a total 800 frames of images. The total execution time of the detection and tracking is a sum of the performances of all modules, and time measurement results for each frame are summarized Respectively. The unit is ms (1/1000 second). As shown in FIG. 27, the execution time of the detection is about 2.5 ms to 3.5 ms, and the execution time of the tracking is about 4.6 ms to 6.3 ms. Therefore, it can be confirmed that the computation time is greatly reduced through the high-speed operation using the IPP library.

본 발명은 상기에서 서술된 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 즉, 상기의 실시 예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범위는 본원의 특허청구범위에 의해서 이해되어야 한다. 또한, 본 발명의 실시 예들은 상호 조합될 수 있다.The present invention is not limited to the above-described embodiments, but may be embodied in various forms. In other words, the above-described embodiments are provided so that the disclosure of the present invention is complete, and those skilled in the art will fully understand the scope of the invention, and the scope of the present invention should be understood by the appended claims . Further, embodiments of the present invention can be combined with one another.

1000 : 표적 탐지부 2000 : 표적 추적부
3000 : 입력부 4000 : 메모리부
5000 : 제어부
1000: target detection unit 2000: target tracking unit
3000: input unit 4000: memory unit
5000:

Claims (16)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 표적의 영상이 수신되면 사용자의 추적 명령 후 입력되는 영상인지를 판단하는 과정;
사용자의 추적 명령 후 입력되는 영상이면 추적 명령 후 첫번째 프레임의 경우 MOSSE 필터를 생성하는 과정;
사용자의 추적 명령 후 입력되는 두번째 이상의 프레임이면 피크치 대비 노이즈의 비율(peak to side-lobe ratio; PSR)을 계산한 후 최종 추적 결과를 도출하는 과정;
PSR과 임계값를 비교하여 PSR이 임계값보다 클 경우 MOSSE 필터를 업데이트한 후 자동 추적 모드로 천이하는 과정; 및
PSR이 임계값 작을 경우 설정된 기억 추적 시간의 표적 추적에 따라 기억 추적 모드 또는 표적 손실 모드로 천이하는 과정을 포함하고,
상기 MOSSE 필터를 생성하는 과정은,
복수의 특징 영상을 획득하는 과정과,
이전 프레임의 커널 필터를 생성하고 고속 퓨리에 변환하는 과정과,
복수의 특징 영상과 커널 필터를 교차 상관하여 MOSSE 필터를 생성하는 과정을 포함하며,
상기 PSR을 계산하는 과정은,
복수의 특징 영상과 이전 프레임의 MOSSE 필터를 교차 상관하여 복수의 상관 맵을 생성하는 과정과,
상기 복수의 상관 맵을 역 고속 퓨리에 변환하여 정규화하는 과정과,
정규화된 복수의 상관 맵에서 x, y 좌표의 피크값을 계산하는 과정과,
정규화된 복수의 상관 맵의 피크점 기준에서 일정 영역을 제외한 피크값을 찾아 피크치 대비 노이즈 값을 측정한 복수의 PSR을 계산하는 과정을 포함하고,
상기 최종 추적 결과를 도출하는 과정은,
복수의 상관 맵으로부터 하나의 상관 맵을 생성하는 과정과,
하나의 상관 맵에서 x, y 좌표의 피크값을 계산 후 최종 PSR을 계산하는 과정과,
하나의 상관 맵에서 구한 x, y 피크값으로부터 서브 픽셀을 계산하여 최종 추적 결과를 도출하는 과정을 포함하고,
상기 하나의 상관 맵은 복수의 PSR을 전체 크기에 대하여 정규화한 후 정규화된 복수의 상관 맵과 정규화된 PSR을 곱하고 그 결과값을 모두 더하여 생성하는 표적 추적 방법.
Determining whether a target image is input after a tracking command of the user when the target image is received;
Generating a MOSSE filter for a first frame after a tracking command if the input image is an input image after a user's tracking command;
Calculating a peak to side-lobe ratio (PSR) of a second or more frames input after a user's tracking command and deriving final tracking results;
Comparing the PSR with the threshold value, and if the PSR is greater than the threshold value, updating the MOSSE filter and transiting to the automatic tracking mode; And
And transitioning to the memory tracking mode or the target loss mode according to the target tracking of the set tracking time when the PSR is smaller than the threshold,
The process of generating the MOSSE filter includes:
Acquiring a plurality of feature images;
Generating a kernel filter of a previous frame and performing fast Fourier transform;
Generating a MOSSE filter by cross-correlating a plurality of feature images with a kernel filter,
The step of calculating the PSR includes:
Generating a plurality of correlation maps by cross-correlating a plurality of feature images with a MOSSE filter of a previous frame;
Performing normalization on the plurality of correlation maps by inverse fast Fourier transform,
Calculating a peak value of x, y coordinates in a plurality of normalized correlation maps,
Calculating a plurality of PSRs measuring a noise value relative to a peak value by searching for a peak value excluding a predetermined region on a peak point reference of a plurality of normalized correlation maps,
The step of deriving the final tracking result includes:
Generating a correlation map from a plurality of correlation maps;
Calculating a peak value of x and y coordinates in one correlation map and then calculating a final PSR;
Calculating a subpixel from x and y peak values obtained from one correlation map, and deriving a final tracking result;
Wherein the one correlation map is generated by normalizing a plurality of PSRs for the total size, multiplying the plurality of normalized correlation maps by the normalized PSR, and adding the resultant values together.
삭제delete 청구항 9에 있어서, 복수의 특징 영상은, 1D 소벨(sobel) x 방향, 1D 소벨(sobel) y 방향, 1D 소벨(sobel) x, y 방향, 이전 프레임의 64×64 영상 및 이전 프레임 영상의 라플라시안 절대값 영상을 포함하는 표적 추적 방법.
The method of claim 9, wherein the plurality of feature images include at least one of a 1D Sobel x direction, a 1D Sobel y direction, a 1D Sobel x, a y direction, a 64x64 image of a previous frame, A target tracking method comprising an absolute value image.
청구항 11에 있어서, 상기 MOSSE 필터는 복수의 특징 영상의 고속 퓨리에 변환 결과와 상기 커널 필터의 고속 퓨리에 변환 결과를 교차 상관하여 생성하는 표적 추적 방법.
The target tracking method according to claim 11, wherein the MOSSE filter is generated by cross-correlating fast Fourier transform results of a plurality of feature images and fast Fourier transform results of the kernel filter.
삭제delete 삭제delete 청구항 9에 있어서, 상기 MOSSE 필터를 업데이트하는 과정은,
현재 프레임에서 도출한 추적 결과의 중심에서 커널 필터를 생성한 후 고속 퓨리에 변환하는 과정과,
복수의 특징 영상의 고속 퓨리에 변환 결과와 커널 필터의 고속 퓨리에 변환 결과를 교차 상관하는 과정과,
기존의 MOSSE 필터와 현재 프레임에서 구한 교차 상관 결과를 가중합하여 MOSSE 필터를 업데이트하는 과정을 포함하는 표적 추적 방법.
10. The method of claim 9, wherein updating the MOSSE filter comprises:
Generating a kernel filter at a center of the tracking result derived from the current frame and then performing fast Fourier transform;
A step of cross-correlating a fast Fourier transform result of a plurality of feature images with a fast Fourier transform result of a kernel filter,
And updating the MOSSE filter by weighting the cross correlation result obtained in the current frame with the existing MOSSE filter.
청구항 15에 있어서, 상기 고속 퓨리에 변환 및 상기 역 고속 퓨리에 변환은 IPP(Intergrated Performance Primitives) 라이브러리를 이용하는 표적 추적 방법.16. The method of claim 15, wherein the Fast Fourier Transform and the Inverse Fast Fourier Transform use an IPP (Integrated Performance Primitives) library.
KR1020180084223A 2018-07-19 2018-07-19 Target detecting and tracking method KR101980653B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180084223A KR101980653B1 (en) 2018-07-19 2018-07-19 Target detecting and tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180084223A KR101980653B1 (en) 2018-07-19 2018-07-19 Target detecting and tracking method

Publications (2)

Publication Number Publication Date
KR101980653B1 true KR101980653B1 (en) 2019-05-21
KR101980653B9 KR101980653B9 (en) 2021-11-19

Family

ID=66675964

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180084223A KR101980653B1 (en) 2018-07-19 2018-07-19 Target detecting and tracking method

Country Status (1)

Country Link
KR (1) KR101980653B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102077597B1 (en) 2019-08-20 2020-02-14 주식회사 한화 Anti-air tracking device and operation method of the same
CN111260686A (en) * 2020-01-09 2020-06-09 滨州学院 Target tracking method and system for anti-shielding multi-feature fusion of self-adaptive cosine window
CN111429485A (en) * 2020-04-07 2020-07-17 东北大学 Cross-modal filtering tracking method based on self-adaptive regularization and high-reliability updating
CN111951298A (en) * 2020-06-25 2020-11-17 湖南大学 Target tracking method fusing time series information
CN113078937A (en) * 2021-03-19 2021-07-06 四川航天神坤科技有限公司 Method and system for capturing data link downlink under TDD system
KR20210101057A (en) * 2020-02-07 2021-08-18 국방과학연구소 Object tracking method and device that is robust against distance and environment change
CN113327273A (en) * 2021-06-15 2021-08-31 中国人民解放军火箭军工程大学 Infrared target tracking method based on variable window function correlation filtering

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004152A (en) * 2009-06-18 2011-01-06 Fujifilm Corp Target tracking device, image tracking device, method for controlling operation of the same, and digital camera
KR101087592B1 (en) 2011-03-11 2011-11-29 국방과학연구소 Method for improving the single target tracking performance of ir-based image tracker

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004152A (en) * 2009-06-18 2011-01-06 Fujifilm Corp Target tracking device, image tracking device, method for controlling operation of the same, and digital camera
KR101087592B1 (en) 2011-03-11 2011-11-29 국방과학연구소 Method for improving the single target tracking performance of ir-based image tracker

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Bolme. Theory and applications of optimized correlation output filters. Doctoral dissertation, 2012년, pp. 1-106. 1부.* *
Qi et al. Robust method for infrared small target detection based on Boolean map visual theory. Applied optics, Vol. 53, No. 18, 2014년, pp. 3929-3940.* *
김철중 외 3명. 실시간 운영체제 환경에서 IPP 라이브러리를 이용한 잡음이 많고 흐릿한 영상 환경에서 소형 타겟 고속 탐지 알고리즘 구현. 대한전자공학회 학술대회, 2015년, pp. 546-549. 1부.* *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102077597B1 (en) 2019-08-20 2020-02-14 주식회사 한화 Anti-air tracking device and operation method of the same
CN111260686A (en) * 2020-01-09 2020-06-09 滨州学院 Target tracking method and system for anti-shielding multi-feature fusion of self-adaptive cosine window
CN111260686B (en) * 2020-01-09 2023-11-10 滨州学院 Target tracking method and system for anti-shielding multi-feature fusion of self-adaptive cosine window
KR20210101057A (en) * 2020-02-07 2021-08-18 국방과학연구소 Object tracking method and device that is robust against distance and environment change
KR102318397B1 (en) * 2020-02-07 2021-10-27 국방과학연구소 Object tracking method and device that is robust against distance and environment change
CN111429485A (en) * 2020-04-07 2020-07-17 东北大学 Cross-modal filtering tracking method based on self-adaptive regularization and high-reliability updating
CN111429485B (en) * 2020-04-07 2023-09-26 东北大学 Cross-modal filtering tracking method based on self-adaptive regularization and high-reliability updating
CN111951298A (en) * 2020-06-25 2020-11-17 湖南大学 Target tracking method fusing time series information
CN111951298B (en) * 2020-06-25 2024-03-08 湖南大学 Target tracking method integrating time sequence information
CN113078937A (en) * 2021-03-19 2021-07-06 四川航天神坤科技有限公司 Method and system for capturing data link downlink under TDD system
CN113327273A (en) * 2021-06-15 2021-08-31 中国人民解放军火箭军工程大学 Infrared target tracking method based on variable window function correlation filtering
CN113327273B (en) * 2021-06-15 2023-12-19 中国人民解放军火箭军工程大学 Infrared target tracking method based on variable window function correlation filtering

Also Published As

Publication number Publication date
KR101980653B9 (en) 2021-11-19

Similar Documents

Publication Publication Date Title
KR101980653B1 (en) Target detecting and tracking method
US11302315B2 (en) Digital video fingerprinting using motion segmentation
KR100474848B1 (en) System and method for detecting and tracking a plurality of faces in real-time by integrating the visual ques
Rakibe et al. Background subtraction algorithm based human motion detection
US9373174B2 (en) Cloud based video detection and tracking system
CN107452015B (en) Target tracking system with re-detection mechanism
EP1835462A1 (en) Tracing device, and tracing method
CN104301630B (en) A kind of video image joining method and device
US20230334235A1 (en) Detecting occlusion of digital ink
KR101981493B1 (en) Target observing method
KR101964433B1 (en) Target observing method
KR20110035662A (en) Intelligent image search method and system using surveillance camera
CN111784737A (en) Automatic target tracking method and system based on unmanned aerial vehicle platform
CN108256567A (en) A kind of target identification method and system based on deep learning
KR102359982B1 (en) Object tracking apparatus and method using self-attention
KR101981490B1 (en) Target observing method
CN111415370A (en) Embedded infrared complex scene target real-time tracking method and system
CN114266805A (en) Twin region suggestion network model for unmanned aerial vehicle target tracking
KR101981491B1 (en) Target observing method
KR101981492B1 (en) Target observing method
KR101980648B1 (en) Target observing method
CN116862832A (en) Three-dimensional live-action model-based operator positioning method
Muddamsetty et al. Spatio-temporal saliency detection in dynamic scenes using local binary patterns
US20230245445A1 (en) An object detection method
Zhang et al. Long-term face tracking in the wild using deep learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant