KR20220107494A - Drone detection system based on deep learning using SWIR camera - Google Patents

Drone detection system based on deep learning using SWIR camera Download PDF

Info

Publication number
KR20220107494A
KR20220107494A KR1020210010195A KR20210010195A KR20220107494A KR 20220107494 A KR20220107494 A KR 20220107494A KR 1020210010195 A KR1020210010195 A KR 1020210010195A KR 20210010195 A KR20210010195 A KR 20210010195A KR 20220107494 A KR20220107494 A KR 20220107494A
Authority
KR
South Korea
Prior art keywords
image
drone
infrared camera
deep learning
data
Prior art date
Application number
KR1020210010195A
Other languages
Korean (ko)
Other versions
KR102528718B1 (en
Inventor
이성대
김정근
Original Assignee
한국해양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국해양대학교 산학협력단 filed Critical 한국해양대학교 산학협력단
Priority to KR1020210010195A priority Critical patent/KR102528718B1/en
Publication of KR20220107494A publication Critical patent/KR20220107494A/en
Application granted granted Critical
Publication of KR102528718B1 publication Critical patent/KR102528718B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a drone detection system based on deep learning using a near-infrared camera. The present invention comprises: a near-infrared camera that performs in photographing a video to detect a drone object as a short-wavelength infrared method, and outputs the photographed video as an image; and an image analyzer that receives the image photographed and transmitted by the near-infrared camera, and analyzes the image based on deep learning to detect a drone object, a location of the drone object, and a movement of the drone object in the transmitted image. Therefore, the present invention is capable of having an effect of detecting the drone that is so small that it is difficult for a person to identify with the naked eye.

Description

근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템 {Drone detection system based on deep learning using SWIR camera}Drone detection system based on deep learning using SWIR camera}

본 발명은 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템에 관한 것이다. 보다 상세하게는, 영상처리 분야에서 활용되고 있는 딥러닝 기술 중 하나인 컨볼루션 신경망(Convolution Neural Network(CNN))를 이용하여 원거리에 위치하여 사람이 육안으로 식별하기 어려울 정도로 크기가 작은 소형 드론을 탐지할 수 있고, 레이다와 같은 특수장치나 기술 없이 근적외선카메라(SWIR camera)만을 사용하여 시스템을 구성할 수 있어 시스템 구성을 위한 비용을 줄일 수 있는 동시에 휴대성을 향상시킬 수 있는 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템에 관한 것이다.The present invention relates to a deep learning-based drone detection system using a near-infrared camera. In more detail, using a convolutional neural network (CNN), which is one of the deep learning technologies used in the image processing field, a small drone that is located at a long distance and is small enough for a human to be difficult to identify with the naked eye. DIP using a near-infrared camera that can detect and configure a system using only a SWIR camera without special devices or technologies such as radar, thereby reducing the cost for system configuration and improving portability. It relates to a learning-based drone detection system.

최근 드론으로 알려진 소형 무인 항공기와 관련 산업이 비약적으로 발전하고 있다. Recently, small unmanned aerial vehicles known as drones and related industries are developing rapidly.

글로벌 드론 시장은 초창기 군수용 시장 중심에서 최근 상업/취미용 드론 시장을 중심으로 급속히 성장하고 있다. The global drone market is rapidly growing from the initial military market to the commercial/hobby drone market.

이러한 드론 시장의 확장에 기반하여 드론의 소형화 및 배터리 확장 등의 관련 기술 또한 급격히 발전하였다. Based on the expansion of the drone market, related technologies such as miniaturization of drones and battery expansion have also rapidly developed.

드론 기술이 발전함에 따라 이를 이용한 무분별한 사생활 침해 및 소형 폭탄 운반 등을 포함하여 드론의 악의적 사용과 화학 물질 및 소규모 테러와 관련된 개인 또는 그룹의 드론 남용 사례가 세계적인 문제가 되고 있다. As drone technology develops, the malicious use of drones, including reckless invasion of privacy and the delivery of small bombs, and cases of drone abuse by individuals or groups related to chemical substances and small-scale terrorism have become a global problem.

이러한 문제점을 방지하기 위해 최근 드론 탐지 기술 등의 안티 드론 기술에 대한 연구가 활발히 진행되고 있다.In order to prevent this problem, recent research on anti-drone technology such as drone detection technology is being actively conducted.

안티 드론 기술이란 무인 비행체 장치 탐지기술과 무인 비행 장치 무력화 기술을 결합한 방식이다. Anti-drone technology is a combination of unmanned aerial vehicle detection technology and unmanned aerial vehicle neutralization technology.

안티 드론 기술중 무인 비행체 장치 탐지 기술의 경우, 초고해상도 레이더, 마이크, 카메라, RF 탐지등 다양한 센서를 융합한 드론 탐지 기술이 개발되고 있다.In the case of unmanned aerial vehicle device detection technology among anti-drone technologies, drone detection technology that combines various sensors such as ultra-high-resolution radar, microphone, camera, and RF detection is being developed.

그러나, 기존의 드론 탐지 기술은 다양한 센서를 융합한 레이다를 통한 탐지기술이 대부분이며, 이러한 레이다 기반 탐지는 비교적 고비용이며 훈련된 운용 전문가가 필요하다는 문제점이 있다.However, most of the existing drone detection technology is a detection technology through a radar fused with various sensors, and such radar-based detection has a problem that it is relatively expensive and requires a trained operating expert.

또한, 일반적인 화상 카메라 영상을 이용한 연구 또한 진행되고 있으나, 대부분 사람이 드론의 형태를 육안으로 식별 가능할 정도로 큰 경우에 대해서만 연구가 진행되고 있는 실정이다.In addition, research using a general video camera image is also being conducted, but research is being conducted only on a case that is large enough for humans to visually recognize the shape of the drone.

따라서, 특수장치 및 기술을 사용하지 않고 육안 식별하기 어려운 소형 드론 영상에 대한 탐지 기술이 필요하다.Therefore, there is a need for a detection technology for a small drone image that is difficult to identify with the naked eye without using a special device and technology.

선행기술문헌 : KR등록특허공보 제10-1200974호(2012년11월12일 공고)Prior art literature: KR Registered Patent Publication No. 10-1200974 (Notice on November 12, 2012)

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 영상처리 분야에서 활용되고 있는 딥러닝 기술 중 하나인 컨볼루션 신경망(Convolution Neural Network(CNN))를 이용하여 원거리에 위치하여 사람이 육안으로 식별하기 어려울 정도로 크기가 작은 소형 드론을 탐지할 수 있고, 레이다와 같은 특수장치나 기술 없이 근적외선카메라(SWIR camera)만을 사용하여 시스템을 구성할 수 있어 시스템 구성을 위한 비용을 줄일 수 있는 동시에 휴대성을 향상시킬 수 있는 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템을 제공하는 데 그 목적이 있다.The present invention has been devised to solve the above problems, and is located at a distance using a convolutional neural network (CNN), which is one of the deep learning technologies used in the image processing field, so that a person can see it with the naked eye. It can detect small drones that are small enough to be difficult to identify, and can configure the system using only a SWIR camera without special devices or technologies such as radar, thereby reducing the cost for system configuration and portability. It aims to provide a deep learning-based drone detection system using a near-infrared camera that can improve

상기 목적을 달성하기 위해 안출된 본 발명에 따른 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템은 단파장 적외선 방식으로 드론객체를 탐지하기 위한 영상 촬영을 수행하고, 촬영된 영상을 이미지를 출력하는 근적외선카메라(20); 근적외선카메라에서 촬영하여 전송한 이미지를 수신하고, 전송된 이미지에서 드론객체와 드론객체의 위치, 드론객체의 움직임을 감지하기 위해 딥러닝 기반으로 이미지를 분석하는 이미지분석기(30); 이미지분석기에서 감지한 드론객체의 위치와 움직임에 관한 정보를 수신하며, 원격에서 근적외선카메라의 동작을 제어하고, 근적외선카메라에서 전송한 이미지를 표시하며, 이미지분석기에서 드론객체를 감지한 경우, 근적외선카메라에서 전송한 이미지에 이미지분석기에서 감지한 드론객체를 중첩시켜 모니터 상에 표시하는 통합컨트롤러(40)를 포함하고, 이미지분석기는 근적외선카메라에서 전송한 배경과 드론객체가 포함된 다수의 이미지에서 드론객체에 대해 경계박스를 설정하는 라벨링 과정을 통해 배경이 포함된 이미지에서 드론객체만을 식별할 수 있는 학습데이터를 생성하는 학습데이터생성기능(100); 근적외선카메라에서 전송한 이미지에서 딥러닝 네트위크를 이용하여 드론객체를 탐지하고 그 위치를 추적하기 위해 딥러닝 네트워크 학습을 위한 입력 형태로 학습데이터를 변환하는 데이터변환기능(200); 콘볼루션신경망이 포함된 딥러닝 네트워크 모델이 포함되며, 데이터변환기능(200)에서 변환된 학습데이터를 딥러닝 네트워크 모델에 대한 입력데이터로 이용하여 입력데이터로 사용된 이미지 상에서 드론객체를 탐지하고, 그 위치를 추적하기 위한 학습을 진행하는 데이터학습기능(300); 데이터학습기능(300)에 의해 학습된 딥러닝 네트위크 모델을 이용하여 실제 드론을 탐지하기 위해 근적외선카메라에서 획득한 영상 정보를 시간 단위로 캡쳐하여 이미지로 분할하며, 분할된 이미지 중에 포함된 드론객체를 탐지하고, 탐지된 드론객체에 대해 경계박스가 설정된 이미지를 출력하는 드론탐지적용기능(400); 및 드론탐지적용기능(400)에서 출력한 이미지 상에서 경계박스가 설정된 형태로 탐지된 드론객체의 이동속도를 포함하여 드론객체의 동적 상태를 추정하기 위한 상태추정기능(500)을 포함한다.A deep learning-based drone detection system using a near-infrared camera according to the present invention devised to achieve the above object is a near-infrared camera ( 20); An image analyzer (30) that receives an image captured by a near-infrared camera and transmitted, and analyzes an image based on deep learning to detect a drone object, a location of a drone object, and a movement of a drone object in the transmitted image; Receives information about the position and movement of the drone object detected by the image analyzer, remotely controls the operation of the near-infrared camera, displays the image transmitted from the near-infrared camera, and when the image analyzer detects the drone object, the near-infrared camera It includes an integrated controller 40 that superimposes the drone object detected by the image analyzer on the image transmitted from the image analyzer and displays it on the monitor. Learning data generation function 100 for generating learning data that can identify only the drone object in the image including the background through the labeling process of setting a bounding box for the; A data conversion function 200 for converting learning data into an input form for deep learning network learning in order to detect a drone object using a deep learning network from an image transmitted from a near-infrared camera and track its location; A deep learning network model including a convolutional neural network is included, and the training data converted in the data transformation function 200 is used as input data for the deep learning network model to detect a drone object on the image used as input data, a data learning function 300 for learning to track the location; In order to detect an actual drone using the deep learning network model learned by the data learning function 300, the image information acquired from the near-infrared camera is captured by time unit and divided into images, and the drone object included in the divided image is a drone detection application function 400 for detecting and outputting an image in which a bounding box is set for the detected drone object; and a state estimation function 500 for estimating the dynamic state of the drone object including the movement speed of the drone object detected in the form in which the bounding box is set on the image output from the drone detection application function 400 .

또한, 이미지분석기는 상태추정기능(500)의 결과 값을 이용하여 드론객체가 포함된 경계박스의 중앙 좌표를 구해 저장한 후 각 이미지에 포함된 경계박스의 중앙 좌표를 직선으로 연결하여 드론객체의 경로를 추적하여 최종 이미지를 출력하는 경로추적기능(600)을 포함할 수 있다.In addition, the image analyzer uses the result value of the state estimation function 500 to obtain and store the center coordinates of the bounding box including the drone object, and then connects the center coordinates of the bounding box included in each image with a straight line to determine the size of the drone object. It may include a path tracking function 600 for outputting a final image by tracking the path.

또한, 데이터변환기능(200)을 통해 변환되는 학습데이터는 실수로 표현된 텍스트 파일 형태로 저장되며, 변환된 학습데이터는 클래스번호, 드론객체가 포함된 경계박스의 중심점에 대한 가로축 좌표, 경계박의 중심점에 대한 세로축 좌표, 경계박스의 폭, 경계박스의 높이에 관한 정보를 포함하는 것을 포함할 수 있다.In addition, the learning data converted through the data conversion function 200 is stored in the form of a text file expressed as a real number, and the converted learning data is the class number, the horizontal axis coordinates for the center point of the bounding box containing the drone object, the bounding beat It may include including information about the vertical axis coordinates for the center point of the bounding box, the width of the bounding box, and the height of the bounding box.

본 발명에 의하면 특수장치 및 기술을 사용하지 않고, 사람이 육안으로 식별 어려울 정도로 작은 드론을 탐지할 수 있는 있는 효과가 있다.According to the present invention, there is an effect that it is possible to detect a drone that is small enough for a human to be difficult to identify with the naked eye without using a special device and technology.

또한, 전체 시스템의 구성이 비교적 간단하여 시스템 구성을 위한 비용을 줄일 수 있는 동시에 휴대성을 향상시킬 수 있는 효과가 있다.In addition, since the configuration of the entire system is relatively simple, the cost for system configuration can be reduced and portability can be improved.

도 1은 본 발명의 바람직한 실시예에 따른 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템의 구성과 신호 흐름을 도시한 도면,
도 2는 이미지분석기의 기능을 도시한 도면,
도 3은 학습데이터생성기능에서 드록객체에 대한 라벨링과정을 도시한 도면,
도 4는 데이터변환기능에서 딥러닝 네트워크 학습을 위한 입력 형태로 학습데이터를 변환한 상태를 도시한 도면,
도 5는 본 발명의 바람직한 실시예에 따른 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템에 대한 성능 실험 결과를 그래프로 도시한 도면,
도 6은 경로추적기능에 의해 드론객체의 경로를 추적하는 상태를 도시한 도면,
도 7은은 근적외선카메라에서 전송한 이미지에 이미지분석기에서 감지한 드론객체를 중첩시켜 통합컨트롤러의 모니터 상에 표시한 도면.
1 is a diagram showing the configuration and signal flow of a deep learning-based drone detection system using a near-infrared camera according to a preferred embodiment of the present invention;
2 is a view showing the function of the image analyzer;
3 is a diagram illustrating a labeling process for a drag object in a learning data generation function;
4 is a diagram showing a state in which the learning data is converted into an input form for deep learning network learning in the data conversion function;
5 is a graph showing performance test results for a deep learning-based drone detection system using a near-infrared camera according to a preferred embodiment of the present invention;
6 is a view showing a state in which the path of the drone object is tracked by the path tracking function;
7 is a view showing the drone object detected by the image analyzer superimposed on the image transmitted from the near-infrared camera on the monitor of the integrated controller.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, it should be noted that in adding reference numerals to the components of each drawing, the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, preferred embodiments of the present invention will be described below, but the technical spirit of the present invention is not limited thereto or may be variously implemented by those skilled in the art without being limited thereto.

도 1은 본 발명의 바람직한 실시예에 따른 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템의 구성과 신호 흐름을 도시한 도면, 도 2는 이미지분석기의 기능을 도시한 도면, 도 3은 학습데이터생성기능에서 드록객체에 대한 라벨링과정을 도시한 도면, 도 4는 데이터변환기능에서 딥러닝 네트워크 학습을 위한 입력 형태로 학습데이터를 변환한 상태를 도시한 도면, 도 5는 본 발명의 바람직한 실시예에 따른 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템에 대한 성능 실험 결과를 그래프로 도시한 도면, 도 6은 경로추적기능에 의해 드론객체의 경로를 추적하는 상태를 도시한 도면, 도 7은은 근적외선카메라에서 전송한 이미지에 이미지분석기에서 감지한 드론객체를 중첩시켜 통합컨트롤러의 모니터 상에 표시한 도면이다. 1 is a diagram showing the configuration and signal flow of a deep learning-based drone detection system using a near-infrared camera according to a preferred embodiment of the present invention, FIG. 2 is a diagram showing the function of an image analyzer, FIG. 3 is a learning data generation function A diagram showing a labeling process for a drag object in FIG. 4 is a diagram showing a state in which the learning data is converted into an input form for deep learning network learning in a data conversion function, FIG. 5 is a diagram according to a preferred embodiment of the present invention A diagram showing the results of a performance experiment for a deep learning-based drone detection system using a near-infrared camera as a graph, FIG. 6 is a diagram showing a state of tracking the path of a drone object by a path tracking function, and FIG. 7 is a transmission from the near-infrared camera It is a drawing that is displayed on the monitor of the integrated controller by superimposing the drone object detected by the image analyzer on one image.

본 발명의 바람직한 실시예에 따른 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템는, 도 1을 참조하면, 근적외선카메라(20), 이미지분석기(30), 통합컨트롤러(40)를 포함하여 이루어진다.A deep learning-based drone detection system using a near-infrared camera according to a preferred embodiment of the present invention includes a near-infrared camera 20 , an image analyzer 30 , and an integrated controller 40 , with reference to FIG. 1 .

먼저, 본 발명에 따른 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템은 영상처리 분야에서 활용되고 있는 딥러닝 기술 중 하나인 컨볼루션 신경망(Convolution Neural Network(CNN))를 이용하여 원거리에 위치하여 사람이 육안으로 식별 불가능할 정도로 크기가 작은 소형 드론을 탐지할 수 있는데 그 특징이 있다.First, the deep learning-based drone detection system using a near-infrared camera according to the present invention uses a convolutional neural network (CNN), which is one of the deep learning technologies used in the image processing field, and is It can detect small drones that are so small that they cannot be identified with the naked eye.

또한, 레이다와 같은 특수장치나 기술 없이 근적외선카메라만을 사용하여 시스템을 구성할 수 있어 시스템 구성을 위한 비용을 줄일 수 있는 동시에 휴대성을 향상시킬 수 있는데 그 특징이 있다.In addition, since a system can be configured using only a near-infrared camera without a special device or technology such as a radar, the cost for system configuration can be reduced and portability can be improved.

이하, 본 발명의 바람직한 실시예에 따른 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템의 구성 요소에 대해 상세하게 설명한다.Hereinafter, components of a deep learning-based drone detection system using a near-infrared camera according to a preferred embodiment of the present invention will be described in detail.

도 1을 참조하면, 근적외선카메라(20)는 SWIR 카메라를 포함하여 단파장 적외선 방식으로 드론객체를 탐지하기 위한 영상 촬영을 수행하고, 촬영된 영상을 열화상 형태의 이미지로 출력한다.Referring to FIG. 1 , the near-infrared camera 20 captures an image for detecting a drone object in a short-wavelength infrared method including a SWIR camera, and outputs the captured image as an image in the form of a thermal image.

이미지분석기(30)는 도 1을 참조하면, 근적외선카메라(20)에서 촬영하여 전송한 이미지를 수신하고, 전송된 이미지에서 드론객체와 드론객체의 위치, 드론객체의 움직임을 감지하기 위해 딥러닝 기반으로 이미지를 분석한다.1, the image analyzer 30 receives an image captured by the near-infrared camera 20 and transmitted, and based on deep learning to detect the drone object and the position of the drone object and the movement of the drone object in the transmitted image. Analyze the image with

통합컨트롤러(40)는 도 1을 참조하면, 이미지분석기(30)에서 감지한 드론객체의 위치와 움직임에 관한 정보를 수신하고, 원격에서 근적외선카메라(20)의 팬-틸트를 포함한 동작을 제어한다.Referring to FIG. 1 , the integrated controller 40 receives information about the position and movement of the drone object detected by the image analyzer 30 , and remotely controls the operation including pan-tilt of the near-infrared camera 20 . .

또한, 통합컨트로러는 근적외선카메라(20)에서 전송한 이미지를 표시하며, 이미지분석기(30)에서 드론객체를 감지한 경우, 도 7에 도시한 바와 같이 근적외선카메라(20)에서 전송한 이미지에 이미지분석기(30)에서 감지한 드론객체를 중첩시켜 모니터 상에 표시한다.In addition, the integrated controller displays the image transmitted from the near-infrared camera 20, and when the image analyzer 30 detects the drone object, as shown in FIG. The drone object detected by the analyzer 30 is superimposed and displayed on the monitor.

한편, 도 2를 참조하면, 이미지분석기(30)에는 학습데이터생성기능(100), 데이터변환기능(200), 데이터학습기능(300), 드론탐지적용기능(400), 상태추정기능(500), 경로추적기능(600)이 포함된다.Meanwhile, referring to FIG. 2 , the image analyzer 30 includes a learning data generation function 100 , a data conversion function 200 , a data learning function 300 , a drone detection application function 400 , and a state estimation function 500 . , a path tracking function 600 is included.

이미지분석기(30)의 학습데이터생성기능(100)은 도 1을 참조하면, 아래에 서술된 데이터학습기능(300)에서 특정 이미지에 드론객체가 있는지 여부를 판단하고, 드론객체를 탐지하기 위한 학습자료를 생성한다.Referring to FIG. 1 , the learning data generating function 100 of the image analyzer 30 determines whether there is a drone object in a specific image in the data learning function 300 described below, and learning to detect the drone object create material

학습데이터생성기능(100)은 도 3에 도시한 바와 같이 배경과 드론객체가 포함된 다수의 이미지에서 드론객체에 대해 경계박스를 설정하는 라벨링(labeling) 과정을 통해 배경이 포함된 이미지에서 드론객체만을 식별할 수 있는 학습데이터를 생성한다.As shown in FIG. 3 , the learning data generation function 100 is a drone object in an image including a background through a labeling process of setting a bounding box for a drone object in a plurality of images including a background and a drone object. It generates training data that can identify only

학습데이터생성기능(100)에서의 라벨링과정은 학습을 위한 이미지에 포함된 각각의 물체를 이미지상에서 구분하기 위해 각 물체들의 픽셀들이 서로 연결되어 있는지의 여부를 판단한다. The labeling process in the learning data generating function 100 determines whether the pixels of each object are connected to each other in order to distinguish each object included in the image for learning on the image.

이때, 이미지의 배열 속에서 서로 연결되어 있는 픽셀들의 집합인 연결성분을 찾고, 같은 연결성분을 가지는 픽셀들에게 번호를 지정해주는 라벨링을 함으로써 이미지에 포함된 각각의 물체들을 서로 구분하게 된다.At this time, each object included in the image is distinguished from each other by searching for a connected component, which is a set of pixels connected to each other in the image array, and labeling the pixels having the same connected component by designating a number.

일반적으로, 근적외선카메라(20)에서 획득한 이미지 정보는 근적외선카메라(20)의 성능에 따라 규칙성이 없는 노이즈가 발생할 수 있다. In general, image information acquired by the near-infrared camera 20 may generate non-regular noise depending on the performance of the near-infrared camera 20 .

크기필터링과정(150)은 근적외선카메라(20)에서 획득한 이미지에 포함된 규칙성이 없는 노이즈를 제거하는 과정으로 학습데이터생성기능(100)의 라벨링과정에서 라벨링이 되는 이미지의 픽셀에서 특정 픽셀수를 정하고, 특정된 픽셀수 보다 적은 영역을 제거하여 데이터학습기능(300)에서 이미지에 포함된 드론객체의 식별력을 높일 수 있도록 한다.The size filtering process 150 is a process of removing non-regular noise included in the image acquired by the near-infrared camera 20. In the labeling process of the learning data generating function 100, a specific number of pixels from the pixels of the image to be labeled , and removes an area less than the specified number of pixels so that the data learning function 300 can improve the identification of the drone object included in the image.

데이터변환기능(200)은 딥러닝 네트위크를 이용하여 드론객체를 식별하고 그 위치를 추적하기 위해 딥러닝 네트워크 학습을 위한 입력 형태로 학습데이터를 변환한다.The data conversion function 200 converts learning data into an input form for deep learning network learning in order to identify a drone object using a deep learning network and track its location.

데이터변환기능(200)을 통해 변환되는 학습데이터는 도 4에 도시한 바와 같이 실수로 표현된 텍스트 파일 형태로 저장되며, 변환된 학습데이터의 각 행의 구성은 각각 클래스번호(2), 드론객체가 포함된 경계박스의 중심점에 대한 가로축 좌표(4), 경계박의 중심점에 대한 세로축 좌표(6), 경계박스의 폭(8), 경계박스의 높이(10)에 관한 정보를 포함한다.The learning data converted through the data conversion function 200 is stored in the form of a text file expressed in real numbers as shown in FIG. 4, and the configuration of each row of the converted learning data is a class number (2), a drone object, respectively. It includes information about the horizontal axis coordinates (4) for the center point of the bounding box, the vertical axis coordinates (6) for the center point of the bounding box, the width (8) of the bounding box, and the height (10) of the bounding box.

여기서, 클래스번호(2)는 음이 아닌 정수로 표현. 현재 이미지에서 객체가 하나 밖에 없을 경우에는 0 으로 고정된 값을 가진다.Here, the class number (2) is expressed as a non-negative integer. If there is only one object in the current image, it has a fixed value of 0.

드론객체가 포함된 경계박스의 중심점에 대한 가로축 좌표(4)는 0~1사이의 소수점 아래 6자리의 실수로 표현되며, 경계박스의 좌상단 꼭지점 좌표가 전체 이미지 에 비례해서 가로축 어느 지점에 있는지를 표현한다.The horizontal axis coordinate (4) for the center point of the bounding box containing the drone object is expressed as a real number of 6 digits after the decimal point between 0 and 1. express

경계박의 중심점에 대한 세로축 좌표(6)는 0~1사이의 소수점 아래 6자리의 실수로 표현되며, 직사각형 박스의 좌상단 꼭지점 좌표가 전체 이미지 비례해서 세로축 어느 지점에 있는지를 표현한다.The ordinate coordinate (6) of the center point of the bounding foil is It is expressed as a real number of 6 digits after the decimal point between 0 and 1, and it expresses where the coordinates of the upper left corner of the rectangular box are on the vertical axis in proportion to the entire image.

경계박스의 폭(8)은 0~1사이의 소수점 아래 6자리의 실수로 표현되며, 전체 이미지의 크기를 1이라고 했을 때, 경계박스의 너비를 전체 이미지에 비례해서 표현한다.The width (8) of the bounding box is It is expressed as a real number of 6 digits after the decimal point between 0 and 1, and when the size of the entire image is 1, the width of the bounding box is expressed in proportion to the entire image.

경계박스의 높이(10)는 0~1사이의 소수점 아래 6자리의 실수로 표현되며, 전체 이미지의 크기를 1이라고 했을 때, 경계박스의 높이를 전체 이미지 비례해서 표현한다.The height (10) of the bounding box is It is expressed as a real number of 6 digits after the decimal point between 0 and 1, and when the size of the entire image is 1, the height of the bounding box is expressed in proportion to the entire image.

데이터학습기능(300)은 콘볼루션 신경망(CNN; Convolutional Neural Network)이 포함된 R-CNN(Regions with CNN), Fast R-CNN, Faster R-CNN, YOLO(You Only Look Once)을 포함한 딥러닝 네트워크 모델을 포함하며, 데이터변환기능(200)에 의해 변환된 학습데이터를 딥러닝 네트워크 모델에 대한 입력데이터로 이용하여 입력데이터로 사용된 이미지 상에서 드론객체를 탐지하고, 그 위치를 추적하기 위한 학습을 진행한다.The data learning function 300 is deep learning including R-CNN (Regions with CNN), Faster R-CNN, Faster R-CNN, and YOLO (You Only Look Once) including a convolutional neural network (CNN). Learning to detect a drone object on an image used as input data by using the training data converted by the data conversion function 200 as input data for the deep learning network model, including a network model, and to track its location proceed with

드론탐지적용기능(400)은 데이터학습기능(300)에 의해 학습된 딥러닝 네트위크 모델을 이용하여 실제 드론을 탐지하기 위한 과정으로 근적외선카메라(20)에서 획득한 영상 정보를 시간 단위로 캡쳐하여 분할한 이미지 중에 포함된 드론객체를 탐지하고, 탐지된 드론객체에 대해 경계박스가 설정된 이미지를 출력한다.The drone detection application function 400 is a process for detecting an actual drone using the deep learning network model learned by the data learning function 300, and captures and divides the image information obtained from the near-infrared camera 20 in units of time. A drone object included in an image is detected, and an image in which a bounding box is set for the detected drone object is output.

한편, 드론탐지적용기능(400)에서는 근적외선카메라(20)에서 획득한 연속적인 이미지를 유한개의 픽셀로 분할하는 표준화과정을 거친다.On the other hand, the drone detection application function 400 undergoes a standardization process of dividing the continuous image acquired by the near-infrared camera 20 into a finite number of pixels.

그리고, 표준화과정을 거친 이미지에 대해 연속적인 농담 값을 가지는 분할된 픽셀의 농담 값을 결정 하기 위해 이산적인 정수 값으로 표현하는 양자화과정을 진행한다. Then, a quantization process of expressing a discrete integer value is performed in order to determine the grayscale value of the divided pixels having continuous grayscale values for the image that has undergone the standardization process.

또한, 양자화과정에서 발생하거나 근적외선카메라(20)에서 획득한 영상신호를 증폭하는 과정에서 발생할 수 있는 노이즈를 제거하여 드론탐지적용기능(400)에서 실제 드론객체 탐지를 위한 정확도를 높일 수 있도록 하기 위한 노이즈제거기능이 포함될 수 있다.In addition, by removing noise that may occur in the quantization process or in the process of amplifying the image signal acquired by the near-infrared camera 20, the drone detection application function 400 increases the accuracy for detecting a real drone object. A noise canceling function may be included.

배경클러터제거기능(350)은 드론탐지적용기능(400)에 포함될 수 있으며, 실제 근적외선카메라(20)에서 획득한 영상에서 드론객체와 배경으로 분리하여 배경을 추출하고, 추출된 배경을 제거하여 동적상태에 있는 드론객체에 대한 픽셀정보를 추출하기 위한 전처리를 수행한다.The background clutter removal function 350 may be included in the drone detection application function 400, and it extracts the background by separating the drone object and the background from the image obtained from the actual near-infrared camera 20, and removes the extracted background. Pre-processing is performed to extract pixel information about the drone object in the dynamic state.

배경클러터제거과정(350)은 가우시안 모델을 이용하여 구현될 수 있으며, 움직임으로 인해 계속적으로 위치가 변하는 드론객체에 비해 영상 안에서 비교적 움직임이 없는 배경(background)을 구하고, 초기에 주어진 영상에서 배경으로 지정하거나 연속으로 입력되는 영상에서 적절한 배경을 생성한 후, 현재 영화상카메라에서 획득한 영상과의 비교를 통해 배경을 제외한 드론객체만을 분리해 낸다.The background clutter removal process 350 can be implemented using a Gaussian model, obtains a relatively motionless background in an image compared to a drone object whose position continuously changes due to movement, and initially selects a background from a given image. After creating an appropriate background from images specified as or continuously inputted, it separates only the drone object excluding the background through comparison with the image acquired from the current movie camera.

한편, 학습된 딥러닝 네트워크 모델은 근적외선카메라(20)에서 획득한 영상에서 드론객체를 탐지할 때, 영상을 이미지 프레임 단위로 분할하여 단일 이미지 프레임에서만 드론객체를 탐지하므로 오탐지 가능성이 높다.On the other hand, when the trained deep learning network model detects a drone object in an image obtained from the near-infrared camera 20, it divides the image into image frame units and detects the drone object only in a single image frame, so there is a high possibility of false detection.

또한, 드론과 같은 동적 물체의 이동 정보는 영상의 잡음과 이동 상태천이의 불확실성을 가지고 있기 때문에 강인하게 상태를 추정할 필요가 있다.In addition, since movement information of a dynamic object such as a drone has image noise and uncertainty of movement state transition, it is necessary to robustly estimate the state.

따라서, 본 발명에서는 이러한 문제를 해결하기 위해 칼만 필터(Kalman Filter), 확장 칼만 필터(EKF: Extended Kalman Filter)를 포함한 재귀적필터를 사용하여 딥러닝 네트워크 모델에서 출력하는 이미지 상에서 드론객체를 재귀적(recursively) 탐지하고 이동 경로를 포함한 드론객체의 상태를 추정하는 상태추정기능(500)이 포함된다.Therefore, in the present invention, in order to solve this problem, a drone object is recursively displayed on an image output from a deep learning network model by using a recursive filter including a Kalman filter and an extended Kalman filter (EKF). A state estimation function 500 for detecting (recursively) and estimating the state of the drone object including the movement path is included.

상태추정기능(500)은 근적외선카메라(20)에서 획득한 드론객체의 동적 상태를 추정하기 위해서도 사용될 수 있다.The state estimation function 500 may also be used to estimate the dynamic state of the drone object acquired by the near-infrared camera 20 .

상태추정기능(500)은 학습된 딥러닝 네트위크 모델이 적용되어 실제 드론을 탐지하는 드론탐지적용기능(400)에서 출력한 이미지 상에 경계박스가 설정된 형태로 탐지된 드론객체의 이동속도를 포함하여 드론객체의 동적 상태를 추정한다.The state estimation function 500 includes the movement speed of the drone object detected in the form of a bounding box set on the image output from the drone detection application function 400 that detects the actual drone by applying the learned deep learning network model. Estimate the dynamic state of the drone object.

상태추정기능(500)에서는 학습된 딥러닝 네트위크 모델에서 출력하는 이미지들을 시간 단위(time step) 별로 저장하여 사용한다.The state estimation function 500 stores and uses images output from the learned deep learning network model for each time step.

상태추정기능(500)은 드론탐지적용기능(400)에서 학습된 딥러닝 네트위크 모델이 출력하는 다수의 이미지들 중에서 이전 시간단계(time step)에서의 이미지를 입력으로 받아 재귀적(recursively) 드론객체를 탐지하고 현재의 상태를 추정한다.The state estimation function 500 receives an image at a previous time step from among a plurality of images output by the deep learning network model learned in the drone detection application function 400 as an input and recursively performs a drone object. Detect and estimate the current state.

경로추적기능(600)은 도 6을 참조하면, 상태추정기능(500)에서 다수의 이미지 형태로 출력한 결과 값을 이용하여 드론객체가 포함된 경계박스의 중앙 좌표를 구하고, 각 결과 값에 포함된 경계박스의 중앙 좌표를 직선으로 연결하여 드론객체의 경로를 추적하여 최종 이미지를 출력한다.Referring to FIG. 6 , the path tracking function 600 obtains the center coordinates of the bounding box including the drone object using the result values output in the form of a plurality of images from the state estimation function 500, and is included in each result value The final image is output by tracing the path of the drone object by connecting the center coordinates of the bounding box with a straight line.

즉, 상태추정기능(500)에서 출력한 이미지 상에 드론객체가 포함된 경계박스의 중심점에 대한 가로축 좌표, 경계박의 중심점에 대한 세로축 좌표, 경계박스의 폭, 경계박스의 높이에 관한 정보를 이용하여 드론객체가 포함된 경계박스의 중앙 좌표를 구해 메모리에 저장하고, 저장된 드론객체가 포함된 경계박스의 중앙 좌표를 서로 직선으로 연결하여 탐지된 드론객체의 최정 경로를 추적한다.That is, on the image output from the state estimation function 500, the horizontal axis coordinates for the center point of the bounding box containing the drone object, the vertical axis coordinates for the center point of the bounding foil, the width of the bounding box, and information about the height of the bounding box The center coordinates of the bounding box containing the drone object are obtained using the method, and the center coordinates of the bounding box containing the drone object are obtained and stored in the memory.

도 5는 본 발명에 대해 영상처리(computer vision)분야에서 객체탐지(object detection) 영역에 사용되는 성능평가지표인 mAP(mean Average Precision)을 이용하여 성능 실험을 수행한 결과이며, 총 95분(minute) 동안의 근적외선카메라(20)에서 획득한 영상을 이용하여 mAP 평가한 결과 98.4%의 드론탐지 성능를 얻었음을 알 수 있다.5 is a result of performing a performance experiment using mAP (mean average precision), which is a performance evaluation index used in an object detection area in the field of image processing (computer vision), for a total of 95 minutes ( minute), it can be seen that the drone detection performance of 98.4% was obtained as a result of mAP evaluation using the images acquired from the near-infrared camera 20.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes and substitutions are possible within the scope that does not depart from the essential characteristics of the present invention by those of ordinary skill in the art to which the present invention pertains. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings. . The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

20 - 근적외선카메라 30 - 이미지분석기
40 - 통합컨트롤러
20 - Near infrared camera 30 - Image analyzer
40 - integrated controller

Claims (5)

단파장 적외선 방식으로 드론객체를 탐지하기 위한 영상 촬영을 수행하고, 촬영된 영상을 열화상 형태의 이미지로 출력하는 근적외선카메라(20);
근적외선카메라(20)에서 촬영하여 전송한 이미지를 수신하고, 전송된 이미지에서 드론객체와 드론객체의 위치, 드론객체의 움직임을 감지하기 위해 딥러닝 기반으로 이미지를 분석하는 이미지분석기(30);
이미지분석기(30)에서 감지한 드론객체의 위치와 움직임에 관한 정보를 수신하며, 원격에서 근적외선카메라(20)의 동작을 제어하고, 근적외선카메라(20)에서 전송한 이미지를 표시하며, 이미지분석기(30)에서 드론객체를 감지한 경우, 근적외선카메라(20)에서 전송한 이미지에 이미지분석기(30)에서 감지한 드론객체를 중첩시켜 모니터 상에 표시하는 통합컨트롤러(40)
를 포함하고,
이미지분석기(30)는
근적외선카메라(20)에서 전송한 배경과 드론객체가 포함된 다수의 이미지에서 드론객체에 대해 경계박스를 설정하는 라벨링 과정을 통해 배경이 포함된 이미지에서 드론객체만을 식별할 수 있는 학습데이터를 생성하는 학습데이터생성기능(100);
근적외선카메라(20)에서 전송한 이미지에서 딥러닝 네트위크를 이용하여 드론객체를 탐지하고 그 위치를 추적하기 위해 딥러닝 네트워크 학습을 위한 입력 형태로 학습데이터를 변환하는 데이터변환기능(200); 및
콘볼루션신경망이 포함된 딥러닝 네트워크 모델이 포함되며, 데이터변환기능(200)에서 변환된 학습데이터를 딥러닝 네트워크 모델에 대한 입력데이터로 이용하여 입력데이터로 사용된 이미지 상에서 드론객체를 탐지하고, 그 위치를 추적하기 위한 학습을 진행하는 데이터학습기능(300)
을 포함하는, 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템.
a near-infrared camera 20 that performs image capturing for detecting a drone object in a short-wavelength infrared method and outputs the captured image as an image in the form of a thermal image;
An image analyzer (30) for receiving an image photographed and transmitted by the near-infrared camera (20), and analyzing the image based on deep learning to detect the drone object and the position of the drone object in the transmitted image, and the movement of the drone object;
Receives information about the position and movement of the drone object detected by the image analyzer 30, remotely controls the operation of the near-infrared camera 20, displays the image transmitted from the near-infrared camera 20, and uses the image analyzer ( When the drone object is detected in 30), the integrated controller 40 superimposes the drone object detected by the image analyzer 30 on the image transmitted from the near-infrared camera 20 and displays it on the monitor.
including,
The image analyzer 30
Through a labeling process of setting a bounding box for a drone object in a plurality of images including the background and drone object transmitted from the near-infrared camera 20, learning data that can identify only the drone object in the image including the background is generated. Learning data generation function (100);
A data conversion function 200 for converting learning data into an input form for deep learning network learning in order to detect a drone object using a deep learning network in the image transmitted from the near infrared camera 20 and track its location; and
A deep learning network model including a convolutional neural network is included, and the training data converted in the data transformation function 200 is used as input data for the deep learning network model to detect a drone object on the image used as input data, Data learning function 300 for learning to track the location
A deep learning-based drone detection system using a near-infrared camera.
단파장 적외선 방식으로 드론객체를 탐지하기 위한 영상 촬영을 수행하고, 촬영된 영상을 이미지를 출력하는 근적외선카메라(20);
근적외선카메라(20)에서 촬영하여 전송한 이미지를 수신하고, 전송된 이미지에서 드론객체와 드론객체의 위치, 드론객체의 움직임을 감지하기 위해 딥러닝 기반으로 이미지를 분석하는 이미지분석기(30);
이미지분석기(30)에서 감지한 드론객체의 위치와 움직임에 관한 정보를 수신하며, 원격에서 근적외선카메라(20)의 동작을 제어하고, 근적외선카메라(20)에서 전송한 이미지를 표시하며, 이미지분석기(30)에서 드론객체를 감지한 경우, 근적외선카메라(20)에서 전송한 이미지에 이미지분석기(30)에서 감지한 드론객체를 중첩시켜 모니터 상에 표시하는 통합컨트롤러(40)
를 포함하고,
이미지분석기(30)는
근적외선카메라(20)에서 전송한 배경과 드론객체가 포함된 다수의 이미지에서 드론객체에 대해 경계박스를 설정하는 라벨링 과정을 통해 배경이 포함된 이미지에서 드론객체만을 식별할 수 있는 학습데이터를 생성하는 학습데이터생성기능(100);
근적외선카메라(20)에서 전송한 이미지에서 딥러닝 네트위크를 이용하여 드론객체를 탐지하고 그 위치를 추적하기 위해 딥러닝 네트워크 학습을 위한 입력 형태로 학습데이터를 변환하는 데이터변환기능(200); 및
콘볼루션신경망이 포함된 딥러닝 네트워크 모델이 포함되며, 데이터변환기능(200)에서 변환된 학습데이터를 딥러닝 네트워크 모델에 대한 입력데이터로 이용하여 입력데이터로 사용된 이미지 상에서 드론객체를 탐지하고, 그 위치를 추적하기 위한 학습을 진행하는 데이터학습기능(300); 및
데이터학습기능(300)에 의해 학습된 딥러닝 네트위크 모델을 이용하여 실제 드론을 탐지하기 위해 근적외선카메라(20)에서 획득한 영상 정보를 시간 단위로 캡쳐하여 이미지로 분할하며, 분할된 이미지 중에 포함된 드론객체를 탐지하고, 탐지된 드론객체에 대해 경계박스가 설정된 이미지를 출력하는 드론탐지적용기능(400)
을 포함하는, 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템.
a near-infrared camera 20 for performing image capturing for detecting a drone object in a short-wavelength infrared method and outputting an image of the captured image;
An image analyzer (30) for receiving an image photographed and transmitted by the near-infrared camera (20), and analyzing the image based on deep learning to detect the drone object and the position of the drone object in the transmitted image, and the movement of the drone object;
Receives information about the position and movement of the drone object detected by the image analyzer 30, remotely controls the operation of the near-infrared camera 20, displays the image transmitted from the near-infrared camera 20, and uses the image analyzer ( When the drone object is detected in 30), the integrated controller 40 superimposes the drone object detected by the image analyzer 30 on the image transmitted from the near-infrared camera 20 and displays it on the monitor.
including,
The image analyzer 30
Through a labeling process of setting a bounding box for a drone object in a plurality of images including the background and drone object transmitted from the near-infrared camera 20, learning data that can identify only the drone object in the image including the background is generated. Learning data generation function (100);
A data conversion function 200 for converting learning data into an input form for deep learning network learning in order to detect a drone object using a deep learning network in the image transmitted from the near infrared camera 20 and track its location; and
A deep learning network model including a convolutional neural network is included, and the training data converted in the data transformation function 200 is used as input data for the deep learning network model to detect a drone object on the image used as input data, a data learning function 300 for learning to track the location; and
In order to detect a real drone using the deep learning network model learned by the data learning function 300, the image information obtained from the near infrared camera 20 is captured by time unit and divided into images, and the Drone detection application function 400 that detects a drone object and outputs an image in which a bounding box is set for the detected drone object
A deep learning-based drone detection system using a near-infrared camera.
단파장 적외선 방식으로 드론객체를 탐지하기 위한 영상 촬영을 수행하고, 촬영된 영상을 이미지를 출력하는 근적외선카메라(20);
근적외선카메라(20)에서 촬영하여 전송한 이미지를 수신하고, 전송된 이미지에서 드론객체와 드론객체의 위치, 드론객체의 움직임을 감지하기 위해 딥러닝 기반으로 이미지를 분석하는 이미지분석기(30);
이미지분석기(30)에서 감지한 드론객체의 위치와 움직임에 관한 정보를 수신하며, 원격에서 근적외선카메라(20)의 동작을 제어하고, 근적외선카메라(20)에서 전송한 이미지를 표시하며, 이미지분석기(30)에서 드론객체를 감지한 경우, 근적외선카메라(20)에서 전송한 이미지에 이미지분석기(30)에서 감지한 드론객체를 중첩시켜 모니터 상에 표시하는 통합컨트롤러(40)
를 포함하고,
이미지분석기(30)는
근적외선카메라(20)에서 전송한 배경과 드론객체가 포함된 다수의 이미지에서 드론객체에 대해 경계박스를 설정하는 라벨링 과정을 통해 배경이 포함된 이미지에서 드론객체만을 식별할 수 있는 학습데이터를 생성하는 학습데이터생성기능(100);
근적외선카메라(20)에서 전송한 이미지에서 딥러닝 네트위크를 이용하여 드론객체를 탐지하고 그 위치를 추적하기 위해 딥러닝 네트워크 학습을 위한 입력 형태로 학습데이터를 변환하는 데이터변환기능(200); 및
콘볼루션신경망이 포함된 딥러닝 네트워크 모델이 포함되며, 데이터변환기능(200)에서 변환된 학습데이터를 딥러닝 네트워크 모델에 대한 입력데이터로 이용하여 입력데이터로 사용된 이미지 상에서 드론객체를 탐지하고, 그 위치를 추적하기 위한 학습을 진행하는 데이터학습기능(300); 및
데이터학습기능(300)에 의해 학습된 딥러닝 네트위크 모델을 이용하여 실제 드론을 탐지하기 위해 근적외선카메라(20)에서 획득한 영상 정보를 시간 단위로 캡쳐하여 이미지로 분할하며, 분할된 이미지 중에 포함된 드론객체를 탐지하고, 탐지된 드론객체에 대해 경계박스가 설정된 이미지를 출력하는 드론탐지적용기능(400); 및
드론탐지적용기능(400)에서 출력한 이미지 상에서 경계박스가 설정된 형태로 탐지된 드론객체의 이동속도를 포함하여 드론객체의 동적 상태를 추정하기 위한 상태추정기능(500)
을 포함하는, 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템.
a near-infrared camera 20 for performing image capturing for detecting a drone object in a short-wavelength infrared method and outputting an image of the captured image;
An image analyzer (30) for receiving an image photographed and transmitted by the near-infrared camera (20), and analyzing the image based on deep learning to detect the drone object and the position of the drone object in the transmitted image, and the movement of the drone object;
Receives information about the position and movement of the drone object detected by the image analyzer 30, remotely controls the operation of the near-infrared camera 20, displays the image transmitted from the near-infrared camera 20, and uses the image analyzer ( When the drone object is detected in 30), the integrated controller 40 superimposes the drone object detected by the image analyzer 30 on the image transmitted from the near-infrared camera 20 and displays it on the monitor.
including,
The image analyzer 30
Through a labeling process of setting a bounding box for a drone object in a plurality of images including the background and drone object transmitted from the near-infrared camera 20, learning data that can identify only the drone object in the image including the background is generated. Learning data generation function (100);
A data conversion function 200 for converting learning data into an input form for deep learning network learning in order to detect a drone object using a deep learning network in the image transmitted from the near infrared camera 20 and track its location; and
A deep learning network model including a convolutional neural network is included, and the training data converted in the data transformation function 200 is used as input data for the deep learning network model to detect a drone object on the image used as input data, a data learning function 300 for learning to track the location; and
In order to detect an actual drone using the deep learning network model learned by the data learning function 300, the image information acquired from the near infrared camera 20 is captured by time unit and divided into images, and the a drone detection application function 400 that detects a drone object and outputs an image in which a bounding box is set for the detected drone object; and
State estimation function (500) for estimating the dynamic state of the drone object including the movement speed of the drone object detected in the form of a bounding box on the image output from the drone detection application function (400)
A deep learning-based drone detection system using a near-infrared camera.
제3항에 있어서,
이미지분석기(30)는 상태추정기능(500)의 결과 값을 이용하여 드론객체가 포함된 경계박스의 중앙 좌표를 구해 저장한 후 각 이미지에 포함된 경계박스의 중앙 좌표를 직선으로 연결하여 드론객체의 경로를 추적하여 최종 이미지를 출력하는 경로추적기능(600)
을 포함하는, 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템.
4. The method of claim 3,
The image analyzer 30 obtains and stores the center coordinates of the bounding box including the drone object by using the result value of the state estimation function 500, and then connects the center coordinates of the bounding box included in each image with a straight line to obtain the drone object. Path tracking function (600) to output the final image by tracing the path of
A deep learning-based drone detection system using a near-infrared camera.
제1항에 있어서,
데이터변환기능(200)을 통해 변환되는 학습데이터는 실수로 표현된 텍스트 파일 형태로 저장되며, 변환된 학습데이터는 클래스번호, 드론객체가 포함된 경계박스의 중심점에 대한 가로축 좌표, 경계박의 중심점에 대한 세로축 좌표, 경계박스의 폭, 경계박스의 높이에 관한 정보를 포함하는 것
을 포함하는, 근적외선 카메라를 사용한 딥 러닝 기반 드론 감지 시스템.
According to claim 1,
The learning data converted through the data conversion function 200 is stored in the form of a text file expressed as a real number, and the converted learning data is the class number, the horizontal axis coordinates for the center point of the bounding box containing the drone object, and the center point of the bounding foil. Including information about the vertical axis coordinates, the width of the bounding box, and the height of the bounding box
A deep learning-based drone detection system using a near-infrared camera.
KR1020210010195A 2021-01-25 2021-01-25 Drone detection system based on deep learning using SWIR camera KR102528718B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210010195A KR102528718B1 (en) 2021-01-25 2021-01-25 Drone detection system based on deep learning using SWIR camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210010195A KR102528718B1 (en) 2021-01-25 2021-01-25 Drone detection system based on deep learning using SWIR camera

Publications (2)

Publication Number Publication Date
KR20220107494A true KR20220107494A (en) 2022-08-02
KR102528718B1 KR102528718B1 (en) 2023-05-03

Family

ID=82845691

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210010195A KR102528718B1 (en) 2021-01-25 2021-01-25 Drone detection system based on deep learning using SWIR camera

Country Status (1)

Country Link
KR (1) KR102528718B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117537929A (en) * 2023-10-27 2024-02-09 大湾区大学(筹) Unmanned aerial vehicle detection method, system, equipment and medium based on infrared thermal imaging

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BILAL TAHA 외1, Machine Learning-Based Drone Detection and Classification: State-of-the-Art in Research, 2019년 10월 4일. 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117537929A (en) * 2023-10-27 2024-02-09 大湾区大学(筹) Unmanned aerial vehicle detection method, system, equipment and medium based on infrared thermal imaging

Also Published As

Publication number Publication date
KR102528718B1 (en) 2023-05-03

Similar Documents

Publication Publication Date Title
US11195038B2 (en) Device and a method for extracting dynamic information on a scene using a convolutional neural network
JP6943338B2 (en) Image processing equipment, systems, methods and programs
US7239719B2 (en) Automatic target detection and motion analysis from image data
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
KR20210099450A (en) Far away small drone detection method Using Deep Learning
CN109727275B (en) Object detection method, device, system and computer readable storage medium
EP3185209B1 (en) Depth maps generated from a single sensor
Ali et al. Improved YOLOv4 for aerial object detection
CN111382637B (en) Pedestrian detection tracking method, device, terminal equipment and medium
Farag et al. An advanced vehicle detection and tracking scheme for self-driving cars
US8923552B2 (en) Object detection apparatus and object detection method
Rao et al. Object tracking system using approximate median filter, Kalman filter and dynamic template matching
US11804026B2 (en) Device and a method for processing data sequences using a convolutional neural network
KR102514301B1 (en) Device for identifying the situaton of object's conduct using sensor fusion
CN108875500B (en) Pedestrian re-identification method, device and system and storage medium
CN112528974A (en) Distance measuring method and device, electronic equipment and readable storage medium
Tsoukalas et al. Deep learning assisted visual tracking of evader-UAV
Gal Automatic obstacle detection for USV’s navigation using vision sensors
KR102528718B1 (en) Drone detection system based on deep learning using SWIR camera
US10997734B2 (en) Gas detection-use image processing device, gas detection-use image processing method, and gas detection-use image processing program
CN110021036B (en) Infrared target detection method and device, computer equipment and storage medium
Pandey et al. Implementation of 5-block convolutional neural network (cnn) for saliency improvement on flying object detection in videos
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
CN110047103A (en) Mixed and disorderly background is removed from image to carry out object detection
CN113515978B (en) Data processing method, device and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant