KR20210105180A - Apparatus and method for target detecting - Google Patents

Apparatus and method for target detecting Download PDF

Info

Publication number
KR20210105180A
KR20210105180A KR1020200019825A KR20200019825A KR20210105180A KR 20210105180 A KR20210105180 A KR 20210105180A KR 1020200019825 A KR1020200019825 A KR 1020200019825A KR 20200019825 A KR20200019825 A KR 20200019825A KR 20210105180 A KR20210105180 A KR 20210105180A
Authority
KR
South Korea
Prior art keywords
target
information
image
battlefield
targets
Prior art date
Application number
KR1020200019825A
Other languages
Korean (ko)
Other versions
KR102418505B1 (en
Inventor
조영호
최용훈
임우빈
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020200019825A priority Critical patent/KR102418505B1/en
Publication of KR20210105180A publication Critical patent/KR20210105180A/en
Application granted granted Critical
Publication of KR102418505B1 publication Critical patent/KR102418505B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • G06K9/36
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

The present invention relates to a device and method for detecting a target capable of more reliable target identification and acquisition by superimposing or linking images acquired from a plurality of optics to reconstruct a battlefield and place a target. According to one embodiment of the present specification, the method for detecting a target includes the steps of: collecting images acquired from a plurality of guided missiles; reconstructing an image by superimposing and linking the plurality of collected images; identifying a plurality of targets in the reconstructed image and assigning IDs to be assigned to the plurality of guided missiles to classify the targets; and transmitting target information including identification information of the target and the ID to the plurality of guided missiles.

Description

표적검출 장치 및 방법{APPARATUS AND METHOD FOR TARGET DETECTING}Target detection device and method {APPARATUS AND METHOD FOR TARGET DETECTING}

본 발명은 표적검출 장치 및 방법에 관한 것으로서, 다수의 광학기에서 획득된 영상을 중첩하거나 연결하여 전장을 재구성하고 표적을 배치함으로서 보다 신뢰성 높은 표적 식별 및 획득할 수 있는 표적검출 장치 및 방법에 관한 것이다.The present invention relates to a target detection apparatus and method, and to a target detection apparatus and method capable of more reliable target identification and acquisition by superimposing or connecting images obtained from a plurality of optics to reconstruct a battlefield and arranging a target will be.

종래 일반적인 유도탄은 광학기를 통해서 하나의 표적을 획득 후 단일 표적을 추적하는 단일 임무를 수행하며, 임무를 부여받고 정보를 장입받아 기 설정된 절차에 따라서 유도탄이 발사된다. 이후, 발사된 유도탄은 표적 탐지를 위한 운용 개념, 유도 방법 등에 따라서 표적을 탐지하거나 획득하게 된다.Conventional general guided missiles perform a single mission of tracking a single target after acquiring one target through an optical device, are given a mission, are loaded with information, and are fired according to a preset procedure. Thereafter, the launched guided missile detects or acquires a target according to an operation concept for target detection, a guidance method, and the like.

그러나, 다수의 표적을 획득하여야 하는 상황이 발생하는 경우에는, 표적들의 위치, 거리, 속도 등의 표적 정보와, 유도탄의 위치, 자세, 속도, 시선각 오차, 절차 재수행 지연시간 등의 문제로 인하여 모든 표적을 신뢰도 높게 획득하는데 문제가 발생한다.However, when a situation arises in which multiple targets must be acquired, target information such as the location, distance, and speed of the targets, the location, posture, speed, viewing angle error of the guided missile, and delay time for re-executing the procedure As a result, a problem arises in obtaining all targets with high reliability.

본 발명의 일실시예에 따르면, 다수의 광학기에서 획득된 영상을 중첩하거나 연결하여 전장을 재구성하고 표적을 배치함으로서 보다 신뢰성 높은 표적 식별 및 획득할 수 있는 표적검출 장치 및 방법을 제공하는 것을 목적으로 한다.According to an embodiment of the present invention, it is an object to provide a target detection apparatus and method capable of more reliable target identification and acquisition by superimposing or connecting images obtained from a plurality of optics to reconstruct the battlefield and place the target do it with

또한, 본 발명의 일실시예에 따르면, 다수의 광학기를 통해서 영상을 획득하여 보다 넓은 범위의 영역에 존재하는 다수의 표적을 획득할 수 있는 표적검출 장치 및 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a target detection apparatus and method capable of acquiring a plurality of targets existing in a wider area by acquiring an image through a plurality of optics according to an embodiment of the present invention.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the object of the present invention is not limited to the above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

본 명세서의 일실시예에 따른 표적검출 장치는 표적에 대한 정보가 저장된 표적 데이터베이스; 유도탄의 자세 정보 및 표적이 포함된 영상을 획득하는 센서부; 상기 센서부를 통해서 획득된 영상으로부터 표적 정보 추출을 위한 전처리 과정을 수행하고 표적정보를 생성하는 영상 전처리부; 상기 센서부를 통해서 획득된 자세 정보와 상기 영상 전처리부를 통해 추출된 표적 정보를 기반으로 상기 센서부에서 획득된 영상을 재구성하여 영상정보를 생성하는 영상 처리부; 및 상기 영상 처리부를 통해서 재구성된 영상으로부터 표적을 검색하여 상기 표적 데이터베이스의 표적정보와 비교하여 표적을 획득하는 표적 획득부를 포함한다.A target detection apparatus according to an embodiment of the present specification includes a target database in which information about a target is stored; a sensor unit that acquires an image including the posture information and the target of the guided missile; an image preprocessor for performing a preprocessing process for extracting target information from the image acquired through the sensor unit and generating target information; an image processing unit for generating image information by reconstructing the image obtained from the sensor unit based on the posture information obtained through the sensor unit and target information extracted through the image preprocessing unit; and a target acquisition unit that searches for a target from the reconstructed image through the image processing unit and acquires the target by comparing it with target information in the target database.

바람직하게는, 상기 영상 처리부는 유도탄의 입사각, 진행방향 및 상기 표적 정보를 이용하여 표적과의 거리를 추정하고, 유도탄의 진행방향을 중심점으로 설정하여 상기 표적과의 거리를 벡터 데이터로 변환하여 상기 영상정보를 생성하는 것을 특징으로 한다.Preferably, the image processing unit estimates the distance to the target using the incident angle, the traveling direction, and the target information of the guided missile, sets the traveling direction of the guided missile as a central point, and converts the distance to the target into vector data, It is characterized in that the image information is generated.

바람직하게는, 상기 영상 전처리부는 상기 센서부를 통해서 획득된 영상 내에서 표적과 배경을 분리하여 특징점을 추출한 후 2차원의 표적 모델을 생성하고, 상기 특징점과 상기 표적 모델을 기반으로 표적을 검색하여 상기 표적 데이터베이스에 저장된 표적 정보와 비교하여 표적을 확정하고, 상기 확정된 표적의 방향과 속도 정보를 통하여 표적정보를 생성하는 것을 특징으로 한다.Preferably, the image preprocessor separates the target and the background from the image acquired through the sensor unit, extracts a feature point, generates a two-dimensional target model, searches for a target based on the feature point and the target model, and It is characterized in that the target is determined by comparing the target information stored in the target database, and the target information is generated through the determined target direction and speed information.

또한, 상기 장치는 외부로부터 표적정보 및 영상정보를 수신하는 통신부를 더 포함할 수 있다. In addition, the device may further include a communication unit for receiving target information and image information from the outside.

바람직하게는, 상기 영상 처리부는 상기 통신부를 통해서 인접한 복수의 유도탄으로부터 각각 생성된 복수의 영상정보, 표적정보 및 좌표벡터를 수신하고, 상기 수신된 복수의 영상정보를 상기 생성된 영상정보와 중첩 및 연결하여 가상의 2차원 전장 영상을 재구성하고, 상기 표적정보를 참조하여 상기 가상의 2차원 전장 영상에서 복수의 표적을 식별하고 상기 복수의 유도탄에 각각 배치되도록 ID를 할당하고, 상기 표적의 식별정보와 상기 ID를 포함한 표적정보를 상기 통신부를 통해서 상기 복수의 유도탄으로 전송하는 것을 특징으로 한다.Preferably, the image processing unit receives a plurality of image information, target information and coordinate vectors respectively generated from a plurality of adjacent guided missiles through the communication unit, and superimposes the received plurality of image information with the generated image information; Connecting to reconstruct a virtual two-dimensional battlefield image, identifying a plurality of targets in the virtual two-dimensional battlefield image with reference to the target information, assigning IDs to be respectively disposed on the plurality of guided missiles, and identification information of the target and target information including the ID is transmitted to the plurality of guided missiles through the communication unit.

또한, 본 명세서의 일실시예에 표적검출 방법은 이미지 센서를 통해 영상을 획득하여 표적 데이터베이스를 참조하여 표적을 검출하여 표적정보를 생성하는 제1 단계; 관성측정기로부터 측정된 유도탄 자세정보 및 위치정보를 참조하여 상기 획득된 영상을 재구성하여 영상정보를 생성하는 제2 단계; 인접한 복수의 유도탄으로부터 각각 생성된 복수의 영상정보, 표적정보 및 좌표벡터를 수신하는 제3 단계; 상기 제3 단계에서 수신된 복수의 영상정보를 상기 제2 단계에서 생성된 영상정보와 중첩 및 연결하여 가상의 2차원 전장 영상을 재구성하는 제4 단계; 상기 표적정보를 참조하여 상기 가상의 2차원 전장 영상에서 복수의 표적을 식별하고 상기 복수의 유도탄에 각각 배치되도록 ID를 부여하여 표적을 구분하는 제5 단계: 및 상기 표적의 식별 정보와 상기 ID를 포함한 표적정보를 상기 복수의 유도탄으로 전송하는 제6 단계를 포함한다.In addition, in an embodiment of the present specification, the target detection method includes: a first step of acquiring an image through an image sensor, detecting a target with reference to a target database, and generating target information; a second step of generating image information by reconstructing the acquired image with reference to the guided missile attitude information and position information measured from the inertial measuring device; a third step of receiving a plurality of image information, target information, and coordinate vectors respectively generated from a plurality of adjacent missiles; a fourth step of reconstructing a virtual two-dimensional full-length image by overlapping and linking the plurality of image information received in the third step with the image information generated in the second step; A fifth step of identifying a plurality of targets in the virtual two-dimensional battlefield image with reference to the target information, and assigning IDs to be respectively disposed on the plurality of guided missiles to classify the targets: and the identification information of the targets and the IDs and a sixth step of transmitting the included target information to the plurality of guided missiles.

바람직하게는, 상기 표적정보는 표적의 방향과 속도를 나타내는 벡터 데이터이며, 상기 영상정보는 유도탄의 입사각, 진행방향 및 표적정보를 이용하여 표적과의 거리를 추정하고 중심점을 설정하여 벡터 데이터로 변환한 2차원 가상 전장데이터인 것을 특징으로 한다.Preferably, the target information is vector data indicating the direction and speed of the target, and the image information is converted into vector data by estimating the distance to the target using the incident angle, traveling direction, and target information of the guided missile, and setting the center point It is characterized in that it is a two-dimensional virtual battlefield data.

바람직하게는, 상기 제1 단계는 이미지 센서를 통해 영상을 획득하는 단계; 획득된 영상 내에서 표적과 배경을 분리하여 특징점을 추출한 후 2차원의 표적 모델을 생성하는 단계; 상기 특징점과 상기 표적 모델을 통해 표적을 검색하고 표적 데이터베이스에 저장된 표적 정보와 비교하여 표적을 확정하는 단계; 및 확정된 표적의 방향과 속도 정보를 통하여 표적 벡터 데이터를 생성하는 단계를 포함한다.Preferably, the first step comprises: acquiring an image through an image sensor; generating a two-dimensional target model after extracting feature points by separating the target and the background from the acquired image; determining a target by searching for a target through the feature point and the target model and comparing it with target information stored in a target database; and generating target vector data based on the determined target direction and velocity information.

본 발명의 일실시예에 따르면, 다수의 광학기에서 획득된 영상을 중첩하거나 연결하여 전장을 재구성하고 표적을 배치함으로서 보다 신뢰성 높은 표적 식별 및 획득이 가능한 효과가 있다.According to an embodiment of the present invention, by superimposing or connecting images obtained from a plurality of optics to reconstruct the battlefield and place the target, there is an effect that more reliable target identification and acquisition is possible.

또한, 본 발명의 일실시예에 따르면, 다수의 광학기를 통해서 영상을 획득함으로서 보다 넓은 범위의 영역에 존재하는 다수의 표적을 획득할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, there is an effect of acquiring a plurality of targets existing in a wider area by acquiring an image through a plurality of optics.

도 1은 본 발명의 일실시예에 따른 다수의 표적검출 방법을 순차적으로 도시한 순서도이다.
도 2는 본 발명의 일실시예에 따른 표적검출 장치에서 표적을 획득하는 과정을 설명하기 위한 구성도이다.
도 3은 본 발명의 일실시예에 따른 표적 벡터데이터 생성 과정을 순차적으로 도시한 순서도이다.
도 4는 본 발명의 일실시예에 따른 가상 전장데이터 생성 과정을 순차적으로 도시한 순서도이다.
도 5는 본 발명의 일실시예에 따른 다수의 표적 동시 획득 과정을 순차적으로 도시한 순서도이다.
도 6 및 도 7은 본 발명의 일실시예에 따른 실제 전장 환경에서 표적 획득을 위한 영상 블록 할당 과정 및 결과를 설명하기 위한 참고도이다.
도 8은 본 발명의 일실시예에 따른 표적검출 장치의 구성을 개략적으로 도시한 블록도이다.
1 is a flowchart sequentially illustrating a plurality of target detection methods according to an embodiment of the present invention.
2 is a configuration diagram for explaining a process of acquiring a target in the target detection apparatus according to an embodiment of the present invention.
3 is a flowchart sequentially illustrating a process of generating target vector data according to an embodiment of the present invention.
4 is a flowchart sequentially illustrating a virtual battlefield data generation process according to an embodiment of the present invention.
5 is a flowchart sequentially illustrating a process of simultaneously acquiring a plurality of targets according to an embodiment of the present invention.
6 and 7 are reference diagrams for explaining an image block allocation process and results for target acquisition in an actual battlefield environment according to an embodiment of the present invention.
8 is a block diagram schematically illustrating the configuration of a target detection apparatus according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, it should be noted that in adding reference numerals to the components of each drawing, the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, preferred embodiments of the present invention will be described below, but the technical spirit of the present invention is not limited thereto and may be variously implemented by those skilled in the art without being limited thereto.

도 1은 본 발명의 일실시예에 따른 다수의 표적검출 방법을 순차적으로 도시한 순서도이다.1 is a flowchart sequentially illustrating a plurality of target detection methods according to an embodiment of the present invention.

본 실시예는 다수의 표적을 획득하여 타격하기 위하여 다수의 유도탄을 운용하는 상황을 가정하며, 이때 다수의 유도탄 중 1개의 Master 탄과 나머지 복수개의 Slave 탄이 존재하는 것으로 가정한다.This embodiment assumes a situation in which a plurality of guided missiles are operated in order to acquire and strike a plurality of targets, and in this case, it is assumed that one Master bullet and the remaining plurality of slave bullets exist among the plurality of guided missiles.

우선 다수의 유도탄에 탑재된 광학기 각각에서는 이미지 센서로 영상을 획득하여 표적을 검출한다. 이후, 표적데이터의 방향과 속도를 나타내는 표적벡터 데이터와, 유도탄의 좌표벡터 데이터 및 영상을 1개의 Master 탄으로 전송한다.First, each of the optics mounted on a plurality of guided missiles acquires an image with an image sensor to detect a target. Thereafter, the target vector data indicating the direction and speed of the target data and the coordinate vector data and image of the guided missile are transmitted to one master bullet.

Master 탄에서는 복수의 광학기로부터 획득된 영상과 데이터를 수신하여 영상을 수집한다(S101).The master bullet collects images by receiving images and data obtained from a plurality of optics (S101).

상기 수집된 영상들을 겹쳐지는 부분은 중첩하고, 겹쳐지지 않는 부분은 연결하여 전장에 대한 영상을 재구성한다(S103).The overlapping parts of the collected images are overlapped, and the non-overlapping parts are connected to reconstruct an image of the battlefield (S103).

이후, 표적 데이터베이스의 표적 정보를 참조하여 재구성된 영상에 존재하는 다수의 표적을 영상에서 식별하여 고유번호를 부여함으로써 표적을 구분한다(S105).Thereafter, a plurality of targets present in the reconstructed image with reference to the target information of the target database are identified in the image and the target is distinguished by assigning a unique number (S105).

이후, 구분된 표적의 식별정보와 표적정보를 각 Slave 탄에 재할당하여 누락되는 표적이 없도록 구성하고, 상기 재할당된 표적의 식별정보와 표적정보를 Slave 탄으로 전송한다(S107).Thereafter, the identified target identification information and target information are reassigned to each slave bullet so that there is no missing target, and the reassigned target identification information and target information are transmitted to the slave bullet (S107).

도 2는 본 발명의 일실시예에 따른 표적검출 장치에서 표적을 획득하는 과정을 설명하기 위한 구성도이다.2 is a configuration diagram for explaining a process of acquiring a target in the target detection apparatus according to an embodiment of the present invention.

본 실시예의 표적검출 장치는 개략적으로 표적정보가 기록 저장된 표적 데이터베이스(10)와 영상을 획득 및 재구성하여 표적정보를 생성하는 광학기(20)와 유도탄의 자세를 측정하는 관성측정기(30)를 포함한다.The target detection apparatus of this embodiment schematically includes a target database 10 in which target information is recorded and stored, an optical device 20 for generating target information by acquiring and reconstructing an image, and an inertial measuring device 30 for measuring the posture of a guided missile do.

먼저, 광학기(20)로 영상이 입력되면 이미지 센서를 통해 영상을 획득한다(S201). 획득된 영상 내에서 표적을 분류하기 위해서는 표적과 배경을 분리하고, 특징값을 추출하여, 분류 모델을 설계하고, 학습 및 기 학습된 모델과의 매칭 단계를 거친다. First, when an image is input to the optical device 20, an image is acquired through an image sensor (S201). In order to classify the target in the acquired image, the target and the background are separated, the feature value is extracted, the classification model is designed, and the learning and matching steps with the pre-learned model are performed.

이때, 다양한 환경에서 표적 검출에 우수한 성능을 보장하기 위해서는 특징점 추출이 필요하다. 특징점 추출은 영상 환경이 변화에 강인하게 표적 검출이 가능한 특징 위치를 찾는 것이다. At this time, in order to ensure excellent performance in target detection in various environments, it is necessary to extract key points. Feature point extraction is to find a feature location that can robustly detect a target when the image environment changes.

이후, 추출된 특징점을 토대로 환경 변화에 불변하는 2차원 표적 모델을 생성하고, 추출한 특징점과 생성된 표적 모델을 통해 표적을 검색한다(S203).Thereafter, a two-dimensional target model that is invariant to environmental changes is generated based on the extracted key points, and the target is searched through the extracted key points and the generated target model (S203).

표적이 검색되면, 표적 데이터베이스(10)에 저장된 표적 정보와의 비교를 수행하고(S205), 이를 통해 표적을 확정한다(S207). When the target is searched, comparison with target information stored in the target database 10 is performed (S205), and the target is determined through this (S207).

한편, 관성측정기(30)로부터 입력된 자세 정보를 통해 획득된 영상의 각도를 추정한다(S209). 이때, 고각과 방위각, 시선각 오차를 추정하여 표적과 유도탄의 입사각을 계산한다. On the other hand, the angle of the image obtained through the posture information input from the inertia measurer 30 is estimated (S209). At this time, the angle of incidence of the target and the missile is calculated by estimating the error in the elevation angle, azimuth angle, and viewing angle.

이후, 추출한 특징점으로부터의 거리를 계산하여(S211), 앞서 계산한 입사각과 거리를 입력조건으로 영상을 재구성한다(S213). Thereafter, the distance from the extracted feature point is calculated (S211), and the image is reconstructed using the previously calculated incident angle and distance as input conditions (S213).

이후 확정된 표적 정보를 벡터 변환하고(S215), 영상 재구성 정보와 표적 정보를 송신한다(S217).Thereafter, the determined target information is vector-converted (S215), and image reconstruction information and target information are transmitted (S217).

도 3은 본 발명의 일실시예에 따른 표적 벡터데이터 생성 과정을 순차적으로 도시한 순서도이다.3 is a flowchart sequentially illustrating a process of generating target vector data according to an embodiment of the present invention.

우선 동시에 다수의 유도탄이 발사될 때, 우선순위에 따라 하나의 Master 탄이 결정되고, 나머지 탄은 Slave가 된다. Master탄과 Slave탄은 유도탄 발사 전에 지상운용장비에서 사전에 설정되며, 고유 ID를 부여하여 Master탄 뿐만 아니라 다수 유도탄들을 식별한다.First of all, when multiple missiles are fired at the same time, one Master bullet is determined according to the priority, and the remaining bullets become slaves. Master bullets and slave bullets are set in advance in the ground operation equipment before launching the missile, and a unique ID is assigned to identify not only the master bullet but also a number of guided missiles.

광학기(20)의 이미지 센서부에서는 영상을 프레임 단위로 생성하면 영상 전처리부에서 영상 전처리 과정을 거친다(S301). 바람직하게는 영상 이미지는 2프레임으로 생성한다. When the image sensor unit of the optical device 20 generates an image in units of frames, the image preprocessor performs an image preprocessing process (S301). Preferably, the video image is generated in two frames.

표적 획득을 위하여 배경과 영상을 분리하고, 환경 변화에 강인한 표적 분류를 위하여 특징점을 추출한다. 추출된 특징점을 통해 환경 변화에 불변하는 2차원 표적 모델을 생성한다.Background and image are separated for target acquisition, and feature points are extracted for target classification robust to environmental changes. A two-dimensional target model that is invariant to environmental changes is generated through the extracted feature points.

이후, 추출한 특징점과 생성한 표적 모델을 통해 영상내에서 소정 픽셀 이상의 threshold 값을 초과하는 표적을 검색한다(S303). Thereafter, a target exceeding a threshold value of a predetermined pixel or more is searched for in the image through the extracted feature points and the generated target model (S303).

미리 계산된 수식에 따라 표적 threshold 값을 초과하는 표적이 검색되면, 표적 데이터의 방향과 속도에 대한 벡터 변환을 수행한다(S305). When a target exceeding the target threshold is searched according to a pre-calculated equation, vector transformation is performed on the direction and speed of the target data (S305).

이후, 표적 데이터베이스(10)에 저장된 표적 데이터와 비교를 하여 표적 데이터와의 일치 여부를 결정한다(S307). Thereafter, it is compared with the target data stored in the target database 10 to determine whether the target data matches the target data (S307).

모든 표적이 검출될 때까지 위 과정을 반복하고(S309), 모든 표적의 검출이 끝나면 표적을 확정하고(S311), 표적 벡터 데이터를 생성한다(S313). The above process is repeated until all targets are detected (S309), and when all targets are detected, the target is determined (S311), and target vector data is generated (S313).

생성된 표적 벡터 데이터(A)는 영상 재구성을 위해 Master 유도탄으로 송신한다(S315). Master 탄은 Slave 탄들로부터 수신된 표적 벡터 데이터(A)를 종합한다.The generated target vector data (A) is transmitted to the master guided missile for image reconstruction (S315). Master bullet synthesizes target vector data (A) received from slave bullets.

도 4는 본 발명의 일실시예에 따른 가상 전장데이터 생성 과정을 순차적으로 도시한 순서도이며, 앞서 도 3의 과정을 통해서 생성된 표적 벡터 데이터(A)와 각 유도탄에서 수집한 센서 정보를 이용하여 2차원의 가상 전장 데이터를 생성하는 과정을 설명한다. 4 is a flowchart sequentially illustrating a virtual battlefield data generation process according to an embodiment of the present invention, using the target vector data (A) generated through the process of FIG. 3 and sensor information collected from each guided missile. The process of generating two-dimensional virtual battlefield data will be described.

우선 각 유도탄은 관성측정기 또는 GPS 등을 통해서 각자의 위치 정보를 수신할 수 있으며(S401), 수신된 위치 정보를 기반으로 Slave 탄들의 좌표 벡터(B)를 생성한다(S403).First, each guided missile may receive its own location information through an inertial measuring device or GPS (S401), and based on the received location information, a coordinate vector (B) of the slave projectiles is generated (S403).

또한, 각 유도탄은 관성측정기를 통해서 유도탄 센서(자이로, 가속도, 각속도 등) 정보를 수집하여 취합하고(S405), 자이로 변환을 통해 탄 입사각을 계산한다(S407). In addition, each missile sensor (gyro, acceleration, angular velocity, etc.) information is collected and collected through an inertia meter (S405), and an incident angle of the missile is calculated through gyro transformation (S407).

도출된 입사각과 탄 진행 방향 정보를 이용하여 평면을 구성하고(S409), 각 탄의 좌표를 원점으로하여 구성된 평면의 중심점을 설정한다(S411). A plane is constructed using the derived incident angle and bullet propagation direction information (S409), and a center point of the plane constructed with the coordinates of each bullet as the origin is set (S411).

또한, 앞서 수신된 표적 벡터 데이터(A)와 S407 단계를 통해서 도출된 입사각, 가속도를 이용하여 표적과의 거리를 추정한다(S413).In addition, the distance to the target is estimated using the previously received target vector data (A) and the incident angle and acceleration derived through the step S407 ( S413 ).

표적과의 거리가 추정되면, S411 단계를 통해서 설정된 중심점과 상기 추정된 표적과의 거리를 통하여 표적 간 거리 벡터를 추출한다(S415).When the distance to the target is estimated, a distance vector between the targets is extracted based on the distance between the center point set in step S411 and the estimated target (S415).

이후, 각 탄은 앞서 S401 및 S403 단계와 같이, 관성측정기로부터 자세 정보와 위치 정보를 수신 받고 Slave 탄들의 좌표 벡터를 변환하여 Master 탄과 Slave 탄들간 가상 배치를 한 후, 앞서 추출한 거리 벡터(S415)를 이용하여 2D 가상 전장 데이터(C)를 생성한다(S417). 이때 송신되는 모든 2D 가상 전장 데이터(C)는 모든 픽셀의 영상이 아닌 벡터로 변환된 데이터로, 데이터의 크기를 줄여 지연 없는 빠른 송신이 가능하며, 안정성을 극대화할 수 있다.After that, each bullet receives attitude information and position information from the inertial measurement device as in steps S401 and S403, converts the coordinate vectors of slave bullets, and virtual arrangement between the master bullet and slave bullets, and then the previously extracted distance vector (S415) ) to generate 2D virtual battlefield data C (S417). At this time, all the 2D virtual battlefield data (C) transmitted is data converted into vectors rather than images of all pixels, and by reducing the size of data, fast transmission without delay is possible, and stability can be maximized.

도 5는 본 발명의 일실시예에 따른 다수의 표적 동시 획득 과정을 순차적으로 도시한 순서도이다.5 is a flowchart sequentially illustrating a process of simultaneously acquiring a plurality of targets according to an embodiment of the present invention.

우선, 다수의 유도탄이 동시에 발사되면 유도탄 우선순위에 따라 하나의 Master 탄을 설정하고, 나머지 탄들은 Slave 탄으로 설정한다(S501). Master 탄은 발사 전에 지상운용장비에서 사전 설정이 되며, Master가 주요 타격 지점을 중심으로 이동하고 각 Slave 들이 Master를 중미으로 편대를 이루게 된다.First, when a plurality of guided missiles are simultaneously fired, one master bullet is set according to the priority of the guided missile, and the remaining bullets are set as slave bullets (S501). Master bullets are preset in ground operation equipment before launch, and the Master moves around the main strike point, and each Slave forms a formation with the Master in Central America.

다음으로 가상 전장에서 Master 탄의 좌표를 원점으로 설정하고(S503), 이를 기준으로 Master 탄에 대한 가상 전장 배치를 한다(S505).Next, the coordinates of the master bullet are set as the origin in the virtual battlefield (S503), and the virtual battlefield arrangement for the master bullet is performed based on this (S505).

이후, 도 4에서 획득한 탄 좌표 벡터(B)들과 가상 전장 데이터(C)를 수신하여 복수의 2차원 가상 전장들을 중첩 및 연결하여 배치한다(S507).Thereafter, the bullet coordinate vectors B and the virtual battlefield data C obtained in FIG. 4 are received, and a plurality of two-dimensional virtual battlefields are overlapped and connected to each other (S507).

상기 배치된 가상 전장 상에, 도 3에서 획득한 표적 벡터 데이터(A)와, 도 4에서 획득한 탄 좌표 벡터(B)들과 가상 전장 데이터(C)를 이용하여, 중심점을 기준으로 표적들을 배치하고, 이를 다시 벡터 데이터로 변환한다(S511). On the placed virtual battlefield, using the target vector data (A) obtained in FIG. 3, the bullet coordinate vectors (B) obtained in FIG. 4, and the virtual battlefield data (C), the targets based on the center point arranged, and converted back to vector data (S511).

상기 과정은 획득된 모든 표적에 대해서 반복하여 수행하여(S513) 모든 표적에 대한 배치가 완료되면, Slave 탄의 가상 전장에 배치된 표적을 Master 탄 가상 전장으로 옮겨 배치하고 Slave 가상 전장에서는 삭제 한다. The above process is repeatedly performed for all the acquired targets (S513), and when all the targets are placed, the targets placed on the virtual battlefield of the slave are moved to the virtual battlefield of the master and are deleted from the virtual battlefield of the slave.

즉, Slave 탄 가상 전장의 표적이 존재하는지 확인하여(S515) 표적이 존재하는 경우에는(S517) Slave 탄 가상전장에서 표적을 삭제하고 Master 가상 전장으로 옮긴다(S519).That is, it is checked whether there is a target in the virtual battlefield fired by the slave (S515), and if there is a target (S517), the target is deleted from the virtual battlefield fired by the slave and moved to the virtual battlefield master (S519).

모든 Slave 탄에 대해서 가상 전장의 표적 존재여부를 확인한 후, 전제 표적을 모두 Master 탄의 가상 전장으로 이동 완료하면, 표적이 존재하는 영역으로 각 탄을 이동 배치하는 명령을 모든 Slave 탄들로 송신(S521)하여 동시에 검출되지 않는 표적없이 모든 표적을 획득한다.After checking the presence of targets in the virtual battlefield for all slave bullets, when all targets are moved to the virtual battlefield of the master bullet, a command to move each bullet to the target area is sent to all slave bullets (S521) ) to acquire all targets without undetected targets at the same time.

이와 같은 과정을 통해서 모든 유도탄은 표적을 식별할 수 있게 된다. Master 탄에서는 전장 재구성 및 표적을 식별한 모든 Slave 탄에게 배치한다. 만약 본인의 지역에 표적이 없거나, 타 지역에 중요 표적이 많은 경우 Slave에서 다른 Slave로 타격 요청을 보낼 수 있으며, 해당 요청을 받은 Slave는 표적을 변경하거나 표적 지역으로 이동한다.Through this process, all guided missiles can identify the target. In the master ammunition, reconfigure the battlefield and identify the target and deploy it to all slave ammunition. If there are no targets in your area or there are many important targets in other areas, you can send a strike request from the slave to another slave, and the slave who receives the request changes the target or moves to the target area.

도 6 및 도 7은 본 발명의 일실시예에 따른 실제 전장 환경에서 표적 획득을 위한 영상 블록 할당 과정 및 결과를 설명하기 위한 참고도이다.6 and 7 are reference diagrams for explaining an image block allocation process and results for target acquisition in an actual battlefield environment according to an embodiment of the present invention.

실제 전장 환경에서는 다수의 표적을 동시에 무력화하기 위해서, 도 6에 도시된 바와 같이, 각 유도탄에 탑재된 광학기에서 획득한 영상과 생성된 표적 정보를 공유한다. 이후 자신이 획득한 영상과 표적 정보로 가 구성한 전장을 다른 유도탄들로부터 획득한 정보와 합성하여 재구성한다. 이때, 전달되는 영상은 블록 단위로 구분되는데, 이 블록은 본 발명의 일실시예에 따르면 각 유도탄의 표적 별 반경 500m씩 분할하여 할당될 수 있다. 바람직하게는 상기 블록은 영상 재구성의 용이성을 위해 전체 면적의 10±5% 정도 겹쳐지게 할당될 수 있다.In an actual battlefield environment, in order to disable multiple targets at the same time, as shown in FIG. 6 , images acquired from the optics mounted on each guided missile and generated target information are shared. Afterwards, the battlefield composed by the self-acquired image and target information is reconstructed by synthesizing it with information obtained from other guided missiles. In this case, the transmitted image is divided into blocks, and according to an embodiment of the present invention, the blocks may be allocated by dividing each missile by a radius of 500 m for each target. Preferably, the blocks may be allocated to overlap by 10±5% of the total area for ease of image reconstruction.

도 7을 참조하면, 광학기는 재구성된 영상의 중심점으로부터 표적 특징점과의 거리를 계산하여 표적의 위치를 획득한다. 이후 가상의 2D 전장과 표적에 대한 정보를 식별하여 의미 있는 데이터 필드를 재구성한다. 이를 통해 각 유도탄에서 획득된 표적 정보를 토대로 누락되는 표적 없이, 동시에 다수의 표적을 무력화할 수 있다.Referring to FIG. 7 , the optics calculates the distance from the center point of the reconstructed image to the target feature point to obtain the target position. Then, information about the virtual 2D battlefield and target is identified and meaningful data fields are reconstructed. Through this, it is possible to disable multiple targets at the same time without missing targets based on the target information obtained from each guided missile.

도 8은 본 발명의 일실시예에 따른 표적검출 장치의 구성을 개략적으로 도시한 블록도이다.8 is a block diagram schematically illustrating the configuration of a target detection apparatus according to an embodiment of the present invention.

도시된 바와 같이, 표적검출 장치는 센서부(10), 영상 전처리부(20), 영상 처리부(30), 표적 획득부(40), 표적 데이터베이스(50) 및 통신부(60)를 포함한다.As shown, the target detection apparatus includes a sensor unit 10 , an image preprocessor 20 , an image processing unit 30 , a target acquisition unit 40 , a target database 50 , and a communication unit 60 .

표적 데이터베이스(50)에는 획득된 표적 정보가 저장되며, 저장된 표적 정보는 획득된 영상으로부터 표적을 비교하여 확정하는데 사용된다.The target database 50 stores the acquired target information, and the stored target information is used to compare and determine a target from the acquired image.

센서부(10)는 이미지 센서와 유도탄의 자세 정보를 획득할 수 있는 가속도, 각속도, 자이로 센서 등을 포함한다. 이미지 센서는 적외선 센서, 가시광선 센서 등이 될 수 있으며 표적이 포함된 영상을 획득한다. 또한, 가속도, 각속도, 자이로 센서를 통해서 유도탄의 자세 정보를 획득할 수 있다.The sensor unit 10 includes an image sensor and an acceleration, angular velocity, gyro sensor, and the like capable of acquiring posture information of the guided missile. The image sensor may be an infrared sensor, a visible light sensor, or the like, and acquires an image including a target. In addition, the attitude information of the guided missile can be obtained through the acceleration, angular velocity, and gyro sensors.

영상 전처리부(20)는 센서부(10)를 통해서 획득된 영상으로부터 표적 정보 추출을 위한 전처리 과정을 수행한다. 영상 전처리 과정은 영상 품질의 향상, 복원, 이해, 압축 및 부호화 과정 등을 포함하며, 이와 같은 전처리 과정을 거쳐서 표적 벡터 데이터를 생성하고, 표적 정보를 영상 처리부로 전달한다.The image preprocessor 20 performs a preprocessing process for extracting target information from the image acquired through the sensor unit 10 . The image pre-processing process includes image quality improvement, restoration, understanding, compression, and encoding processes, and through the pre-processing process, target vector data is generated and target information is transmitted to the image processing unit.

구체적으로 표적 벡터 데이터를 생성하는 과정은 다음과 같다. 이미지 센서(10)를 통해 영상을 획득하면, 획득된 영상 내에서 표적과 배경을 분리하여 특징점을 추출한 후 2차원의 표적 모델을 생성한다. 이후, 특징점과 표적 모델을 통해 표적을 검색하고 표적 데이터베이스에 저장된 표적 정보와 비교하여 표적을 확정하며, 확정된 표적의 방향과 속도 정보를 통하여 표적 벡터 데이터가 생성된다.Specifically, the process of generating the target vector data is as follows. When an image is acquired through the image sensor 10, a two-dimensional target model is generated after extracting feature points by separating the target and the background from the acquired image. Thereafter, the target is searched for through the feature point and the target model, the target is determined by comparing it with target information stored in the target database, and target vector data is generated through the determined target direction and velocity information.

영상 처리부(30)는 센서부(10)를 통해서 획득된 유도탄의 자세 정보와 영상 전처리부(20)를 통해 추출된 표적 정보를 기반으로 센서부(10)에서 획득된 영상을 재구성한다. 그리고, 영상 처리부(30)는 유도탄의 입사각, 진행방향 및 상기 표적 정보를 이용하여 표적과의 거리를 추정하고, 유도탄의 진행방향을 중심점으로 설정하여 상기 표적과의 거리를 벡터 데이터로 변환하여 영상정보를 생성한다.The image processing unit 30 reconstructs the image obtained from the sensor unit 10 based on the posture information of the guided missile obtained through the sensor unit 10 and the target information extracted through the image preprocessing unit 20 . Then, the image processing unit 30 estimates the distance to the target using the incident angle, the traveling direction, and the target information of the guided missile, sets the traveling direction of the guided missile as a central point, and converts the distance to the target into vector data to obtain an image create information

표적 획득부(40)는 영상 처리부(30)를 통해서 재구성된 영상으로부터 표적을 검색하여 표적 데이터베이스(50)의 표적 정보와 비교하고, 최종적으로 표적을 획득한다.The target acquisition unit 40 searches for a target from the image reconstructed through the image processing unit 30 , compares it with target information in the target database 50 , and finally acquires the target.

통신부(60)를 통해서는 Slave 탄으로부터 표적 정보 및 영상정보를 수신한다. 또한, Master 탄의 영상 처리부(30)에서 재구성한 2D 전장 영상에서 식별된 복수의 표적에 Slave 탄들을 재배치하고, 표적 ID가 포함된 표적정보를 통신부(60)를 통해서 Slave 탄으로 전송한다. 본 발명의 일실시예에 따른 통신부(60)를 통한 유도탄들간의 통신은 비콘 프로토콜을 적용할 수 있다. Through the communication unit 60, target information and image information are received from the slave bullet. In addition, the slave bullets are rearranged to the plurality of targets identified in the 2D battlefield image reconstructed by the image processing unit 30 of the master bullet, and target information including the target ID is transmitted to the slave bullets through the communication unit 60 . Communication between guided missiles through the communication unit 60 according to an embodiment of the present invention may apply a beacon protocol.

한편, 표적검출 장치에서 표적을 획득하고, 표적 벡터데이터 및 가상 전장데이터를 생성하여 다수의 표적을 동시 획득하고 Slave 탄들로 배치하는 과정은 앞서 도 1 내지 도 5를 참조하여 상세히 설명한 바, 구체적인 설명은 생략한다. On the other hand, the process of acquiring a target from the target detection device, generating target vector data and virtual battlefield data, acquiring multiple targets simultaneously, and arranging as slave bullets has been described in detail with reference to FIGS. 1 to 5 above, detailed description is omitted.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.Even if all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, although all the components may be implemented as one independent hardware, some or all of the components are selectively combined to perform some or all of the functions of the combined hardware in one or a plurality of hardware program modules It may be implemented as a computer program having In addition, such a computer program is stored in a computer readable media such as a USB memory, a CD disk, a flash memory, etc., read and executed by the computer, thereby implementing the embodiment of the present invention. The computer program recording medium may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined in the detailed description. Commonly used terms such as terms defined in the dictionary should be interpreted as being consistent with the contextual meaning of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions are possible within the range that does not depart from the essential characteristics of the present invention by those of ordinary skill in the art to which the present invention pertains. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings. . The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10: 센서부
20: 영상 전처리부
30: 영상 처리부
40: 표적 획득부
50: 표적 데이터베이스
60: 통신부
10: sensor unit
20: image preprocessor
30: image processing unit
40: target acquisition unit
50: target database
60: communication department

Claims (13)

이미지 센서를 통해 영상을 획득하여 표적 데이터베이스를 참조하여 표적을 검출하고 표적정보를 생성하는 제1 단계;
센서부로부터 측정된 유도탄 자세정보 및 위치정보를 참조하여 상기 획득된 영상을 재구성하여 영상정보를 생성하는 제2 단계;
인접한 복수의 유도탄으로부터 각각 생성된 복수의 영상정보, 표적정보 및 좌표벡터를 수신하는 제3 단계;
상기 제3 단계에서 수신된 복수의 영상정보를 상기 제2 단계에서 생성된 영상정보와 중첩 및 연결하여 가상의 2차원 전장 영상을 재구성하는 제4 단계;
상기 표적정보를 참조하여 상기 가상의 2차원 전장 영상에서 복수의 표적을 식별하고 상기 복수의 유도탄에 각각 배치되도록 ID를 부여하여 표적을 구분하는 제5 단계: 및
상기 표적의 식별 정보와 상기 ID를 포함한 표적정보를 상기 복수의 유도탄으로 전송하는 제6 단계를 포함하는 표적검출 방법.
A first step of acquiring an image through an image sensor, detecting a target by referring to a target database, and generating target information;
a second step of generating image information by reconstructing the acquired image with reference to the guided missile attitude information and position information measured from the sensor unit;
a third step of receiving a plurality of image information, target information, and coordinate vectors respectively generated from a plurality of adjacent missiles;
a fourth step of reconstructing a virtual two-dimensional full-length image by overlapping and linking the plurality of image information received in the third step with the image information generated in the second step;
A fifth step of identifying a plurality of targets in the virtual two-dimensional battlefield image with reference to the target information and assigning IDs so as to be respectively disposed on the plurality of guided missiles to classify the targets; and
and a sixth step of transmitting target information including identification information of the target and the ID to the plurality of guided missiles.
제1항에 있어서,
상기 표적정보는 표적의 방향과 속도를 나타내는 벡터 데이터인 것을 특징으로 하는 표적검출 방법.
According to claim 1,
The target information is a target detection method, characterized in that the vector data indicating the direction and speed of the target.
제1항에 있어서,
상기 영상정보는 유도탄의 입사각, 진행방향 및 표적정보를 이용하여 표적과 거리를 추정하고 중심점을 설정하여 벡터 데이터로 변환한 2차원 가상 전장데이터인 것을 특징으로 하는 표적검출 방법.
According to claim 1,
The image information is two-dimensional virtual battlefield data converted into vector data by estimating the distance to the target using the incident angle, the direction of travel and the target information of the missile, and setting the center point.
제1항에 있어서, 상기 제1 단계는,
이미지 센서를 통해 영상을 획득하는 단계;
획득된 영상 내에서 표적과 배경을 분리하여 특징점을 추출한 후 2차원의 표적 모델을 생성하는 단계;
상기 특징점과 상기 표적 모델을 통해 표적을 검색하고 표적 데이터베이스에 저장된 표적 정보와 비교하여 표적을 확정하는 단계; 및
확정된 표적의 방향과 속도 정보를 통하여 표적 벡터 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 표적검출 방법.
According to claim 1, wherein the first step,
acquiring an image through an image sensor;
generating a two-dimensional target model after extracting feature points by separating the target and the background from the acquired image;
determining a target by searching for a target through the feature point and the target model and comparing it with target information stored in a target database; and
Target detection method comprising the step of generating target vector data through the determined target direction and velocity information.
제4항에 있어서, 상기 제2 단계는,
유도탄의 위치정보, 입사각 및 진행방향 정보를 이용하여 탄 좌표 벡터 데이터 및 전장 영상 데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 표적검출 방법.
According to claim 4, wherein the second step,
The method of claim 1, comprising: generating the bullet coordinate vector data and the battlefield image data by using the location information, the incident angle, and the traveling direction information of the guided missile.
제 1항에 있어서, 상기 제2 단계는,
유도탄의 상기 위치정보를 참조하여 진행방향을 중심점으로 설정하고 상기 영상정보를 생성하는 것을 특징으로 하는 표적검출 방법.
According to claim 1, wherein the second step,
A target detection method, characterized in that by referring to the location information of the guided missile, setting the moving direction as a central point and generating the image information.
제6항에 있어서, 상기 제4 단계는,
상기 제2 단계의 위치정보를 참조하여 설정된 진행방향을 원점으로 설정하고,
상기 제3 단계에서 수신된 복수의 영상정보와 상기 제2 단계에서 생성된 영상정보를 중첩 및 연결하는 것을 특징으로 하는 표적검출 방법.
According to claim 6, wherein the fourth step,
Set the progress direction set with reference to the location information of the second step as the origin,
A target detection method characterized in that the plurality of image information received in the third step and the image information generated in the second step are superimposed and connected.
표적에 대한 정보가 저장된 표적 데이터베이스;
유도탄의 자세 정보 및 표적이 포함된 영상을 획득하는 센서부;
상기 센서부를 통해서 획득된 영상으로부터 표적 정보 추출을 위한 전처리 과정을 수행하고 표적정보를 생성하는 영상 전처리부;
상기 센서부를 통해서 획득된 자세 정보와 상기 영상 전처리부를 통해 추출된 표적 정보를 기반으로 상기 센서부에서 획득된 영상을 재구성하여 영상정보를 생성하는 영상 처리부; 및
상기 영상 처리부를 통해서 재구성된 영상으로부터 표적을 검색하여 상기 표적 데이터베이스의 표적정보와 비교하여 표적을 획득하는 표적 획득부;를 포함하는 표적검출 장치.
a target database in which information about the target is stored;
a sensor unit that acquires an image including the posture information and the target of the guided missile;
an image preprocessor for performing a preprocessing process for extracting target information from the image acquired through the sensor unit and generating target information;
an image processing unit configured to reconstruct the image obtained from the sensor unit based on the posture information obtained through the sensor unit and target information extracted through the image preprocessor to generate image information; and
Target detection apparatus comprising a; target acquisition unit for obtaining a target by searching for a target from the image reconstructed through the image processing unit and comparing with target information of the target database.
제8항에 있어서,
상기 표적정보는 표적의 방향과 속도를 나타내는 벡터 데이터인 것을 특징으로 하는 표적검출 장치.
9. The method of claim 8,
The target information is a target detection device, characterized in that the vector data indicating the direction and speed of the target.
제8항에 있어서,
상기 영상 처리부는 유도탄의 입사각, 진행방향 및 상기 표적 정보를 이용하여 표적과의 거리를 추정하고, 유도탄의 진행방향을 중심점으로 설정하여 상기 표적과의 거리를 벡터 데이터로 변환하여 상기 영상정보를 생성하는 것을 특징으로 하는 표적검출 장치.
9. The method of claim 8,
The image processing unit estimates the distance to the target using the incident angle, the traveling direction, and the target information of the guided missile, sets the traveling direction of the guided missile as a central point, and converts the distance to the target into vector data to generate the image information Target detection device, characterized in that.
제8항에 있어서, 상기 영상 전처리부는,
상기 센서부를 통해서 획득된 영상 내에서 표적과 배경을 분리하여 특징점을 추출한 후 2차원의 표적 모델을 생성하고, 상기 특징점과 상기 표적 모델을 기반으로 표적을 검색하여 상기 표적 데이터베이스에 저장된 표적 정보와 비교하여 표적을 확정하고, 상기 확정된 표적의 방향과 속도 정보를 통하여 표적정보를 생성하는 것을 특징으로 하는 표적검출 장치.
The method of claim 8, wherein the image preprocessor,
After separating the target and the background from the image acquired through the sensor unit to extract the feature point, a two-dimensional target model is generated, and the target is searched based on the feature point and the target model and compared with the target information stored in the target database. to determine the target, and to generate target information through the determined target direction and speed information.
제8항에 있어서,
외부로부터 표적정보 및 영상정보를 수신하는 통신부를 더 포함하는 것을 특징으로 하는 표적검출 장치.
9. The method of claim 8,
Target detection apparatus, characterized in that it further comprises a communication unit for receiving the target information and image information from the outside.
제12항에 있어서, 상기 영상 처리부는,
상기 통신부를 통해서 인접한 복수의 유도탄으로부터 각각 생성된 복수의 영상정보, 표적정보 및 좌표벡터를 수신하고, 상기 수신된 복수의 영상정보를 상기 생성된 영상정보와 중첩 및 연결하여 가상의 2차원 전장 영상을 재구성하고, 상기 표적정보를 참조하여 상기 가상의 2차원 전장 영상에서 복수의 표적을 식별하고 상기 복수의 유도탄에 각각 배치되도록 ID를 할당하고, 상기 표적의 식별정보와 상기 ID를 포함한 표적정보를 상기 통신부를 통해서 상기 복수의 유도탄으로 전송하는 것을 특징으로 하는 표적검출 장치.
The method of claim 12, wherein the image processing unit,
It receives a plurality of image information, target information, and coordinate vectors generated from a plurality of adjacent missiles through the communication unit, and superimposes and connects the plurality of received image information with the generated image information to obtain a virtual two-dimensional battlefield image. reconstructs, identifies a plurality of targets in the virtual two-dimensional battlefield image with reference to the target information, assigns IDs to be disposed on the plurality of guided missiles, respectively, and includes target information including identification information of the target and the ID Target detection device, characterized in that the transmission to the plurality of guided missiles through the communication unit.
KR1020200019825A 2020-02-18 2020-02-18 Apparatus and method for target detecting KR102418505B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200019825A KR102418505B1 (en) 2020-02-18 2020-02-18 Apparatus and method for target detecting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200019825A KR102418505B1 (en) 2020-02-18 2020-02-18 Apparatus and method for target detecting

Publications (2)

Publication Number Publication Date
KR20210105180A true KR20210105180A (en) 2021-08-26
KR102418505B1 KR102418505B1 (en) 2022-07-07

Family

ID=77465570

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200019825A KR102418505B1 (en) 2020-02-18 2020-02-18 Apparatus and method for target detecting

Country Status (1)

Country Link
KR (1) KR102418505B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230068051A (en) * 2021-11-10 2023-05-17 엘아이지넥스원 주식회사 Method and Apparatus for Features Extraction for Target Identification
KR102573858B1 (en) * 2023-02-16 2023-09-01 국방과학연구소 Imagery information integration method and electronic apparatus therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102127135B1 (en) * 2019-12-06 2020-06-26 주식회사 소프트그래피 System and method for facilities precise inspection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102127135B1 (en) * 2019-12-06 2020-06-26 주식회사 소프트그래피 System and method for facilities precise inspection

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230068051A (en) * 2021-11-10 2023-05-17 엘아이지넥스원 주식회사 Method and Apparatus for Features Extraction for Target Identification
KR102573858B1 (en) * 2023-02-16 2023-09-01 국방과학연구소 Imagery information integration method and electronic apparatus therefor

Also Published As

Publication number Publication date
KR102418505B1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
KR102418505B1 (en) Apparatus and method for target detecting
CN107923727B (en) Shooting detection and navigation auxiliary equipment and method, aircraft and storage device
US7032858B2 (en) Systems and methods for identifying targets among non-targets with a plurality of sensor vehicles
US5657251A (en) System and process for performing optimal target tracking
US20070040062A1 (en) Projectile tracking system
Li et al. Space target detection in complicated situations for wide-field surveillance
CN110400374A (en) The method for building up of panorama point cloud data and establish system
CN107367201B (en) A kind of fried drop point sound localization method of a wide range of multiple target shell
Li et al. Three-dimensional coordinates test method with uncertain projectile proximity explosion position based on dynamic seven photoelectric detection screen
US20170227330A1 (en) Systems and methods for acquiring and launching and guiding missiles to multiple targets
KR101978491B1 (en) Apparatus and method for controling strike command using ir sensor and lrf sensor
CN115661209A (en) Method and system for measuring damage elements of explosion power field based on event camera
KR101202215B1 (en) Weighted-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling
KR20190072791A (en) Remote controlled weapon station to fire targets hidden by obstacles
Couturier et al. Conditional probabilistic relative visual localization for unmanned aerial vehicles
CN111161357B (en) Information processing method and device, augmented reality device and readable storage medium
Sinha et al. Sniper localization using passive acoustic measurements over an ad-hoc sensor array
CN107514935B (en) Infrared seeker detection system and method
KR102685467B1 (en) Method and system for extracting impact location of guided air vehicle and moving target using image information
Liang et al. A Research on a Method of Calculating Pixel Coordinates of Projectile Explosion Position Based on MCF-U-net Explosive Firelight Image Segmentation Algorithm
Wolfart et al. Deep Learning for Nuclear Safeguards
RU2595181C2 (en) Method for selecting images for identification of weapon from striker trace
Lyashchuk et al. Possibility of the use of data of infrasonic monitoring for identification of the nature of seismic events
Bhalara et al. A Review on Aircraft Detection Techniques and Feature Extraction Using Deep Learning
Masum et al. Tracking of artillery shell using optical flow

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant