KR102308075B1 - Machine-learning system for operating guided missiles - Google Patents

Machine-learning system for operating guided missiles Download PDF

Info

Publication number
KR102308075B1
KR102308075B1 KR1020200068247A KR20200068247A KR102308075B1 KR 102308075 B1 KR102308075 B1 KR 102308075B1 KR 1020200068247 A KR1020200068247 A KR 1020200068247A KR 20200068247 A KR20200068247 A KR 20200068247A KR 102308075 B1 KR102308075 B1 KR 102308075B1
Authority
KR
South Korea
Prior art keywords
image
command
target
unit
driving command
Prior art date
Application number
KR1020200068247A
Other languages
Korean (ko)
Inventor
김희수
최원석
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020200068247A priority Critical patent/KR102308075B1/en
Application granted granted Critical
Publication of KR102308075B1 publication Critical patent/KR102308075B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G9/00Systems for controlling missiles or projectiles, not provided for elsewhere
    • F41G9/002Systems for controlling missiles or projectiles, not provided for elsewhere for guiding a craft to a correct firing position
    • F41G9/004Training or teaching apparatus therefor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2246Active homing systems, i.e. comprising both a transmitter and a receiver
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/24Beam riding guidance systems
    • F41G7/26Optical guidance systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

The present invention relates to a missile guidance command learning system and a method for acquiring guidance data for learning a missile guidance command and learning the missile guidance command based thereon. According to an embodiment of the present invention, a missile guidance command learning system comprises: an image information collection unit which collects image information generated from a searcher; a pre-processing unit which receives target information, sets a position of a target in the image information collected from the image information collection unit, and pre-processes the image data; an image data selection unit which selects arbitrary image data from among a plurality of pre-processed image data; and a driving command generating unit which receives the selected image data and extracts features to learn the target position and target information of the received image and generate a driving command for a guided missile.

Description

미사일 유도명령 학습시스템 {MACHINE-LEARNING SYSTEM FOR OPERATING GUIDED MISSILES}Missile guidance command learning system {MACHINE-LEARNING SYSTEM FOR OPERATING GUIDED MISSILES}

본 발명은 미사일 유도명령 학습시스템에 관한 것으로서, 미사일의 유도 조정에 필요한 데이터를 획득하여 인공지능을 이용하여 학습시키고 유도탄 조종명령을 생성할 수 있는 시스템에 관한 것이다.The present invention relates to a missile guidance command learning system, and to a system capable of acquiring data necessary for guidance and adjustment of a missile, learning it using artificial intelligence, and generating a guided missile control command.

종래 일반적인 유도탄은 광학기를 통해서 표적을 획득 후 표적을 추적하는 임무를 수행하며, 임무를 부여받고 정보를 장입받아 기 설정된 절차에 따라서 유도탄이 발사된다. 이후, 발사된 유도탄은 표적 탐지를 위한 운용 개념, 유도 방법 등에 따라서 표적을 탐지하거나 획득하게 된다.Conventional general guided missiles perform a task of tracking a target after acquiring a target through an optical device, are given a mission, are loaded with information, and are fired according to a preset procedure. Thereafter, the launched guided missile detects or acquires a target according to an operation concept for target detection, a guidance method, and the like.

이와 같은 유도탄은 미사일 유도를 위한 구동명령을 개발자가 직접 알고리즘으로 개발하여 유도탄에 탑재하였으며, 정확한 구동명령을 개발하기 위해서는 다수의 반복된 시험이 요구되고 있으나, 통상적인 유도무기는 지리적 및 경제적 사정으로 인하여 많은 시험을 수행하는 것에 어려움이 있다. For such guided missiles, the developer developed the driving command for missile guidance with an algorithm and mounted it on the guided missile. A number of repeated tests are required to develop an accurate driving command. Therefore, it is difficult to perform many tests.

한편, 인공지능(Artificial Intelligence) 기술이 발달함에 따라서, 많은 분야에서 인공지능 기술이 도입되고 있으며 자동차의 경우에도 자율주행에 인공지능 기술을 적극적으로 도입하고 있다. 이와 같은 인공지능 기술을 유도탄 분야에도 도입할 필요가 있다.On the other hand, with the development of artificial intelligence (AI) technology, artificial intelligence technology is being introduced in many fields, and in the case of automobiles, artificial intelligence technology is actively being introduced into autonomous driving. It is necessary to introduce such artificial intelligence technology to the field of guided missiles.

본 발명의 일실시예에 따르면, 미사일 유도 명령 학습을 위한 유도 데이터를 획득하고 이를 기반으로 미사일 유도 명령을 학습시키는 미사일 유도명령 학습시스템을 제공하는 것을 목적으로 한다.According to an embodiment of the present invention, an object of the present invention is to provide a missile guidance command learning system for acquiring guidance data for learning the missile guidance command and learning the missile guidance command based on this.

또한, 본 발명의 일실시예에 따르면, 미사일 유도 명령 학습을 위한 유도 데이터 획득 장치 및 방법을 제공하는 것을 목적으로 한다.In addition, according to an embodiment of the present invention, an object of the present invention is to provide an apparatus and method for acquiring guidance data for learning a missile guidance command.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the object of the present invention is not limited to the above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

본 명세서의 일실시예에 따른 미사일 유도명령 학습시스템은 탐색기로부터 생성된 영상정보를 수집하는 영상정보 수집부; 표적정보를 입력받아서 상기 영상정보 수집부로부터 수집된 영상정보에서 표적의 위치를 설정하고 영상 데이터를 전처리하는 전처리부; 전처리된 다수의 영상데이터들 중 임의의 영상데이터를 선택하는 영상데이터 선택부; 및 선택된 영상데이터를 입력받아 특징을 추출하여 입력영상의 표적위치 및 표적정보를 학습시키고 유도탄의 구동명령을 생성하는 구동명령 생성부를 포함한다.Missile guidance command learning system according to an embodiment of the present specification includes an image information collection unit for collecting image information generated from a searcher; a pre-processing unit for receiving target information, setting a position of a target in the image information collected from the image information collecting unit, and pre-processing the image data; an image data selection unit for selecting arbitrary image data from among a plurality of pre-processed image data; and a driving command generator for receiving the selected image data, extracting features, learning the target position and target information of the input image, and generating a driving command for the guided missile.

또한, 상기 시스템은 유도탄의 유도조종 방향을 구동장치로 전달하기 위한 구동명령을 수집하는 구동명령 수집부; 상기 구동명령 수집부에서 수집된 구동명령을 입력받고, 상기 영상데이터 선택부에서 임의로 선택된 영상에 대응되는 구동명령으로 상기 수집된 구동명령을 조정하는 구동명령 수정부; 상기 구동명령 수정부에서 조정된 구동명령과 상기 구동명령 생성부에서 생성된 구동명령을 비교하여 오차데이터를 추출하는 구동명령 비교부; 및 상기 구동명령 비교부에서 추출된 오차데이터를 기반으로 가중치를 계산하여 상기 구동명령 생성부로 전달하는 가중치 계산부를 더 포함할 수 있다.In addition, the system includes a driving command collecting unit for collecting a driving command for transmitting the guided control direction of the guided missile to the driving device; a driving command modifying unit receiving the driving command collected by the driving command collecting unit and adjusting the collected driving command to a driving command corresponding to an image arbitrarily selected by the image data selecting unit; a driving command comparison unit for extracting error data by comparing the driving command adjusted by the driving command correction unit with the driving command generated by the driving command generating unit; and a weight calculation unit that calculates a weight based on the error data extracted by the drive command comparison unit and transmits it to the drive command generation unit.

바람직하게는, 구동명령 생성부는 상기 가중치 계산부로부터 전달된 가중치를 수신하여 상기 생성된 구동명령을 갱신하는 것을 특징으로 한다.Preferably, the driving command generating unit receives the weight transmitted from the weight calculation unit and updates the generated driving command.

바람직하게는, 상기 표적정보는 표적의 예상 ROI(Region of Interest), 표적 거리에 따른 예상온도, 표적까지의 거리정보를 포함하는 것을 특징으로 한다.Preferably, the target information is characterized in that it includes an expected region of interest (ROI) of the target, an expected temperature according to the target distance, and distance information to the target.

바람직하게는, 상기 전처리부는 표적의 예상 ROI를 기반으로 영상정보 수집부로부터 수신한 영상 내에서 표적의 위치정보를 설정하고, 표적 거리에 따른 예상온도 및 표적까지의 거리정보를 기반으로 영상의 픽셀값을 보정하는 것을 특징으로 한다.Preferably, the preprocessor sets the position information of the target in the image received from the image information collecting unit based on the expected ROI of the target, and the pixel of the image based on the expected temperature according to the target distance and the distance to the target information It is characterized in that the value is corrected.

바람직하게는, 상기 구동명령 생성부는 컨볼루셔널 레이어(Convolutional Layer)를 이용하여 영상데이터에서 표적에 해당되는 특징을 추출하고, 상기 추출된 특징 값을 뉴럴 네트워크(Neural Network)를 이용하여 분류한 후, 구동명령을 생성하는 것을 특징으로 한다.Preferably, the driving command generator extracts a feature corresponding to a target from image data using a convolutional layer, classifies the extracted feature value using a neural network, and , characterized in that the driving command is generated.

바람직하게는, 상기 가중치 계산부는 오차 역전파법(backpropagation) 알고리즘을 이용하여 가중치를 계산하는 것을 특징으로 한다.Preferably, the weight calculator calculates the weight using an error backpropagation algorithm.

본 발명의 일실시예에 따르면, 드론이나 유인기 등에 미사일의 유도명령 데이터를 획득할 수 있는 장치를 탑재함으로써 유도 미사일 학습을 위한 탐색기 영상과 구동 데이터를 경제적으로 획득할 수 있으며, 이를 이용하여 미사일 유도 명령을 학습시키는 미사일 유도명령 시스템을 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, by mounting a device capable of acquiring guidance command data of a missile, such as a drone or manned aircraft, it is possible to economically acquire a searcher image and driving data for learning a guided missile, and using this, it is possible to obtain a missile There is an effect that can provide a missile guidance command system that learns the guidance command.

또한, 본 발명의 일실시예에 따르면, 유도 미사일 구동 데이터를 확보하여 인공지능 시스템에서 활용함으로써 유도 미사일의 유도명령 정확도를 향상시킬 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, there is an effect that can improve the guidance command accuracy of the guided missile by securing the guided missile drive data and utilizing it in the artificial intelligence system.

도 1은 본 발명의 일실시예에 따른 유도 데이터 획득 장치를 개략적으로 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따른 미사일 유도명령 학습 시스템의 구성을 개략적으로 도시한 블록도이다.
도 3은 컨볼루셔널 뉴럴 네트워크의 표적위치 학습 방법을 설명하기 위한 참고도이다.
도 4는 본 발명의 일실시예에 따른 미사일 유도명령 학습 시스템의 동작을 순차적으로 도시한 순서도이다.
도 5는 본 발명의 일실시예에 따른 미사일 유도명령 학습 시스템의 인공 신경망 구조를 나타낸 것이다.
1 is a block diagram schematically illustrating an apparatus for obtaining derived data according to an embodiment of the present invention.
2 is a block diagram schematically showing the configuration of a missile guidance command learning system according to an embodiment of the present invention.
3 is a reference diagram for explaining a method for learning a target position of a convolutional neural network.
4 is a flowchart sequentially illustrating the operation of the missile guidance command learning system according to an embodiment of the present invention.
Figure 5 shows the artificial neural network structure of the missile guidance command learning system according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, it should be noted that in adding reference numerals to the components of each drawing, the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, preferred embodiments of the present invention will be described below, but the technical spirit of the present invention is not limited thereto and may be variously implemented by those skilled in the art without being limited thereto.

도 1은 본 발명의 일실시예에 따른 유도 데이터 획득 장치(100)를 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating an apparatus 100 for obtaining derived data according to an embodiment of the present invention.

유도 데이터 획득 장치(100)는 드론이나 유인기 등에 탑재되어 구동명령과 영상정보 등 실제 데이터를 획득하며, 이와 같이 획득된 실제 데이터는 유도탄 학습에 사용된다.The guidance data acquisition device 100 is mounted on a drone or manned aircraft to acquire real data such as driving commands and image information, and the acquired real data is used for learning guided missiles.

탐색기 및 유도 데이터 획득 장치는 실제 유도탄의 데이터를 획득하기 위해서 드론이나 유인기에 설치하여 데이터를 획득 하는 장치이다. 이 장치를 통해서 유도탄 학습을 위한 탐색기 영상과 구동 데이터를 수집한다. 이 장치를 통해 탐색기 영상이 들어왔을 때의 실제 구동명령을 동시에 수집한다.The searcher and guidance data acquisition device is a device that acquires data by installing it on a drone or manned device in order to acquire actual guided missile data. Through this device, searcher images and driving data are collected for learning guided missiles. Through this device, the actual driving command when the searcher image comes in is simultaneously collected.

유도 데이터 획득 장치(100)는 구동명령 수신부(10), 영상 탐색부(20) 및 구동명령/영상 수집부(30)를 포함한다.The induction data acquisition device 100 includes a driving command receiving unit 10 , an image searching unit 20 , and a driving command/image collecting unit 30 .

구동명령 수신부(10)는 실제 유도탄의 유도조종방향을 구동 장치에 주기 위한 구동 명령을 수집한다.The driving command receiving unit 10 collects a driving command for giving an actual guided control direction of the guided missile to the driving device.

구체적으로, 실제 유도탄의 유도조종 방향을 구동장치에 주기 위한 구동명령을 수집하며, 영상 탐색부(20)는 유도탄에 사용되는 탐색기 영상을 수집하며, 도시된 바와 같이 팀색기 영상의 좌측방향, 중간 및 우측방향의 실제 영상을 수집한다.Specifically, the driving command to give the actual guided control direction of the missile is collected to the driving device, and the image search unit 20 collects the searcher image used for the guided missile, and as shown in the figure, the left direction and the middle of the team color flag image. and real images in the right direction are collected.

영상 탐색부는 좌측 영상 탐색부, 중간 영상 탐색부, 우측 영상 탐색부를 포함할 수 있으며, 좌측 영상 탐색부는 유도탄에 쓰이는 탐색기(IIR 또는 CCD) 영상의 왼쪽 방향을 수집한다.The image search unit may include a left image search unit, a middle image search unit, and a right image search unit, and the left image search unit collects a left direction of images of a searcher (IIR or CCD) used for guided missiles.

중간 영상 탐색부는 유도탄의 중간 위치의 실제 탐색기(IIR 또는 CCD)영상을 수집한다. The intermediate image search unit collects the actual searcher (IIR or CCD) image of the intermediate position of the guided missile.

우측 영상 탐색부는 유도탄의 쓰이는 탐색기(IIR 또는 CCD)으 오른쪽 방향 영상을 수집한다.The image search unit on the right collects images in the right direction of the searcher (IIR or CCD) used for guided missiles.

본 발명의 일실시예에 따르면, 상기 영상 탐색부(20)는 광학 탐색기일 수 있으며, 이는 작동 방식에 따라 적외선추적(열추적) 방식, 영상유도 방식, 또는 레이저 유도방식으로 구현될 수 있다. 적외선 탐색기는 표적을 어떠한 신호의 강약 등으로 파악하며, 영상 탐색기는 사람이 눈으로 표적을 인식하듯 카메라를 통해 확인한 표적의 모양을 보고 인식하는 방식이다. 한편, 영상탐색기는 가시광선 방식 또는 적외선 방식으로 구현될 수 있다. 적외선 방식은 일종의 적외선 카메라(열상카메라)이며 적외선 영상(IIR, Imaging Infra-Red)방식이라고도 한다. 적외선 영상방식은 악천후나 야간에도 표적의 모양을 확인할 수 있으므로 더 다양한 상황에서 쓸 수 있다는 장점이 있다. 레이저 탐색기는 미사일이 특정 레이저 불빛만 쫓아가도록 만든 것으로서, 레이저 조준방식은 미사일이 스스로 어떠한 신호를 내보내지는 않지만, 최소한 아군이 미사일을 유도하기 위해 어떠한 신호를 내보내야 하므로 반능동(Semi-Active) 유도방식에 속하며, 이를 SAL(Semi-Active Laser) 유도방식이라 부르기도 한다.According to an embodiment of the present invention, the image search unit 20 may be an optical searcher, which may be implemented in an infrared tracking (heat tracking) method, an image induction method, or a laser induction method according to an operation method. The infrared searcher identifies the target by the strength and weakness of any signal, and the image searcher recognizes the shape of the target identified through the camera just as a human recognizes the target with the eyes. On the other hand, the image searcher may be implemented in a visible light method or an infrared method. The infrared method is a kind of infrared camera (thermal camera) and is also called an infrared image (IIR, Imaging Infra-Red) method. The infrared imaging method has the advantage that it can be used in more diverse situations because the shape of the target can be checked even in bad weather or at night. The laser searcher is a missile that only chases a specific laser light. In the laser aiming method, the missile does not emit any signals on its own, but at least an ally must send out some signal to guide the missile, so it is semi-active induction. It belongs to the method, and it is also called SAL (Semi-Active Laser) induction method.

상기와 같은 유도 데이터 획득장치를 드론 등에 탑재함으로써, 유도탄의 유도 조종에 필요한 실제 탐색기 영상과 출력값인 구동 데이터를 용이하게 획득할 수 있으며, 많은 양의 데이터를 인공지능을 이용하여 학습시킬 경우 보다 정확한 유도탄의 구동명령 데이터를 확보할 수 있다.By mounting the guidance data acquisition device as described above on a drone, etc., it is possible to easily acquire the actual searcher image and output value driving data required for guided control of the guided missile. It is possible to secure the drive command data of the guided missile.

도 2는 본 발명의 일실시예에 따른 미사일 유도명령 학습 시스템(200)의 구성을 개략적으로 도시한 블록도이다.2 is a block diagram schematically showing the configuration of the missile guidance command learning system 200 according to an embodiment of the present invention.

미사일 유도명령 학습 시스템(200)은 앞서 도 1을 참조하여 설명한 유도 데이터 획득 장치(100)를 통해서 수집된 데이터를 바탕으로 컨볼류셔널 뉴럴 네트워크 등의 인공지능 학습 알고리즘을 이용하여 데이터 학습을 시키고 다양한 상황에서의 유도탄의 구동명령 데이터를 생성할 수 있다.The missile guidance command learning system 200 performs data learning using an artificial intelligence learning algorithm such as a convolutional neural network based on data collected through the guidance data acquisition device 100 described above with reference to FIG. It is possible to generate the driving command data of the guided missile in the situation.

미사일 유도 명령 합습시스템은 앞의 탐색기 및 유도 데이터 학습시스템에서 수집된 데이터를 바탕으로 뉴럴 네트워크를 학습시킨다. 학습과정에서는 랜덤으로 조정된 세개의 영상데이터를 입력으로 하여, 최종 유도 명령을 출력하고 이를 실제 구동 명령과 비교하여 Error값을 최소화하는 CNN네트워크를 만든다.The missile guidance command learning system trains the neural network based on the data collected from the previous searcher and guidance data learning system. In the learning process, three randomly adjusted image data are input, output the final guidance command, and compare it with the actual driving command to create a CNN network that minimizes the error value.

이를 위한 미사일 유도명령 학습 시스템(200)은 구동명령 수집부(31), 영상정보 수집부(32), 구동명령 수정부(201), 전처리부(203), 영상데이터 선택부(205), 구동명령 생성부(207), 구동명령 비교부(209) 및 가중치 계산부(211)를 포함한다.For this purpose, the missile guidance command learning system 200 includes a driving command collecting unit 31, an image information collecting unit 32, a driving command modifying unit 201, a preprocessing unit 203, an image data selecting unit 205, and driving. It includes a command generation unit 207 , a driving command comparison unit 209 , and a weight calculation unit 211 .

구동명령 수집부(31)는 유도탄의 유도조종 방향을 구동장치로 전달하기 위한 구동명령을 수집하며, 영상정보 수집부(32)는 탐색기로부터 생성된 영상정보를 수집한다.The driving command collecting unit 31 collects driving commands for transmitting the guided control direction of the guided missile to the driving device, and the image information collecting unit 32 collects image information generated from the searcher.

구체적으로, 영상정보 수집부(32) 좌측 영상 수집부, 중간 영상 수집부, 우측 영상 수집부를 포함하며, 좌측 영상 수집부는 수집된 왼쪽 탐색기 영상을 입력하고, 중간 영상 수집부는 수집된 중간 탐색기 영상을 입력한다. 우측 영상 수집부는 수집된 오른쪽 탐색기 영상을 입력한다.Specifically, the image information collecting unit 32 includes a left image collecting unit, an intermediate image collecting unit, and a right image collecting unit, the left image collecting unit inputs the collected left searcher image, and the middle image collecting unit collects the collected intermediate searcher image. Enter The right image collecting unit inputs the collected right navigator image.

구동명령 수집부(31)는 실제로 수집된 구동 명령이 입력된다.The driving command collecting unit 31 receives the actually collected driving command.

전처리부(203)는 표적정보를 입력받아서 영상정보 수집부(32)로부터 수집된 영상정보에서 표적의 위치를 설정하고 영상 데이터를 전처리한다.The pre-processing unit 203 receives target information, sets the position of the target in the image information collected from the image information collection unit 32, and pre-processes the image data.

전처리부(203)로 입력되는 제1 인풋(input) 정보는 표적 예상 ROI이고, 제2 인풋(input) 정보는 표적 거리에 따른 예상 온도이며, 제3 인풋(input) 정보표적까지의 거리정보이다.The first input information input to the preprocessor 203 is the target expected ROI, the second input information is the expected temperature according to the target distance, and the third input information is distance information to the target. .

전처리부(203)는 유도미사일에서 가지고 있는 표적 정보를 이용해서 전처리를 실시하며, 제1 인풋(input) 정보인 표적 예상 ROI를 이용해서 탐색기 영상에서 표적의 위치 정보를 설정한다.The pre-processing unit 203 performs pre-processing using the target information possessed by the guided missile, and sets the position information of the target in the searcher image using the target expected ROI, which is the first input information.

전처리부(203)로 입력되는 표적정보는 표적의 예상 ROI(Region of Interest), 표적 거리에 따른 예상온도, 표적까지의 거리정보를 포함하며, 표적의 예상 ROI를 기반으로 영상정보 수집부(32)로부터 수신한 영상 내에서 표적의 위치정보를 설정하고, 표적 거리에 따른 예상온도 및 표적까지의 거리정보를 기반으로 영상의 픽셀값을 보정한다.The target information input to the preprocessor 203 includes an expected region of interest (ROI) of the target, an expected temperature according to the target distance, and distance to the target information, and the image information collecting unit 32 based on the expected ROI of the target ), sets the position information of the target in the image received from the ), and corrects the pixel value of the image based on the expected temperature according to the target distance and the distance to the target information.

본 발명의 일실시예에 따르면, 상기 탐색부는 IR 영상을 사용하여 영상을 수집할 수 있으며, 이는 유도탄의 주요 타겟이 되는 탱크 등의 표적들이 대부분 일정온도 이상의 열을 방출하기 때문에 이와 같은 온도 정보를 이용해서 수집한 영상의 전처리를 수행할 수 있다. 여기서 표적의 예상온도값을 th라고 하고, 영상의 픽셀 값을 x, y 라고 하면 전처리부에서 처리하는 영상 픽셀값은 다음 수학식 1과 같다.According to an embodiment of the present invention, the search unit may collect an image by using an IR image, and this is because most targets such as a tank, which are the main targets of a guided missile, emit heat above a certain temperature. can be used to pre-process the collected images. Here, if the expected temperature value of the target is th, and the pixel values of the image are x and y, the image pixel values processed by the preprocessor are as shown in Equation 1 below.

Figure 112020058049114-pat00001
Figure 112020058049114-pat00001

영상데이터 선택부(205)는 전처리된 다수의 영상데이터들 중 임의의 영상데이터를 선택한다.The image data selection unit 205 selects arbitrary image data from among a plurality of pre-processed image data.

이때, 구동명령 수정부(201)는 구동명령 수집부(31)에서 수집된 구동명령을 입력받고, 영상데이터 선택부(205)에서 임의로 선택된 영상에 대응되는 구동명령으로 상기 수집된 구동명령을 조정한다.At this time, the driving command correction unit 201 receives the driving command collected by the driving command collecting unit 31 , and adjusts the collected driving command to the driving command corresponding to the image arbitrarily selected by the image data selection unit 205 . do.

구동명령 수정부(201)는 실제로 수집된 구동 명령을 랜덤 하게 돌아간 영상에 맞게 로테이션된 명령으로 수정한다.The driving command correction unit 201 corrects the actually collected driving command into a command rotated to match the randomly returned image.

구동명령 생성부(207)는 선택된 영상데이터를 입력받아 특징을 추출하여 입력영상의 표적위치 및 표적정보를 학습시키고 유도탄의 구동명령을 생성한다.The driving command generating unit 207 receives the selected image data, extracts features, learns the target position and target information of the input image, and generates a driving command for the guided missile.

구동명령 생성부(207)는 CNN네트워크를 통해서 구동 명령을 출력한다.The driving command generating unit 207 outputs a driving command through the CNN network.

이후, 구동명령 비교부(209)에서는 실제 구동 명령과 CNN을 통해 나온 구동명령을 비교한다.Thereafter, the driving command comparison unit 209 compares the actual driving command with the driving command issued through CNN.

즉, 구동명령 수정부(201)에서 조정된 구동명령과 구동명령 생성부(207)에서 생성된 구동명령을 비교하여 오차데이터를 추출한다.That is, error data is extracted by comparing the driving command adjusted by the driving command correction unit 201 and the driving command generated by the driving command generating unit 207 .

구동명령 비교부(209)에서 추출된 오차데이터를 기반으로 가중치 계산부(211)에서는 가중치를 계산하여 구동명령 생성부로 전달하고, 구동명령 생성부(207)는 가중치 계산부(211)로부터 전달된 가중치를 활용하여 생성된 구동명령을 갱신한다.Based on the error data extracted from the drive command comparison unit 209 , the weight calculation unit 211 calculates and transmits the weights to the drive command generation unit, and the drive command generation unit 207 transmits the weights transmitted from the weight calculation unit 211 . The generated driving command is updated by using the weight.

한편, 구동명령 생성부(207)는 본 발명의 일실시예에 따르면, 컨볼루셔널 뉴럴 네트워크(CNN: Convolutional Neural Network)로 구현될 수도 있다. 즉, 컨볼루셔널 레이어(Convolutional Layer)를 이용하여 영상데이터에서 표적에 해당되는 특징을 추출하고, 상기 추출된 특징 값을 뉴럴 네트워크(Neural Network)를 이용하여 분류한 후, 구동명령을 생성한다. Meanwhile, the driving command generator 207 may be implemented as a convolutional neural network (CNN) according to an embodiment of the present invention. That is, a feature corresponding to a target is extracted from image data using a convolutional layer, and the extracted feature value is classified using a neural network, and then a driving command is generated.

컨볼루셔널 레이어는 앞에서 설명한 바와 같이 입력 데이타로부터 특징을 추출하는 역할을 한다. 컨볼루셔널 레이어는 특징을 추출하는 기능을 하는 필터(Filter)와, 이 필터의 값을 비선형 값으로 바꾸어 주는 액티베이션 함수(Activiation 함수)로 이루어지며, 컨볼루셔널 필터와 액티베이션 함수 및 풀링 레이어를 반복적으로 조합하여 특징을 추출한다. 컨볼루셔널 레이어에서 특징이 추출이 되었으면, 추출된 특징 값을 뉴럴 네트워크(인공 신경 지능망)에 입력하여 분류를 한다.The convolutional layer serves to extract features from the input data as described above. The convolutional layer consists of a filter that extracts features, and an activation function that converts the filter value into a nonlinear value. combined to extract features. After the feature is extracted from the convolutional layer, the extracted feature value is input to a neural network (artificial neural intelligence network) for classification.

도 3은 컨볼루셔널 뉴럴 네트워크의 표적위치 학습 방법을 설명하기 위한 참고도이다.3 is a reference diagram for explaining a method for learning a target position of a convolutional neural network.

도시된 바와 같이, CNN은 이미지의 특징을 추출하는 영역(Feature extraction)과 클래스를 분류하는 영역(Classification)으로 나눌 수 있다.As shown, the CNN can be divided into an area for extracting features of an image (Feature extraction) and an area for classifying a class (Classification).

특징 추출 영역은 Convolution Layer와 Pooling Layer를 여러 겹 쌓는 형태로 구성된다. Convolution Layer는 입력 데이터에 필터를 적용 후 활성화 함수를 반영하는 필수 요소이며, Convolution Layer 다음에 위치하는 Pooling Layer는 선택적인 레이어에 해당된다. CNN 마지막 부분에는 이미지 분류를 위한 Fully Connected 레이어가 추가된다. 이미지의 특징을 추출하는 부분과 이미지를 분류하는 부분 사이에는 이미지 형태의 데이터를 배열 형태로 만드는 Flatten 레이어가 위치한다. 도시된 바와 같이, CNN은 이미지 특징 추출을 위하여 입력데이터를 필터가 순회하며 합성곱을 계산하고, 그 계산 결과를 이용하여 Feature map을 만든다. Convolution Layer는 Filter 크기, Stride, Padding 적용 여부, Max Pooling 크기에 따라서 출력 데이터의 Shape이 변경된다.The feature extraction area is composed of several layers of Convolution Layer and Pooling Layer. The Convolution Layer is an essential element that reflects the activation function after applying a filter to the input data, and the Pooling Layer located after the Convolution Layer is an optional layer. At the end of the CNN, a Fully Connected layer for image classification is added. Between the part that extracts the features of the image and the part that classifies the image, there is a flatten layer that makes the data in the form of an image into an array. As shown, in CNN, a filter traverses input data for image feature extraction, calculates convolution, and uses the calculation result to create a feature map. In the Convolution Layer, the shape of the output data is changed according to the filter size, stride, whether padding is applied, and the max pooling size.

한편, 가중치 계산부(211)는 본 발명의 일실시예에 따르면, 오차 역전파법(backpropagation) 알고리즘을 이용하여 가중치를 계산할 수 있다.Meanwhile, according to an embodiment of the present invention, the weight calculator 211 may calculate a weight using an error backpropagation algorithm.

역전파 알고리즘은 input과 output을 알고 있는 상태에서 신경망을 학습시키는 방법으로, 결과값을 통해서 다시 역으로 input 방향으로 오차를 다시 보내어 가중치를 재업데이트 하는 것이다.The backpropagation algorithm is a method of learning a neural network with the input and output known, and it re-updates the weight by sending an error back to the input direction through the result value again.

도 4는 본 발명의 일실시예에 따른 미사일 유도명령 학습 시스템의 동작을 순차적으로 도시한 순서도이다.4 is a flowchart sequentially illustrating the operation of the missile guidance command learning system according to an embodiment of the present invention.

우선, 탐색기로부터 생성된 영상정보와, 유도탄의 유도조종 방향을 구동장치로 전달하기 위한 구동명령을 수집한다(S401, S403).First, the image information generated from the searcher and the driving command for transmitting the guided control direction of the guided missile to the driving device are collected (S401, S403).

이후, 표적정보를 입력받아서, 상기 수집된 영상정보에서 표적의 위치를 설정하고 영상 데이터를 전처리한다(S405). 영상 데이터의 전처리를 위하여 입력되는 표적정보는 표적의 예상 ROI(Region of Interest), 표적 거리에 따른 예상온도, 표적까지의 거리정보를 포함하며, 표적의 예상 ROI를 기반으로 영상정보 수집부(32)로부터 수신한 영상 내에서 표적의 위치정보를 설정하고, 표적 거리에 따른 예상온도 및 표적까지의 거리정보를 기반으로 영상의 픽셀값을 보정한다.Thereafter, the target information is received, the position of the target is set in the collected image information, and the image data is pre-processed (S405). Target information input for image data pre-processing includes the expected ROI (Region of Interest) of the target, the expected temperature according to the target distance, and distance information to the target, and based on the expected ROI of the target, the image information collecting unit 32 ), sets the position information of the target in the image received from the ), and corrects the pixel value of the image based on the expected temperature according to the target distance and the distance to the target information.

전처리된 다수의 영상 데이터들 중 임의의 영상 데이터를 선택한다(S407). 한편, 선택된 영상 데이터를 기반으로 상기 수집된 구동명령을 조정한다(S409).Random image data is selected from among a plurality of pre-processed image data (S407). Meanwhile, the collected driving command is adjusted based on the selected image data (S409).

이후, 선택된 영상 데이터에서 특징을 추출하여 표적위치 및 표적정보를 학습시키고(S411), 이를 통해서 유도탄의 구동명령을 생성한다(S413).Thereafter, by extracting features from the selected image data, the target position and target information are learned (S411), and a driving command of the guided missile is generated through this (S413).

구동명령 생성을 위한 기계학습은 본 발명의 일실시예에 따르면, 컨볼루셔널 뉴럴 네트워크(CNN: Convolutional Neural Network)로 구현될 수도 있다. 즉, 컨볼루셔널 레이어(Convolutional Layer)를 이용하여 영상데이터에서 표적에 해당되는 특징을 추출하고, 상기 추출된 특징 값을 뉴럴 네트워크(Neural Network)를 이용하여 분류한 후, 구동명령을 생성한다. According to an embodiment of the present invention, machine learning for generating a driving command may be implemented as a convolutional neural network (CNN). That is, a feature corresponding to a target is extracted from image data using a convolutional layer, and the extracted feature value is classified using a neural network, and then a driving command is generated.

구동명령이 생성되면, 실제 수집된 구동명령을 조정한 구동명령과 상기 생성된 구동명령을 비교하고(S415), 오차데이터를 추출하여 가중치를 계산한다(S417).When the driving command is generated, the actual collected driving command is compared with the generated driving command (S415), and the error data is extracted to calculate a weight (S417).

본 발명의 일실시예에 따르면, 가중치 계산은 오차 역전파법(backpropagation) 알고리즘을 이용할 수 있다.According to an embodiment of the present invention, the weight calculation may use an error backpropagation algorithm.

이후, 계산된 가중치를 기반으로 생성된 구동명령을 갱신한다.Thereafter, the generated driving command is updated based on the calculated weight.

도 5는 본 발명의 일실시예에 따른 미사일 유도명령 학습 시스템의 인공 신경망 구조를 나타낸 것이다.Figure 5 shows the artificial neural network structure of the missile guidance command learning system according to an embodiment of the present invention.

도 5에 나타난 바와 같이, 컨볼루션 신경망(Convolutional Neural Network, CNN)을 이용하는 것이 바람직하며, 컨볼루션 연산을 수행하는 제1 레이어, 제3 레이어 및 제 5레이어를 포함한다.As shown in FIG. 5 , it is preferable to use a convolutional neural network (CNN), and includes a first layer, a third layer, and a fifth layer for performing a convolution operation.

구체적으로, 제1 단계에서 제1 레이어는 컨볼루션(Convolution) 연산을 수행하며, 20x20 filter, 5 channel, stride 5를 포함한다.Specifically, in the first step, the first layer performs a convolution operation, and includes a 20x20 filter, 5 channels, and 5 stride.

제2 단계에서 제2 레이어는 Max Pooling 연산을 수행하며, 5x3 filter, 1channel, stride 5를 포함한다.In the second step, the second layer performs a Max Pooling operation and includes a 5x3 filter, 1channel, and stride 5.

제3 단계에서 제3 레이어는 컨볼루션(Convolution) 연산을 수행하며, 5x5 filter, 1channel, stride 1을 포함한다.In the third step, the third layer performs a convolution operation, and includes a 5x5 filter, 1 channel, and stride 1.

제4 단계에서 제4 레이어는 Average Pooling 연산을 수행하며, 3x3 filter, 1 channel, stride 2를 포함한다.In the fourth step, the fourth layer performs an average pooling operation, and includes a 3x3 filter, 1 channel, and stride 2.

제5 단계에서 제5 레이어는 컨볼루션(Convolution) 연산을 수행하며, 5x5 filter, 1channel, stride 1를 포함한다.In the fifth step, the fifth layer performs a convolution operation and includes a 5x5 filter, 1 channel, and stride 1.

이후, 제6 단계, 제7 단계에서 full connection을 수행하고, After that, performing full connection in steps 6 and 7,

제8 단계에서 output 레이어가 위치한다.In step 8, the output layer is located.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.Even if all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, although all of the components may be implemented as one independent hardware, some or all of the components are selectively combined to perform some or all of the functions of one or a plurality of hardware programs It may be implemented as a computer program having In addition, such a computer program is stored in a computer readable media such as a USB memory, a CD disk, a flash memory, etc., read and executed by a computer, thereby implementing the embodiment of the present invention. The computer program recording medium may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined in the detailed description. Commonly used terms such as terms defined in the dictionary should be interpreted as being consistent with the contextual meaning of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions are possible within the range that does not depart from the essential characteristics of the present invention by those of ordinary skill in the art to which the present invention pertains. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings. . The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10: 구동명령 수신부
20: 영상 탐색부
30: 구동명령/영상 수신부
100: 유도데이터 획득 장치
200: 미사일 유도명령 학습 시스템
10: drive command receiving unit
20: image search unit
30: drive command / image receiving unit
100: induction data acquisition device
200: missile guidance command learning system

Claims (10)

탐색기로부터 생성된 영상정보를 수집하는 영상정보 수집부;
표적정보를 입력받아서 상기 영상정보 수집부로부터 수집된 영상정보에서 표적의 위치를 설정하고 영상 데이터를 전처리하는 전처리부;
전처리된 다수의 영상데이터들 중 임의의 영상데이터를 선택하는 영상데이터 선택부; 및
선택된 영상데이터를 입력받아 특징을 추출하여 입력영상의 표적위치 및 표적정보를 학습시키고 유도탄의 구동명령을 생성하는 구동명령 생성부를 포함하며,
상기 표적정보는, 표적의 예상 ROI(Region of Interest), 표적 거리에 따른 예상온도, 표적까지의 거리정보를 포함하는 것을 특징으로 하는 미사일 유도명령 학습시스템.
an image information collection unit that collects image information generated from the searcher;
a pre-processing unit for receiving target information, setting a position of a target in the image information collected from the image information collecting unit, and pre-processing the image data;
an image data selection unit for selecting arbitrary image data from among a plurality of pre-processed image data; and
and a driving command generating unit that receives the selected image data and extracts features to learn the target position and target information of the input image and generates a driving command for the guided missile,
The target information is a missile guidance command learning system, characterized in that it includes an expected ROI (Region of Interest) of the target, an expected temperature according to the target distance, and distance information to the target.
제1항에 있어서,
상기 영상정보 수집부는, 좌측 탐색기의 영상, 중간 탐색기의 영상 및 우측 탐색기의 영상을 입력하는 것을 특징으로 하는 미사일 유도명령 학습시스템.
According to claim 1,
The image information collecting unit, missile guidance command learning system, characterized in that the input of the image of the left searcher, the image of the middle searcher, and the image of the right searcher.
제1항에 있어서,
유도탄의 유도조종 방향을 구동장치로 전달하기 위한 구동명령을 수집하는 구동명령 수집부;
상기 구동명령 수집부에서 수집된 구동명령을 입력받고, 상기 영상데이터 선택부에서 임의로 선택된 영상에 대응되는 구동명령으로 상기 수집된 구동명령을 조정하는 구동명령 수정부; 및
상기 구동명령 수정부에서 조정된 구동명령과 상기 구동명령 생성부에서 생성된 구동명령을 비교하여 오차데이터를 추출하는 구동명령 비교부;를 더 포함하는 미사일 유도명령 학습시스템.
According to claim 1,
a driving command collecting unit for collecting a driving command for transmitting the guided control direction of the guided missile to the driving device;
a driving command modifying unit receiving the driving command collected by the driving command collecting unit and adjusting the collected driving command to a driving command corresponding to an image arbitrarily selected by the image data selecting unit; and
A missile guidance command learning system further comprising a; a drive command comparison unit for extracting error data by comparing the drive command adjusted by the drive command correction unit and the drive command generated by the drive command generation unit.
제3항에 있어서,
상기 구동명령 비교부에서 추출된 오차데이터를 기반으로 가중치를 계산하여 상기 구동명령 생성부로 전달하는 가중치 계산부;를 더 포함하는 미사일 유도명령 학습시스템.
4. The method of claim 3,
Missile guidance command learning system further comprising a; weight calculation unit that calculates a weight based on the error data extracted from the drive command comparison unit and transmits it to the drive command generation unit.
제4항에 있어서,
상기 구동명령 생성부는 상기 가중치 계산부로부터 전달된 가중치를 수신하여 상기 생성된 구동명령을 갱신하는 것을 특징으로 하는 미사일 유도명령 학습시스템.
5. The method of claim 4,
The drive command generating unit receives the weight transmitted from the weight calculation unit and updates the generated drive command.
삭제delete 제1항에 있어서, 상기 전처리부는,
상기 표적의 예상 ROI를 기반으로 상기 영상정보 수집부로부터 수신한 영상 내에서 표적의 위치정보를 설정하고,
상기 표적 거리에 따른 예상온도 및 표적까지의 거리정보를 기반으로 영상의 픽셀값을 보정하는 것을 특징으로 하는 미사일 유도명령 학습시스템.
According to claim 1, wherein the pre-processing unit,
setting the location information of the target in the image received from the image information collecting unit based on the expected ROI of the target,
Missile guidance command learning system, characterized in that correcting the pixel value of the image based on the estimated temperature according to the target distance and distance to the target information.
제1항에 있어서, 상기 구동명령 생성부는,
컨볼루셔널 레이어(Convolutional Layer)를 이용하여 영상데이터에서 표적에 해당되는 특징을 추출하고, 상기 추출된 특징 값을 뉴럴 네트워크(Neural Network)를 이용하여 분류한 후, 구동명령을 생성하는 것을 특징으로 하는 미사일 유도명령 학습시스템.
The method of claim 1, wherein the driving command generator comprises:
Extracting a feature corresponding to a target from image data using a convolutional layer, classifying the extracted feature value using a neural network, and generating a driving command missile guidance command learning system.
제4항에 있어서, 상기 가중치 계산부는,
오차 역전파법(backpropagation) 알고리즘을 이용하여 가중치를 계산하는 것을 특징으로 하는 미사일 유도명령 학습시스템.
5. The method of claim 4, wherein the weight calculator comprises:
Missile guidance command learning system, characterized in that the weight is calculated using an error backpropagation algorithm.
제1항에 있어서,
상기 수집된 영상은 적외선 영상방식으로 생성된 영상정보인 것을 특징으로 하는 미사일 유도명령 학습시스템.
According to claim 1,
The collected image is a missile guidance instruction learning system, characterized in that the image information generated by the infrared image method.
KR1020200068247A 2020-06-05 2020-06-05 Machine-learning system for operating guided missiles KR102308075B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200068247A KR102308075B1 (en) 2020-06-05 2020-06-05 Machine-learning system for operating guided missiles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200068247A KR102308075B1 (en) 2020-06-05 2020-06-05 Machine-learning system for operating guided missiles

Publications (1)

Publication Number Publication Date
KR102308075B1 true KR102308075B1 (en) 2021-10-01

Family

ID=78115303

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200068247A KR102308075B1 (en) 2020-06-05 2020-06-05 Machine-learning system for operating guided missiles

Country Status (1)

Country Link
KR (1) KR102308075B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190112378A (en) * 2018-03-26 2019-10-07 삼성전자주식회사 Image segmentation method, image segmentation device, and learning method ofimage segmentation
KR102077597B1 (en) * 2019-08-20 2020-02-14 주식회사 한화 Anti-air tracking device and operation method of the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190112378A (en) * 2018-03-26 2019-10-07 삼성전자주식회사 Image segmentation method, image segmentation device, and learning method ofimage segmentation
KR102077597B1 (en) * 2019-08-20 2020-02-14 주식회사 한화 Anti-air tracking device and operation method of the same

Similar Documents

Publication Publication Date Title
US11074470B2 (en) System and method for automatically improving gathering of data using a data gathering device
KR102349854B1 (en) System and method for tracking target
KR102392822B1 (en) Device of object detecting and tracking using day type camera and night type camera and method of detecting and tracking object
CN103348667A (en) Image-capturing device, image-capturing method, and program
KR102210404B1 (en) Location information extraction device and method
KR102308075B1 (en) Machine-learning system for operating guided missiles
KR102308074B1 (en) Machine-learning method for operating guided missiles
KR102127657B1 (en) Method of artifical intelligence target learning and target identification for next generation naval ship using digital twin
CN115376213A (en) Training of living body detection network and living body detection method, device, equipment and medium
US11182672B1 (en) Optimized focal-plane electronics using vector-enhanced deep learning
Downes Lunar orbiter state estimation using neural network-based crater detection
Meszmer et al. AI surrogate models for error analysis in optical systems
KR20200143815A (en) Artificial intelligence camera system, method of transforming image therein, and computer-readable medium
Khari et al. Person identification in UAV shot videos by using machine learning
CN117808685B (en) Method and device for enhancing infrared image data
KR102361218B1 (en) Guided weapon, guided weapon system, and method of identifying and tracking target
EP4064126B1 (en) Methods for training and testing perception network by using images obtained from multiple imaging devices having diverse specifications and learning device and testing device using the same
US11928836B2 (en) Electronic device having NPU and mounted in moving or fixed apparatus
Cruz et al. How to add new knowledge to already trained deep learning models applied to semantic localization
KR102489641B1 (en) Method and Apparatus for Controlling Guided Weapons Through Temperature Compensation Based Target Extraction
CN113642353B (en) Training method of face detection model, storage medium and terminal equipment
Dubetsky et al. Military Uniform Identification for Search And Rescue (SAR) through Machine Learning
KR102407206B1 (en) Method and Apparatus for Extracting Target According to Target Distance
Bhuiyan et al. A Simple Deep Learning Network for Target Classification
WO2023109319A1 (en) Systems and methods for crop disease diagnosis

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant