KR102494978B1 - Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning - Google Patents

Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning Download PDF

Info

Publication number
KR102494978B1
KR102494978B1 KR1020210056682A KR20210056682A KR102494978B1 KR 102494978 B1 KR102494978 B1 KR 102494978B1 KR 1020210056682 A KR1020210056682 A KR 1020210056682A KR 20210056682 A KR20210056682 A KR 20210056682A KR 102494978 B1 KR102494978 B1 KR 102494978B1
Authority
KR
South Korea
Prior art keywords
target
fire control
maneuver
impact point
analysis
Prior art date
Application number
KR1020210056682A
Other languages
Korean (ko)
Other versions
KR20220149264A (en
Inventor
박명훈
김현승
전우중
김상현
유성현
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020210056682A priority Critical patent/KR102494978B1/en
Publication of KR20220149264A publication Critical patent/KR20220149264A/en
Application granted granted Critical
Publication of KR102494978B1 publication Critical patent/KR102494978B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • F41H11/02Anti-aircraft or anti-guided missile or anti-torpedo defence installations or systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A27/00Gun mountings permitting traversing or elevating movement, e.g. gun carriages
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G5/00Elevating or traversing control systems for guns
    • F41G5/06Elevating or traversing control systems for guns using electric means for remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

딥러닝을 이용한 근접 방어 시스템의 사격 통제 방법 및 그를 위한 장치를 개시한다.
본 발명의 실시예에 따른 근접 방어 시스템의 사격 통제 방법은, 표적을 탐지 및 추적하여 획득된 표적 기동 데이터를 저장하고, 저장된 상기 표적 기동 데이터를 이용하여 표적 정보를 획득하기 위한 표적 기동 분석 모델을 생성하는 표적 기동 분석 단계; 표적에 대한 사격 데이터를 저장하고, 저장된 상기 사격 데이터를 이용하여 탄의 궤적 및 탄착점을 획득하기 위한 사격 통제 분석 모델을 생성하는 사격 통제 분석 단계; 상기 표적 기동 분석 모델 및 상기 사격 통제 분석 모델을 기반으로 생성된 근접 방어 분석 모델을 이용하여 상기 탄의 격추 여부에 대한 요격 결과를 산출하고, 상기 요격 결과를 딥러닝 학습 처리하는 근접 방어 분석 단계; 및 상기 요격 결과에 대한 학습 결과를 기반으로 사격 통제를 위한 요격 설정을 수행하는 요격 설정 제어단계를 포함할 수 있다.
Disclosed is a fire control method of a proximity defense system using deep learning and a device therefor.
A fire control method of a proximity defense system according to an embodiment of the present invention stores target maneuver data obtained by detecting and tracking a target, and uses a target maneuver analysis model for acquiring target information using the stored target maneuver data. generating a target maneuver analysis step; a fire control analysis step of storing shooting data for a target and generating a fire control analysis model for obtaining a trajectory and an impact point of a bullet using the stored shooting data; a proximity defense analysis step of calculating an interception result on whether or not the bullet is shot down using a proximity defense analysis model generated based on the target maneuver analysis model and the fire control analysis model, and deep learning-processing the interception result; and an interception setting control step of performing an interception setting for fire control based on a learning result of the interception result.

Figure R1020210056682
Figure R1020210056682

Description

딥러닝을 이용한 근접 방어 시스템의 사격 통제 방법 및 그를 위한 장치{Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning}Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning

본 발명은 딥러닝을 이용하여 근접 방어 시스템의 사격을 통제하는 방법 및 그를 위한 장치에 관한 것이다.The present invention relates to a method for controlling fire of a proximity defense system using deep learning and an apparatus therefor.

이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section simply provide background information on the embodiments of the present invention and do not constitute prior art.

근접방어무기체계는 자함 방어에 있어서 최후의 방어 수단으로 표적과 매우 근접한 거리에서 운용한다. 체계 성능을 확인하기 위해서는 실존하는 고속의 표적을 날려 요격하는 시험을 수행해야 하는데 비용/안전성 등 많은 한계가 있어 다수의 시험 수행이 어렵다. The close-in defense weapon system is operated at a very close distance from the target as the last defense method in self-ship defense. In order to check the performance of the system, it is necessary to conduct a test of intercepting a high-speed target by flying it, but it is difficult to perform multiple tests due to many limitations such as cost / safety.

기존의 대응 방식은 표적에 대해 현재 획득된 레이다/광학장치의 탐지 결과를 활용하여 사격하게 된다. 이러한 방식으로는 고기동 표적에 대해서 사격 통제 알고리즘을 통해 명중률을 높이는 것이 쉽지 않다. Existing countermeasures shoot using the currently acquired detection result of the radar/optical device for the target. In this way, it is not easy to increase the accuracy of a high-mobility target through a fire control algorithm.

본 발명은 M&S(modeling & simulation) 분석 프로세스 및 딥러닝 학습을 통해 근접 방어 시스템(close-in weapon system, CIWS)의 성능(명중률, 격추율 등)을 향상시키기 위한 사격 통제를 수행하는 딥러닝을 이용한 근접 방어 시스템의 사격 통제 방법 및 그를 위한 장치를 제공하는 데 주된 목적이 있다.The present invention provides deep learning that performs fire control to improve the performance (accuracy rate, kill rate, etc.) of a close-in weapon system (CIWS) through M&S (modeling & simulation) analysis process and deep learning learning. The main purpose is to provide a fire control method of the used proximity defense system and a device therefor.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other non-specified objects of the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.

본 발명의 일 측면에 의하면, 상기 목적을 달성하기 위한 근접 방어 시스템의 사격 통제 방법은, 표적을 탐지 및 추적하여 획득된 표적 기동 데이터를 저장하고, 저장된 상기 표적 기동 데이터를 이용하여 표적 정보를 획득하기 위한 표적 기동 분석 모델을 생성하는 표적 기동 분석 단계; 표적에 대한 사격 데이터를 저장하고, 저장된 상기 사격 데이터를 이용하여 탄의 궤적 및 탄착점을 획득하기 위한 사격 통제 분석 모델을 생성하는 사격 통제 분석 단계; 상기 표적 기동 분석 모델 및 상기 사격 통제 분석 모델을 기반으로 생성된 근접 방어 분석 모델을 이용하여 상기 탄의 격추 여부에 대한 요격 결과를 산출하고, 상기 요격 결과를 딥러닝 학습 처리하는 근접 방어 분석 단계; 및 상기 요격 결과에 대한 학습 결과를 기반으로 사격 통제를 위한 요격 설정을 수행하는 요격 설정 제어단계를 포함할 수 있다. According to one aspect of the present invention, a fire control method of a proximity defense system for achieving the above object includes storing target maneuver data obtained by detecting and tracking a target, and acquiring target information using the stored target maneuver data. A target maneuver analysis step of generating a target maneuver analysis model for; a fire control analysis step of storing shooting data for a target and generating a fire control analysis model for obtaining a trajectory and an impact point of a bullet using the stored shooting data; a proximity defense analysis step of calculating an interception result on whether or not the bullet is shot down using a proximity defense analysis model generated based on the target maneuver analysis model and the fire control analysis model, and deep learning-processing the interception result; and an interception setting control step of performing an interception setting for fire control based on a learning result of the interception result.

또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 사격 통제 장치는, 표적을 탐지 및 추적하여 획득된 기동 데이터를 저장하고, 저장된 상기 기동 데이터를 이용하여 기동 특성을 획득하기 위한 표적 기동 분석 모델을 생성하는 표적 기동 분석부; 표적에 대한 사격 데이터를 저장하고, 저장된 상기 사격 데이터를 이용하여 탄의 궤적 및 탄착점을 획득하기 위한 사격 통제 분석 모델을 생성하는 사격 통제 분석부; 상기 표적 기동 분석 모델 및 상기 사격 통제 분석 모델을 기반으로 상기 탄의 격추 여부에 대한 요격 결과를 산출하고, 상기 요격 결과를 딥러닝 학습 처리하는 근접 방어 분석부; 및 상기 요격 결과에 대한 학습 결과를 기반으로 사격 통제를 위한 요격 설정을 수행하는 요격 설정 제어부를 포함할 수 있다. In addition, according to another aspect of the present invention, a fire control device for achieving the above object stores maneuver data obtained by detecting and tracking a target, and maneuvers the target for acquiring maneuver characteristics using the stored maneuver data. a target maneuver analysis unit generating an analysis model; a fire control analysis unit that stores shooting data for a target and generates a fire control analysis model for obtaining a trajectory and an impact point of a bullet using the stored shooting data; a proximity defense analysis unit calculating an interception result on whether or not the bullet was shot down based on the target maneuver analysis model and the fire control analysis model, and processing the interception result through deep learning; and an interception setting controller configured to perform interception setting for fire control based on a learning result of the interception result.

이상에서 설명한 바와 같이, 본 발명은 실제 무기체계의 데이터를 정량화하여 분석하고 딥러닝 알고리즘을 적용하여 체계의 신뢰성을 높임으로써 비용을 절감하고 안전성을 확보할 수 있는 효과가 있다. As described above, the present invention has the effect of reducing cost and securing safety by quantifying and analyzing data of an actual weapon system and increasing reliability of the system by applying a deep learning algorithm.

또한, 본 발명은 실제 무기체계의 데이터를 정량화하여 분석하고 딥러닝 알고리즘을 적용함으로써, 근접방어무기체계의 성능을 예측 및 분석할 수 있고, 근접 방어 무기 시스템의 사격 통제를 제어하여 요격 성능을 향상시킬 수 있는 효과가 있다. In addition, the present invention can predict and analyze the performance of a melee defense weapon system by quantifying and analyzing actual weapon system data and applying a deep learning algorithm, and improves interception performance by controlling fire control of the melee defense weapon system. There are effects that can be done.

또한, 본 발명은 M&S(modeling & simulation) 분석 프로세스의 실제 측정 데이터를 이용하여 딥러닝 학습을 처리하여 분석 결과와 실제 체계 성능 테스트를 통해 지속적인 업데이트로 신뢰성을 높일 수 있다는 효과가 있다.In addition, the present invention has an effect of increasing reliability by continuously updating through analysis results and actual system performance tests by processing deep learning learning using actual measurement data of a modeling & simulation (M&S) analysis process.

도 1은 본 발명의 실시예에 따른 사격 통제 장치를 개략적으로 나타낸 블록 구성도이다.
도 2는 본 발명의 실시예에 따른 사격 통제 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 사격 통제 장치의 사격 통제 동작에 따른 요격 수행 결과를 나타낸 예시도이다.
도 4는 본 발명의 실시예에 따른 사격 통제 데이터베이스를 최신화하는 동작을 설명하기 위한 예시도이다.
도 5는 본 발명의 실시예에 따른 사격 통제 M&S 결과를 나타낸 예시도이다.
도 6은 본 발명의 실시예에 따른 표적 기동 M&S 결과를 나타낸 예시도이다.
도 7은 본 발명의 실시예에 따른 요격 설정 제어에 따른 사격 통제 결과를 나타낸 예시도이다.
도 8는 본 발명의 실시예에 따른 사격 통제 방법을 설명하기 위한 순서도이다.
1 is a schematic block diagram of a fire control device according to an embodiment of the present invention.
2 is a diagram for explaining a fire control method according to an embodiment of the present invention.
3 is an exemplary view showing the result of interception performance according to the fire control operation of the fire control device according to an embodiment of the present invention.
4 is an exemplary diagram for explaining an operation of updating a fire control database according to an embodiment of the present invention.
5 is an exemplary view showing a fire control M&S result according to an embodiment of the present invention.
6 is an exemplary view showing a target maneuver M&S result according to an embodiment of the present invention.
7 is an exemplary view showing a fire control result according to intercept setting control according to an embodiment of the present invention.
8 is a flowchart illustrating a fire control method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms, only the present embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

본 명세서에서 "제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.In this specification, terms such as "first" and "second" are used to distinguish one component from another component, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

본 명세서에서 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In this specification, identification codes (eg, a, b, c, etc.) for each step are used for convenience of explanation, and identification codes do not describe the order of each step, and each step is clearly Unless a specific order is specified, it may occur in a different order from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 명세서에서, "가진다", "가질 수 있다", "포함한다" 또는 "포함할 수 있다"등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this specification, expressions such as "has", "may have", "includes" or "may include" indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). indicated, and does not preclude the presence of additional features.

또한, 본 명세서에 기재된 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터 구조들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.In addition, the term '~unit' described in this specification means software or a hardware component such as a field-programmable gate array (FPGA) or ASIC, and '~unit' performs certain roles. However, '~ part' is not limited to software or hardware. '~bu' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Therefore, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data structures and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'.

근접 방어 시스템은 함정에 접근해 오는 표적을 무력화시키는 최후의 방어 체계이다. 표적으로는 대공, 대함, 미사일 등이 있으며 특히 Sea-Skimmer와 같은 대함 미사일이 주요 방어 대상이다. 미사일의 경우 속도가 빠르고 시험을 하기 어려워 이를 대상으로 하는 무기 체계 개발 시 어려움이 따른다.Proximity defense system is the last defense system to neutralize the target approaching the trap. Targets include anti-aircraft, anti-ship, and missiles, especially anti-ship missiles such as the Sea-Skimmer. In the case of missiles, it is difficult to test them due to their high speed and difficulty in developing a weapon system targeting them.

본 발명은 근접 방어 시스템의 분석 및 시험의 어려움을 극복하기 위해, 근접 방어 시스템의 요격 성능(명중률, 격추율 등)을 M&S(modeling & simulation) 분석 프로세스 및 딥러닝 학습 프로세스를 통해 향상시킬 수 있다. M&S 분석 프로세스는 표적 기동에 대한 M&S 분석 과정, 사격 통제에 대한 M&S 분석 과정 및 요격 결과에 대한 M&S 분석 과정 등으로 이루어질 수 있다. 또한, 딥러닝 학습 프로세스는 최적의 요격 결과를 산출하기 위한 다양한 형태의 학습 방식이 적용될 수 있다. The present invention can improve the intercept performance (accuracy rate, shooting down rate, etc.) of the melee defense system through an M&S (modeling & simulation) analysis process and a deep learning learning process in order to overcome the difficulties of analysis and testing of the melee defense system. . The M&S analysis process may consist of an M&S analysis process for target maneuver, an M&S analysis process for fire control, and an M&S analysis process for interception results. In addition, various types of learning methods may be applied to the deep learning learning process to produce an optimal interception result.

이하에서는 도면들을 참조하여 본 발명에서 제안하는 딥러닝을 이용한 근접 방어 시스템의 사격 통제 방법 및 그를 위한 장치에 대해 자세하게 설명하기로 한다.Hereinafter, a fire control method of a proximity defense system using deep learning proposed in the present invention and a device therefor will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 사격 통제 장치를 개략적으로 나타낸 블록 구성도이다. 1 is a schematic block diagram of a fire control device according to an embodiment of the present invention.

본 실시예에 따른 근접 방어 시스템의 사격 통제 장치(100)는 표적 기동 분석부(110), 사격 통제 분석부(120), 근접 방어 분석부(130) 및 요격 설정 제어부(140)를 포함한다. 도 1의 사격 통제 장치(100)는 일 실시예에 따른 것으로서, 도 1에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 사격 통제 장치(100)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.The fire control apparatus 100 of the proximity defense system according to the present embodiment includes a target maneuver analysis unit 110, a fire control analysis unit 120, a proximity defense analysis unit 130, and an interception setting control unit 140. The fire control device 100 of FIG. 1 is according to an embodiment, and all blocks shown in FIG. 1 are not essential components, and some blocks included in the fire control device 100 in another embodiment are added or changed. or can be deleted.

사격 통제 장치(100)는 M&S(modeling & simulation) 분석 프로세스 및 딥러닝 학습을 통해 근접 방어 시스템(close-in weapon system, CIWS)의 성능(명중률, 격추율 등)을 향상시키기 위한 사격 통제를 수행한다. The fire control device 100 performs fire control to improve the performance (hit rate, shoot down rate, etc.) of a close-in weapon system (CIWS) through M&S (modeling & simulation) analysis process and deep learning learning. do.

구체적으로, 사격 통제 장치(100)는 근접 방어 시스템의 실제 데이터를 활용하여 M&S 분석 프로세스에 반영한다. 근접 방어 시스템에 포함된 체계의 기 설정된 이론과 실제 데이터가 반영된 M&S 분석 프로세스는 높은 신뢰성을 가지며 꾸준한 데이터 업데이트를 통해 최신화를 수행한다. 사격 통제 장치(100)는 M&S 분석 프로세스를 통해 저장된 많은 데이터를 딥러닝 학습 프로세스에 적용한다. 또한, 사격 통제 장치(100)는 기 설정된 기준에 대응하는 일정 데이터 양이 축척되면 M&S 분석 프로세스 자체적으로 신규 가상 데이터를 생성하고 딥러닝 학습을 수행할 수도 있다. Specifically, the fire control apparatus 100 utilizes actual data of the proximity defense system and reflects it in the M&S analysis process. The M&S analysis process, in which the preset theory and actual data of the system included in the proximity defense system are reflected, has high reliability and is updated through continuous data update. The fire control device 100 is A lot of data stored through the M&S analysis process is applied to the deep learning learning process. In addition, the fire control apparatus 100 may generate new virtual data by itself in the M&S analysis process and perform deep learning learning when a certain amount of data corresponding to a predetermined criterion is accumulated.

표적 기동 분석부(110)는 표적 기동에 대한 데이터 획득 및 분석을 수행한다. The target maneuver analysis unit 110 performs data acquisition and analysis on target maneuvers.

구체적으로, 표적 기동 분석부(110)는 표적을 탐지 및 추적하여 획득된 표적 기동 데이터를 저장하고, 저장된 상기 표적 기동 데이터를 이용하여 표적 정보를 획득하기 위한 표적 기동 분석 모델을 생성한다. Specifically, the target maneuver analysis unit 110 stores target maneuver data obtained by detecting and tracking a target, and generates a target maneuver analysis model for acquiring target information using the stored target maneuver data.

본 실시예에 따른 표적 기동 분석부(110)는 표적 기동 결과 저장부(112) 및 표적 기동 M&S 분석부(114)를 포함한다. The target maneuver analysis unit 110 according to this embodiment includes a target maneuver result storage unit 112 and a target maneuver M&S analyzer 114 .

표적 기동 결과 저장부(112)는 감시 체계를 통해 실제 측정된 데이터를 기반으로 표적을 탐지 및 추적하고, 적어도 하나의 표적에 대한 표적 기동 데이터를 획득하여 저장한다. The target maneuvering result storage unit 112 detects and tracks a target based on data actually measured through a monitoring system, and acquires and stores target maneuvering data for at least one target.

표적 기동 M&S 분석부(114)는 표적의 기동 특성에 따른 추력 모델, 연료 소모에 따른 질량 변화 모델 및 표적 기동 데이터를 반영한 자유도 운동 모델을 기반으로 표적 기동 분석 모델을 생성하고, 표적 기동 분석 모델을 통해 표적 정보를 획득한다. The target maneuver M&S analysis unit 114 generates a target maneuver analysis model based on a thrust model according to the maneuver characteristics of the target, a mass change model according to fuel consumption, and a DOF motion model reflecting target maneuver data, and the target maneuver analysis model Obtain target information through

구체적으로, 표적 기동 M&S 분석부(114)는 정해진 탐색 빔 스케쥴링에 따라 운용 중에 기동하고 있는 표적이 빔 안으로 들어오면, 레이다 성능 및 표적 특성에 따라 탐지 확률을 계산하고 포착 여부를 결정할 수 있다. 표적 기동 M&S 분석부(114)는 탐색에 포착된 표적 정보를 추적 레이다로 인계하여 추적을 시작할 수 있다. 이때, 표적 기동 M&S 분석부(114)는 아래의 [수학식 1]을 이용하여 센서 체계에 대한 M&S 분석을 수행할 수 있다.Specifically, the target maneuvering M&S analyzer 114 may calculate a detection probability according to radar performance and target characteristics and determine whether to acquire a target when a target maneuvering during operation according to predetermined search beam scheduling enters the beam. The target maneuvering M&S analysis unit 114 may start tracking by handing over the target information captured in the search to the tracking radar. At this time, the target maneuvering M&S analysis unit 114 may perform M&S analysis on the sensor system using [Equation 1] below.

Figure 112021050884732-pat00001
Figure 112021050884732-pat00001

여기서, Pd는 탐지 확률(probability of detection)을 나타낸다. N은 비코히어런트 집적 넘버(noncoherent integration number)를 나타낸다. Pfa는 오탐지율을 나타낸다. SNR은 신호 대 잡음 비를 나타낸다.Here, P d represents the probability of detection. N represents a noncoherent integration number. P fa represents the false positive rate. SNR represents the signal-to-noise ratio.

한편, 표적 기동 분석부(110)는 무기체계의 감시체계(레이다 등)의 데이터를 활용하여 실제 측정된 기동 결과를 활용하여 표적 기동 분석 모델을 구성한다. 이러한 표적 기동 분석 모델은 체계 정보(이론), 오차 등이 포함된 실제 측정 데이터를 기본으로 하였기 때문에 높은 신뢰성을 가진다. 표적 기동 분석 모델에서는 다음 과정 및 수식/이론 등으로 구성된 [수학식 2] 및 [수학식 3]에서 표적의 실제 측정되는 데이터를 활용하여 계수들을 업데이트하여 최신화한다.Meanwhile, the target maneuver analysis unit 110 constructs a target maneuver analysis model by utilizing the actually measured maneuver results by utilizing data of a weapon system monitoring system (radar, etc.). This target maneuver analysis model has high reliability because it is based on actual measurement data including systematic information (theory) and errors. In the target maneuver analysis model, the coefficients are updated and updated using the actual measured data of the target in [Equation 2] and [Equation 3] composed of the following process and equation/theory.

표적 기동 분석부(110)는 우선 표적의 직경, 길이, 제어타 형상 등의 물리적 형상, 고도, 속도에 따른 공력계수 산출을 통해 데이터 확보를 수행한다. 그리고, 표적 기동 분석부(110)는 [수학식 2]를 통해 표적 추진기관 특성을 반영하여 추력모델 구축 및 연료 소모에 따른 질량 변화를 모의한다.The target maneuver analysis unit 110 first performs data acquisition by calculating the aerodynamic coefficient according to the target's diameter, length, physical shape such as control rudder shape, altitude, and speed. Then, the target maneuver analysis unit 110 reflects the characteristics of the target propulsion engine through [Equation 2] to build a thrust model and simulate mass change according to fuel consumption.

Figure 112021050884732-pat00002
Figure 112021050884732-pat00002

여기서, Isp는 비추력 계수, m은 질량, tb는 연소 시간, te는 사출 소요시간을 나타내다. Here, I sp is the specific thrust coefficient, m is the mass, t b is the burning time, and t e is the required injection time.

이후 표적 기동 분석부(110)는 [수학식 3]을 통해 실제 표적 기동 측정 데이터를 반영한 6자유도 운동모델의 모의를 표적 기동 분석 모델에 최신화하여 유사 궤적(신규 표적에 대한 궤적)을 생성할 수 있다. Thereafter, the target maneuver analysis unit 110 updates the simulation of the 6 degree of freedom motion model reflecting the actual target maneuver measurement data through [Equation 3] to the target maneuver analysis model to generate a similar trajectory (trajectory for a new target) can do.

Figure 112021050884732-pat00003
Figure 112021050884732-pat00003

여기서, U,V,W는 표적 속도, P,Q,R은 표적 각 속도, I,J는 관성량, F,M은 표적에 작용하는 외력, 모멘트를 나타낸다. Here, U, V, and W denote target velocity, P, Q, and R denote target angular velocity, I, J denote inertia, and F and M denote external forces and moments acting on the target.

사격 통제 분석부(120)는 사격 통제에 대한 데이터 획득 및 분석을 수행한다. The fire control analyzer 120 acquires and analyzes fire control data.

사격 통제 분석부(120)는 표적에 대한 사격 데이터를 저장하고, 저장된 상기 사격 데이터를 이용하여 탄의 궤적 및 탄착점을 획득하기 위한 사격 통제 분석 모델을 생성한다. The fire control analyzer 120 stores shooting data for a target and creates a fire control analysis model for acquiring the trajectory and impact point of a bullet using the stored shooting data.

본 실시예에 따른 사격 통제 분석부(120)는 사격 시험 결과 저장부(122) 및 사격 통제 M&S 분석부(124)를 포함한다. The fire control analysis unit 120 according to the present embodiment includes a shooting test result storage unit 122 and a fire control M&S analysis unit 124.

사격 시험 결과 저장부(122)는 근접 방어 시스템의 사격 체계의 사격 시험에 대한 상기 사격 데이터를 획득하여 저장한다. The shooting test result storage unit 122 acquires and stores the shooting data for the shooting test of the shooting system of the proximity defense system.

사격 통제 M&S 분석부(124)는 기 저장된 기존 사격 데이터에 신규로 획득된 신규 사격 데이터를 업데이트하여 최신화된 사격 데이터를 이용하여 사격 통제 분석 모델을 생성하고, 사격 통제 분석 모델을 통해 탄의 궤적 및 탄착점을 획득한다. The fire control M&S analysis unit 124 updates the newly acquired new shooting data to the previously stored shooting data to create a fire control analysis model using the updated shooting data, and the fire control analysis model to determine the trajectory of the bullet and obtain an impact point.

구체적으로, 사격 통제 M&S 분석부(124)는 사격 통제에 대한 M&S 분석을 수행할 수 있다. 즉, 사격 통제 M&S 분석부(124)는 센서 체계 M&S 분석부(110)를 통해 탐지 및 추적된 표적 정보를 이용하여 방위각 구동 명령 및 고각 구동 명령을 산출할 수 있다.Specifically, the fire control M&S analysis unit 124 may perform M&S analysis on fire control. That is, the fire control M&S analysis unit 124 may calculate an azimuth drive command and an elevation drive command using target information detected and tracked through the sensor system M&S analyzer 110 .

그리고, 사격 통제 M&S 분석부(124)는 센서 체계 M&S 분석부(110)를 통해 탐지 및 추적된 표적 정보를 이용하여 도 3에 도시된 바와 같이, 조준점(predicted hitting point, PHP)을 계산할 수 있다.And, the fire control M&S analysis unit 124 may calculate a predicted hitting point (PHP) as shown in FIG. 3 using target information detected and tracked through the sensor system M&S analysis unit 110. .

그리고, 사격 통제 M&S 분석부(124)는 조준점을 기반으로 탄을 발사하고, 조준점을 기반으로 탄의 궤적을 획득할 수 있다.Also, the fire control M&S analyzer 124 may fire a bullet based on the aiming point and obtain a trajectory of the bullet based on the aiming point.

그리고, 사격 통제 M&S 분석부(124)는 탄의 궤적을 기반으로 탄의 탄착점(도 5 참조)을 획득할 수 있다. 탄의 궤적을 따라 발사된 탄은 탄의 형상 및 재질 등의 특성을 반영하여 비행하게 되며, 고유의 방위각 방향, 고각 방향의 분산을 가지게 되고, 이를 통해 탄의 최종적인 탄착점을 결절할 수 있다.Also, the fire control M&S analyzer 124 may acquire the point of impact of the bullet (see FIG. 5) based on the trajectory of the bullet. Bullets launched along the projectile trajectory reflect characteristics such as the shape and material of the projectile and fly, and have inherent dispersion in azimuth and elevation directions, through which the final impact point of the projectile can be determined.

이때, 사격 통제 M&S 분석부(124)는 아래의 [수학식 4]를 이용하여 사격 통제에 대한 M&S 분석을 수행할 수 있다.At this time, the fire control M&S analysis unit 124 may perform M&S analysis for fire control using [Equation 4] below.

Figure 112021050884732-pat00004
Figure 112021050884732-pat00004

여기서, tf는 비과 시간을 나타낸다. γ는 발사 각도를 나타낸다. x 및 y는 표적 위치를 나타낸다. t는 탄의 발사 후 경과 시간을 나타낸다. r은 표적 거리를 나타낸다. Rtarget은 표적 거리를 나타낸다. V0은 탄의 초기 속도를 나타낸다. θ는 표적 고각을 나타낸다. β는 항력 계수(0.087)를 나타낸다. v는

Figure 112021050884732-pat00005
이다. g는 중력 가속도를 나타낸다.Here, t f represents the elapsed time. γ represents the launch angle. x and y represent the target location. t represents the elapsed time after the shot is fired. r represents the target distance. R target represents the target distance. V 0 represents the initial velocity of the bullet. θ represents the target elevation. β represents the drag coefficient (0.087). v is
Figure 112021050884732-pat00005
am. g represents the gravitational acceleration.

한편, 사격 통제 분석부(120)는 실제 운용중인 근접방어무기체계 또는 동일/유사한 사격 체계의 사격 데이터를 기반으로 이론을 바탕으로 구성된 사격 통제 분석 모델에 실제 데이터를 이용하여 가공한다. 일정 조건하에 사격 시험을 수행하면 이를 감시 체계로 측정하여 데이터베이스화 한다. 데이터베이스화하여 저장된 데이터는 하나의 목표를 향해 발사한 조건에서 방위 및 고각으로 포구의 흔들림, 탄두 궤적 등을 포함한다. Meanwhile, the fire control analysis unit 120 uses actual data to process a fire control analysis model constructed based on theory based on shooting data of a close-in defense weapon system in actual operation or the same/similar shooting system. When a shooting test is performed under certain conditions, it is measured by a monitoring system and made into a database. Data stored in a database includes muzzle shake, warhead trajectory, etc. in azimuth and elevation under conditions of firing toward one target.

도 4를 참조하면, 사격 통제 분석부(120)는 사격 데이터를 획득하며, 사격 데이터는 트정 분포를 가진다. 사격 통제 분석부(120)는 과거(기존) 데이터베이스(도 4의 (a))에 신규 사격 데이터(도 4의 (b))를 업데이트하여 최신화하고, 최신화된 데이터베이스(도 4의 (c))를 사격 통제 분석 모델에 활용한다. 즉, 사격 통제 분석 모델은 모의 시 표적을 향해 발사한 포구의 조건을 통해 데이터베이스화된 탄의 궤적(방위 및 고각) 데이터를 활용한다.Referring to FIG. 4 , the fire control analyzer 120 acquires shooting data, and the shooting data has a peak distribution. The fire control analyzer 120 updates and updates new shooting data (Fig. 4(b)) to the old (existing) database (Fig. 4(a)), and updates the updated database (Fig. 4(c) )) is used in the fire control analysis model. That is, the fire control analysis model utilizes bullet trajectory (azimuth and elevation) data databased through the conditions of muzzle fired toward the target during simulation.

근접 방어 분석부(130)는 표적 기동 분석 모델 및 사격 통제 분석 모델을 기반으로 생성된 근접 방어 분석 모델을 이용하여 탄의 격추 여부에 대한 요격 결과를 산출하고, 요격 결과를 딥러닝 학습 처리한다. The proximity defense analysis unit 130 calculates an interception result on whether or not a bullet is shot down using the proximity defense analysis model generated based on the target maneuver analysis model and the fire control analysis model, and deep learning processes the interception result.

본 실시예에 따른 근접 방어 분석부(130)는 근접 방어 M&S 분석부(132) 및 모델 학습부(134)를 포함한다. The proximity defense analysis unit 130 according to the present embodiment includes a proximity defense M&S analysis unit 132 and a model learning unit 134.

근접 방어 M&S 분석부(132)는 탄착점 및 격추 가능 영역을 기반으로 탄의 격추 여부를 판단하여 요격 결과를 산출한다. The proximity defense M&S analysis unit 132 calculates an interception result by determining whether or not the bullet is shot down based on the impact point and the area where the shot can be shot down.

모델 학습부(134)는 표적 정보, 탄착점 및 요격 결과를 입력으로 딥러닝 학습을 처리하여, 요격 확률을 높이기 위한 표적 정보 및 탄착점을 최적화한 최종 학습 결과를 출력한다. The model learning unit 134 processes deep learning learning with target information, impact point, and intercept result as inputs, and outputs a final learning result in which target information and impact point are optimized to increase the probability of interception.

모델 학습부(134)는 하나의 표적에 대해 서로 다른 학습 결과를 산출하고, 이를 통해 최종 탄착점에 대한 최종 학습 결과를 출력할 수도 있다. 예를 들어, 모델 학습부(134)는 근접 방어 M&S 분석부(132)에 의해 산출된 요격 결과를 기반으로 제1 표적의 표적 정보에 연관된 적어도 하나의 탄착점 중 최적의 제1 탄착점을 추출하여 제1 학습 결과를 산출한다. 이후, 모델 학습부(134)는 제1 표적의 궤적과 기 설정된 범위 내에서 위치한 제2 표적의 표적 정보에 연관된 적어도 하나의 탄착점 중 최적의 제2 탄착점을 추출하여 제2 학습 결과를 산출한다. 이후, 모델 학습부(134)는 제1 학습 결과 및 제2 학습 결과 각각에 기 설정된 서로 다른 가중치를 부여하고, 제1 탄착점 및 상기 제2 탄착점을 기반으로 제1 표적에 대한 최종 탄착점을 산출하여 최종 학습 결과를 출력할 수 있다. The model learning unit 134 may calculate different learning results for one target and output a final learning result for the final impact point through the calculation. For example, the model learning unit 134 extracts an optimal first impact point among at least one impact point associated with target information of the first target based on the interception result calculated by the proximity defense M&S analysis unit 132, 1 Calculate learning outcomes. Thereafter, the model learning unit 134 calculates a second learning result by extracting an optimal second impact point from among at least one impact point associated with the trajectory of the first target and target information of a second target located within a preset range. Thereafter, the model learning unit 134 assigns preset different weights to each of the first learning result and the second learning result, calculates the final impact point for the first target based on the first impact point and the second impact point, The final learning result can be output.

근접 방어 M&S 분석부(132)는 명중/격추에 대한 M&S 분석을 수행할 수 있다.The melee defense M&S analysis unit 132 may perform M&S analysis on hit/kill.

즉, 근접 방어 M&S 분석부(132)는 사격 통제 M&S 분석부(124)를 통해 획득된 탄착점 및 격추 가능 영역을 기반으로 탄의 격추 여부에 대한 요격 결과를 판단할 수 있다.That is, the proximity defense M&S analyzer 132 may determine an interception result as to whether or not the bullet is shot down based on the impact point and the shootable area obtained through the fire control M&S analyzer 124 .

보다 자세히 설명하면, 근접 방어 M&S 분석부(132)는 탄착점과 표적 사이의 오차 거리(miss distance)를 획득할 수 있다. 예컨대, 근접 방어 M&S 분석부(132)는 탄착점 내의 각 탄의 예상 탄착 위치와 표적 사이의 오차 거리를 각 탄별로 계산하고, 각 탄별로 계산한 오차 거리의 평균값을 탄착점과 표적 사이의 오차 거리로 결정할 수 있다.More specifically, the proximity defense M&S analyzer 132 may obtain a miss distance between the point of impact and the target. For example, the proximity defense M&S analysis unit 132 calculates the error distance between the expected impact location of each bullet in the impact point and the target for each bullet, and the average value of the error distance calculated for each bullet is the error distance between the impact point and the target. can decide

그리고, 근접 방어 M&S 분석부(132)는 탄을 발사한 함포에서 표적을 바라본 사영(projection) 영역을 격추 가능 영역으로 획득할 수 있다. 여기서, 격추 가능 영역은 제1 사영 영역, 제2 사영 영역, 제3 사영 영역 및 제4 사영 영역을 기반으로 획득될 수 있다. 즉, 근접 방어 M&S 분석부(132)는 제3 사영 영역과 제4 사영 영역의 교집합 영역을 획득하고, 제1 사영 영역, 제2 사영 영역 및 교집합 영역의 합집합 영역을 격추 가능 영역으로 획득할 수 있다.In addition, the proximity defense M&S analysis unit 132 may acquire a projection area from which the target is viewed from the gun that fired the bullet as a possible area to shoot down. Here, the area capable of shooting down may be obtained based on the first projection area, the second projection area, the third projection area, and the fourth projection area. That is, the proximity defense M&S analysis unit 132 may obtain an intersection area of the third projection area and the fourth projection area, and obtain a union area of the first projection area, the second projection area, and the intersection area as a possible shooting down area. there is.

제1 사영 영역은 탄의 탄두부의 뒷면의 사영 영역을 나타낼 수 있다. 제2 사영 영역은 탄의 탄두부의 앞면의 사영 영역을 나타낼 수 있다. 제3 사영 영역은 탄의 탄두부의 옆면의 사영 영역을 나타낼 수 있다. 제4 사영 영역은 탄의 탄두부의 다른 옆면의 사영 영역을 나타낼 수 있다.The first projected area may indicate a projected area on the back side of the warhead of the bullet. The second projected area may indicate a projected area of the front side of the warhead of the bullet. The third projected area may represent a projected area of a side surface of the warhead of the bullet. The fourth projected area may indicate a projected area of the other side surface of the warhead of the bullet.

이때, 근접 방어 M&S 분석부(132)는 탄의 탄두부의 직경 r, 탄의 탄두부의 길이 H, 표적과 근접 방어 시스템 간의 방위각 φ 및 탄의 고각 방향 입사각 θ을 기반으로 제1 사영 영역, 제2 사영 영역, 제3 사영 영역 및 제4 사영 영역을 획득할 수 있다. 즉, 근접 방어 M&S 분석부(132)는 아래의 [수학식 5]을 이용하여 제1 사영 영역 S1, 제2 사영 영역 S2, 제3 사영 영역 S3 및 제4 사영 영역 S4를 획득할 수 있다.At this time, the proximity defense M&S analysis unit 132 determines the first projected area based on the diameter r of the warhead of the bullet, the length H of the warhead of the projectile, the azimuth angle φ between the target and the proximity defense system, and the angle of incidence θ in the elevation direction of the projectile, A second projected area, a third projected area, and a fourth projected area may be obtained. That is, the proximity defense M&S analysis unit 132 obtains the first projected area S 1 , the second projected area S 2 , the third projected area S 3 and the fourth projected area S 4 using Equation 5 below. can do.

Figure 112021050884732-pat00006
Figure 112021050884732-pat00006

그리고, 근접 방어 M&S 분석부(132)는 오차 거리 및 격추 가능 영역을 기반으로 탄의 격추 여부에 대한 요격 결과를 판단할 수 있다.Also, the proximity defense M&S analysis unit 132 may determine an interception result regarding whether or not the bullet is shot down based on the error distance and the shootdown possible area.

이때, 근접 방어 M&S 분석부(132)는 오차 거리를 이용한 탄의 위치가 격추 가능 영역 내에 위치하는 경우, 탄이 표적에 격추되는 것으로 판단할 수 있다. 예컨대, 탄착점 내의 각 탄의 예상 탄착 위치를 중심으로 하여 오차 거리를 반경으로 하는 영역이 격추 가능 영역에 포함되면, 해당 탄은 표적에 격추되는 것으로 판단할 수 있다. 물론, 탄착점 내의 각 탄의 예상 탄착 위치를 중심으로 하여 오차 거리를 반경으로 하는 영역이 격추 가능 영역에 미리 설정된 임계값(50% 등) 이상 포함되면, 해당 탄은 표적에 격추되는 것으로 판단할 수 있다. 그리고, 근접 방어 M&S 분석부(132)는 각 탄별 격추 여부에 대한 요격 결과를 기반으로 격추율을 계산할 수 있다.At this time, the proximity defense M&S analysis unit 132 may determine that the bullet is shot down by the target when the position of the bullet using the error distance is located within the shootable area. For example, if an area having an error distance as a radius centered on an expected impact position of each bullet within an impact point is included in the area capable of being shot down, it may be determined that the bullet is shot down by the target. Of course, if the area whose radius is the error distance centered on the projected impact location of each bullet within the impact point is included in the shootable area at least a preset threshold (50%, etc.), the bullet can be determined to be shot down by the target. there is. In addition, the proximity defense M&S analyzer 132 may calculate the kill rate based on the result of interception of whether each bullet is shot down.

한편, 근접 방어 분석부(130)는 표적 기동 분석 모델 및 사격 통제 분석 모델을 통합하여 근접 방어 시스템의 성능을 분석할 수 있는 근접 방어 분석 모델을 생성한다. 근접 방어 분석 모델은 실제 데이터와 체계 운용 알고리즘을 모의하였기 때문에 많은 시뮬레이션을 통해 딥러닝 학습 처리할 수 있다. Meanwhile, the proximity defense analysis unit 130 integrates the target maneuver analysis model and the fire control analysis model to generate a proximity defense analysis model capable of analyzing the performance of the proximity defense system. Because the proximity defense analysis model simulates real data and system operation algorithms, deep learning can be processed through many simulations.

근접 방어 분석부(130)는 딥러닝 학습 처리된 근접 방어 분석 모델을 이용하여 산출된 요격 결과와 실제 시험 결과 비교를 통해 모델을 업데이트하여 지속적으로 최신화할 수 있다. The proximity defense analysis unit 130 may continuously update the model by comparing the result of interception calculated using the deep learning-processed proximity defense analysis model with the actual test result.

요격 설정 제어부(140)는 요격 결과에 대한 학습 결과를 기반으로 사격 통제를 위한 요격 설정을 수행한다. The interception setting control unit 140 performs interception setting for fire control based on the result of learning about the interception result.

구체적으로, 요격 설정 제어부(140)는 최종 학습 결과에 따른 최적의 표적 정보를 표적 기동 데이터에 업데이트하고, 탄착점을 사격 데이터에 업데이트하여 표적에 대한 요격 설정을 수행한다. Specifically, the interception setting control unit 140 updates optimal target information according to a final learning result to target maneuver data, and updates an impact point to shooting data to perform interception settings for a target.

요격 설정 제어부(140)는 요격 설정을 수행한 경우, 도 3과 같이 최적화된 사격 통제를 통한 요격 결과를 도출할 수 있다. 즉, 표적이 기동하여 자함으로 접근해올 때 딥러닝을 통해 학습된 사격 통제를 기반으로 사격을 수행하여 요격한다. When the interception setting is performed, the interception setting control unit 140 may derive an interception result through optimized fire control as shown in FIG. 3 . That is, when a target maneuvers and approaches its own ship, it shoots and intercepts based on fire control learned through deep learning.

도 2는 본 발명의 실시예에 따른 사격 통제 방법을 설명하기 위한 도면이고, 도 3은 본 발명의 실시예에 따른 사격 통제 장치의 사격 통제 동작에 따른 요격 수행 결과를 나타낸 예시도이다.FIG. 2 is a view for explaining a fire control method according to an embodiment of the present invention, and FIG. 3 is an exemplary view showing the result of interception performance according to the fire control operation of the fire control apparatus according to an embodiment of the present invention.

도 2는 실제 사격 및 표적 기동 데이터를 딥러닝(Deep Learning)하여 구성한 근접 방어 시스템의 사격 통제 장치(100)에 대한 상세 순서도이고 도면 3은 그에 따른 요격 결과를 나타낸다. 2 is a detailed flowchart of the fire control device 100 of the proximity defense system configured by deep learning of actual shooting and target maneuvering data, and FIG. 3 shows interception results accordingly.

사격 통제 장치(100)는 먼저 실제 사격 및 표적 기동 데이터를 데이터베이스화하여 저장한 뒤(S210, S212, S220, S222) 데이터베이스화된 데이터들을 표현하는 표적 기동 분석 모델 및 사격 통제 분석 모델 각각을 구성한다(S214, S224). The fire control apparatus 100 first stores actual shooting and target maneuvering data in a database (S210, S212, S220, S222), and then constructs a target maneuver analysis model and a fire control analysis model representing the databased data, respectively. (S214, S224).

사격 통제 장치(100)는 표적 기동 분석 모델 및 사격 통제 분석 모델을 체계 알고리즘을 모사하는 근접 방어 시스템의 근접 방어 분석 모델을 구성한다(S230). 근접 방어 분석 모델은 측정 데이터(각 부체계 운용 및 오차가 포함된) 및 이론을 기반으로 구성되어 있어 높은 신뢰성을 가진다. The fire control apparatus 100 configures a target maneuver analysis model and a fire control analysis model as a proximity defense analysis model of a proximity defense system that simulates a system algorithm (S230). The melee defense analysis model has high reliability because it is constructed based on measurement data (including the operation of each subsystem and errors) and theory.

사격 통제 장치(100)는 근접 방어 분석 모델을 통해 다양한 표적 시나리오 및 사격 통제 알고리즘을 지속적으로 시뮬레이션하고, 그 결과를 딥러닝을 통해 학습시킨다(S240). The fire control apparatus 100 continuously simulates various target scenarios and fire control algorithms through a proximity defense analysis model, and learns the results through deep learning (S240).

사격 통제 장치(100)는 근접 방어 분석 모델을 기반으로 딥러닝 학습된 데이터를 통해 표적 기동 특성에 따른 최적화된 사격을 수행하여 요격할 수 있다(S250). 또한, 사격 통제 장치(100)는 표적 기동 특성에 따른 테스트를 반복적으로 수행하여 시험 결과와 기존 데이터의 비교분석을 통해 지속적인 모델 최신화를 수행한다. The fire control device 100 may intercept by performing optimized shooting according to target maneuver characteristics through deep learning data based on the proximity defense analysis model (S250). In addition, the fire control apparatus 100 repeatedly performs tests according to target maneuver characteristics and continuously updates the model through comparative analysis of test results and existing data.

도 6은 본 발명의 실시예에 따른 표적 기동 M&S 결과를 나타낸 예시도이고, 도 7은 본 발명의 실시예에 따른 요격 설정 제어에 따른 사격 통제 결과를 나타낸 예시도이다. 6 is an exemplary view showing the target maneuvering M&S result according to an embodiment of the present invention, and FIG. 7 is an example view showing a fire control result according to intercept setting control according to an embodiment of the present invention.

도면 6은 모델링된 표적 기동 결과를 나타낸다. 사격 통제 장치(100)는 이론을 바탕으로 감시체계의 실제 측정 데이터를 포함하여 오차가 포함된 기동 특성을 제공한다.Figure 6 shows the modeled target maneuvering results. The fire control device 100 provides maneuvering characteristics including errors, including actual measurement data of the monitoring system based on the theory.

그 결과 사격 통제 장치(100)는 도 7에 도시된 바와 같이, M&S(modeling & simulation) 분석 프로세스 및 딥러닝 학습을 통해 표적 기동 시나리오에 따라 사격을 제어하여 최적화된 요격 확률을 가지는 사격 조건을 산출할 수 있다.As a result, as shown in FIG. 7 , the fire control device 100 controls shooting according to target maneuvering scenarios through M&S (modeling & simulation) analysis process and deep learning learning to calculate shooting conditions having an optimized interception probability. can do.

본 발명을 통해 근접방어무기체계와 같이 실제 시험하기 어려운 체계에 대해 M&S 분석 프로세스를 개발하고 딥러닝 기술을 통해 신뢰성 높은 모의를 수행할 수 있다. 또한, 이러한 방식을 통해 사격 통제 장치(100)는 근접 방어 무기체계의 사격 통제를 제어하여 표적 시나리오에 따라 최적화된 요격 확률을 가질 수 있도록 한다. Through the present invention, it is possible to develop an M&S analysis process for a system that is difficult to actually test, such as a close-in defense weapon system, and perform highly reliable simulation through deep learning technology. In addition, through this method, the fire control device 100 controls the fire control of the melee defense weapon system to have an optimized interception probability according to the target scenario.

도 8는 본 발명의 실시예에 따른 사격 통제 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating a fire control method according to an embodiment of the present invention.

사격 통제 장치(100)는 표적 기동에 대한 데이터 획득 및 분석을 수행한다(S810).The fire control device 100 acquires and analyzes data on target maneuvers (S810).

구체적으로, 사격 통제 장치(100)는 표적을 탐지 및 추적하여 획득된 표적 기동 데이터를 저장하고, 저장된 상기 표적 기동 데이터를 이용하여 표적 정보를 획득하기 위한 표적 기동 분석 모델을 생성한다. Specifically, the fire control apparatus 100 stores target maneuvering data obtained by detecting and tracking a target, and creates a target maneuvering analysis model for obtaining target information using the stored target maneuvering data.

사격 통제 장치(100)는 사격 통제에 대한 데이터 획득 및 분석을 수행한다(S820). The fire control apparatus 100 acquires and analyzes fire control data (S820).

구체적으로, 사격 통제 분석부(120)는 표적에 대한 사격 데이터를 저장하고, 저장된 상기 사격 데이터를 이용하여 탄의 궤적 및 탄착점을 획득하기 위한 사격 통제 분석 모델을 생성한다. Specifically, the fire control analyzer 120 stores shooting data for a target and uses the stored shooting data to create a fire control analysis model for obtaining a trajectory and impact point of a bullet.

사격 통제 장치(100)는 표적 기동 분석 모델 및 사격 통제 분석 모델을 기반으로 생성된 근접 방어 분석 모델을 이용하여 탄의 격추 여부에 대한 요격 결과를 산출하고, 요격 결과를 딥러닝 학습 처리한다(S830, S840).The fire control apparatus 100 calculates an interception result on whether or not a bullet is shot down using a target maneuver analysis model and a proximity defense analysis model generated based on the fire control analysis model, and deep learning processes the interception result (S830). , S840).

사격 통제 장치(100)는 요격 결과에 대한 학습 결과를 기반으로 사격 통제를 위한 요격 설정을 수행한다(S850). The fire control apparatus 100 performs interception setting for fire control based on the learning result of the interception result (S850).

구체적으로, 사격 통제 장치(100)는 최종 학습 결과에 따른 최적의 표적 정보를 표적 기동 데이터에 업데이트하고, 탄착점을 사격 데이터에 업데이트하여 표적에 대한 요격 설정을 수행한다. Specifically, the fire control apparatus 100 updates the optimal target information according to the final learning result to the target maneuver data, and updates the point of impact to the shooting data to set the target to be intercepted.

도 8에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 8에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 8은 시계열적인 순서로 한정되는 것은 아니다.In FIG. 8, it is described that each step is sequentially executed, but is not necessarily limited thereto. In other words, since it will be applicable to changing and executing the steps described in FIG. 8 or executing one or more steps in parallel, FIG. 8 is not limited to a time-sequential order.

도 8에 기재된 본 실시예에 따른 사격 통제 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 사격 통제 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.The shooting control method according to the present embodiment described in FIG. 8 may be implemented as an application (or program) and recorded on a recording medium readable by a terminal device (or computer). A recording medium in which an application (or program) for implementing the fire control method according to the present embodiment is recorded and which can be read by a terminal device (or computer) is any type of recording device storing data that can be read by a computing system or includes media

이상의 설명은 본 발명의 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 실시예들은 본 발명의 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is only illustrative of the technical idea of the embodiment of the present invention, and those skilled in the art to which the embodiment of the present invention pertains may make various modifications and modifications within the scope not departing from the essential characteristics of the embodiment of the present invention. transformation will be possible. Therefore, the embodiments of the present invention are not intended to limit the technical idea of the embodiment of the present invention, but to explain, and the scope of the technical idea of the embodiment of the present invention is not limited by these examples. The protection scope of the embodiments of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the embodiments of the present invention.

100: 사격 통제 장치 110: 표적 기동 분석부
120: 사격 통제 분석부 130: 근접 방어 분석부
140: 요격 설정 제어부
100: fire control device 110: target maneuver analysis unit
120: fire control analysis unit 130: close defense analysis unit
140: interception setting control unit

Claims (13)

사격 통제 장치에서 사격을 통제하는 방법에 있어서,
표적을 탐지 및 추적하여 획득된 표적 기동 데이터를 저장하고, 저장된 상기 표적 기동 데이터를 이용하여 표적 정보를 획득하기 위한 표적 기동 분석 모델을 생성하는 표적 기동 분석 단계;
표적에 대한 사격 데이터를 저장하고, 저장된 상기 사격 데이터를 이용하여 탄의 궤적 및 탄착점을 획득하기 위한 사격 통제 분석 모델을 생성하는 사격 통제 분석 단계;
상기 표적 기동 분석 모델 및 상기 사격 통제 분석 모델을 기반으로 생성된 근접 방어 분석 모델을 이용하여 상기 탄의 격추 여부에 대한 요격 결과를 산출하고, 상기 요격 결과를 딥러닝 학습 처리하는 근접 방어 분석 단계; 및
상기 요격 결과에 대한 학습 결과를 기반으로 사격 통제를 위한 요격 설정을 수행하는 요격 설정 제어단계를 포함하되,
상기 표적 기동 분석 단계는, 감시 체계를 통해 실제 측정된 데이터를 기반으로 표적을 탐지 및 추적하고, 적어도 하나의 표적에 대한 상기 표적 기동 데이터를 획득하여 저장하는 표적 기동 결과 저장 단계; 및 상기 표적의 기동 특성에 따른 추력 모델, 연료 소모에 따른 질량 변화 모델 및 상기 표적 기동 데이터를 반영한 자유도 운동 모델을 기반으로 상기 표적 기동 분석 모델을 생성하고, 상기 표적 기동 분석 모델을 통해 상기 표적 정보를 획득하는 표적 기동 M&S 분석 단계를 포함하는 것을 특징으로 하는 사격 통제 방법.
In the method of controlling fire in a fire control device,
a target maneuver analysis step of storing target maneuver data obtained by detecting and tracking a target and generating a target maneuver analysis model for obtaining target information using the stored target maneuver data;
a fire control analysis step of storing shooting data for a target and generating a fire control analysis model for obtaining a trajectory and an impact point of a bullet using the stored shooting data;
a proximity defense analysis step of calculating an interception result on whether or not the bullet is shot down using a proximity defense analysis model generated based on the target maneuver analysis model and the fire control analysis model, and deep learning-processing the interception result; and
An interception setting control step of performing interception setting for fire control based on the learning result of the interception result,
The target maneuver analysis step may include a target maneuver result storage step of detecting and tracking a target based on data actually measured through a monitoring system, and acquiring and storing the target maneuver data for at least one target; and generating the target maneuver analysis model based on a thrust model according to maneuver characteristics of the target, a mass change model according to fuel consumption, and a DOF motion model reflecting the target maneuver data, and generating the target maneuver analysis model through the target maneuver analysis model. A fire control method comprising a target maneuver M&S analysis step of obtaining information.
삭제delete 제1항에 있어서,
상기 사격 통제 분석 단계는,
근접 방어 시스템의 사격 체계의 사격 시험에 대한 상기 사격 데이터를 획득하여 저장하는 사격 시험 저장 단계; 및
기 저장된 기존 사격 데이터에 신규로 획득된 신규 사격 데이터를 업데이트하여 최신화된 상기 사격 데이터를 이용하여 상기 사격 통제 분석 모델을 생성하고, 상기 사격 통제 분석 모델을 통해 상기 탄의 궤적 및 상기 탄착점을 획득하는 사격 통제 M&S 분석 단계
를 포함하는 것을 특징으로 하는 사격 통제 방법.
According to claim 1,
The fire control analysis step,
a shooting test storage step of obtaining and storing the shooting data for a shooting test of a shooting system of a proximity defense system; and
Update the newly acquired new shooting data with the previously stored shooting data to create the fire control analysis model using the updated shooting data, and obtain the trajectory of the bullet and the impact point through the fire control analysis model Fire Control M&S Analysis Steps
Fire control method comprising a.
제3항에 있어서,
상기 사격 통제 분석 단계는,
탐지 및 추적된 표적 정보를 이용하여 조준점(predicted hitting point, PHP)을 계산하고, 상기 조준점을 기반으로 탄의 궤적을 획득하며, 상기 탄의 궤적을 기반으로 상기 탄의 탄착점을 획득하는 것을 특징으로 하는 사격 통제 방법.
According to claim 3,
The fire control analysis step,
Characterized in that a predicted hitting point (PHP) is calculated using detected and tracked target information, a trajectory of a projectile is obtained based on the aimed point, and a hitting point of the projectile is obtained based on the trajectory of the projectile fire control method.
제1항에 있어서,
상기 근접 방어 분석 단계는,
상기 탄착점 및 격추 가능 영역을 기반으로 상기 탄의 격추 여부를 판단하여 상기 요격 결과를 산출하는 요격 결과 산출 단계; 및
상기 표적 정보, 상기 탄착점 및 상기 요격 결과를 입력으로 상기 딥러닝 학습을 처리하여, 요격 확률을 높이기 위한 상기 표적 정보 및 상기 탄착점을 최적화한 최종 학습 결과를 출력하는 딥러닝 학습 단계
를 포함하는 것을 특징으로 하는 사격 통제 방법.
According to claim 1,
The melee defense analysis step,
an interception result calculation step of calculating the interception result by determining whether or not the bullet is shot down based on the impact point and the area where the bullet can be shot down; and
A deep learning learning step of processing the deep learning learning with the target information, the impact point, and the interception result as inputs, and outputting a final learning result obtained by optimizing the target information and the impact point for increasing the probability of interception.
Fire control method comprising a.
제5항에 있어서,
상기 근접 방어 분석 단계는,
상기 탄착점과 상기 표적 사이의 오차 거리(miss distance)를 획득하고, 상기 탄을 발사한 함포에서 상기 표적을 바라본 사영(projection) 영역을 상기 격추 가능 영역으로 획득하며, 상기 오차 거리 및 상기 격추 가능 영역을 기반으로 상기 탄의 격추 여부를 판단하는 것을 특징으로 하는 사격 통제 방법.
According to claim 5,
The melee defense analysis step,
A miss distance between the impact point and the target is obtained, a projection area viewed from the gun that fired the bullet at the target is acquired as the possible shoot down area, and the miss distance and the possible shoot down area are obtained. A fire control method characterized in that it is determined whether or not the bullet is shot down based on.
제5항에 있어서,
상기 딥러닝 학습 단계는,
상기 요격 결과를 기반으로 제1 표적의 표적 정보에 연관된 적어도 하나의 탄착점 중 최적의 제1 탄착점을 추출하여 제1 학습 결과를 산출하고,
상기 제1 표적의 궤적과 기 설정된 범위 내에서 위치한 제2 표적의 표적 정보에 연관된 적어도 하나의 탄착점 중 최적의 제2 탄착점을 추출하여 제2 학습 결과를 산출하며,
상기 제1 학습 결과 및 상기 제2 학습 결과 각각에 기 설정된 서로 다른 가중치를 부여하여, 상기 제1 탄착점 및 상기 제2 탄착점을 기반으로 상기 제1 표적에 대한 최종 탄착점을 산출하여 상기 최종 학습 결과를 출력하는 것을 특징으로 하는 사격 통제 방법.
According to claim 5,
The deep learning learning step,
Extracting an optimal first impact point among at least one impact point associated with target information of a first target based on the interception result to calculate a first learning result;
Extracting an optimal second impact point among at least one impact point associated with target information of a second target located within a trajectory of the first target and a predetermined range to calculate a second learning result;
A preset different weight is assigned to each of the first learning result and the second learning result, and a final impact point for the first target is calculated based on the first impact point and the second impact point, thereby obtaining the final learning result. A fire control method characterized by outputting.
제5항에 있어서,
상기 요격 설정 제어단계는,
상기 최종 학습 결과에 따른 최적의 상기 표적 정보를 상기 표적 기동 데이터에 업데이트하고, 상기 탄착점을 상기 사격 데이터에 업데이트하여 상기 표적에 대한 상기 요격 설정을 수행하는 것을 특징으로 하는 사격 통제 방법.
According to claim 5,
In the intercept setting control step,
and performing the intercept setting for the target by updating the optimal target information according to the final learning result in the target maneuvering data and updating the impact point in the shooting data.
사격 통제를 하기 위한 장치에 있어서,
표적을 탐지 및 추적하여 획득된 기동 데이터를 저장하고, 저장된 상기 기동 데이터를 이용하여 기동 특성을 획득하기 위한 표적 기동 분석 모델을 생성하는 표적 기동 분석부;
표적에 대한 사격 데이터를 저장하고, 저장된 상기 사격 데이터를 이용하여 탄의 궤적 및 탄착점을 획득하기 위한 사격 통제 분석 모델을 생성하는 사격 통제 분석부;
상기 표적 기동 분석 모델 및 상기 사격 통제 분석 모델을 기반으로 상기 탄의 격추 여부에 대한 요격 결과를 산출하고, 상기 요격 결과를 딥러닝 학습 처리하는 근접 방어 분석부; 및
상기 요격 결과에 대한 학습 결과를 기반으로 사격 통제를 위한 요격 설정을 수행하는 요격 설정 제어부를 포함하되,
상기 표적 기동 분석부는, 감시 체계를 통해 실제 측정된 데이터를 기반으로 표적을 탐지 및 추적하고, 적어도 하나의 표적에 대한 상기 표적 기동 데이터를 획득하여 저장하는 표적 기동 결과 저장부; 및 상기 표적의 기동 특성에 따른 추력 모델, 연료 소모에 따른 질량 변화 모델 및 상기 표적 기동 데이터를 반영한 자유도 운동 모델을 기반으로 상기 표적 기동 분석 모델을 생성하고, 상기 표적 기동 분석 모델을 통해 표적 정보를 획득하는 표적 기동 M&S 분석부를 포함하는 것을 특징으로 하는 사격 통제 장치.
In the device for fire control,
a target maneuver analysis unit configured to store maneuver data obtained by detecting and tracking a target, and to generate a target maneuver analysis model for acquiring maneuver characteristics using the stored maneuver data;
a fire control analysis unit that stores shooting data for a target and generates a fire control analysis model for obtaining a trajectory and an impact point of a bullet using the stored shooting data;
a proximity defense analysis unit calculating an interception result on whether or not the bullet was shot down based on the target maneuver analysis model and the fire control analysis model, and processing the interception result through deep learning; and
Including an interception setting control unit that performs interception setting for fire control based on the learning result of the interception result,
The target maneuver analysis unit detects and tracks a target based on data actually measured through a monitoring system, and acquires and stores the target maneuver data for at least one target; and generating the target maneuver analysis model based on a thrust model according to maneuver characteristics of the target, a mass change model according to fuel consumption, and a DOF motion model reflecting the target maneuver data, and target information through the target maneuver analysis model. A fire control device comprising a target maneuvering M&S analysis unit for obtaining a.
삭제delete 제9항에 있어서,
상기 사격 통제 분석부는,
근접 방어 시스템의 사격 체계의 사격 시험에 대한 상기 사격 데이터를 획득하여 저장하는 사격 시험 저장부; 및
기 저장된 기존 사격 데이터에 신규로 획득된 신규 사격 데이터를 업데이트하여 최신화된 상기 사격 데이터를 이용하여 상기 사격 통제 분석 모델을 생성하고, 상기 사격 통제 분석 모델을 통해 상기 탄의 궤적 및 상기 탄착점을 획득하는 사격 통제 M&S 분석부
를 포함하는 것을 특징으로 하는 사격 통제 장치.
According to claim 9,
The fire control analysis unit,
a shooting test storage unit for obtaining and storing the shooting data for a shooting test of a shooting system of a proximity defense system; and
Update the newly acquired new shooting data with the previously stored shooting data to create the fire control analysis model using the updated shooting data, and obtain the trajectory of the bullet and the impact point through the fire control analysis model Fire Control M&S Analysis Department
Fire control device comprising a.
제9항에 있어서,
상기 근접 방어 분석부는,
상기 탄착점 및 격추 가능 영역을 기반으로 상기 탄의 격추 여부를 판단하여 상기 요격 결과를 산출하는 근접 방어 M&S 분석부; 및
표적 정보, 상기 탄착점 및 상기 요격 결과를 입력으로 상기 딥러닝 학습을 처리하여, 요격 확률을 높이기 위한 상기 표적 정보 및 상기 탄착점을 최적화한 최종 학습 결과를 출력하는 모델 학습부
를 포함하는 것을 특징으로 하는 사격 통제 장치.
According to claim 9,
The melee defense analysis unit,
a proximity defense M&S analysis unit determining whether or not the bullet is shot down based on the impact point and the area where the shot can be shot down, and calculating the result of the interception; and
A model learning unit that processes the deep learning learning with target information, the impact point, and the intercept result as inputs, and outputs a final learning result obtained by optimizing the target information and the impact point for increasing the probability of interception.
Fire control device comprising a.
제12항에 있어서,
상기 모델 학습부는,
상기 요격 결과를 기반으로 제1 표적의 표적 정보에 연관된 적어도 하나의 탄착점 중 최적의 제1 탄착점을 추출하여 제1 학습 결과를 산출하고,
상기 제1 표적의 궤적과 기 설정된 범위 내에서 위치한 제2 표적의 표적 정보에 연관된 적어도 하나의 탄착점 중 최적의 제2 탄착점을 추출하여 제2 학습 결과를 산출하며,
상기 제1 학습 결과 및 상기 제2 학습 결과 각각에 기 설정된 서로 다른 가중치를 부여하여, 상기 제1 탄착점 및 상기 제2 탄착점을 기반으로 상기 제1 표적에 대한 최종 탄착점을 산출하여 상기 최종 학습 결과를 출력하는 것을 특징으로 하는 사격 통제 장치.
According to claim 12,
The model learning unit,
Extracting an optimal first impact point among at least one impact point associated with target information of a first target based on the interception result to calculate a first learning result;
Extracting an optimal second impact point among at least one impact point associated with target information of a second target located within a trajectory of the first target and a predetermined range to calculate a second learning result;
A preset different weight is assigned to each of the first learning result and the second learning result, and a final impact point for the first target is calculated based on the first impact point and the second impact point, thereby obtaining the final learning result. A fire control device characterized in that it outputs.
KR1020210056682A 2021-04-30 2021-04-30 Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning KR102494978B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210056682A KR102494978B1 (en) 2021-04-30 2021-04-30 Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210056682A KR102494978B1 (en) 2021-04-30 2021-04-30 Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning

Publications (2)

Publication Number Publication Date
KR20220149264A KR20220149264A (en) 2022-11-08
KR102494978B1 true KR102494978B1 (en) 2023-02-06

Family

ID=84041440

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210056682A KR102494978B1 (en) 2021-04-30 2021-04-30 Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning

Country Status (1)

Country Link
KR (1) KR102494978B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919883B1 (en) * 2018-07-31 2018-11-19 한화시스템(주) Intelligent Closed-loop System for correcting impact point
KR102099844B1 (en) * 2018-10-15 2020-04-10 한화시스템 주식회사 Simulation system for engagement situation and operating method of thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160053475A (en) * 2014-11-05 2016-05-13 국방과학연구소 Automatic logging system for sonar contact

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919883B1 (en) * 2018-07-31 2018-11-19 한화시스템(주) Intelligent Closed-loop System for correcting impact point
KR102099844B1 (en) * 2018-10-15 2020-04-10 한화시스템 주식회사 Simulation system for engagement situation and operating method of thereof

Also Published As

Publication number Publication date
KR20220149264A (en) 2022-11-08

Similar Documents

Publication Publication Date Title
CN106440948B (en) A kind of gunnery training system and gunnery training method
KR101502397B1 (en) A virtual combat simulation system for combat effectiveness analysis of weapon system and method thereof
JP6407262B2 (en) A method of artillery control for gun-based anti-aircraft defense
KR101462380B1 (en) Apparatus for intercepting high-speed air threats for simulation analysis and Method thereof
KR101997387B1 (en) Method and apparatus for estimating target impact point using acoustic sensor
KR101611228B1 (en) An apparatus for calculating an effective engagement launch angle area and method thereof
KR102494978B1 (en) Method and Apparatus for Fire Control of Close-In Weapon System Using Deep Learning
KR101978491B1 (en) Apparatus and method for controling strike command using ir sensor and lrf sensor
KR102501930B1 (en) Calculating method and device of engagement distance and launch time for ship to air missile
Başpınar et al. Survivability Based Optimal Air Combat Mission Planning with Reinforcement Learning
KR102494977B1 (en) Method and apparatus for analyzing kill ratio of CIWS
KR102492128B1 (en) Apparatus and method for calculating kill ratio of CIWS
Hou et al. Adaptive fuze-warhead coordination method based on BP artificial neural network
KR102489645B1 (en) Apparatus and Method for evaluating realtime Hit Probabilities to Antiair Target based on Shot Groups Proability Model
Suseno et al. Development of air combat effectiveness simulation and analysis scheme for beyond visual range (BVR) case
KR102488429B1 (en) System and method for providing naval gun firing specifications based on deep learning
Jędrasiak et al. Advanced Ballistic Model and Its Experimental Evaluation for Professional Simulation Systems
CN112113462A (en) Method and system for detecting shooting effect of direct-aiming weapon and virtual target shooting system
JPH07159095A (en) Shooting simulator
KR102489644B1 (en) Apparatus and method for Calculating real-time fire control command for 30 mm gatling gun
KR102480563B1 (en) Calculation and display method of the impact point of anti-air firing of naval gun, and method therefor
KR102578568B1 (en) Threat assessment system and method for anti-air target in surface fleet combat system
CN111090828B (en) Missile launching zone defining method and system under ship-to-air missile cooperative mode
KR102494975B1 (en) Method and apparatus for predicting shooting range and shooting time of CIWS
KR102586565B1 (en) Apparatus and method for searching true data set for acquiring launch acceptability region

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant