KR101621396B1 - Armament system and method for operating the same - Google Patents

Armament system and method for operating the same Download PDF

Info

Publication number
KR101621396B1
KR101621396B1 KR1020120158531A KR20120158531A KR101621396B1 KR 101621396 B1 KR101621396 B1 KR 101621396B1 KR 1020120158531 A KR1020120158531 A KR 1020120158531A KR 20120158531 A KR20120158531 A KR 20120158531A KR 101621396 B1 KR101621396 B1 KR 101621396B1
Authority
KR
South Korea
Prior art keywords
arming
target
angle
error
arming device
Prior art date
Application number
KR1020120158531A
Other languages
Korean (ko)
Other versions
KR20140087832A (en
Inventor
허만정
김병희
곽영천
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020120158531A priority Critical patent/KR101621396B1/en
Publication of KR20140087832A publication Critical patent/KR20140087832A/en
Application granted granted Critical
Publication of KR101621396B1 publication Critical patent/KR101621396B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G5/00Elevating or traversing control systems for guns
    • F41G5/06Elevating or traversing control systems for guns using electric means for remote control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J9/00Moving targets, i.e. moving when fired at
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving

Abstract

본 발명은 무기에 관한 것으로, 보다 상세하게는 표적을 탐지하는 영상장치와 영상장치로부터 표적 관련 정보를 수신하여 표적을 사격하는 무장장치가 연동하는 무장 시스템 및 그의 동작 방법에 관한 것이다. 무장 시스템은 착탈 가능한 영상 촬영부를 포함하고, 표적을 사격하는 적어도 하나 이상의 무장장치 및 무장장치와 분리되어 설치되며, 표적을 촬영하고, 무장장치가 표적을 사격하기에 적합한 고각 및 선회각을 산출하여 무장장치로 전송하는 영상장치를 포함하고, 무장장치는, 내부에서 영상 촬영부를 이용하여 산출한 표적의 위치 및 영상장치로부터 전송된 고각 및 선회각을 이용하여 조준 오차를 산출한 후 영상장치로 전송하고, 영상장치는, 무장장치로부터 전송된 조준 오차를 반영한 최종 고각 및 선회각을 무장장치로 전송하는 것을 특징으로 한다.Field of the Invention The present invention relates to weapons, and more particularly, to a weapon system in which a target device is detected and a weapon device that receives target-related information from a target device and fires a target, and an operation method thereof. The arming system includes a detachable image capturing unit, and is installed separately from at least one or more arming apparatuses and arming apparatuses that shoot targets, captures a target, and calculates a high angle and a turning angle suitable for shooting the target by the arming apparatus The arming device calculates an aiming error using the position of the target calculated using the image capturing unit and the elevation angle and the turning angle transmitted from the image device, and then transmits the sighting error to the image device And the video apparatus transmits the final high angle and turning angle reflecting the aiming error transmitted from the arming apparatus to the arming apparatus.

Description

무장 시스템 및 그의 동작 방법{Armament system and method for operating the same}Armament system and method for operating same

본 발명은 무기에 관한 것으로, 보다 상세하게는 표적을 탐지하는 영상장치와 영상장치로부터 표적 관련 정보를 수신하여 표적을 사격하는 무장장치가 연동하는 무장 시스템 및 그의 동작 방법에 관한 것이다.Field of the Invention The present invention relates to weapons, and more particularly, to a weapon system in which a target device is detected and a weapon device that receives target-related information from a target device and fires a target, and an operation method thereof.

무장 시스템은 근접 혹은 원거리 전투 임무 수행 시에 사수가 노출되지 않은 상태에서 영상장치가 무장장치를 조종하여 표적을 정밀 사격하는 시스템으로서 사수의 인명 피해 없이 전투 임무 수행이 가능하도록 해준다. 종래의 무장 시스템은 영상장치와 둘 이상의 무장장치로 구성되어 있으며, 영상장치에서 탐지된 목표물의 위치정보를 무장장치로 제공하여, 각 무장장치가 집중적으로 표적을 조준 혹은 타격할 수 있도록 하고 있다. 무장 시스템에서 표적과 이 표적을 탐지하는 영상장치가 3차원 공간상에 존재하고, 영상장치와 무장장치 또한 서로 3차원 공간상에 존재하며, 마지막으로 무장장치와 표적 또한 3차원 공간상에 존재한다. 따라서 무장 시스템은 영상장치와 무장장치 사이의 상대 위치 및 3차원 좌표 변환 알고리즘을 이용하여 표적을 정확하게 타격하도록 하고 있다.The arming system allows the imager to control the arming device to precisely fire the target without exposing the shooter when performing close or ranged combat missions, enabling the combat mission to be performed without hurting the shooter. The conventional arming system is composed of a video device and two or more armed devices, and provides location information of the detected targets in the video device to the armed device so that each armed device can intensively aim or strike the target. In the armed system, the target and the imaging device that detects the target exist in the three-dimensional space, and the imaging device and the arming device are also in the three-dimensional space with each other. Finally, the arming device and the target also exist in the three-dimensional space . Therefore, the arming system uses the relative position between the imaging device and the arming device and the 3D coordinate transformation algorithm to hit the target precisely.

3차원 공간에서 좌표 변환 알고리즘을 적용할 때 영상장치에서 표적까지의 거리 정보가 중요한데, 일반적으로 사용하는 거리 측정기는 약 10m의 거리 측정 오차가 있다. 이로 인해 멀리 떨어져 있는 표적에 대해, 각 무장장치에 전달되는 조준 각도에 오차가 발생하게 된다. 또한 무장장치가 설치된 장소의 수평과 수직을 측정해 보면, 수평방향으로 평탄도가 0도가 아니며, 수직방향으로도 0도가 아니다. 이와 같은 설치 오차로 인해 영상장치가 산출하는 무장장치의 고각 및 선회각도에 오차가 발생한다. 이와 같은 오차는 사격 정확도를 저하시키는 원인이 되고 있다.When applying the coordinate transformation algorithm in 3D space, the distance information from the imaging device to the target is important. In general, the distance measuring device used has a distance measurement error of about 10 m. This causes an error in the aiming angle transmitted to each armed device for a distant target. In addition, horizontal and vertical measurements of the location where the armed device is installed are not 0 degrees in the horizontal direction and 0 degrees in the vertical direction. Such an installation error causes an error in the elevation angle and the turning angle of the armed device calculated by the imaging device. Such an error causes degradation of shooting accuracy.

본 발명이 해결하고자 하는 기술적인 과제는 독립적으로 고저 및 선회구동이 가능한 하나의 영상장치를 운영하여 표적을 탐지하고, 이 탐지된 표적을 독립 구동이 가능한 복수의 무장장치들이 정확하게 사격할 수 있도록 하는 무장 시스템 및 그의 동작 방법을 제공하는데 있다.It is a technical object of the present invention to provide a system and method for operating a single imaging device capable of independent high and low swinging motion to detect a target and to enable a plurality of armed devices capable of independently driving the detected target to fire accurately And a method of operating the same.

본 발명이 해결하고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 무장 시스템은 착탈 가능한 영상 촬영부를 포함하고, 상기 표적을 사격하는 적어도 하나 이상의 무장장치; 및 상기 무장장치와 분리되어 설치되며, 상기 표적을 촬영하고, 상기 무장장치가 상기 표적을 사격하기에 적합한 고각 및 선회각을 산출하여 상기 무장장치로 전송하는 영상장치;를 포함하고, 상기 무장장치는, 내부에서 상기 영상 촬영부를 이용하여 산출한 표적의 위치 및 상기 영상장치로부터 전송된 상기 고각 및 선회각을 이용하여 조준 오차를 산출한 후 상기 영상장치로 전송하고, 상기 영상장치는, 상기 무장장치로부터 전송된 조준 오차를 반영한 최종 고각 및 선회각을 상기 무장장치로 전송하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a weapon system comprising: a detachable image capturing unit; at least one or more arming devices for shooting the target; And an image device installed separately from the arming device and imaging the target and calculating the elevation angle and swivel angle suitable for the arming device to fire the target and transmitting it to the arming device, Calculates a sighting error using the position of the target calculated using the image capturing unit and the high angle and the turning angle transmitted from the video apparatus, and transmits the calculated sighting error to the video apparatus, And a final elevation angle and a turning angle reflecting a sighting error transmitted from the device are transmitted to the arming device.

본 발명에 있어서, 상기 영상장치는, 감시범위 내에서 출현 가능한 상기 표적에 대하여, 상기 표적의 위치에 따른 상기 무장장치의 상기 조준 오차를 데이터베이스로 구축하는 것을 특징으로 한다.In the present invention, the imaging apparatus is configured to construct, as a database, the aiming error of the arming apparatus according to the position of the target with respect to the target that can appear within the monitoring range.

본 발명에 있어서, 상기 조준 오차 데이터베이스 구축이 완료된 후, 상기 무장장치로부터 상기 영상 촬영부를 분리하는 것을 특징으로 한다.In the present invention, after the construction of the aiming error database is completed, the image capturing unit is separated from the weapon system.

본 발명이 해결하고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 무장 시스템의 동작 방법은 표적을 탐지하고, 착탈 가능한 영상 촬영부를 포함하는 영상장치 및 상기 영상장치와 이격되어 설치되며 상기 표적을 사격할 수 있는 무장장치를 구비한 무장시스템의 동작 방법으로서, 상기 영상장치가 상기 무장장치와의 거리/각도 및 상기 표적과의 거리/각도를 측정하여 상기 무장장치와 상기 표적 사이의 거리/고각 및 선회각을 산출하고, 상기 고각 및 선회각을 상기 무장장치로 전송하는 단계; 상기 무장장치가 상기 고각 및 선회각으로 이동한 후, 상기 영상 촬영부를 이용하여 촬영한 상기 표적과의 거리를 이용하여 조준 오차를 산출하여 상기 영상장치로 전송하는 단계; 및 상기 영상장치가 감시범위 내에서 출현 가능한 상기 표적에 대하여, 상기 표적의 위치에 따른 상기 무장장치의 상기 조준 오차를 데이터베이스로 구축하는 단계;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method for operating a weapon system, the method comprising: detecting a target; detecting an image including a detachable image capturing unit; A method of operating a weapon system with a weapon capable of firing, the method comprising: measuring the distance / angle between the weapon device and the target and the distance / angle between the weapon device and the target, And a turning angle, and transmitting the elevation angle and turning angle to the arming device; Calculating an aiming error by using the distance between the weapon device and the target captured using the image capturing unit after the moving device moves to the elevation angle and the turning angle, and transmitting the sighting error to the image device; And constructing, as a database, the aiming error of the arming device according to the position of the target, with respect to the target capable of appearing within the monitoring range of the imaging device.

본 발명에 있어서, 상기 조준 오차를 산출하여 상기 영상장치로 전송하는 단계 후, 상기 조준 오차를 반영한 최종 고각 및 선회각을 산출하여 상기 무장장치로 전송하는 단계; 및 상기 무장장치가 수신한 상기 최종 고각과 선회각으로 이동하여, 상기 최종 고각 및 선회각이 오차 범위 이내인지 확인하는 단계;를 더 포함하는 것을 특징으로 한다.Calculating a final elevation angle and a turning angle reflecting the sighting error and transmitting the calculation result to the arming device after calculating the sighting error and transmitting the sighting error to the video device; And moving to the final high angle and the turning angle received by the arming device to confirm whether the final high angle and the turning angle are within an error range.

본 발명에 있어서, 상기 데이터베이스 구축 후 상기 무장장치가 상기 영상 촬영부를 분리하는 단계;를 더 포함하는 것을 특징으로 한다.The method may further include separating the image capturing unit from the image capturing apparatus after the database is constructed.

본 발명에 있어서, 상기 표적이 출현한 경우, 상기 영상 장치는 상기 표적의 위치를 산출하고, 상기 데이터베이스로부터 상기 표적의 위치에 따른 상기 무장장치의 조준 오차를 검색하여, 최종 고각 및 선회각을 산출하여 상기 무장장치들로 전송하는 단계; 및 상기 무장장치들은 전송 받은 최종 고각 및 선회각만큼 이동하여 상기 표적을 조준 한 후 사격하는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, when the target appears, the imaging device calculates the position of the target, searches the database for the aiming error of the weapon device according to the position of the target, and calculates the final elevation angle and turning angle To the arming devices; And moving the weapon by a final angle and a turning angle of the received weapon to aim and fire the target.

상술한 바와 같이, 본 발명은 다음과 같은 장점이 있다. As described above, the present invention has the following advantages.

첫째, 타격에 대한 거리측정 오차 및 무장장치 설치 장소의 오차에 따른 고각 및 선회각의 조준 오차를 보정하여 표적 사격의 정확성을 향상시킬 수 있다.First, it is possible to improve the accuracy of the target shooting by correcting the aiming error of the elevation angle and the turning angle according to the error of the distance measurement on the hit and the error of the installation place of the arming device.

둘째, 무장 시스템 구축 시에 감시 지역 내에서 출현 가능한 표적들에 대한 무장장치의 조준 오차를 데이터베이스로 구축하여 제공함으로써 교전 상황 발생 시, 표적에 대한 위치, 고각/선회각 산출에 많은 시간을 할애할 필요 없이 신속하고 정확하게 대응할 수 있다.Secondly, when the arming system is constructed, the aiming error of the armed device for the targets that can appear in the surveillance area is constructed and provided as a database, so that it takes much time to calculate the position of the target and calculation of the elevation / turn angle It can respond quickly and accurately without need.

셋째, 고가의 고성능 영상장치를 하나 혹은 소수만 배치하고 여러 대의 독립적인 고저 및 선회 구동이 가능한 무장장치들을 분리 배치하여 운영함으로써 비용이 크게 절감된다.Third, the cost is greatly reduced by arranging one or a few high-priced high-performance video apparatuses and operating the plurality of independent high-altitude and swiveling armed apparatuses separately.

넷째, 다양한 전투 상황에서 다양한 종류의 무장장치들을 적은 비용으로 배치하여 운영함으로써, 다양한 거리의 표적에 대해서 대응이 쉬우며, 복잡한 전투상황에서도 효과적으로 대응할 수 있는 다양한 종류의 무장장치들의 활용이 가능함으로써 보다 효과적으로 전략적인 전투 작전의 수행이 가능하다.Fourth, various kinds of arming devices can be deployed at a low cost in various combat situations, so that it is easy to deal with targets of various distances, and various kinds of arming devices capable of effectively coping with complex combat situations can be utilized It is possible to carry out strategic combat operations effectively.

다섯째, 다양한 종류의 무장장치들 혹은 동일한 종류의 다수의 무장장치들을 분산 배치하여 운영함으로써, 표적에 대한 집중력을 크게 증대시킬 수 있다. 즉, 복수개의 무장장치들을 이용한 작은 집중력을 요하는 표적뿐만 아니라, 많은 무장장치들의 집중적인 타격이 필요한 표적까지도 제압할 수 있게 된다.Fifth, various kinds of armed devices or the same kind of armed devices can be distributed and operated and the concentration of the target can be greatly increased. That is, it is possible to suppress not only a target requiring a small concentration using a plurality of arming devices, but also a target requiring a heavy strike by many arming devices.

도 1은 본 발명의 일 실시 예에 따른 무장 시스템의 구성을 보이는 블록도 이다.
도 2는 도 1 중 무장장치들의 조준 오차 산출을 설명하는 도면이다.
도 3은 감시 지역 내에서 출현 가능한 표적들에 대한 무장장치들의 조준 오차 데이터베이스 구축을 설명하기 위한 도면이다.
도 4는 데이터베이스 구축 후 무장장치로부터 영상 촬영부를 제거한 무장 시스템을 보이는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 무장 시스템의 동작 방법을 보이는 흐름도 이다.
1 is a block diagram illustrating a configuration of an arming system according to an embodiment of the present invention.
2 is a view for explaining calculation of aiming error of armed devices in FIG.
3 is a diagram for explaining the construction of the aiming error database of the armed devices for the targets that can appear in the surveillance area.
4 is a view showing an arming system in which an image capturing unit is removed from an arming apparatus after database construction.
5 is a flowchart illustrating an operation method of an arming system according to an embodiment of the present invention.

이하, 본 발명의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, do.

도 1은 본 발명의 일 실시 예에 따른 무장 시스템의 구성을 보이는 블록도 이다. 도 1을 참조하면, 무장 시스템(10)은 마스터로서의 영상장치(100), 슬레이브로서의 제1 무장장치(200) 및 제2 무장장치(300)를 포함하며, 영상장치(100)의 감시 범위 내에 존재하는 표적(400)을 포함한다. 본 실시 예에 있어서, 제1 무장장치(200) 및 제2 무장장치(300)는 각각 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)를 포함한다. 본 실시 예에 있어서, 무장장치는 2대 이상 구비될 수 있으나, 이하에서는 설명의 편의상 2대의 무장장치들(200, 300)에 대해서만 설명하기로 한다.1 is a block diagram illustrating a configuration of an arming system according to an embodiment of the present invention. 1, the arming system 10 includes a video apparatus 100 as a master, a first arming apparatus 200 as a slave, and a second arming apparatus 300, And includes an existing target 400. In the present embodiment, the first arming device 200 and the second arming device 300 include a first image capturing unit 210 and a second image capturing unit 310, respectively. In the present embodiment, two or more arming devices 200 and 300 may be provided, but only two arming devices 200 and 300 will be described below for convenience of explanation.

영상장치(100)는 특정한 장소, 예컨대 국경선 부근에 설치되어 전방에 나타나는 표적(400)을 탐지한다. 표적(400)으로는 이동수단, 예컨대 차량, 장갑차, 항공기, 경비정 등이 될 수 있으며, 경우에 따라 움직이는 물체는 모두 표적(400)이 될 수 있다. 영상장치(100)는 한 곳에 고정적으로 설치되는 것이 바람직하나, 필요에 따라 다른 곳으로 이동될 수도 있다.The imaging device 100 detects a target 400 that is installed at a specific location, e.g., a border line, and appears forward. The target 400 may be a moving means such as a vehicle, an armored vehicle, an aircraft, a boat guard, etc. In some cases, a moving object may be a target 400. Preferably, the imaging device 100 is fixedly installed in one place, but may be moved to another location if necessary.

영상장치(100)는 고가의 고성능 카메라를 구비하여 표적(400)의 움직임을 세밀하게 탐지한다. 즉, 영상장치(100)는 사람의 눈의 역할을 하면서 표적(400)을 탐지하고 정찰하며, 복수개의 무장장치들(200, 300)은 사람의 손과 발처럼 영상장치(100)로부터 표적(400)에 대한 정보를 받아서 탐지된 표적(400)을 사격할 수 있다.The imaging device 100 includes an expensive high-performance camera to detect motion of the target 400 in detail. In other words, the imaging apparatus 100 detects and scoutes the target 400 while acting as a human eye, and the plurality of arming apparatuses 200 and 300 are moved from the imaging apparatus 100 to the target 400) and fire the detected target (400).

영상장치(100)는 제1 무장장치(200) 및 제2 무장장치(300)가 표적(400)을 사격하기에 적합한 고각과 선회각을 산출하여 제1 무장장치(200) 및 제2 무장장치(300)로 전송한다. 즉, 영상장치(100)는 제1 무장장치(200) 및 제2 무장장치(300)의 위치(거리 및 각도 포함)를 파악하고, 표적(400)이 나타나면 표적(400)의 위치(거리 및 각도 포함)를 측정한 다음 이를 근거로 표적(400)을 향한 제1 무장장치(200) 및 제2 무장장치(300)의 고각 및 선회각을 산출하여 제1 무장장치(200) 및 제2 무장장치(300)로 전송한다. 여기서, 영상장치(100)는 LRF(laser range finder)를 구비하여, 영상장치(100)로부터 표적(400)까지의 거리를 측정할 수 있다.The imaging device 100 may calculate the elevation angle and the turning angle suitable for the first arming device 200 and the second arming device 300 to fire the target 400 so that the first arming device 200 and the second arming device 300, (300). That is, the imaging device 100 grasps the positions (including distances and angles) of the first and second armed devices 200 and 300 and determines the position (distance and orientation) of the target 400 when the target 400 appears Angle and inclination angles of the first and second arming apparatuses 200 and 300 toward the target 400 are calculated based on the angles and angles of the first arming apparatus 200 and the second arming apparatus 300, To the device (300). Here, the imaging apparatus 100 may include a laser range finder (LRF) to measure the distance from the imaging apparatus 100 to the target 400.

제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)와 분리되어, 영상장치(100)와 소정 거리 이격된 곳에 설치된다. 제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)와 통신이 가능한 위치에 설치되며, 영상장치(100)가 탐지하는 표적(400)을 사격할 수 있는 위치에 설치된다. 제1 무장장치(200) 및 제2 무장장치(300)는 유선 또는 무선을 통해서 영상장치(100)로부터 표적(400) 정보를 수신한다. 제1 무장장치(200) 및 제2 무장장치(300)는 하나의 표적(400)을 동일하게 조준하여 사격할 수도 있고, 복수개의 표적들(도 2의 400-440)을 개별적으로 사격할 수도 있다. 제1 무장장치(200) 및 제2 무장장치(300)는 서로 동일한 종류일 수도 있고, 다른 종류일 수도 있다.The first arming device 200 and the second arming device 300 are installed apart from the imaging device 100 and spaced apart from the imaging device 100 by a predetermined distance. The first arming device 200 and the second arming device 300 are installed at positions capable of communicating with the imaging device 100 and are installed at positions where the target 400 detected by the imaging device 100 can be shot do. The first arming device 200 and the second arming device 300 receive the target 400 information from the imaging device 100 via wired or wireless. The first arming device 200 and the second arming device 300 may equally aim and fire one target 400 or may fire individually a plurality of targets (400-440 of FIG. 2) have. The first arming device 200 and the second arming device 300 may be the same type or different types.

제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)로부터 고각 및 선회각을 전송 받아 해당 고각 및 선회각으로 이동한다. 이후 제1 무장장치(200) 및 제2 무장장치(300)는 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)를 이용하여 제1 무장장치(200) 및 제2 무장장치(300)는 표적(400)까지의 거리를 측정한다. 제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)로부터 전송 받은 고각 및 선회각과, 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)를 이용하여 측정된 표적(400)까지의 거리, 화소수 및 화각(FOV: field of view)를 이용하여, 조준이 얼마만큼 벗어났는지 여부를 나타내는 조준 오차를 산출한다. 이하 도 2를 참조하여 조준 오차 산출을 설명하기로 한다.The first arming device 200 and the second arming device 300 receive the high angle and the turning angle from the imaging device 100 and move to the corresponding high angle and turning angle. The first arming device 200 and the second arming device 300 are connected to the first arming device 200 and the second arming device 300 using the first image capturing device 210 and the second image capturing device 310, 300 measure the distance to the target 400. The first arming device 200 and the second arming device 300 measure the angles and swivel angles received from the imaging device 100 and the angles and swivel angles measured by the first and second image capturing devices 210 and 310 The target distance 400, the number of pixels, and the field of view (FOV) are used to calculate an aiming error indicating how much the aiming is deviated. Hereinafter, the aiming error calculation will be described with reference to FIG.

도 2a를 참조하면, A1~A5, B1~B5 등의 선별된 목표 지점(500)에 대해 영상장치(100)가 순차적으로 조준을 실시한다. 이때 제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)로부터 소정의 거리 이격된 위치에 설치되어 있다. 영상장치(100)는 제1 무장장치(200) 및 제2 무장장치(300)의 상대 설치 위치(거리 등)을 알고 있기 때문에, 예를 들어 영상장치(100)가 목표지점(500) 중 A1 표적을 조준할 때 제1 무장장치(200) 및 제2 무장장치(300)가 기본적으로 이동해야 할 고각과 선회각을 계산할 수 있다. 영상장치(100)는 계산된 고각과 선회각을 제1 무장장치(200) 및 제2 무장장치(300)로 전송하고, 제1 무장장치(200) 및 제2 무장장치(300)는 수신한 고각 및 선회각만큼 이동하게 된다. Referring to FIG. 2A, the imaging apparatus 100 sequentially targets the selected target point 500 such as A1 to A5, B1 to B5, and the like. At this time, the first arming device 200 and the second arming device 300 are installed at a predetermined distance from the imaging device 100. Since the imaging apparatus 100 knows the relative installation position (distance, etc.) of the first arming apparatus 200 and the second arming apparatus 300, for example, when the imaging apparatus 100 is located at the position A1 The elevation angle and the turning angle at which the first arming device 200 and the second arming device 300 are basically moved can be calculated when the target is aimed. The imaging device 100 transmits the calculated elevation angle and turning angle to the first arming device 200 and the second arming device 300 and the first arming device 200 and the second arming device 300 transmit It is moved by the elevation angle and the turning angle.

도 2b는 영상장치(100)로부터 수신한 고각 및 선회각만큼 이동한 제1 무장장치(200)가 제1 영상 촬영부(210)로 촬영한 조준점을 보이고 있다. 도 2b를 참조하면, 제1 무장장치(200)의 조준점과 영상장치(100)의 조준점이 가로(선회) 방향 10 픽셀, 고저 방향 5 픽셀의 오차가 있음을 알 수 있다. 따라서 화각을 이용하여 선회, 고저 방향의 오차를 계산하면 다음과 같다. 예를 들어, 화각이 5°라면, 비례식 640 픽셀: 5°=10 픽셀: x°로부터 선회방향 x=0.078125°, 고저방향 y=0.0390625가 조준 오차로 계산된다. 이후, 제1 무장장치(200) 및 제2 무장장치(300)에서 산출한 조준 오차는 다시 영상장치(100)로 전송된다.FIG. 2B shows the aiming point taken by the first image capturing unit 210 of the first arming apparatus 200 moved by the angle of elevation and turning angle received from the image capturing apparatus 100. FIG. Referring to FIG. 2B, it can be seen that the aiming point of the first arming apparatus 200 and the aiming point of the imaging apparatus 100 have an error of 10 pixels in the horizontal (turning) direction and 5 pixels in the high and low direction. Therefore, the error of the turning and the elevation direction is calculated using the angle of view as follows. For example, if the angle of view is 5 °, then the aiming direction error is computed from the proportional 640 pixels: 5 ° = 10 pixels: x ° in the turning direction x = 0.078125 ° and in the high and low directions y = 0.0390625. Then, the aiming error calculated by the first arming device 200 and the second arming device 300 is transmitted to the imaging device 100 again.

여기서, 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)는 제1 무장장치(200) 및 제2 무장장치(300)의 전방 상황을 촬영하기 위한 것으로, 착탈이 가능하며, 가시광선 카메라(미도시), 적외선 카메라(미도시) 및 거리 측정기(미도시)를 구비한다. 가시광선 카메라는 주간 또는 조명이 있는 경우에 주변의 상황을 촬영하기 위한 것이며, 원거리의 목표물을 식별할 수 있도록 망원촬영이 가능하게 구성된다. 적외선 카메라는 야간과 같이 조명이 부족한 경우에 주변의 상황을 촬영하기 위하여 인체 또는 기계장치가 발산하는 적외선을 감지하기 위한 것이다. 거리 측정기는 제1 무장장치(200) 및 제2 무장장치(300)와 표적(400) 사이의 거리를 측정하기 위한 것으로 레이저 거리 측정기가 사용될 수 있다.Here, the first image capturing unit 210 and the second image capturing unit 310 are for capturing the forward situation of the first arming device 200 and the second arming device 300, (Not shown), an infrared camera (not shown), and a distance measuring device (not shown). The visible light camera is for taking pictures of the surroundings in the daytime or in the presence of illumination, and is configured to enable telephoto shooting so that a distant target can be identified. An infrared camera is for detecting the infrared rays emitted by a human body or a mechanical device in order to capture a surrounding situation in case of insufficient illumination such as nighttime. The distance measurer is used to measure the distance between the first arming device 200 and the second arming device 300 and the target 400, and a laser distance measurer may be used.

예를 들어, 영상장치(100)가 표적(400)에 대하여 고각 5도 및 선회각 10도를 산출하여 제1 무장장치(200) 및 제2 무장장치(300)로 전송하면, 제1 무장장치(200) 및 제2 무장장치(300)는 고각 5도 및 선회각 10도만큼 이동한다. 이 상태에서 제1 무장장치(200) 및 제2 무장장치(300)는 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)가 측정한 표적(400)까지의 거리를 이용하여 영상장치(100)로부터 전송 받은 고각 및 선회각에 대한 조준 오차를 계산한 후 영상장치(100)로 전송한다.For example, if the imaging device 100 calculates an elevation angle of 5 degrees and a turning angle of 10 degrees with respect to the target 400 and transmits it to the first arming device 200 and the second arming device 300, The first arm 200 and the second arm 300 move by an angle of 5 degrees and a turning angle of 10 degrees. In this state, the first arming device 200 and the second arming device 300 use the distance to the target 400 measured by the first image capturing unit 210 and the second image capturing unit 310, Calculates a sighting error for the high angle and the turning angle received from the apparatus 100, and transmits the sighting error to the video apparatus 100.

영상장치(100)는 제1 무장장치(200) 및 제2 무장장치(300)로부터 전송 받은 조준 오차를 저장하고, 조준 오차를 고각 및 선회각에 반영하여 최종 고각 및 선회각을 산출한 후 제1 무장장치(200) 및 제2 무장장치(300)의 최종 고각 및 선회각으로 전송한다. 최종 고각 및 선회각을 수신한 제1 무장장치(200) 및 제2 무장장치(300)는 정확하게 조준되었는지 재확인할 수 있다.The imaging apparatus 100 stores a sighting error received from the first arming apparatus 200 and the second arming apparatus 300 and reflects the sighting error to the high angle and the turning angle to calculate the final high angle and turning angle, 1 arming device 200 and the second arming device 300, respectively. The first arming device 200 and the second arming device 300 which have received the final elevation angle and turning angle can re-confirm that they are correctly aimed.

여기서, 영상장치(100)는 도 3에 도시된 바와 같이, 감시범위 내에서 출현 가능한 모든 표적들(410-440)에 대하여, 각 표적(410-440)의 위치를 측정하고, 측정된 표적(410-440)에 위치에 대해 제1 무장장치(200) 및 제2 무장장치(300)의 조준 오차 데이터베이스를 구축할 수 있다. 이와 같은 데이터베이스 구축 후, (400)이 출현하였을 경우, 영상장치(100)는 데이터베이스에 저장된 표적(400)의 위치에 따른 조준 오차를 고각/선회각에 반영함으로써, 신속하고 정확하게 대응할 수 있다. 이와 같은 조준 오차 데이터베이스 구축이 완료되면, 1 무장장치(200) 및 제2 무장장치(300)는 장착되었던 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)를 분리한다. 도 4에는 영상장치(100)의 조준 오차 데이터베이스 구축 후, 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)가 분리된 제1 무장장치(200) 및 제2 무장장치(300)를 보여주고 있다.Here, the imaging apparatus 100 measures the position of each of the targets 410-440 with respect to all the targets 410-440 that can appear within the monitoring range, as shown in FIG. 3, The aiming error database of the first arming device 200 and the second arming device 300 can be constructed with respect to positions in the first arming device 410-440. After the database 400 is constructed, the imaging apparatus 100 can respond quickly and accurately by reflecting the sighting error according to the position of the target 400 stored in the database to the high angle / turning angle. When the setup of the aiming error database is completed, the first arming device 200 and the second arming device 300 separate the first image capturing unit 210 and the second image capturing unit 310 from each other. 4 shows a first armed device 200 and a second armed device 300 in which the first image capturing unit 210 and the second image capturing unit 310 are separated after the setting of the aiming error database of the image capturing apparatus 100, Respectively.

이후, 감시지역 내에서 표적(400)이 출현하면, 영상장치(100)는 표적(400)의 위치 및 데이터베이스에 저장된 조준 오차를 이용하여 최종 고각 및 선회각을 산출하여 제1 무장장치(200) 및 제2 무장장치(300)로 전송하고, 제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)로부터 최종 고각 및 선회각으로 표적(400)을 조준하여 사격함으로써 표적(400)을 신속하고 정확하게 파괴할 수 있게 된다.Thereafter, when the target 400 appears in the surveillance area, the imaging apparatus 100 calculates the final elevation angle and swing angle using the position of the target 400 and the sighting error stored in the database, And the first and second arming devices 200 and 300 transmit the target 400 from the imaging device 100 to the target device 400 at the final elevation and swivel angles, It is possible to quickly and accurately destroy the light source 400.

도 5는 본 발명의 일 실시 예에 따른 무장 시스템(10)의 동작 방법을 보이는 흐름도 이다.5 is a flow chart illustrating an operation method of the arming system 10 according to an embodiment of the present invention.

도 5를 참조하면, 무장 시스템(10)은 임의의 감시지역에 마스터로서의 영상장치(100) 및 슬레이브로서의 착탈 가능한 영상 촬영부(210,310)가 장착된 복수의 무장장치(200,300)를 설치하는 단계(S110)를 수행한다.5, the arming system 10 includes the steps of installing a plurality of arming devices 200 and 300 equipped with an imaging device 100 as a master and detachable image capturing devices 210 and 310 as a slave in an arbitrary monitoring area S110).

감시지역 내에 영상장치(100) 및 무장장치(200,300)의 설치가 완료되면, 영상장치(100)는 감시지역 내의 임의의 표적(400)을 선정하는 단계(S120)를 수행한다.When installation of the imaging device 100 and the arming devices 200 and 300 is completed in the monitoring area, the imaging device 100 performs a step S120 of selecting an arbitrary target 400 in the monitoring area.

표적(400) 선정이 완료되면 영상장치(100)는, 영상장치(100)와 무장장치(200,300) 사이의 위치(거리 및 각도)와, 영상장치(100)와 표적(400) 사이의 위치(거리 및 각도)를 산출하고, 이를 이용하여 표적(400)에 대한 무장장치(200,300)의 고각 및 선회각을 산출하여 무장장치(200,300)로 전송하는 단계(S130)를 수행한다.Once the target 400 is selected, the imaging device 100 determines the position (distance and angle) between the imaging device 100 and the armed devices 200 and 300 and the position (distance and angle) between the imaging device 100 and the target 400 And calculates the elevation angle and the pivot angle of the arming devices 200 and 300 with respect to the target 400 using the calculated distance and angle and then transmits the calculated angle to the arming devices 200 and 300 at step S130.

이후 무장장치(200,300)는 영상장치(100)로부터 수신한 고각 및 선회각만큼 이동하는 단계(S140)를 수행하고, 무장장치(200,300)는 영상 촬영부(210,310)를 이용하여 촬영한 무장장치(200,300)와 표적(400) 사이의 거리 및 영상장치(100)로부터 수신한 고각 및 선회각으로부터 조준 오차를 산출하여 영상장치(100)로 전송하는 단계(S150)를 수행한다.Thereafter, the arming apparatuses 200 and 300 perform a step of moving S140 by a high angle and a turning angle received from the imaging apparatus 100, and the arming apparatuses 200 and 300 move the arming apparatuses 200 and 300 photographed using the image capturing units 210 and 310 200, 300) and the target 400 and the angle of elevation and swing angle received from the imaging device 100 and transmits the calculated aiming error to the imaging device 100 (S150).

조준 오차를 수신한 영상장치(100)는, 조준 오차를 반영한 최종 고각 및 선회각을 산출하여 무장장치(200,300)로 전송하는 단계(160)를 수행한다.The imaging apparatus 100 having received the aiming error calculates a final elevation angle and a turning angle reflecting the aiming error and transmits the calculation result to the arming apparatuses 200 and 300 (160).

이후 무장장치(200,300)는 영상장치(100)로부터 전송된 최종 고각 및 선회각만큼 이동하면서 오차범위(예를 들어 ±5% 이내) 인지 확인하는 단계(S170,S180)를 수행한다.Subsequently, the arming apparatus 200 or 300 performs steps S170 and S180 for confirming whether it is within an error range (for example, within ± 5%) while moving by the final high angle and turning angle transmitted from the imaging apparatus 100.

최종 고각 및 선회각이 오차범위 이내인 경우, 무장장치(200,300)는 이를 영상장치(100)에 알리고, 영상장치(100)는 오차범위 내의 조준 오차를 내부 데이터베이스에 저장하는 단계(S190)를 수행한다. 그러나, 최종 고각 및 선회각이 오차범위를 벗어난 경우, S130으로 이동하여 조준 오차를 다시 산출한다.If the final height angle and the turning angle are within the tolerance range, the arming devices 200 and 300 inform the imaging device 100 of this, and the imaging device 100 stores the aiming error within the error range in the internal database do. However, if the final elevation angle and turning angle deviate from the error range, the process moves to S130 to calculate the aiming error again.

영상장치(100)는 감시 지연 내에서 출현 가능한 모든 표적에 대하여 S120 내지 S190를 반복 수행하여, 표적 위치에 따른 무장장치(200,300)의 조준 오차를 데이터베이스로 구축하는 단계(S200)를 수행한다.The imaging apparatus 100 repeats steps S120 to S190 for all targets that can occur within the monitoring delay and performs a step S200 of constructing a sighting error of the arming apparatuses 200 and 300 according to the target position as a database.

데이터베이스 구축이 완료되면, 무장장치(200,300)는 영상 촬영부(210,310)를 분리하고, 영상 감시 시스템(10)은 감시 모드로 진입하는 단계(S210)를 수행한다.When the database construction is completed, the arming apparatuses 200 and 300 separate the image capturing units 210 and 310, and the image surveillance system 10 enters the monitoring mode (S210).

이후, 영상장치(100)는 감시지역 내에 표적이 출현하였는지 판단하는 단계(S220)를 수행한다. 영상장치(100) 내부에는 사격 대상 표적 정보가 저장되어 있어서, 표적 비교를 통하여 사격 대상 표적이 출현하였는지 판단할 수 있다.Thereafter, the imaging apparatus 100 performs a step S220 of determining whether a target has appeared in the surveillance area. Since the shooting target information is stored in the imaging apparatus 100, it can be determined whether or not the shooting target has appeared through the target comparison.

감시지역 내에 표적이 출현한 경우 영상장치(100)는, 영상장치(100)와 무장장치(200,300) 사이의 위치(거리 및 각도)와, 영상장치(100)와 표적(400) 사이의 위치(거리 및 각도)를 산출하고, 산출된 위치들과, 데이터베이스로부터 검색된 표적(400)의 위치에 따른 조준 오차를 이용하여 표적(400)에 대한 무장장치(200,300)의 최종 고각 및 선회각을 산출하여 무장장치(200,300)로 전송하는 단계(S230)를 수행한다.When a target appears in the surveillance area, the imaging device 100 detects the position (distance and angle) between the imaging device 100 and the armed devices 200 and 300 and the position (distance and angle) between the imaging device 100 and the target 400 Distance and angle) and calculates the final elevation angle and turning angle of the arming device 200, 300 relative to the target 400 using the calculated positions and the aiming error according to the position of the target 400 searched from the database To the arming devices 200 and 300 (S230).

무장장치(200,300)는 영상장치(100)로부터 수신한 최종 고각 및 선회각만큼 이동하여 표적을 조준 후 사격하는 단계(S240)를 수행한다.The arming devices 200 and 300 move the target by the final high angle and turning angle received from the imaging device 100, and aim at the target and fire the target (S240).

이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the above-described embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

100: 영상장치 200: 제1 무장장치
210: 제1 영상 촬영부 300: 제2 무장장치
310: 제2 영상 촬영부 400-440: 표적
500: 목표지점
100: imaging device 200: first arming device
210: first image capturing unit 300: second arming device
310: second image capturing unit 400-440: target
500: Target point

Claims (7)

착탈 가능한 영상 촬영부를 포함하고, 표적을 사격하는 적어도 하나 이상의 무장장치; 및
상기 무장장치와 분리되어 설치되며, 상기 무장장치의 위치 및 상기 표적의 위치를 산출하고, 상기 산출된 무장장치의 위치 및 상기 산출된 표적의 위치를 이용하여 상기 무장장치가 상기 표적을 사격하기에 적합한 고각 및 선회각을 산출하여 상기 무장장치로 전송하는 영상장치;를 포함하고,
상기 무장장치는,
상기 영상장치로부터 수신한 고각 및 선회각만큼 이동한 후 상기 영상 촬영부로 촬영한 상기 영상장치의 조준점과, 상기 무장장치의 조준점 간의 조준 오차를 산출한 후 상기 영상장치로 전송하고,
상기 영상장치는,
상기 무장장치로부터 전송된 조준 오차를 반영한 최종 고각 및 선회각을 상기 무장장치로 전송하는 것을 특징으로 하는 무장 시스템.
At least one or more arming devices, including a detachable image capturing section, for shooting a target; And
Wherein the arming device is installed separately from the arming device, calculating the position of the arming device and the position of the target, and using the calculated position of the arming device and the calculated position of the target, And an imaging device for calculating an appropriate elevation angle and turning angle and transmitting the angle to the arming device,
The arming device comprises:
Calculating a sighting error between an aiming point of the video apparatus photographed by the video photographing unit and an aiming point of the weapon apparatus after moving the subject by a high angle and a turning angle received from the video apparatus,
The video apparatus includes:
Wherein the final elevation angle and turning angle reflecting the aiming error transmitted from the arming device is transmitted to the arming device.
제 1항에 있어서,
상기 무장장치는, 상기 조준 오차를 픽셀 단위로 산출한 후 상기 영상 촬영부의 화각을 고려하여 상기 조준 오차를 고각 및 선회각 단위로 산출하여 상기 영상장치로 전송하고,
상기 영상장치는,
감시범위 내에서 출현 가능한 상기 표적에 대하여, 상기 표적의 위치에 따른 상기 무장장치의 상기 조준 오차를 데이터베이스로 구축하는 것을 특징으로 하는 무장 시스템.
The method according to claim 1,
The arming apparatus calculates the aiming error in units of an elevation angle and a turning angle in consideration of an angle of view of the image photographing unit after calculating the aiming error in pixel units,
The video apparatus includes:
For the target which can appear within the monitoring range, the aiming error of the arming device according to the position of the target is built into the database.
제 2항에 있어서,
상기 데이터베이스 구축이 완료된 후, 상기 무장장치로부터 상기 영상 촬영부를 분리하는 것을 특징으로 하는 무장 시스템.
3. The method of claim 2,
And after the database construction is completed, separates the image capturing unit from the arming device.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020120158531A 2012-12-31 2012-12-31 Armament system and method for operating the same KR101621396B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120158531A KR101621396B1 (en) 2012-12-31 2012-12-31 Armament system and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120158531A KR101621396B1 (en) 2012-12-31 2012-12-31 Armament system and method for operating the same

Publications (2)

Publication Number Publication Date
KR20140087832A KR20140087832A (en) 2014-07-09
KR101621396B1 true KR101621396B1 (en) 2016-05-16

Family

ID=51736678

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120158531A KR101621396B1 (en) 2012-12-31 2012-12-31 Armament system and method for operating the same

Country Status (1)

Country Link
KR (1) KR101621396B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102252823B1 (en) * 2019-12-20 2021-05-17 주식회사 한화 Apparatus and method for tracking targets and releasing warheads
RU2775579C2 (en) * 2020-12-08 2022-07-04 Алексей Владимирович Зубарь Fire control system for armoured vehicles

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101763294B1 (en) 2015-12-16 2017-08-04 한화지상방산 주식회사 Shooting Control System and Method Using Thereof
KR101944631B1 (en) 2017-09-26 2019-01-31 주식회사 한화 Free rocket aiming device and method for calibrating aiming error of shooter

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102252823B1 (en) * 2019-12-20 2021-05-17 주식회사 한화 Apparatus and method for tracking targets and releasing warheads
RU2775579C2 (en) * 2020-12-08 2022-07-04 Алексей Владимирович Зубарь Fire control system for armoured vehicles

Also Published As

Publication number Publication date
KR20140087832A (en) 2014-07-09

Similar Documents

Publication Publication Date Title
CA2904485C (en) Firearm aiming system with range finder, and method of acquiring a target
US10097764B2 (en) Firearm, aiming system therefor, method of operating the firearm and method of reducing the probability of missing a target
US9488442B2 (en) Anti-sniper targeting and detection system
US8794967B2 (en) Firearm training system
KR100963681B1 (en) Remote gunshot system and method to observed target
US11441874B2 (en) Remote weapon control device and method for targeting and shooting multiple objects
KR101572896B1 (en) Tank around the battlefield situational awareness system
US20110053120A1 (en) Marksmanship training device
KR101621396B1 (en) Armament system and method for operating the same
CN204478922U (en) Small caliber piece multi-axial cord consistency detection system
KR101815678B1 (en) Armament system interworking with image device and method for operating the same
RU2403526C2 (en) System for aiming firing from shelter
US11118866B2 (en) Apparatus and method for controlling striking apparatus and remote controlled weapon system
KR20220052765A (en) Remote Controlled Weapon System in Moving Platform and Tracking Method of Moving Target thereof
KR101664614B1 (en) Manless flight sensing apparatus and sniper weapon for realizing to situation of enemy position, image collection method
WO2022259241A1 (en) System and method for zeroing of smart aiming device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190425

Year of fee payment: 4