KR101621396B1 - Armament system and method for operating the same - Google Patents
Armament system and method for operating the same Download PDFInfo
- Publication number
- KR101621396B1 KR101621396B1 KR1020120158531A KR20120158531A KR101621396B1 KR 101621396 B1 KR101621396 B1 KR 101621396B1 KR 1020120158531 A KR1020120158531 A KR 1020120158531A KR 20120158531 A KR20120158531 A KR 20120158531A KR 101621396 B1 KR101621396 B1 KR 101621396B1
- Authority
- KR
- South Korea
- Prior art keywords
- arming
- target
- angle
- error
- arming device
- Prior art date
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G5/00—Elevating or traversing control systems for guns
- F41G5/06—Elevating or traversing control systems for guns using electric means for remote control
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41J—TARGETS; TARGET RANGES; BULLET CATCHERS
- F41J9/00—Moving targets, i.e. moving when fired at
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
Abstract
본 발명은 무기에 관한 것으로, 보다 상세하게는 표적을 탐지하는 영상장치와 영상장치로부터 표적 관련 정보를 수신하여 표적을 사격하는 무장장치가 연동하는 무장 시스템 및 그의 동작 방법에 관한 것이다. 무장 시스템은 착탈 가능한 영상 촬영부를 포함하고, 표적을 사격하는 적어도 하나 이상의 무장장치 및 무장장치와 분리되어 설치되며, 표적을 촬영하고, 무장장치가 표적을 사격하기에 적합한 고각 및 선회각을 산출하여 무장장치로 전송하는 영상장치를 포함하고, 무장장치는, 내부에서 영상 촬영부를 이용하여 산출한 표적의 위치 및 영상장치로부터 전송된 고각 및 선회각을 이용하여 조준 오차를 산출한 후 영상장치로 전송하고, 영상장치는, 무장장치로부터 전송된 조준 오차를 반영한 최종 고각 및 선회각을 무장장치로 전송하는 것을 특징으로 한다.Field of the Invention The present invention relates to weapons, and more particularly, to a weapon system in which a target device is detected and a weapon device that receives target-related information from a target device and fires a target, and an operation method thereof. The arming system includes a detachable image capturing unit, and is installed separately from at least one or more arming apparatuses and arming apparatuses that shoot targets, captures a target, and calculates a high angle and a turning angle suitable for shooting the target by the arming apparatus The arming device calculates an aiming error using the position of the target calculated using the image capturing unit and the elevation angle and the turning angle transmitted from the image device, and then transmits the sighting error to the image device And the video apparatus transmits the final high angle and turning angle reflecting the aiming error transmitted from the arming apparatus to the arming apparatus.
Description
본 발명은 무기에 관한 것으로, 보다 상세하게는 표적을 탐지하는 영상장치와 영상장치로부터 표적 관련 정보를 수신하여 표적을 사격하는 무장장치가 연동하는 무장 시스템 및 그의 동작 방법에 관한 것이다.Field of the Invention The present invention relates to weapons, and more particularly, to a weapon system in which a target device is detected and a weapon device that receives target-related information from a target device and fires a target, and an operation method thereof.
무장 시스템은 근접 혹은 원거리 전투 임무 수행 시에 사수가 노출되지 않은 상태에서 영상장치가 무장장치를 조종하여 표적을 정밀 사격하는 시스템으로서 사수의 인명 피해 없이 전투 임무 수행이 가능하도록 해준다. 종래의 무장 시스템은 영상장치와 둘 이상의 무장장치로 구성되어 있으며, 영상장치에서 탐지된 목표물의 위치정보를 무장장치로 제공하여, 각 무장장치가 집중적으로 표적을 조준 혹은 타격할 수 있도록 하고 있다. 무장 시스템에서 표적과 이 표적을 탐지하는 영상장치가 3차원 공간상에 존재하고, 영상장치와 무장장치 또한 서로 3차원 공간상에 존재하며, 마지막으로 무장장치와 표적 또한 3차원 공간상에 존재한다. 따라서 무장 시스템은 영상장치와 무장장치 사이의 상대 위치 및 3차원 좌표 변환 알고리즘을 이용하여 표적을 정확하게 타격하도록 하고 있다.The arming system allows the imager to control the arming device to precisely fire the target without exposing the shooter when performing close or ranged combat missions, enabling the combat mission to be performed without hurting the shooter. The conventional arming system is composed of a video device and two or more armed devices, and provides location information of the detected targets in the video device to the armed device so that each armed device can intensively aim or strike the target. In the armed system, the target and the imaging device that detects the target exist in the three-dimensional space, and the imaging device and the arming device are also in the three-dimensional space with each other. Finally, the arming device and the target also exist in the three-dimensional space . Therefore, the arming system uses the relative position between the imaging device and the arming device and the 3D coordinate transformation algorithm to hit the target precisely.
3차원 공간에서 좌표 변환 알고리즘을 적용할 때 영상장치에서 표적까지의 거리 정보가 중요한데, 일반적으로 사용하는 거리 측정기는 약 10m의 거리 측정 오차가 있다. 이로 인해 멀리 떨어져 있는 표적에 대해, 각 무장장치에 전달되는 조준 각도에 오차가 발생하게 된다. 또한 무장장치가 설치된 장소의 수평과 수직을 측정해 보면, 수평방향으로 평탄도가 0도가 아니며, 수직방향으로도 0도가 아니다. 이와 같은 설치 오차로 인해 영상장치가 산출하는 무장장치의 고각 및 선회각도에 오차가 발생한다. 이와 같은 오차는 사격 정확도를 저하시키는 원인이 되고 있다.When applying the coordinate transformation algorithm in 3D space, the distance information from the imaging device to the target is important. In general, the distance measuring device used has a distance measurement error of about 10 m. This causes an error in the aiming angle transmitted to each armed device for a distant target. In addition, horizontal and vertical measurements of the location where the armed device is installed are not 0 degrees in the horizontal direction and 0 degrees in the vertical direction. Such an installation error causes an error in the elevation angle and the turning angle of the armed device calculated by the imaging device. Such an error causes degradation of shooting accuracy.
본 발명이 해결하고자 하는 기술적인 과제는 독립적으로 고저 및 선회구동이 가능한 하나의 영상장치를 운영하여 표적을 탐지하고, 이 탐지된 표적을 독립 구동이 가능한 복수의 무장장치들이 정확하게 사격할 수 있도록 하는 무장 시스템 및 그의 동작 방법을 제공하는데 있다.It is a technical object of the present invention to provide a system and method for operating a single imaging device capable of independent high and low swinging motion to detect a target and to enable a plurality of armed devices capable of independently driving the detected target to fire accurately And a method of operating the same.
본 발명이 해결하고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 무장 시스템은 착탈 가능한 영상 촬영부를 포함하고, 상기 표적을 사격하는 적어도 하나 이상의 무장장치; 및 상기 무장장치와 분리되어 설치되며, 상기 표적을 촬영하고, 상기 무장장치가 상기 표적을 사격하기에 적합한 고각 및 선회각을 산출하여 상기 무장장치로 전송하는 영상장치;를 포함하고, 상기 무장장치는, 내부에서 상기 영상 촬영부를 이용하여 산출한 표적의 위치 및 상기 영상장치로부터 전송된 상기 고각 및 선회각을 이용하여 조준 오차를 산출한 후 상기 영상장치로 전송하고, 상기 영상장치는, 상기 무장장치로부터 전송된 조준 오차를 반영한 최종 고각 및 선회각을 상기 무장장치로 전송하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a weapon system comprising: a detachable image capturing unit; at least one or more arming devices for shooting the target; And an image device installed separately from the arming device and imaging the target and calculating the elevation angle and swivel angle suitable for the arming device to fire the target and transmitting it to the arming device, Calculates a sighting error using the position of the target calculated using the image capturing unit and the high angle and the turning angle transmitted from the video apparatus, and transmits the calculated sighting error to the video apparatus, And a final elevation angle and a turning angle reflecting a sighting error transmitted from the device are transmitted to the arming device.
본 발명에 있어서, 상기 영상장치는, 감시범위 내에서 출현 가능한 상기 표적에 대하여, 상기 표적의 위치에 따른 상기 무장장치의 상기 조준 오차를 데이터베이스로 구축하는 것을 특징으로 한다.In the present invention, the imaging apparatus is configured to construct, as a database, the aiming error of the arming apparatus according to the position of the target with respect to the target that can appear within the monitoring range.
본 발명에 있어서, 상기 조준 오차 데이터베이스 구축이 완료된 후, 상기 무장장치로부터 상기 영상 촬영부를 분리하는 것을 특징으로 한다.In the present invention, after the construction of the aiming error database is completed, the image capturing unit is separated from the weapon system.
본 발명이 해결하고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 무장 시스템의 동작 방법은 표적을 탐지하고, 착탈 가능한 영상 촬영부를 포함하는 영상장치 및 상기 영상장치와 이격되어 설치되며 상기 표적을 사격할 수 있는 무장장치를 구비한 무장시스템의 동작 방법으로서, 상기 영상장치가 상기 무장장치와의 거리/각도 및 상기 표적과의 거리/각도를 측정하여 상기 무장장치와 상기 표적 사이의 거리/고각 및 선회각을 산출하고, 상기 고각 및 선회각을 상기 무장장치로 전송하는 단계; 상기 무장장치가 상기 고각 및 선회각으로 이동한 후, 상기 영상 촬영부를 이용하여 촬영한 상기 표적과의 거리를 이용하여 조준 오차를 산출하여 상기 영상장치로 전송하는 단계; 및 상기 영상장치가 감시범위 내에서 출현 가능한 상기 표적에 대하여, 상기 표적의 위치에 따른 상기 무장장치의 상기 조준 오차를 데이터베이스로 구축하는 단계;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method for operating a weapon system, the method comprising: detecting a target; detecting an image including a detachable image capturing unit; A method of operating a weapon system with a weapon capable of firing, the method comprising: measuring the distance / angle between the weapon device and the target and the distance / angle between the weapon device and the target, And a turning angle, and transmitting the elevation angle and turning angle to the arming device; Calculating an aiming error by using the distance between the weapon device and the target captured using the image capturing unit after the moving device moves to the elevation angle and the turning angle, and transmitting the sighting error to the image device; And constructing, as a database, the aiming error of the arming device according to the position of the target, with respect to the target capable of appearing within the monitoring range of the imaging device.
본 발명에 있어서, 상기 조준 오차를 산출하여 상기 영상장치로 전송하는 단계 후, 상기 조준 오차를 반영한 최종 고각 및 선회각을 산출하여 상기 무장장치로 전송하는 단계; 및 상기 무장장치가 수신한 상기 최종 고각과 선회각으로 이동하여, 상기 최종 고각 및 선회각이 오차 범위 이내인지 확인하는 단계;를 더 포함하는 것을 특징으로 한다.Calculating a final elevation angle and a turning angle reflecting the sighting error and transmitting the calculation result to the arming device after calculating the sighting error and transmitting the sighting error to the video device; And moving to the final high angle and the turning angle received by the arming device to confirm whether the final high angle and the turning angle are within an error range.
본 발명에 있어서, 상기 데이터베이스 구축 후 상기 무장장치가 상기 영상 촬영부를 분리하는 단계;를 더 포함하는 것을 특징으로 한다.The method may further include separating the image capturing unit from the image capturing apparatus after the database is constructed.
본 발명에 있어서, 상기 표적이 출현한 경우, 상기 영상 장치는 상기 표적의 위치를 산출하고, 상기 데이터베이스로부터 상기 표적의 위치에 따른 상기 무장장치의 조준 오차를 검색하여, 최종 고각 및 선회각을 산출하여 상기 무장장치들로 전송하는 단계; 및 상기 무장장치들은 전송 받은 최종 고각 및 선회각만큼 이동하여 상기 표적을 조준 한 후 사격하는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, when the target appears, the imaging device calculates the position of the target, searches the database for the aiming error of the weapon device according to the position of the target, and calculates the final elevation angle and turning angle To the arming devices; And moving the weapon by a final angle and a turning angle of the received weapon to aim and fire the target.
상술한 바와 같이, 본 발명은 다음과 같은 장점이 있다. As described above, the present invention has the following advantages.
첫째, 타격에 대한 거리측정 오차 및 무장장치 설치 장소의 오차에 따른 고각 및 선회각의 조준 오차를 보정하여 표적 사격의 정확성을 향상시킬 수 있다.First, it is possible to improve the accuracy of the target shooting by correcting the aiming error of the elevation angle and the turning angle according to the error of the distance measurement on the hit and the error of the installation place of the arming device.
둘째, 무장 시스템 구축 시에 감시 지역 내에서 출현 가능한 표적들에 대한 무장장치의 조준 오차를 데이터베이스로 구축하여 제공함으로써 교전 상황 발생 시, 표적에 대한 위치, 고각/선회각 산출에 많은 시간을 할애할 필요 없이 신속하고 정확하게 대응할 수 있다.Secondly, when the arming system is constructed, the aiming error of the armed device for the targets that can appear in the surveillance area is constructed and provided as a database, so that it takes much time to calculate the position of the target and calculation of the elevation / turn angle It can respond quickly and accurately without need.
셋째, 고가의 고성능 영상장치를 하나 혹은 소수만 배치하고 여러 대의 독립적인 고저 및 선회 구동이 가능한 무장장치들을 분리 배치하여 운영함으로써 비용이 크게 절감된다.Third, the cost is greatly reduced by arranging one or a few high-priced high-performance video apparatuses and operating the plurality of independent high-altitude and swiveling armed apparatuses separately.
넷째, 다양한 전투 상황에서 다양한 종류의 무장장치들을 적은 비용으로 배치하여 운영함으로써, 다양한 거리의 표적에 대해서 대응이 쉬우며, 복잡한 전투상황에서도 효과적으로 대응할 수 있는 다양한 종류의 무장장치들의 활용이 가능함으로써 보다 효과적으로 전략적인 전투 작전의 수행이 가능하다.Fourth, various kinds of arming devices can be deployed at a low cost in various combat situations, so that it is easy to deal with targets of various distances, and various kinds of arming devices capable of effectively coping with complex combat situations can be utilized It is possible to carry out strategic combat operations effectively.
다섯째, 다양한 종류의 무장장치들 혹은 동일한 종류의 다수의 무장장치들을 분산 배치하여 운영함으로써, 표적에 대한 집중력을 크게 증대시킬 수 있다. 즉, 복수개의 무장장치들을 이용한 작은 집중력을 요하는 표적뿐만 아니라, 많은 무장장치들의 집중적인 타격이 필요한 표적까지도 제압할 수 있게 된다.Fifth, various kinds of armed devices or the same kind of armed devices can be distributed and operated and the concentration of the target can be greatly increased. That is, it is possible to suppress not only a target requiring a small concentration using a plurality of arming devices, but also a target requiring a heavy strike by many arming devices.
도 1은 본 발명의 일 실시 예에 따른 무장 시스템의 구성을 보이는 블록도 이다.
도 2는 도 1 중 무장장치들의 조준 오차 산출을 설명하는 도면이다.
도 3은 감시 지역 내에서 출현 가능한 표적들에 대한 무장장치들의 조준 오차 데이터베이스 구축을 설명하기 위한 도면이다.
도 4는 데이터베이스 구축 후 무장장치로부터 영상 촬영부를 제거한 무장 시스템을 보이는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 무장 시스템의 동작 방법을 보이는 흐름도 이다.1 is a block diagram illustrating a configuration of an arming system according to an embodiment of the present invention.
2 is a view for explaining calculation of aiming error of armed devices in FIG.
3 is a diagram for explaining the construction of the aiming error database of the armed devices for the targets that can appear in the surveillance area.
4 is a view showing an arming system in which an image capturing unit is removed from an arming apparatus after database construction.
5 is a flowchart illustrating an operation method of an arming system according to an embodiment of the present invention.
이하, 본 발명의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, do.
도 1은 본 발명의 일 실시 예에 따른 무장 시스템의 구성을 보이는 블록도 이다. 도 1을 참조하면, 무장 시스템(10)은 마스터로서의 영상장치(100), 슬레이브로서의 제1 무장장치(200) 및 제2 무장장치(300)를 포함하며, 영상장치(100)의 감시 범위 내에 존재하는 표적(400)을 포함한다. 본 실시 예에 있어서, 제1 무장장치(200) 및 제2 무장장치(300)는 각각 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)를 포함한다. 본 실시 예에 있어서, 무장장치는 2대 이상 구비될 수 있으나, 이하에서는 설명의 편의상 2대의 무장장치들(200, 300)에 대해서만 설명하기로 한다.1 is a block diagram illustrating a configuration of an arming system according to an embodiment of the present invention. 1, the
영상장치(100)는 특정한 장소, 예컨대 국경선 부근에 설치되어 전방에 나타나는 표적(400)을 탐지한다. 표적(400)으로는 이동수단, 예컨대 차량, 장갑차, 항공기, 경비정 등이 될 수 있으며, 경우에 따라 움직이는 물체는 모두 표적(400)이 될 수 있다. 영상장치(100)는 한 곳에 고정적으로 설치되는 것이 바람직하나, 필요에 따라 다른 곳으로 이동될 수도 있다.The
영상장치(100)는 고가의 고성능 카메라를 구비하여 표적(400)의 움직임을 세밀하게 탐지한다. 즉, 영상장치(100)는 사람의 눈의 역할을 하면서 표적(400)을 탐지하고 정찰하며, 복수개의 무장장치들(200, 300)은 사람의 손과 발처럼 영상장치(100)로부터 표적(400)에 대한 정보를 받아서 탐지된 표적(400)을 사격할 수 있다.The
영상장치(100)는 제1 무장장치(200) 및 제2 무장장치(300)가 표적(400)을 사격하기에 적합한 고각과 선회각을 산출하여 제1 무장장치(200) 및 제2 무장장치(300)로 전송한다. 즉, 영상장치(100)는 제1 무장장치(200) 및 제2 무장장치(300)의 위치(거리 및 각도 포함)를 파악하고, 표적(400)이 나타나면 표적(400)의 위치(거리 및 각도 포함)를 측정한 다음 이를 근거로 표적(400)을 향한 제1 무장장치(200) 및 제2 무장장치(300)의 고각 및 선회각을 산출하여 제1 무장장치(200) 및 제2 무장장치(300)로 전송한다. 여기서, 영상장치(100)는 LRF(laser range finder)를 구비하여, 영상장치(100)로부터 표적(400)까지의 거리를 측정할 수 있다.The
제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)와 분리되어, 영상장치(100)와 소정 거리 이격된 곳에 설치된다. 제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)와 통신이 가능한 위치에 설치되며, 영상장치(100)가 탐지하는 표적(400)을 사격할 수 있는 위치에 설치된다. 제1 무장장치(200) 및 제2 무장장치(300)는 유선 또는 무선을 통해서 영상장치(100)로부터 표적(400) 정보를 수신한다. 제1 무장장치(200) 및 제2 무장장치(300)는 하나의 표적(400)을 동일하게 조준하여 사격할 수도 있고, 복수개의 표적들(도 2의 400-440)을 개별적으로 사격할 수도 있다. 제1 무장장치(200) 및 제2 무장장치(300)는 서로 동일한 종류일 수도 있고, 다른 종류일 수도 있다.The
제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)로부터 고각 및 선회각을 전송 받아 해당 고각 및 선회각으로 이동한다. 이후 제1 무장장치(200) 및 제2 무장장치(300)는 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)를 이용하여 제1 무장장치(200) 및 제2 무장장치(300)는 표적(400)까지의 거리를 측정한다. 제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)로부터 전송 받은 고각 및 선회각과, 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)를 이용하여 측정된 표적(400)까지의 거리, 화소수 및 화각(FOV: field of view)를 이용하여, 조준이 얼마만큼 벗어났는지 여부를 나타내는 조준 오차를 산출한다. 이하 도 2를 참조하여 조준 오차 산출을 설명하기로 한다.The
도 2a를 참조하면, A1~A5, B1~B5 등의 선별된 목표 지점(500)에 대해 영상장치(100)가 순차적으로 조준을 실시한다. 이때 제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)로부터 소정의 거리 이격된 위치에 설치되어 있다. 영상장치(100)는 제1 무장장치(200) 및 제2 무장장치(300)의 상대 설치 위치(거리 등)을 알고 있기 때문에, 예를 들어 영상장치(100)가 목표지점(500) 중 A1 표적을 조준할 때 제1 무장장치(200) 및 제2 무장장치(300)가 기본적으로 이동해야 할 고각과 선회각을 계산할 수 있다. 영상장치(100)는 계산된 고각과 선회각을 제1 무장장치(200) 및 제2 무장장치(300)로 전송하고, 제1 무장장치(200) 및 제2 무장장치(300)는 수신한 고각 및 선회각만큼 이동하게 된다. Referring to FIG. 2A, the
도 2b는 영상장치(100)로부터 수신한 고각 및 선회각만큼 이동한 제1 무장장치(200)가 제1 영상 촬영부(210)로 촬영한 조준점을 보이고 있다. 도 2b를 참조하면, 제1 무장장치(200)의 조준점과 영상장치(100)의 조준점이 가로(선회) 방향 10 픽셀, 고저 방향 5 픽셀의 오차가 있음을 알 수 있다. 따라서 화각을 이용하여 선회, 고저 방향의 오차를 계산하면 다음과 같다. 예를 들어, 화각이 5°라면, 비례식 640 픽셀: 5°=10 픽셀: x°로부터 선회방향 x=0.078125°, 고저방향 y=0.0390625가 조준 오차로 계산된다. 이후, 제1 무장장치(200) 및 제2 무장장치(300)에서 산출한 조준 오차는 다시 영상장치(100)로 전송된다.FIG. 2B shows the aiming point taken by the first
여기서, 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)는 제1 무장장치(200) 및 제2 무장장치(300)의 전방 상황을 촬영하기 위한 것으로, 착탈이 가능하며, 가시광선 카메라(미도시), 적외선 카메라(미도시) 및 거리 측정기(미도시)를 구비한다. 가시광선 카메라는 주간 또는 조명이 있는 경우에 주변의 상황을 촬영하기 위한 것이며, 원거리의 목표물을 식별할 수 있도록 망원촬영이 가능하게 구성된다. 적외선 카메라는 야간과 같이 조명이 부족한 경우에 주변의 상황을 촬영하기 위하여 인체 또는 기계장치가 발산하는 적외선을 감지하기 위한 것이다. 거리 측정기는 제1 무장장치(200) 및 제2 무장장치(300)와 표적(400) 사이의 거리를 측정하기 위한 것으로 레이저 거리 측정기가 사용될 수 있다.Here, the first
예를 들어, 영상장치(100)가 표적(400)에 대하여 고각 5도 및 선회각 10도를 산출하여 제1 무장장치(200) 및 제2 무장장치(300)로 전송하면, 제1 무장장치(200) 및 제2 무장장치(300)는 고각 5도 및 선회각 10도만큼 이동한다. 이 상태에서 제1 무장장치(200) 및 제2 무장장치(300)는 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)가 측정한 표적(400)까지의 거리를 이용하여 영상장치(100)로부터 전송 받은 고각 및 선회각에 대한 조준 오차를 계산한 후 영상장치(100)로 전송한다.For example, if the
영상장치(100)는 제1 무장장치(200) 및 제2 무장장치(300)로부터 전송 받은 조준 오차를 저장하고, 조준 오차를 고각 및 선회각에 반영하여 최종 고각 및 선회각을 산출한 후 제1 무장장치(200) 및 제2 무장장치(300)의 최종 고각 및 선회각으로 전송한다. 최종 고각 및 선회각을 수신한 제1 무장장치(200) 및 제2 무장장치(300)는 정확하게 조준되었는지 재확인할 수 있다.The
여기서, 영상장치(100)는 도 3에 도시된 바와 같이, 감시범위 내에서 출현 가능한 모든 표적들(410-440)에 대하여, 각 표적(410-440)의 위치를 측정하고, 측정된 표적(410-440)에 위치에 대해 제1 무장장치(200) 및 제2 무장장치(300)의 조준 오차 데이터베이스를 구축할 수 있다. 이와 같은 데이터베이스 구축 후, (400)이 출현하였을 경우, 영상장치(100)는 데이터베이스에 저장된 표적(400)의 위치에 따른 조준 오차를 고각/선회각에 반영함으로써, 신속하고 정확하게 대응할 수 있다. 이와 같은 조준 오차 데이터베이스 구축이 완료되면, 1 무장장치(200) 및 제2 무장장치(300)는 장착되었던 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)를 분리한다. 도 4에는 영상장치(100)의 조준 오차 데이터베이스 구축 후, 제1 영상 촬영부(210) 및 제2 영상 촬영부(310)가 분리된 제1 무장장치(200) 및 제2 무장장치(300)를 보여주고 있다.Here, the
이후, 감시지역 내에서 표적(400)이 출현하면, 영상장치(100)는 표적(400)의 위치 및 데이터베이스에 저장된 조준 오차를 이용하여 최종 고각 및 선회각을 산출하여 제1 무장장치(200) 및 제2 무장장치(300)로 전송하고, 제1 무장장치(200) 및 제2 무장장치(300)는 영상장치(100)로부터 최종 고각 및 선회각으로 표적(400)을 조준하여 사격함으로써 표적(400)을 신속하고 정확하게 파괴할 수 있게 된다.Thereafter, when the
도 5는 본 발명의 일 실시 예에 따른 무장 시스템(10)의 동작 방법을 보이는 흐름도 이다.5 is a flow chart illustrating an operation method of the arming
도 5를 참조하면, 무장 시스템(10)은 임의의 감시지역에 마스터로서의 영상장치(100) 및 슬레이브로서의 착탈 가능한 영상 촬영부(210,310)가 장착된 복수의 무장장치(200,300)를 설치하는 단계(S110)를 수행한다.5, the arming
감시지역 내에 영상장치(100) 및 무장장치(200,300)의 설치가 완료되면, 영상장치(100)는 감시지역 내의 임의의 표적(400)을 선정하는 단계(S120)를 수행한다.When installation of the
표적(400) 선정이 완료되면 영상장치(100)는, 영상장치(100)와 무장장치(200,300) 사이의 위치(거리 및 각도)와, 영상장치(100)와 표적(400) 사이의 위치(거리 및 각도)를 산출하고, 이를 이용하여 표적(400)에 대한 무장장치(200,300)의 고각 및 선회각을 산출하여 무장장치(200,300)로 전송하는 단계(S130)를 수행한다.Once the
이후 무장장치(200,300)는 영상장치(100)로부터 수신한 고각 및 선회각만큼 이동하는 단계(S140)를 수행하고, 무장장치(200,300)는 영상 촬영부(210,310)를 이용하여 촬영한 무장장치(200,300)와 표적(400) 사이의 거리 및 영상장치(100)로부터 수신한 고각 및 선회각으로부터 조준 오차를 산출하여 영상장치(100)로 전송하는 단계(S150)를 수행한다.Thereafter, the arming
조준 오차를 수신한 영상장치(100)는, 조준 오차를 반영한 최종 고각 및 선회각을 산출하여 무장장치(200,300)로 전송하는 단계(160)를 수행한다.The
이후 무장장치(200,300)는 영상장치(100)로부터 전송된 최종 고각 및 선회각만큼 이동하면서 오차범위(예를 들어 ±5% 이내) 인지 확인하는 단계(S170,S180)를 수행한다.Subsequently, the arming
최종 고각 및 선회각이 오차범위 이내인 경우, 무장장치(200,300)는 이를 영상장치(100)에 알리고, 영상장치(100)는 오차범위 내의 조준 오차를 내부 데이터베이스에 저장하는 단계(S190)를 수행한다. 그러나, 최종 고각 및 선회각이 오차범위를 벗어난 경우, S130으로 이동하여 조준 오차를 다시 산출한다.If the final height angle and the turning angle are within the tolerance range, the arming
영상장치(100)는 감시 지연 내에서 출현 가능한 모든 표적에 대하여 S120 내지 S190를 반복 수행하여, 표적 위치에 따른 무장장치(200,300)의 조준 오차를 데이터베이스로 구축하는 단계(S200)를 수행한다.The
데이터베이스 구축이 완료되면, 무장장치(200,300)는 영상 촬영부(210,310)를 분리하고, 영상 감시 시스템(10)은 감시 모드로 진입하는 단계(S210)를 수행한다.When the database construction is completed, the arming
이후, 영상장치(100)는 감시지역 내에 표적이 출현하였는지 판단하는 단계(S220)를 수행한다. 영상장치(100) 내부에는 사격 대상 표적 정보가 저장되어 있어서, 표적 비교를 통하여 사격 대상 표적이 출현하였는지 판단할 수 있다.Thereafter, the
감시지역 내에 표적이 출현한 경우 영상장치(100)는, 영상장치(100)와 무장장치(200,300) 사이의 위치(거리 및 각도)와, 영상장치(100)와 표적(400) 사이의 위치(거리 및 각도)를 산출하고, 산출된 위치들과, 데이터베이스로부터 검색된 표적(400)의 위치에 따른 조준 오차를 이용하여 표적(400)에 대한 무장장치(200,300)의 최종 고각 및 선회각을 산출하여 무장장치(200,300)로 전송하는 단계(S230)를 수행한다.When a target appears in the surveillance area, the
무장장치(200,300)는 영상장치(100)로부터 수신한 최종 고각 및 선회각만큼 이동하여 표적을 조준 후 사격하는 단계(S240)를 수행한다.The arming
이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the above-described embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
100: 영상장치 200: 제1 무장장치
210: 제1 영상 촬영부 300: 제2 무장장치
310: 제2 영상 촬영부 400-440: 표적
500: 목표지점100: imaging device 200: first arming device
210: first image capturing unit 300: second arming device
310: second image capturing unit 400-440: target
500: Target point
Claims (7)
상기 무장장치와 분리되어 설치되며, 상기 무장장치의 위치 및 상기 표적의 위치를 산출하고, 상기 산출된 무장장치의 위치 및 상기 산출된 표적의 위치를 이용하여 상기 무장장치가 상기 표적을 사격하기에 적합한 고각 및 선회각을 산출하여 상기 무장장치로 전송하는 영상장치;를 포함하고,
상기 무장장치는,
상기 영상장치로부터 수신한 고각 및 선회각만큼 이동한 후 상기 영상 촬영부로 촬영한 상기 영상장치의 조준점과, 상기 무장장치의 조준점 간의 조준 오차를 산출한 후 상기 영상장치로 전송하고,
상기 영상장치는,
상기 무장장치로부터 전송된 조준 오차를 반영한 최종 고각 및 선회각을 상기 무장장치로 전송하는 것을 특징으로 하는 무장 시스템.At least one or more arming devices, including a detachable image capturing section, for shooting a target; And
Wherein the arming device is installed separately from the arming device, calculating the position of the arming device and the position of the target, and using the calculated position of the arming device and the calculated position of the target, And an imaging device for calculating an appropriate elevation angle and turning angle and transmitting the angle to the arming device,
The arming device comprises:
Calculating a sighting error between an aiming point of the video apparatus photographed by the video photographing unit and an aiming point of the weapon apparatus after moving the subject by a high angle and a turning angle received from the video apparatus,
The video apparatus includes:
Wherein the final elevation angle and turning angle reflecting the aiming error transmitted from the arming device is transmitted to the arming device.
상기 무장장치는, 상기 조준 오차를 픽셀 단위로 산출한 후 상기 영상 촬영부의 화각을 고려하여 상기 조준 오차를 고각 및 선회각 단위로 산출하여 상기 영상장치로 전송하고,
상기 영상장치는,
감시범위 내에서 출현 가능한 상기 표적에 대하여, 상기 표적의 위치에 따른 상기 무장장치의 상기 조준 오차를 데이터베이스로 구축하는 것을 특징으로 하는 무장 시스템.The method according to claim 1,
The arming apparatus calculates the aiming error in units of an elevation angle and a turning angle in consideration of an angle of view of the image photographing unit after calculating the aiming error in pixel units,
The video apparatus includes:
For the target which can appear within the monitoring range, the aiming error of the arming device according to the position of the target is built into the database.
상기 데이터베이스 구축이 완료된 후, 상기 무장장치로부터 상기 영상 촬영부를 분리하는 것을 특징으로 하는 무장 시스템.3. The method of claim 2,
And after the database construction is completed, separates the image capturing unit from the arming device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120158531A KR101621396B1 (en) | 2012-12-31 | 2012-12-31 | Armament system and method for operating the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120158531A KR101621396B1 (en) | 2012-12-31 | 2012-12-31 | Armament system and method for operating the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140087832A KR20140087832A (en) | 2014-07-09 |
KR101621396B1 true KR101621396B1 (en) | 2016-05-16 |
Family
ID=51736678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120158531A KR101621396B1 (en) | 2012-12-31 | 2012-12-31 | Armament system and method for operating the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101621396B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102252823B1 (en) * | 2019-12-20 | 2021-05-17 | 주식회사 한화 | Apparatus and method for tracking targets and releasing warheads |
RU2775579C2 (en) * | 2020-12-08 | 2022-07-04 | Алексей Владимирович Зубарь | Fire control system for armoured vehicles |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101763294B1 (en) | 2015-12-16 | 2017-08-04 | 한화지상방산 주식회사 | Shooting Control System and Method Using Thereof |
KR101944631B1 (en) | 2017-09-26 | 2019-01-31 | 주식회사 한화 | Free rocket aiming device and method for calibrating aiming error of shooter |
-
2012
- 2012-12-31 KR KR1020120158531A patent/KR101621396B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102252823B1 (en) * | 2019-12-20 | 2021-05-17 | 주식회사 한화 | Apparatus and method for tracking targets and releasing warheads |
RU2775579C2 (en) * | 2020-12-08 | 2022-07-04 | Алексей Владимирович Зубарь | Fire control system for armoured vehicles |
Also Published As
Publication number | Publication date |
---|---|
KR20140087832A (en) | 2014-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2904485C (en) | Firearm aiming system with range finder, and method of acquiring a target | |
US10097764B2 (en) | Firearm, aiming system therefor, method of operating the firearm and method of reducing the probability of missing a target | |
US9488442B2 (en) | Anti-sniper targeting and detection system | |
US8794967B2 (en) | Firearm training system | |
KR100963681B1 (en) | Remote gunshot system and method to observed target | |
US11441874B2 (en) | Remote weapon control device and method for targeting and shooting multiple objects | |
KR101572896B1 (en) | Tank around the battlefield situational awareness system | |
US20110053120A1 (en) | Marksmanship training device | |
KR101621396B1 (en) | Armament system and method for operating the same | |
CN204478922U (en) | Small caliber piece multi-axial cord consistency detection system | |
KR101815678B1 (en) | Armament system interworking with image device and method for operating the same | |
RU2403526C2 (en) | System for aiming firing from shelter | |
US11118866B2 (en) | Apparatus and method for controlling striking apparatus and remote controlled weapon system | |
KR20220052765A (en) | Remote Controlled Weapon System in Moving Platform and Tracking Method of Moving Target thereof | |
KR101664614B1 (en) | Manless flight sensing apparatus and sniper weapon for realizing to situation of enemy position, image collection method | |
WO2022259241A1 (en) | System and method for zeroing of smart aiming device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190425 Year of fee payment: 4 |