KR101284181B1 - Apparatus and method for measuring point of impact - Google Patents
Apparatus and method for measuring point of impact Download PDFInfo
- Publication number
- KR101284181B1 KR101284181B1 KR1020110062829A KR20110062829A KR101284181B1 KR 101284181 B1 KR101284181 B1 KR 101284181B1 KR 1020110062829 A KR1020110062829 A KR 1020110062829A KR 20110062829 A KR20110062829 A KR 20110062829A KR 101284181 B1 KR101284181 B1 KR 101284181B1
- Authority
- KR
- South Korea
- Prior art keywords
- polynomial model
- impact
- reflected light
- image
- light
- Prior art date
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/06—Aiming or laying means with rangefinder
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G1/00—Sighting devices
- F41G1/32—Night sights, e.g. luminescent
- F41G1/34—Night sights, e.g. luminescent combined with light source, e.g. spot light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
Abstract
본 발명은 탄착 위치 측정 장치 및 탄착 위치 측정 방법에 관한 것으로, 본 발명의 일면에 따른 탄착 위치 측정 장치는 사격의 목표가 되는 표적과 소정의 거리가 이격되어, 상기 표적의 앞쪽에 평면상의 빛의 면을 발생하는 광 발생부와, 소정의 물체가 상기 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 영상입력부와, 상기 빛의 면에 대응되는 영상 좌표를 생성하는 영상 좌표 생성부와, 상기 영상 좌표를 상기 표적 상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 모델링부와, 상기 다항식 모델에 따라 상기 전역 좌표에서의 상기 물체의 탄착 위치를 산출하는 탄착 위치 산출부를 포함한다.The present invention relates to an impact position measuring apparatus and an impact position measuring method, wherein the impact position measuring apparatus according to one aspect of the present invention is spaced apart from a target to be shot by a predetermined distance, the plane of light in front of the target. A light generating unit for generating a light source, an image input unit for receiving reflected light reflected when a predetermined object passes through the plane of light, an image coordinate generation unit for generating image coordinates corresponding to the plane of light, and And a modeling unit generating a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target, and an impact position calculating unit calculating the impact position of the object in the global coordinates according to the polynomial model. .
Description
본 발명은 화살 등의 탄착점 위치를 측정하기 위한 탄착 위치 측정 장치 및 탄착 위치 측정 방법에 관한 것으로서, 더욱 상세하게는, 표적과 이격된 거리에서 통과된 화살 등의 물체를 영상으로 입력 받아, 표적에서의 탄착 위치를 산출하도록 하여, 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받지 않아 탄착 위치 측정의 정밀도를 향상할 수 있으며, 영상 입력에 있어서의 왜곡을 보정하여 탄착 위치 추정시 발생되는 오류를 최소화 할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법에 관한 것이다.The present invention relates to an apparatus for measuring an impact position and an impact position measuring method for measuring an impact point position such as an arrow. More specifically, an object such as an arrow, which is passed at a distance from the target, is received as an image, By calculating the impact position of the target, it is possible to improve the accuracy of the impact position measurement because it is not affected by the physical deformation of the target and the positional change of the impacted object. The present invention relates to an impact position measuring apparatus and an impact position measuring method capable of minimizing an error occurring.
우수한 화살은 탄착점, 탄착군 분포가 높은 집적도를 가지며, 이동궤적이 일정한 범위에 수렴하는 특성을 가진다. 따라서, 화살의 품질을 판단하기 위해서는 일정한 물리적 조건하에서 표적에 발사된 화살의 탄착점, 탄착군을 정밀하게 측정하는 기술이 필요하다.Excellent arrows have a high density of impact point and impact group distribution, and the movement trajectory converges to a certain range. Therefore, in order to determine the quality of the arrow, a technique for precisely measuring the impact point and the impact group of the arrow fired on the target under certain physical conditions is required.
이러한 측정 기술의 필요성에도 불구하고, 소정의 위치에서 발사되어 표적지를 향하는 화살은 표적지에 이르는 거리를 고속으로 통과하게 되어 간단히 측정되기 어렵다는 문제가 있어, 종래에는 탄착 위치의 측정을 수작업 검사(Manual Inspection)에 의존하는 경우가 대다수였다.In spite of the necessity of the measurement technique, an arrow shot at a predetermined position and aiming at a target site has a problem that it is difficult to measure simply because the arrow passes at a high speed to the target site. In most cases).
수작업 검사의 경우, 사람의 행위가 포함되어 측정시 일정수준 이상의 정밀도는 기대할 수 없다는 문제가 있으며, 화살 등의 표적에 대한 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받게 된다는 문제가 있었다. In the case of manual inspection, there is a problem that a certain level of precision cannot be expected when measuring by including human behavior, and the impact of the physical deformation of the target and the change of the position of the impacted object when an impact on the target such as an arrow is affected. There was.
수작업 검사의 단점을 보완하기 위하여, 레이저 기술을 이용한 자동 측정 기술들이 제안되고는 있으나, 종래의 자동 측정 기술들은 측정값이 표적에서의 위치와 정확히 대응되기 위하여 발광 및 수광 센서가 표적과 함께 설치되거나 표적과 상당히 가까운 위치에 설치되야 한다는 제약을 가질 수 밖에 없으며, 발광 및 수광 센서 등의 설계상의 왜곡 및 빛의 굴절에 따른 왜곡은 보정할 수 없어, 정확한 탄착 위치 측정을 보장할 수 없다는 문제가 있었다.In order to make up for the disadvantages of manual inspection, automatic measurement techniques using laser technology have been proposed. However, conventional automatic measurement techniques have a luminescence and light receiving sensor installed with the target so that the measured value exactly matches the position on the target. There must be a limitation that it should be installed at a position very close to the target, and the design distortion of the light emitting and light receiving sensors, and the distortion due to the refraction of light cannot be corrected, so that the accurate impact position measurement cannot be guaranteed. .
상기의 문제점을 해결하기 위한, 본 발명의 목적은 사격의 목표가 되는 표적의 앞쪽에 평면상의 빛의 면을 발생시켜 소정의 물체가 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력 받도록 하고, 영상 좌표를 표적상의 위치에 대응되는 전역 좌표로 변환하는 다항식 모델을 이용하여, 표적에 도달하는 화살의 탄착 위치를 정확하게 측정할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공하는 데 있다.표적에 도달하는 화살의 탄착 위치를 정확하게 측정할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공하는 데 있다. In order to solve the above problems, an object of the present invention is to generate a plane of light in front of the target to be shot target to receive the reflected light as an image when a predetermined object passes through the plane of light, An object of the present invention is to provide an impact position measuring device and an impact position measuring method capable of accurately measuring an impact position of an arrow reaching a target by using a polynomial model that converts image coordinates into global coordinates corresponding to positions on a target. The present invention provides an impact position measuring apparatus and an impact position measuring method capable of accurately measuring the impact position of an arrow reaching.
또한, 본 발명은 다른 목적은 화살 등의 표적에 대한 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받지 않으며, 입력된 영상의 왜곡 보정이 가능하여 표적에 발사된 화살의 탄착점, 탄착군을 정밀하게 측정할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공하는 데 있다. In addition, another object of the present invention is not affected by the physical deformation of the target and the positional change of the impacted object when the impact on the target such as the arrow, the distortion of the input image can be corrected, the impact point of the arrow fired on the target, The present invention provides an impact position measuring apparatus and an impact position measuring method capable of accurately measuring impact groups.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood from the following description.
전술한 목적을 달성하기 위한 본 발명의 일면에 따른 탄착 위치 측정 장치는, 사격의 목표가 되는 표적과 소정의 거리가 이격되어, 표적의 앞쪽에 평면상의 빛의 면을 발생하는 광 발생부와, 소정의 물체가 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 영상입력부와, 빛의 면에 대응되는 영상 좌표를 생성하는 영상 좌표 생성부와, 영상 좌표를 표적 상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 모델링부와, 다항식 모델에 따라 전역 좌표에서의 물체의 탄착 위치를 산출하는 탄착 위치 산출부를 포함한다.An impact position measuring device according to one aspect of the present invention for achieving the above object is a light generating unit for generating a plane of light on the front of the target, a predetermined distance is separated from the target to be shot target, An image input unit for receiving the reflected light reflected as an object passing through the plane of light as an image, an image coordinate generation unit for generating image coordinates corresponding to the plane of light, and global coordinates corresponding to the position on the target. And a modeling unit configured to generate a polynomial model for converting to and an impact position calculating unit calculating an impact position of the object in global coordinates according to the polynomial model.
본 발명의 다른 면에 따른 탄착 위치 측정 방법은, 사격의 목표가 되는 표적의 앞쪽에 평면상의 빛의 면을 발생시키는 단계와, 소정의 물체가 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 단계와, 반사광의 조사 강도와 반사광에 대한 화소값을 이용하여 빛의 면에 대응되는 영상 좌표를 생성하는 단계와, 영상 좌표를 표적상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 단계와, 영상 좌표에서의 좌표값과 전역 좌표에서의 좌표값을 학습데이터로 이용하여 다항식 모델을 최적화하는 단계와, 최적화에 따른 다항식 모델을 이용하여 영상 좌표에서의 좌표값에 대응되는 전역 좌표에서의 좌표값을 계산하고, 그 결과에 따라 물체의 탄착 위치를 산출하는 단계를 포함한다.According to another aspect of the present invention, a method of measuring impact position includes generating a plane of light on a plane in front of a target to be shot, and inputting reflected light reflected when an object passes through the plane of light. Receiving, generating image coordinates corresponding to the plane of light using the irradiation intensity of the reflected light and pixel values of the reflected light, and generating a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target. And optimizing the polynomial model using the coordinate values in the image coordinates and the coordinate values in the global coordinates as learning data, and the global coordinates corresponding to the coordinate values in the image coordinates using the polynomial model according to the optimization. Calculating a coordinate value at and calculating an impact position of the object according to the result.
본 발명에 따르면, 라인 레이저 및 카메라를 이용하여 화살 등의 탄착 위치를 정확하게 측정할 수 있으며, 다항식 모델을 이용하여, 카메라에 의한 영상 입력의 왜곡을 보정할 수 있을 뿐만 아니라, 다항식 모델을 성능지수 등을 이용하여 최적화하여 정밀도의 향상이 가능한 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공할 수 있다.According to the present invention, an impact position such as an arrow can be accurately measured using a line laser and a camera, and a polynomial model can not only correct distortion of an image input by a camera, but also perform a polynomial model performance index. It is possible to provide an impact position measuring apparatus and an impact position measuring method capable of improving the accuracy by optimizing using such.
또한, 본 발명에 따르면, 표적에서 이격된 위치에서의 물체의 통과에 따른 반사광을 이용하여 탄착 위치를 측정할 수 있으므로, 화살 등의 표적에 대한 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받지 않아, 화살의 탄착점, 탄착군을 정밀하게 측정할 수 있다.In addition, according to the present invention, since the impact position can be measured by using the reflected light according to the passage of the object at the position away from the target, the physical deformation of the target when the impact on the target such as an arrow and the position variation of the impacted object It is not influenced by, so the impact point and impact group of the arrow can be measured precisely.
또한, 본 발명에 따르면, 표적에 도달하는 화살 등의 탄착 위치를 기초로 탄착군의 중심점 및 크기를 계산하여 탄착 특성을 분석할 수 있다. In addition, according to the present invention, the impact characteristic can be analyzed by calculating the center point and the size of the impact group based on the impact positions such as arrows reaching the target.
또한, 본 발명에 따르면, 원격지에서 화살 등의 탄착 위치를 손쉽게 파악할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공할 수 있다.In addition, according to the present invention, it is possible to provide an impact position measuring device and an impact position measuring method which can easily grasp the impact position of an arrow or the like from a remote location.
도 1은 본 발명의 일 실시예에 따른 탄착 위치 측정 장치를 설명하기 위한 블록도.
도 2는 본 발명의 다른 실시예에 따른 탄착 위치 측정 방법을 설명하기 위한 순서도.
도 3은 본 발명의 실시예에 따른 광 발생부 및 영상입력부가 설치되는 구조를 나타내는 예시도.
도 4는 반사광의 조사 강도와 반사광에 대한 화소값에 따른 영상 좌표(Cx, Cy)를 도시한 도면.
도 5는 영상 좌표에 있어서의 왜곡 현상을 나타내는 도면.
도 6은 계층형 다항식 모델의 구조를 나타내는 개념도.
도 7은 본 발명의 실시예에 따라 측정된 물체의 탄착 위치와 실제 표적상에서의 참값을 비교한 결과를 나타내는 도면.1 is a block diagram for explaining an impact position measuring apparatus according to an embodiment of the present invention.
Figure 2 is a flow chart for explaining the impact position measuring method according to another embodiment of the present invention.
3 is an exemplary view showing a structure in which a light generating unit and an image input unit are installed according to an embodiment of the present invention.
4 is a diagram showing image coordinates (Cx, Cy) according to irradiation intensity of reflected light and pixel values of the reflected light.
5 is a diagram illustrating a distortion phenomenon in video coordinates.
6 is a conceptual diagram illustrating the structure of a hierarchical polynomial model.
7 is a view showing the result of comparing the true value on the actual target and the impact position of the object measured according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로서, 본 발명은 청구항의 기재에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.
BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms, and only the embodiments are to make the disclosure of the present invention complete, and those skilled in the art to which the present invention pertains. As the invention is provided to fully inform the scope of the invention, the invention is defined only by the description of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
이하, 도 1 및 도 3을 참조하여 본 발명의 일 실시예에 따른 탄착 위치 측정 장치를 설명한다. 도 1은 본 발명의 일 실시예에 따른 탄착 위치 측정 장치를 설명하기 위한 블록도이며, 도 3은 본 발명의 일 실시예에 따른 탄착 위치 측정 장치에 있어서, 광 발생부 및 영상입력부가 설치되는 구조를 나타내는 예시도이다.Hereinafter, an impact position measuring apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 and 3. 1 is a block diagram illustrating an impact position measuring apparatus according to an embodiment of the present invention, Figure 3 is an impact position measuring apparatus according to an embodiment of the present invention, the light generating unit and the image input unit is installed It is an exemplary figure which shows a structure.
도 1을 참조하면, 본 발명의 일 실시예에 따른 탄착 위치 측정 장치(10)는 광 발생부(100), 영상입력부(200), 영상 좌표 생성부(300), 모델링부(400), 탄착 위치 산출부(500), 특성 분석부(600) 및 출력부(700)를 포함한다.Referring to FIG. 1, an impact
광 발생부(100)는 도 3에 도시된 바와 같이 사격의 목표가 되는 표적(900)과 소정의 거리가 이격되어, 표적(900)의 앞쪽에 평면상의 빛의 면(101)을 발생한다. 여기서, 광 발생부(100)는 특정 주파수의 평면 광을 발생시키는 라인 레이저(Line laser)일 수 있다. 또한, 광 발생부(100)는 다수개의 발광 소자를 평면상의 빛의 면을 발생하도록 배열한 것 일 수 있다. 광 발생부(100)는 전술한 구성 이외에도 표적(900)의 앞쪽에 평면상의 빛의 면을 발생할 수 있는 다양한 형태로의 구현이 가능하며, 도 3의 도면 및 전술한 예시에 한정되는 것은 아니다.As shown in FIG. 3, the
영상입력부(200)는 화살 또는 탄환 등과 같은 소정의 물체가 빛의 면(101)을 통과할 때, 통과 지점(103)에 있어서 물체에 빛이 반사되는 반사광을 영상으로 입력 받으며, 반사광에 의한 물체의 선 윤곽(Line profile)을 인식한다. 영상입력부(200)는 특정 주파수의 반사광을 인식할 수 있는 비전 카메라를 이용하여 구현할 수 있으며, 이외에도 고속 처리가 가능한 카메라 및 영상 처리 모듈을 이용하여 구현 할 수도 있다. When the predetermined object such as an arrow or a bullet passes through the
영상 좌표 생성부(300)는 도 4에 도시된 바와 같이, 반사광의 조사 강도와, 반사광에 대한 화소값에 따라 빛의 면에서 반사광에 대응되는 영상 좌표를 생성한다.As illustrated in FIG. 4, the
도 4는 반사광의 조사 강도와 반사광에 대한 화소값에 따른 영상 좌표(Cx, Cy)를 도시한 도면이며, 가로축은 반사광의 조사 강도에 대응되며, 세로축은 반사광의 화소값에 대응될 수 있다.4 is a diagram illustrating image coordinates Cx and Cy according to irradiation intensity of reflected light and pixel values of the reflected light, wherein the horizontal axis corresponds to the irradiation intensity of the reflected light, and the vertical axis may correspond to the pixel value of the reflected light.
여기서, 영상 좌표는 표적(900)에서의 위치와 대응될 수 있는 평면상의 빛의 면에 있어서의 가상 좌표를 의미한다.Here, the image coordinates mean virtual coordinates in the plane of light on the plane that may correspond to the position on the
일반적으로 카메라의 렌즈 중심에서 벗어날수록 방사왜곡(Barrel distortion), 실타래형 왜곡(Pincushion distortion) 등의 왜곡 현상이 뚜렷하게 일어나게 된다.In general, as the camera moves away from the lens center, distortions such as barrel distortion and pincushion distortion become more pronounced.
영상 좌표 생성부(300)에서 영상입력부(200)를 통해 인식된 반사광을 기초로하여 생성된 영상 좌표는 카메라 등의 성능과 카메라 렌즈의 굴절률, 기타 하드웨어적 요소 등에 의해 왜곡이 일어날 수 있다.The image coordinates generated based on the reflected light recognized by the
도 5는 영상 좌표에 있어서의 왜곡 현상을 나타내는 도면이다.5 is a diagram illustrating a distortion phenomenon in video coordinates.
도 5는 표적 상의 위치에 있어서 정방형의 격자점에 대응되는 각 영상 좌표를 도시하고 있다. 도 5에 도시된 바와 같이 영상 좌표는 평면 좌표가 아닌 곡면 좌표 등의 형태가 될 수 있으며, 표적상의 위치와 일대일 대응이 되지 않을 수 있다. 또한, 이러한 왜곡 현상으로 인해 패턴인식이나 특징 추출 등 영상처리 과정에서 빈번한 오류가 발생할 수 있다.FIG. 5 shows each image coordinate corresponding to a square grid point at a position on a target. As shown in FIG. 5, the image coordinates may be in the form of curved coordinates, not planar coordinates, and may not correspond one-to-one with a position on a target. In addition, such distortion may cause frequent errors in image processing such as pattern recognition and feature extraction.
따라서, 모델링부(400)는 전술한 왜곡을 보정하고, 영상 좌표를 표적 상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성한다.Therefore, the
모델링부(400)는 영상 좌표와 표적(900)에서의 실제 위치에 해당하는 전역 좌표의 입출력 데이터를 대응시켜 왜곡을 보정한다. 입력 데이터는 반사광의 조사 강도와, 반사광에 대한 화소값에 따라 빛의 면에서 반사광에 대응되는 영상 좌표이며, 출력 데이터는 표적 상의 위치에 대응되는 전역 좌표이다. The
모델링부(400)는 내재적 보정 방법인 성능지수기반의 계층형 다항식 모델(Performance Criteria Based Hierarchical Polynomial Model)을 이용하여 왜곡된 영상을 보정한다.The
더욱 상세하게는, 모델링부(400)는 하기 수학식1에 따른 계층형 다항식 보정모델을 이용하여 두 개의 입력변수로부터 하나의 출력을 생성하며, 왜곡된 영상을 보정한다.More specifically, the
여기서, , 는 왜곡이 없는 영상의 좌표점이고, , 는 왜곡된 영상의 좌표점이며, , , 는 각각의 영상 좌표에 대응되는 파라미터이다. here, , Is the coordinate point of the image without distortion, , Is the coordinate point of the distorted image, , , Is a parameter corresponding to each image coordinate.
모델링부(400)는 반사광의 조사 강도 및 반사광에 대한 화소값을 입력 변수(, )로 하며, 반사광의 조사 강도와 반사광에 대한 화소값의 가중합에 따라 전역 좌표에 대응되는 출력값(, )을 가지도록 계층형 다항식 모델을 생성하는 것일 수 있다.The
이러한, 계층형 다항식 모델은 훈련데이터에만 최적화되어 새로운 측정 데이터에 대한 모델의 추정위치 오차가 지나치게 커지는 과대적합문제를 해결하면서, 동시에 다항식의 차수와 파라미터를 스스로 최적화할 수 있는 모델 동일화(Model identification) 기법이다.This hierarchical polynomial model is optimized only for training data, and solves the overfitting problem in which the estimated position error of the model for the new measurement data becomes too large, while simultaneously identifying the order and parameters of the polynomial by itself. Technique.
즉, 모델링부(400)는 영상 좌표와 영상 좌표에 대응되는 전역 좌표에서의 좌표값을 학습데이터 및 실험데이터로 사용하고, 성능지수를 이용하여 모델 구조를 동일화(Identification)할 수 있다. That is, the
이러한, 모델 동일화의 과정은 다항식의 구조와 차수를 결정하는 구조 동일화(Structure identification) 과정과 결정된 다항식 구조에 따른 파라미터를 선정하는 파라미터 동일화(Parameter identification) 과정으로 나눌 수 있다.The process of model identification can be divided into a structure identification process for determining the structure and order of the polynomial and a parameter identification process for selecting parameters according to the determined polynomial structure.
이하, 도 6을 참조하여 계층형 다항식 모델의 구조를 설명한다. 도 6은 계층형 다항식 모델의 구조를 나타내는 개념도이며, 도6에 있어서, , 는 왜곡이 없는 영상의 좌표점이고, ,는 왜곡된 영상의 좌표점이며, 는 학습데이터를 사용한 다항식 모델의 파라미터, 은 다항식 모델의 차수이다.Hereinafter, the structure of the hierarchical polynomial model will be described with reference to FIG. 6. FIG. 6 is a conceptual diagram illustrating a structure of a hierarchical polynomial model. In FIG. , Is the coordinate point of the image without distortion, , Is the coordinate point of the distorted image, Is a parameter of a polynomial model using training data, Is the order of the polynomial model.
도 6과 같이 계층형 다항식 모델은 구조 동일화 과정에 따라 적어도 2차의 차수(레이어)를 가지도록 결정되며, 각 레이어는 왜곡된 영상의 좌표점들의 가중합의 구조를 가지고 있으며, 파라미터 동일화 과정에 따라 각 입력 변수에 대한 파라미터들이 선정된다. 또한, 구조, 차수 및 파라미터가 결정된 각 레이어들의 합이 다항식 모델의 결과값이 된다.As shown in FIG. 6, the hierarchical polynomial model is determined to have at least a second order (layer) according to a structure identification process, and each layer has a weighted sum of coordinate points of a distorted image, and according to a parameter identification process. Parameters for each input variable are selected. In addition, the sum of each layer whose structure, order, and parameters are determined becomes a result of the polynomial model.
계층형 다항식 모델에 있어서, 다항식 모델의 차수는 학습 데이터 및 실험 데이터의 구체적인 값에 따라 변동 될 수 있으며, 학습 데이터 및 실험 데이터의 값은 반사광의 조사 강도와, 반사광에 대한 화소값에 따라 빛의 면에서 반사광에 대응되는 영상 좌표 및 출력 데이터는 표적 상의 위치에 대응되는 전역 좌표의 값일 수 있다.In the hierarchical polynomial model, the order of the polynomial model may vary according to the specific values of the training data and the experimental data, and the values of the training data and the experimental data are determined according to the irradiation intensity of the reflected light and the pixel value of the reflected light. The image coordinates and output data corresponding to the reflected light in the plane may be values of global coordinates corresponding to positions on the target.
즉, 계층형 다항식 모델은 학습 데이터 및 실험 데이터를 이용하여 그 구조와 차수를 변동시키며, 구조 동일화와 파라미터 동일화 과정을 통해 최적의 구조와 차수를 결정하도록 하여 영상 좌표와 전역 좌표를 매칭할 수 있다. That is, the hierarchical polynomial model can change the structure and the order by using the training data and the experimental data, and can match the image coordinates and the global coordinates by determining the optimal structure and order through the process of structure identification and parameter identification. .
따라서, 모델링부(400)는 다항식 모델의 구조와 차수를 결정하는 구조 동일화부(410)와, 구조 동일화부(410)에서 결정된 다항식 모델의 구조에 따른 파라미터를 선정하는 파라미터 동일화부(420)를 포함한다.Accordingly, the
여기서, 구조 동일화부(410)는, 참값과 다항식 모델에 따른 출력값 사이의 오차를 정의한 성능지수 함수에 따라 다항식 모델의 차수를 결정할 수 있다.Here, the
하기 수학식2는 성능지수 함수(Performance Criteria, PC)에 관한 식이다.Equation 2 is an equation relating to the performance index function (Performance Criteria, PC).
여기서, 는 훈련데이터 로 학습한 모델로 시험데이터 를 입력했을 때 출력값, 는 훈련데이터 로 학습한 모델로 시험데이터 를 입력했을 때 출력값, , 는 목표값, , 는 훈련데이터와 시험데이터로 사용된 개수, , 는 가중치를 나타낸다.here, Training data Test data with a model Input value, Training data Test data with a model Input value, , Is the target value, , Is the number used as training data and test data, , Denotes a weight.
한편, 훈련 데이터 및 시험데이터로 영상 좌표와 영상 좌표에 대응되는 전역 좌표에서의 좌표값이 이용될 수 있다.Meanwhile, coordinate values in global coordinates corresponding to the image coordinates and the image coordinates may be used as the training data and the test data.
한편, 성능 지수 함수는 시험데이터를 입력했을 때의 오차 가중합으로 정의될 수 있으므로, 구조 동일화부(410)는 성능 지수 함수의 값이 최소가 되도록 다항식 모델의 차수를 결정하여 다항식 모델을 최적화할 수 있다.Meanwhile, since the figure of merit function may be defined as an error weighted sum when the test data is input, the
하기 수학식3은 다항식 모델의 차수를 결정하기 위한 식이다.Equation 3 is an equation for determining the order of the polynomial model.
한편, 파라미터 동일화부(420)는, 비선형 최소자승법에 따라 파라미터를 선정할 수 있다. 하기 수학식4는 결정된 다항식 구조에 따른 파라미터 선정에 관한 식이다.The
여기서, 은 다항식 모델의 차수, , 는 학습데이터를 사용해 최종 정의된 다항식 모델의 파라미터, PC는 참값과 모델의 출력값 사이의 오차를 정의한 성능 지수 함수이다.here, Is the order of the polynomial model, , Is the parameter of the polynomial model finally defined using the training data, and PC is the figure of merit function that defines the error between the true value and the output of the model.
탄착 위치 산출부(500)는 다항식 모델에 따라 전역 좌표에서의 물체의 탄착 위치를 산출한다.The impact
즉, 탄착 위치 산출부(500)는 빛의 면을 통과한 물체에 의한 반사광에 대응되는 영상 좌표를 다항식 모델에 입력하여, 전역 좌표에서의 물체의 탄착 위치를 산출한다.That is, the impact
특성 분석부(600)는 소정의 물체가 표적(900)의 앞쪽에 평면상의 빛의 면을 복수회에 걸쳐 통과할 때의 각각의 탄착 위치를 기초로 탄착군의 중심점 및 크기 중 적어도 하나를 계산하여 물체의 탄착 특성을 분석한다.The
한편, 특성 분석부(600)는 탄착군의 중심점 및 크기에 관한 기설정된 임계값을 기준으로 탄착의 정확도 및 정밀도를 판정하도록 할 수 있다.On the other hand, the
출력부(700)는 영상 좌표, 전역 좌표, 물체가 통과한 영상 좌표상의 위치 및 탄착 위치 중 적어도 하나를 화면, 음성 및 외부와 통신 가능한 데이터의 형태로 출력한다. The
또한, 출력부(700)는 원격지에서 화살 등의 탄착 위치를 손쉽게 파악할 수 있도록, 소정의 프로토콜에 따라 통신을 수행하는 통신 수단을 포함하여, 영상 좌표, 전역 좌표, 물체가 통과한 영상 좌표상의 위치 및 탄착 위치 중 적어도 하나에 대한 데이터를 외부의 단말기로 송수신하여 외부의 단말기에서 영상 좌표, 전역 좌표, 물체가 통과한 영상 좌표상의 위치 및 탄착 위치 중 적어도 하나를 이용할 수 있도록 할 수 있다.
In addition, the
이하, 도 2를 참조하여 본 발명의 다른 실시예에 따른 탄착 위치 측정 방법을 설명한다. 도 2는 본 발명의 다른 실시예에 따른 탄착 위치 측정 방법을 설명하기 위한 순서도이다.Hereinafter, an impact position measuring method according to another embodiment of the present invention will be described with reference to FIG. 2. Figure 2 is a flow chart for explaining the impact position measurement method according to another embodiment of the present invention.
먼저, 사격의 목표가 되는 표적(900)의 앞쪽에 평면상의 빛의 면을 발생시킨다(S101).First, a plane of light is generated in front of the
이후, 화살 또는 탄환과 같은 소정의 물체가 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력 받으며(S103), 반사광의 조사 강도와 반사광에 대한 화소값을 이용하여 빛의 면에 대응되는 영상 좌표를 생성한다(S105).Subsequently, when a predetermined object such as an arrow or a bullet passes through the surface of the light, the reflected light is received as an image (S103), and the image corresponding to the surface of the light using the intensity of the reflected light and the pixel value of the reflected light. The coordinates are generated (S105).
여기서, 영상 좌표는 다항식 모델을 이용하여 전역 좌표로 변환되며, 이에 따라 물체의 탄착 위치 측정이 이루어질 수 있다.Here, the image coordinate is converted into global coordinates using the polynomial model, and thus the impact position measurement of the object may be performed.
따라서, 좌표의 변환에 앞서 영상 좌표를 표적상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성한다(S107).Therefore, prior to the transformation of the coordinates, a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target is generated (S107).
이 때, 다항식 모델을 생성하는데 있어서, 반사광의 조사 강도 및 반사광에 대한 화소값을 입력 변수로 설정하고, 입력 변수들의 가중합에 따라 전역 좌표에서의 좌표값을 출력하도록 하는 다항식 모델을 생성할 수 있다(S107).In this case, in generating the polynomial model, a polynomial model may be generated in which the irradiation intensity of the reflected light and the pixel value of the reflected light are set as input variables, and the coordinate values in global coordinates are output according to the weighted sum of the input variables. There is (S107).
이후, 영상 좌표에서의 좌표값과 전역 좌표에서의 좌표값을 학습데이터로 이용하여 다항식 모델을 최적화한다(S109).Thereafter, the polynomial model is optimized using the coordinate values in the image coordinates and the coordinate values in the global coordinates as learning data (S109).
이 때, 물체의 탄착 위치에 따른 참값과 다항식 모델에 따른 출력값 사이의 오차를 최소화하도록 다항식 모델의 차수 및 파라미터 중 적어도 하나를 결정하여 다항식 모델을 최적화 할 수 있다(S109).In this case, the polynomial model may be optimized by determining at least one of orders and parameters of the polynomial model so as to minimize an error between the true value according to the impact position of the object and the output value according to the polynomial model (S109).
또한, 다항식 모델을 최적화하는데 있어서, 복수개의 영상 좌표에서의 좌표값을 다항식 모델에 입력하고, 입력에 따른 다항식 모델에서의 출력값과 영상 좌표에서의 좌표값에 대응되는 전역 좌표에서의 좌표값 사이의 오차를 각각 산출한 후, 오차의 가중합을 최소화하도록 다항식 모델의 차수 및 파라미터 중 적어도 하나를 결정하여 다항식 모델을 최적화 할 수 있다(S109).In addition, in optimizing the polynomial model, the coordinate values of the plurality of image coordinates are input to the polynomial model, and between the output values of the polynomial model according to the input and the coordinate values in the global coordinates corresponding to the coordinate values in the image coordinates. After calculating the errors, the polynomial model may be optimized by determining at least one of the orders and parameters of the polynomial model to minimize the weighted sum of the errors (S109).
이후, 최적화에 따른 다항식 모델을 이용하여 영상 좌표에서의 좌표값에 대응되는 전역 좌표에서의 좌표값을 계산하고, 그 결과에 따라 물체의 탄착 위치를 산출한다(S111).
Thereafter, the coordinate value in the global coordinates corresponding to the coordinate value in the image coordinates is calculated using the polynomial model according to the optimization, and the impact position of the object is calculated according to the result (S111).
도 7은 본 발명의 실시예에 따라 측정된 물체의 탄착 위치와 실제 표적상에서의 참값을 비교한 것을 나타내며, 도 7에 있어서 실제 표적상에서의 참값은 o로, 다항식 모델에 따라 산출된 탄착 위치의 좌표값은 x로 도시하였다. FIG. 7 illustrates a comparison between an impact position of an object measured according to an embodiment of the present invention and a true value on an actual target. In FIG. 7, the true value on an actual target is o, and the impact position calculated according to the polynomial model is shown. Coordinate values are shown by x.
도 7에 도시된 바와 같이, 실제 표적상에서의 참값과 다항식 모델에 따라 산출된 탄착 위치의 좌표값이 일치되고 있음을 알 수 있다.As shown in FIG. 7, it can be seen that the true value on the actual target coincides with the coordinate value of the impact position calculated according to the polynomial model.
본 발명의 실시예에 따른 탄착위치 측정 장치 및 탄착 위치 측정 방법은, 화살 등의 탄착 위치를 정확하게 측정할 수 있으며, 다항식 모델을 이용하여, 카메라에 의한 영상 입력의 왜곡을 보정할 수 있다는 것을 알 수 있다.It is understood that the impact position measuring device and the impact position measuring method according to the embodiment of the present invention can accurately measure impact positions such as arrows, and can correct distortion of an image input by a camera using a polynomial model. Can be.
또한, 본 발명의 실시예에 따른 탄착위치 측정 장치 및 탄착 위치 측정 방법은 성능지수 등을 이용하여 다항식 모델을 최적화하여 탄착 위치 측정의 정밀도 향상이 가능하며, 표적에서 이격된 위치에서의 물체의 통과에 따른 반사광을 이용하여 탄착 위치를 측정할 수 있으므로, 화살 등의 표적에 대한 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받지 않아, 화살의 탄착점, 탄착군을 정밀하게 측정할 수 있다.
In addition, the impact position measuring device and impact position measuring method according to an embodiment of the present invention can improve the accuracy of the impact position measurement by optimizing the polynomial model using the performance index, etc., passing the object at a position away from the target Since the impact position can be measured using the reflected light, the impact point and the impact group of the arrow can be accurately measured without being affected by the physical deformation of the target and the positional change of the impacted object when the impact on the target such as the arrow is performed. have.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the claims and their equivalents should be construed as being included in the scope of the present invention.
Claims (12)
소정의 물체가 상기 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 영상입력부;
상기 빛의 면에서 상기 반사광의 영상 좌표를 생성하되, 상기 반사광의 조사 강도와 상기 반사광에 대한 화소값에 따라 상기 영상 좌표를 생성하는 영상 좌표 생성부;
상기 영상 좌표를 상기 표적 상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 모델링부; 및
상기 다항식 모델에 따라 상기 전역 좌표에서의 상기 물체의 탄착 위치를 산출하는 탄착 위치 산출부
를 포함하는 탄착 위치 측정 장치.A light generator for generating a plane of light in front of the target at a predetermined distance from the target to be shot;
An image input unit configured to receive reflected light as an image when a predetermined object passes through the surface of the light;
An image coordinate generation unit generating image coordinates of the reflected light in the plane of the light and generating the image coordinates according to the irradiation intensity of the reflected light and the pixel value of the reflected light;
A modeling unit generating a polynomial model for converting the image coordinates into global coordinates corresponding to a position on the target; And
An impact position calculation unit for calculating an impact position of the object in the global coordinates according to the polynomial model
Impact location measuring device comprising a.
상기 반사광의 조사 강도 및 상기 반사광에 대한 화소값을 입력 변수로 하며, 상기 반사광의 조사 강도와 상기 반사광에 대한 화소값의 가중합에 따라 상기 전역 좌표에 대응되는 출력값을 가지도록 상기 다항식 모델을 생성하는 것
인 탄착 위치 측정 장치.The method of claim 1, wherein the modeling unit,
The polynomial model is generated to have an output value corresponding to the global coordinates according to the irradiation intensity of the reflected light and the pixel value of the reflected light as an input variable, and according to a weighted sum of the irradiation intensity of the reflected light and the pixel value of the reflected light. To do
Impact position measuring device.
상기 다항식 모델의 구조와 차수를 결정하는 구조 동일화부; 및
상기 구조 동일화부에서 결정된 다항식 모델의 구조에 따른 파라미터를 선정하는 파라미터 동일화부를 포함하는 것
인 탄착 위치 측정 장치.The method of claim 1, wherein the modeling unit,
A structural equalizer which determines a structure and an order of the polynomial model; And
And a parameter equalizer for selecting a parameter according to the structure of the polynomial model determined by the structural equalizer.
Impact position measuring device.
상기 구조 동일화부는,
참값과 상기 다항식 모델에 따른 출력값 사이의 오차를 정의한 성능지수 함수에 따라 상기 다항식 모델의 차수를 결정하는 것
인 탄착 위치 측정 장치.The method of claim 4, wherein
The structure equalizing unit,
Determining the order of the polynomial model according to a figure of merit function that defines the error between the true value and the output value according to the polynomial model
Impact position measuring device.
상기 파라미터 동일화부는,
비선형 최소자승법에 따라 상기 파라미터를 선정하는 것
인 탄착 위치 측정 장치.The method of claim 4, wherein
The parameter equalizer,
Selecting said parameters according to a nonlinear least-squares method
Impact position measuring device.
상기 탄착 위치를 기초로 탄착군의 중심점 및 크기 중 적어도 하나를 계산하여 상기 물체의 탄착 특성을 분석하는 특성 분석부
를 더 포함하는 탄착 위치 측정 장치.The method of claim 1,
Characteristic analysis unit for analyzing the impact characteristics of the object by calculating at least one of the center point and the size of the impact group based on the impact position
Impact location measuring apparatus further comprising.
상기 영상 좌표, 상기 전역 좌표, 상기 물체가 통과한 영상 좌표상의 위치 및 상기 탄착 위치 중 적어도 하나를 출력하는 출력부
를 더 포함하는 탄착 위치 측정 장치.The method of claim 1,
An output unit configured to output at least one of the image coordinates, the global coordinates, a position on the image coordinates through which the object has passed, and the impact position
Impact location measuring apparatus further comprising.
소정의 물체가 상기 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 단계;
상기 반사광의 조사 강도와 상기 반사광에 대한 화소값을 이용하여 상기 빛의 면에 대응되는 영상 좌표를 생성하는 단계;
상기 영상 좌표를 상기 표적상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 단계;
상기 영상 좌표에서의 좌표값과 상기 전역 좌표에서의 좌표값을 학습데이터로 이용하여 상기 다항식 모델을 최적화하는 단계; 및
상기 최적화에 따른 다항식 모델을 이용하여 상기 영상 좌표에서의 좌표값에 대응되는 상기 전역 좌표에서의 좌표값을 계산하고, 그 결과에 따라 상기 물체의 탄착 위치를 산출하는 단계
를 포함하는 탄착 위치 측정 방법.Generating a plane of light on a plane in front of a target targeted for shooting;
Receiving reflected light as an image when a predetermined object passes through the plane of light;
Generating image coordinates corresponding to the plane of the light by using the irradiation intensity of the reflected light and the pixel value of the reflected light;
Generating a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target;
Optimizing the polynomial model using coordinate values in the image coordinates and coordinate values in the global coordinates as learning data; And
Calculating a coordinate value in the global coordinates corresponding to the coordinate value in the image coordinates using the polynomial model according to the optimization, and calculating the impact position of the object according to the result
Impact location measurement method comprising a.
상기 반사광의 조사 강도 및 상기 반사광에 대한 화소값을 입력 변수로 설정하는 단계; 및
상기 입력 변수들의 가중합에 따라 상기 전역 좌표에서의 좌표값을 출력하도록하는 다항식 모델을 생성하는 단계;
를 포함하는 탄착 위치 측정 방법.The method of claim 9, wherein generating the polynomial model comprises:
Setting an irradiation intensity of the reflected light and a pixel value of the reflected light as an input variable; And
Generating a polynomial model for outputting coordinate values in the global coordinates according to the weighted sum of the input variables;
Impact location measurement method comprising a.
상기 물체의 탄착 위치에 따른 참값과 상기 다항식 모델에 따른 출력값 사이의 오차를 최소화하도록 상기 다항식 모델의 차수 및 파라미터 중 적어도 하나를 결정하여 상기 다항식 모델을 최적화하는 단계인 것
인 탄착 위치 측정 방법.The method of claim 9, wherein optimizing the polynomial model comprises:
Optimizing the polynomial model by determining at least one of orders and parameters of the polynomial model to minimize the error between the true value according to the impact position of the object and the output value according to the polynomial model
How to measure the impact position.
복수개의 상기 영상 좌표에서의 좌표값을 상기 다항식 모델에 입력하는 단계;
상기 입력에 따른 상기 다항식 모델에서의 출력값과 상기 영상 좌표에서의 좌표값에 대응되는 상기 전역 좌표에서의 좌표값 사이의 오차를 각각 산출하는 단계; 및
상기 오차의 가중합을 최소화하도록 상기 다항식 모델의 차수 및 파라미터 중 적어도 하나를 결정하는 단계를 포함하는 것
인 탄착 위치 측정 방법.The method of claim 9, wherein optimizing the polynomial model comprises:
Inputting coordinate values of the plurality of image coordinates into the polynomial model;
Calculating an error between an output value in the polynomial model according to the input and a coordinate value in the global coordinates corresponding to the coordinate value in the image coordinates; And
Determining at least one of the order and parameters of the polynomial model to minimize the weighted sum of the errors
How to measure the impact position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110062829A KR101284181B1 (en) | 2011-06-28 | 2011-06-28 | Apparatus and method for measuring point of impact |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110062829A KR101284181B1 (en) | 2011-06-28 | 2011-06-28 | Apparatus and method for measuring point of impact |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130001908A KR20130001908A (en) | 2013-01-07 |
KR101284181B1 true KR101284181B1 (en) | 2013-07-09 |
Family
ID=47834754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110062829A KR101284181B1 (en) | 2011-06-28 | 2011-06-28 | Apparatus and method for measuring point of impact |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101284181B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101712426B1 (en) | 2016-06-17 | 2017-03-06 | 한화시스템(주) | Method for Correcting Target Location Information, Observation Device Having a Function of Correcting Target Location Information and Program Stored in Medium for Correcting Target Location Information of Observation Device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11230699A (en) * | 1998-02-13 | 1999-08-27 | Babcock Hitachi Kk | Target arrival position measuring apparatus for bullet |
KR200258271Y1 (en) | 2001-06-26 | 2001-12-24 | 김칠수 | Measurement System for Gun-target point |
KR20020007880A (en) * | 2000-07-19 | 2002-01-29 | 박원우 | Method for finding the position of virtual impact point at a virtual firing range by using infrared |
JP2007162989A (en) | 2005-12-12 | 2007-06-28 | Babcock Hitachi Kk | Bullet position measuring device |
-
2011
- 2011-06-28 KR KR1020110062829A patent/KR101284181B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11230699A (en) * | 1998-02-13 | 1999-08-27 | Babcock Hitachi Kk | Target arrival position measuring apparatus for bullet |
KR20020007880A (en) * | 2000-07-19 | 2002-01-29 | 박원우 | Method for finding the position of virtual impact point at a virtual firing range by using infrared |
KR200258271Y1 (en) | 2001-06-26 | 2001-12-24 | 김칠수 | Measurement System for Gun-target point |
JP2007162989A (en) | 2005-12-12 | 2007-06-28 | Babcock Hitachi Kk | Bullet position measuring device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101712426B1 (en) | 2016-06-17 | 2017-03-06 | 한화시스템(주) | Method for Correcting Target Location Information, Observation Device Having a Function of Correcting Target Location Information and Program Stored in Medium for Correcting Target Location Information of Observation Device |
Also Published As
Publication number | Publication date |
---|---|
KR20130001908A (en) | 2013-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112766103B (en) | Machine room inspection method and device | |
CN104683725B (en) | A kind of shooting positioning automatic correction system and method based on shadow casting technique | |
CN110033473A (en) | Motion target tracking method based on template matching and depth sorting network | |
CN110765674B (en) | Pneumatic optical effect calculation method and system | |
WO2017149869A1 (en) | Information processing device, method, program, and multi-camera system | |
CN110378227B (en) | Method, device and equipment for correcting sample labeling data and storage medium | |
CN113134683A (en) | Laser marking method and device based on machine learning | |
KR20130040026A (en) | Method and apparatus for measuring distance of object | |
KR101284181B1 (en) | Apparatus and method for measuring point of impact | |
CN203011419U (en) | An optical axis parallelism digital calibration instrument for multiple optical sensors | |
CN112529941B (en) | Multi-target tracking method and system based on depth trajectory prediction | |
US20190272629A1 (en) | Method for Fast Judging and Optimizing Light Emitting Quality of Light Guide Plate Based on Image Processing Technology | |
CN107239743B (en) | automatic detection method for scale mark reading based on projection method | |
CN113421236A (en) | Building wall surface water leakage apparent development condition prediction method based on deep learning | |
CN106488204A (en) | Possess depth photographic attachment and the self-aligning method of self-aligning | |
KR101961479B1 (en) | Apparatus and method for measuring optical center in camera module | |
CN109242911A (en) | One kind being based on subregional binocular camera fundamental matrix calculation method | |
CN113065373B (en) | Automatic aiming correction system and method for optical aiming device | |
KR101703715B1 (en) | The apparatus for measuring camera principal point and the method thereof | |
CN102749884A (en) | Light transmission scanning-detecting controlling method for ceramic antenna cover | |
KR101442685B1 (en) | Measuring apparatus and method of missile impact group and velocity using line laser and photodiode | |
CN112927201A (en) | Curve detection method and device | |
CN105357435A (en) | Focusing method for starlight orientation device under daytime environment | |
KR101525166B1 (en) | Arrow and Bow Tuning System using Fast-moving Projectiles Measurement Device and Method of the Same | |
CN111936873A (en) | Pulse system verification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160705 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170630 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |