KR101284181B1 - Apparatus and method for measuring point of impact - Google Patents

Apparatus and method for measuring point of impact Download PDF

Info

Publication number
KR101284181B1
KR101284181B1 KR1020110062829A KR20110062829A KR101284181B1 KR 101284181 B1 KR101284181 B1 KR 101284181B1 KR 1020110062829 A KR1020110062829 A KR 1020110062829A KR 20110062829 A KR20110062829 A KR 20110062829A KR 101284181 B1 KR101284181 B1 KR 101284181B1
Authority
KR
South Korea
Prior art keywords
polynomial model
impact
reflected light
image
light
Prior art date
Application number
KR1020110062829A
Other languages
Korean (ko)
Other versions
KR20130001908A (en
Inventor
김성신
백경동
이인성
송점식
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Priority to KR1020110062829A priority Critical patent/KR101284181B1/en
Publication of KR20130001908A publication Critical patent/KR20130001908A/en
Application granted granted Critical
Publication of KR101284181B1 publication Critical patent/KR101284181B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G1/00Sighting devices
    • F41G1/32Night sights, e.g. luminescent
    • F41G1/34Night sights, e.g. luminescent combined with light source, e.g. spot light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Abstract

본 발명은 탄착 위치 측정 장치 및 탄착 위치 측정 방법에 관한 것으로, 본 발명의 일면에 따른 탄착 위치 측정 장치는 사격의 목표가 되는 표적과 소정의 거리가 이격되어, 상기 표적의 앞쪽에 평면상의 빛의 면을 발생하는 광 발생부와, 소정의 물체가 상기 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 영상입력부와, 상기 빛의 면에 대응되는 영상 좌표를 생성하는 영상 좌표 생성부와, 상기 영상 좌표를 상기 표적 상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 모델링부와, 상기 다항식 모델에 따라 상기 전역 좌표에서의 상기 물체의 탄착 위치를 산출하는 탄착 위치 산출부를 포함한다.The present invention relates to an impact position measuring apparatus and an impact position measuring method, wherein the impact position measuring apparatus according to one aspect of the present invention is spaced apart from a target to be shot by a predetermined distance, the plane of light in front of the target. A light generating unit for generating a light source, an image input unit for receiving reflected light reflected when a predetermined object passes through the plane of light, an image coordinate generation unit for generating image coordinates corresponding to the plane of light, and And a modeling unit generating a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target, and an impact position calculating unit calculating the impact position of the object in the global coordinates according to the polynomial model. .

Description

탄착 위치 측정 장치 및 탄착 위치 측정 방법{APPARATUS AND METHOD FOR MEASURING POINT OF IMPACT}Apparatus for measuring impact position and how to measure impact position {APPARATUS AND METHOD FOR MEASURING POINT OF IMPACT}

본 발명은 화살 등의 탄착점 위치를 측정하기 위한 탄착 위치 측정 장치 및 탄착 위치 측정 방법에 관한 것으로서, 더욱 상세하게는, 표적과 이격된 거리에서 통과된 화살 등의 물체를 영상으로 입력 받아, 표적에서의 탄착 위치를 산출하도록 하여, 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받지 않아 탄착 위치 측정의 정밀도를 향상할 수 있으며, 영상 입력에 있어서의 왜곡을 보정하여 탄착 위치 추정시 발생되는 오류를 최소화 할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법에 관한 것이다.The present invention relates to an apparatus for measuring an impact position and an impact position measuring method for measuring an impact point position such as an arrow. More specifically, an object such as an arrow, which is passed at a distance from the target, is received as an image, By calculating the impact position of the target, it is possible to improve the accuracy of the impact position measurement because it is not affected by the physical deformation of the target and the positional change of the impacted object. The present invention relates to an impact position measuring apparatus and an impact position measuring method capable of minimizing an error occurring.

우수한 화살은 탄착점, 탄착군 분포가 높은 집적도를 가지며, 이동궤적이 일정한 범위에 수렴하는 특성을 가진다. 따라서, 화살의 품질을 판단하기 위해서는 일정한 물리적 조건하에서 표적에 발사된 화살의 탄착점, 탄착군을 정밀하게 측정하는 기술이 필요하다.Excellent arrows have a high density of impact point and impact group distribution, and the movement trajectory converges to a certain range. Therefore, in order to determine the quality of the arrow, a technique for precisely measuring the impact point and the impact group of the arrow fired on the target under certain physical conditions is required.

이러한 측정 기술의 필요성에도 불구하고, 소정의 위치에서 발사되어 표적지를 향하는 화살은 표적지에 이르는 거리를 고속으로 통과하게 되어 간단히 측정되기 어렵다는 문제가 있어, 종래에는 탄착 위치의 측정을 수작업 검사(Manual Inspection)에 의존하는 경우가 대다수였다.In spite of the necessity of the measurement technique, an arrow shot at a predetermined position and aiming at a target site has a problem that it is difficult to measure simply because the arrow passes at a high speed to the target site. In most cases).

수작업 검사의 경우, 사람의 행위가 포함되어 측정시 일정수준 이상의 정밀도는 기대할 수 없다는 문제가 있으며, 화살 등의 표적에 대한 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받게 된다는 문제가 있었다. In the case of manual inspection, there is a problem that a certain level of precision cannot be expected when measuring by including human behavior, and the impact of the physical deformation of the target and the change of the position of the impacted object when an impact on the target such as an arrow is affected. There was.

수작업 검사의 단점을 보완하기 위하여, 레이저 기술을 이용한 자동 측정 기술들이 제안되고는 있으나, 종래의 자동 측정 기술들은 측정값이 표적에서의 위치와 정확히 대응되기 위하여 발광 및 수광 센서가 표적과 함께 설치되거나 표적과 상당히 가까운 위치에 설치되야 한다는 제약을 가질 수 밖에 없으며, 발광 및 수광 센서 등의 설계상의 왜곡 및 빛의 굴절에 따른 왜곡은 보정할 수 없어, 정확한 탄착 위치 측정을 보장할 수 없다는 문제가 있었다.In order to make up for the disadvantages of manual inspection, automatic measurement techniques using laser technology have been proposed. However, conventional automatic measurement techniques have a luminescence and light receiving sensor installed with the target so that the measured value exactly matches the position on the target. There must be a limitation that it should be installed at a position very close to the target, and the design distortion of the light emitting and light receiving sensors, and the distortion due to the refraction of light cannot be corrected, so that the accurate impact position measurement cannot be guaranteed. .

상기의 문제점을 해결하기 위한, 본 발명의 목적은 사격의 목표가 되는 표적의 앞쪽에 평면상의 빛의 면을 발생시켜 소정의 물체가 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력 받도록 하고, 영상 좌표를 표적상의 위치에 대응되는 전역 좌표로 변환하는 다항식 모델을 이용하여, 표적에 도달하는 화살의 탄착 위치를 정확하게 측정할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공하는 데 있다.표적에 도달하는 화살의 탄착 위치를 정확하게 측정할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공하는 데 있다. In order to solve the above problems, an object of the present invention is to generate a plane of light in front of the target to be shot target to receive the reflected light as an image when a predetermined object passes through the plane of light, An object of the present invention is to provide an impact position measuring device and an impact position measuring method capable of accurately measuring an impact position of an arrow reaching a target by using a polynomial model that converts image coordinates into global coordinates corresponding to positions on a target. The present invention provides an impact position measuring apparatus and an impact position measuring method capable of accurately measuring the impact position of an arrow reaching.

또한, 본 발명은 다른 목적은 화살 등의 표적에 대한 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받지 않으며, 입력된 영상의 왜곡 보정이 가능하여 표적에 발사된 화살의 탄착점, 탄착군을 정밀하게 측정할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공하는 데 있다. In addition, another object of the present invention is not affected by the physical deformation of the target and the positional change of the impacted object when the impact on the target such as the arrow, the distortion of the input image can be corrected, the impact point of the arrow fired on the target, The present invention provides an impact position measuring apparatus and an impact position measuring method capable of accurately measuring impact groups.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood from the following description.

전술한 목적을 달성하기 위한 본 발명의 일면에 따른 탄착 위치 측정 장치는, 사격의 목표가 되는 표적과 소정의 거리가 이격되어, 표적의 앞쪽에 평면상의 빛의 면을 발생하는 광 발생부와, 소정의 물체가 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 영상입력부와, 빛의 면에 대응되는 영상 좌표를 생성하는 영상 좌표 생성부와, 영상 좌표를 표적 상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 모델링부와, 다항식 모델에 따라 전역 좌표에서의 물체의 탄착 위치를 산출하는 탄착 위치 산출부를 포함한다.An impact position measuring device according to one aspect of the present invention for achieving the above object is a light generating unit for generating a plane of light on the front of the target, a predetermined distance is separated from the target to be shot target, An image input unit for receiving the reflected light reflected as an object passing through the plane of light as an image, an image coordinate generation unit for generating image coordinates corresponding to the plane of light, and global coordinates corresponding to the position on the target. And a modeling unit configured to generate a polynomial model for converting to and an impact position calculating unit calculating an impact position of the object in global coordinates according to the polynomial model.

본 발명의 다른 면에 따른 탄착 위치 측정 방법은, 사격의 목표가 되는 표적의 앞쪽에 평면상의 빛의 면을 발생시키는 단계와, 소정의 물체가 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 단계와, 반사광의 조사 강도와 반사광에 대한 화소값을 이용하여 빛의 면에 대응되는 영상 좌표를 생성하는 단계와, 영상 좌표를 표적상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 단계와, 영상 좌표에서의 좌표값과 전역 좌표에서의 좌표값을 학습데이터로 이용하여 다항식 모델을 최적화하는 단계와, 최적화에 따른 다항식 모델을 이용하여 영상 좌표에서의 좌표값에 대응되는 전역 좌표에서의 좌표값을 계산하고, 그 결과에 따라 물체의 탄착 위치를 산출하는 단계를 포함한다.According to another aspect of the present invention, a method of measuring impact position includes generating a plane of light on a plane in front of a target to be shot, and inputting reflected light reflected when an object passes through the plane of light. Receiving, generating image coordinates corresponding to the plane of light using the irradiation intensity of the reflected light and pixel values of the reflected light, and generating a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target. And optimizing the polynomial model using the coordinate values in the image coordinates and the coordinate values in the global coordinates as learning data, and the global coordinates corresponding to the coordinate values in the image coordinates using the polynomial model according to the optimization. Calculating a coordinate value at and calculating an impact position of the object according to the result.

본 발명에 따르면, 라인 레이저 및 카메라를 이용하여 화살 등의 탄착 위치를 정확하게 측정할 수 있으며, 다항식 모델을 이용하여, 카메라에 의한 영상 입력의 왜곡을 보정할 수 있을 뿐만 아니라, 다항식 모델을 성능지수 등을 이용하여 최적화하여 정밀도의 향상이 가능한 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공할 수 있다.According to the present invention, an impact position such as an arrow can be accurately measured using a line laser and a camera, and a polynomial model can not only correct distortion of an image input by a camera, but also perform a polynomial model performance index. It is possible to provide an impact position measuring apparatus and an impact position measuring method capable of improving the accuracy by optimizing using such.

또한, 본 발명에 따르면, 표적에서 이격된 위치에서의 물체의 통과에 따른 반사광을 이용하여 탄착 위치를 측정할 수 있으므로, 화살 등의 표적에 대한 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받지 않아, 화살의 탄착점, 탄착군을 정밀하게 측정할 수 있다.In addition, according to the present invention, since the impact position can be measured by using the reflected light according to the passage of the object at the position away from the target, the physical deformation of the target when the impact on the target such as an arrow and the position variation of the impacted object It is not influenced by, so the impact point and impact group of the arrow can be measured precisely.

또한, 본 발명에 따르면, 표적에 도달하는 화살 등의 탄착 위치를 기초로 탄착군의 중심점 및 크기를 계산하여 탄착 특성을 분석할 수 있다. In addition, according to the present invention, the impact characteristic can be analyzed by calculating the center point and the size of the impact group based on the impact positions such as arrows reaching the target.

또한, 본 발명에 따르면, 원격지에서 화살 등의 탄착 위치를 손쉽게 파악할 수 있는 탄착 위치 측정 장치 및 탄착 위치 측정 방법을 제공할 수 있다.In addition, according to the present invention, it is possible to provide an impact position measuring device and an impact position measuring method which can easily grasp the impact position of an arrow or the like from a remote location.

도 1은 본 발명의 일 실시예에 따른 탄착 위치 측정 장치를 설명하기 위한 블록도.
도 2는 본 발명의 다른 실시예에 따른 탄착 위치 측정 방법을 설명하기 위한 순서도.
도 3은 본 발명의 실시예에 따른 광 발생부 및 영상입력부가 설치되는 구조를 나타내는 예시도.
도 4는 반사광의 조사 강도와 반사광에 대한 화소값에 따른 영상 좌표(Cx, Cy)를 도시한 도면.
도 5는 영상 좌표에 있어서의 왜곡 현상을 나타내는 도면.
도 6은 계층형 다항식 모델의 구조를 나타내는 개념도.
도 7은 본 발명의 실시예에 따라 측정된 물체의 탄착 위치와 실제 표적상에서의 참값을 비교한 결과를 나타내는 도면.
1 is a block diagram for explaining an impact position measuring apparatus according to an embodiment of the present invention.
Figure 2 is a flow chart for explaining the impact position measuring method according to another embodiment of the present invention.
3 is an exemplary view showing a structure in which a light generating unit and an image input unit are installed according to an embodiment of the present invention.
4 is a diagram showing image coordinates (Cx, Cy) according to irradiation intensity of reflected light and pixel values of the reflected light.
5 is a diagram illustrating a distortion phenomenon in video coordinates.
6 is a conceptual diagram illustrating the structure of a hierarchical polynomial model.
7 is a view showing the result of comparing the true value on the actual target and the impact position of the object measured according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로서, 본 발명은 청구항의 기재에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.
BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms, and only the embodiments are to make the disclosure of the present invention complete, and those skilled in the art to which the present invention pertains. As the invention is provided to fully inform the scope of the invention, the invention is defined only by the description of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

이하, 도 1 및 도 3을 참조하여 본 발명의 일 실시예에 따른 탄착 위치 측정 장치를 설명한다. 도 1은 본 발명의 일 실시예에 따른 탄착 위치 측정 장치를 설명하기 위한 블록도이며, 도 3은 본 발명의 일 실시예에 따른 탄착 위치 측정 장치에 있어서, 광 발생부 및 영상입력부가 설치되는 구조를 나타내는 예시도이다.Hereinafter, an impact position measuring apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 and 3. 1 is a block diagram illustrating an impact position measuring apparatus according to an embodiment of the present invention, Figure 3 is an impact position measuring apparatus according to an embodiment of the present invention, the light generating unit and the image input unit is installed It is an exemplary figure which shows a structure.

도 1을 참조하면, 본 발명의 일 실시예에 따른 탄착 위치 측정 장치(10)는 광 발생부(100), 영상입력부(200), 영상 좌표 생성부(300), 모델링부(400), 탄착 위치 산출부(500), 특성 분석부(600) 및 출력부(700)를 포함한다.Referring to FIG. 1, an impact location measuring apparatus 10 according to an embodiment of the present invention may include a light generation unit 100, an image input unit 200, an image coordinate generation unit 300, a modeling unit 400, and an impact location. The position calculator 500, the characteristic analyzer 600, and an output unit 700 are included.

광 발생부(100)는 도 3에 도시된 바와 같이 사격의 목표가 되는 표적(900)과 소정의 거리가 이격되어, 표적(900)의 앞쪽에 평면상의 빛의 면(101)을 발생한다. 여기서, 광 발생부(100)는 특정 주파수의 평면 광을 발생시키는 라인 레이저(Line laser)일 수 있다. 또한, 광 발생부(100)는 다수개의 발광 소자를 평면상의 빛의 면을 발생하도록 배열한 것 일 수 있다. 광 발생부(100)는 전술한 구성 이외에도 표적(900)의 앞쪽에 평면상의 빛의 면을 발생할 수 있는 다양한 형태로의 구현이 가능하며, 도 3의 도면 및 전술한 예시에 한정되는 것은 아니다.As shown in FIG. 3, the light generator 100 is spaced apart from the target 900 as the target of shooting by a predetermined distance to generate the plane of light 101 on the plane in front of the target 900. Here, the light generator 100 may be a line laser for generating planar light of a specific frequency. In addition, the light generating unit 100 may be a plurality of light emitting elements arranged to generate a plane of light on the plane. In addition to the above-described configuration, the light generating unit 100 may be embodied in various forms that may generate a plane of light on the front of the target 900, and is not limited to the drawings and the example of FIG. 3.

영상입력부(200)는 화살 또는 탄환 등과 같은 소정의 물체가 빛의 면(101)을 통과할 때, 통과 지점(103)에 있어서 물체에 빛이 반사되는 반사광을 영상으로 입력 받으며, 반사광에 의한 물체의 선 윤곽(Line profile)을 인식한다. 영상입력부(200)는 특정 주파수의 반사광을 인식할 수 있는 비전 카메라를 이용하여 구현할 수 있으며, 이외에도 고속 처리가 가능한 카메라 및 영상 처리 모듈을 이용하여 구현 할 수도 있다. When the predetermined object such as an arrow or a bullet passes through the surface 101 of the light, the image input unit 200 receives the reflected light in which light is reflected by the object at the passing point 103 as an image, and the object by the reflected light. Recognize the line profile. The image input unit 200 may be implemented by using a vision camera capable of recognizing reflected light of a specific frequency. In addition, the image input unit 200 may be implemented by using a camera and an image processing module capable of high speed processing.

영상 좌표 생성부(300)는 도 4에 도시된 바와 같이, 반사광의 조사 강도와, 반사광에 대한 화소값에 따라 빛의 면에서 반사광에 대응되는 영상 좌표를 생성한다.As illustrated in FIG. 4, the image coordinate generator 300 generates image coordinates corresponding to the reflected light in terms of light according to the irradiation intensity of the reflected light and the pixel value of the reflected light.

도 4는 반사광의 조사 강도와 반사광에 대한 화소값에 따른 영상 좌표(Cx, Cy)를 도시한 도면이며, 가로축은 반사광의 조사 강도에 대응되며, 세로축은 반사광의 화소값에 대응될 수 있다.4 is a diagram illustrating image coordinates Cx and Cy according to irradiation intensity of reflected light and pixel values of the reflected light, wherein the horizontal axis corresponds to the irradiation intensity of the reflected light, and the vertical axis may correspond to the pixel value of the reflected light.

여기서, 영상 좌표는 표적(900)에서의 위치와 대응될 수 있는 평면상의 빛의 면에 있어서의 가상 좌표를 의미한다.Here, the image coordinates mean virtual coordinates in the plane of light on the plane that may correspond to the position on the target 900.

일반적으로 카메라의 렌즈 중심에서 벗어날수록 방사왜곡(Barrel distortion), 실타래형 왜곡(Pincushion distortion) 등의 왜곡 현상이 뚜렷하게 일어나게 된다.In general, as the camera moves away from the lens center, distortions such as barrel distortion and pincushion distortion become more pronounced.

영상 좌표 생성부(300)에서 영상입력부(200)를 통해 인식된 반사광을 기초로하여 생성된 영상 좌표는 카메라 등의 성능과 카메라 렌즈의 굴절률, 기타 하드웨어적 요소 등에 의해 왜곡이 일어날 수 있다.The image coordinates generated based on the reflected light recognized by the image input unit 200 in the image coordinate generator 300 may be distorted due to the performance of the camera, the refractive index of the camera lens, and other hardware factors.

도 5는 영상 좌표에 있어서의 왜곡 현상을 나타내는 도면이다.5 is a diagram illustrating a distortion phenomenon in video coordinates.

도 5는 표적 상의 위치에 있어서 정방형의 격자점에 대응되는 각 영상 좌표를 도시하고 있다. 도 5에 도시된 바와 같이 영상 좌표는 평면 좌표가 아닌 곡면 좌표 등의 형태가 될 수 있으며, 표적상의 위치와 일대일 대응이 되지 않을 수 있다. 또한, 이러한 왜곡 현상으로 인해 패턴인식이나 특징 추출 등 영상처리 과정에서 빈번한 오류가 발생할 수 있다.FIG. 5 shows each image coordinate corresponding to a square grid point at a position on a target. As shown in FIG. 5, the image coordinates may be in the form of curved coordinates, not planar coordinates, and may not correspond one-to-one with a position on a target. In addition, such distortion may cause frequent errors in image processing such as pattern recognition and feature extraction.

따라서, 모델링부(400)는 전술한 왜곡을 보정하고, 영상 좌표를 표적 상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성한다.Therefore, the modeling unit 400 corrects the aforementioned distortion and generates a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target.

모델링부(400)는 영상 좌표와 표적(900)에서의 실제 위치에 해당하는 전역 좌표의 입출력 데이터를 대응시켜 왜곡을 보정한다. 입력 데이터는 반사광의 조사 강도와, 반사광에 대한 화소값에 따라 빛의 면에서 반사광에 대응되는 영상 좌표이며, 출력 데이터는 표적 상의 위치에 대응되는 전역 좌표이다. The modeling unit 400 corrects the distortion by matching the input and output data of the global coordinates corresponding to the actual position on the target 900 and the image coordinates. The input data are image coordinates corresponding to the reflected light in terms of light according to the irradiation intensity of the reflected light and the pixel value of the reflected light, and the output data are global coordinates corresponding to the position on the target.

모델링부(400)는 내재적 보정 방법인 성능지수기반의 계층형 다항식 모델(Performance Criteria Based Hierarchical Polynomial Model)을 이용하여 왜곡된 영상을 보정한다.The modeling unit 400 corrects the distorted image using a performance index-based hierarchical polynomial model, which is an intrinsic correction method.

더욱 상세하게는, 모델링부(400)는 하기 수학식1에 따른 계층형 다항식 보정모델을 이용하여 두 개의 입력변수로부터 하나의 출력을 생성하며, 왜곡된 영상을 보정한다.More specifically, the modeling unit 400 generates one output from two input variables by using a hierarchical polynomial correction model according to Equation 1 below, and corrects the distorted image.

Figure 112011049234569-pat00001
Figure 112011049234569-pat00001

여기서,

Figure 112011049234569-pat00002
,
Figure 112011049234569-pat00003
는 왜곡이 없는 영상의 좌표점이고,
Figure 112011049234569-pat00004
,
Figure 112011049234569-pat00005
는 왜곡된 영상의 좌표점이며,
Figure 112011049234569-pat00006
,
Figure 112011049234569-pat00007
,
Figure 112011049234569-pat00008
는 각각의 영상 좌표에 대응되는 파라미터이다. here,
Figure 112011049234569-pat00002
,
Figure 112011049234569-pat00003
Is the coordinate point of the image without distortion,
Figure 112011049234569-pat00004
,
Figure 112011049234569-pat00005
Is the coordinate point of the distorted image,
Figure 112011049234569-pat00006
,
Figure 112011049234569-pat00007
,
Figure 112011049234569-pat00008
Is a parameter corresponding to each image coordinate.

모델링부(400)는 반사광의 조사 강도 및 반사광에 대한 화소값을 입력 변수(

Figure 112011049234569-pat00009
,
Figure 112011049234569-pat00010
)로 하며, 반사광의 조사 강도와 반사광에 대한 화소값의 가중합에 따라 전역 좌표에 대응되는 출력값(
Figure 112011049234569-pat00011
,
Figure 112011049234569-pat00012
)을 가지도록 계층형 다항식 모델을 생성하는 것일 수 있다.The modeling unit 400 may determine the input intensity of the reflected light intensity and the pixel value of the reflected light.
Figure 112011049234569-pat00009
,
Figure 112011049234569-pat00010
) And an output value corresponding to global coordinates according to the weighted sum of the irradiation intensity of the reflected light and the pixel value for the reflected light (
Figure 112011049234569-pat00011
,
Figure 112011049234569-pat00012
It may be to create a hierarchical polynomial model to have a).

이러한, 계층형 다항식 모델은 훈련데이터에만 최적화되어 새로운 측정 데이터에 대한 모델의 추정위치 오차가 지나치게 커지는 과대적합문제를 해결하면서, 동시에 다항식의 차수와 파라미터를 스스로 최적화할 수 있는 모델 동일화(Model identification) 기법이다.This hierarchical polynomial model is optimized only for training data, and solves the overfitting problem in which the estimated position error of the model for the new measurement data becomes too large, while simultaneously identifying the order and parameters of the polynomial by itself. Technique.

즉, 모델링부(400)는 영상 좌표와 영상 좌표에 대응되는 전역 좌표에서의 좌표값을 학습데이터 및 실험데이터로 사용하고, 성능지수를 이용하여 모델 구조를 동일화(Identification)할 수 있다.  That is, the modeling unit 400 may use the coordinate values in the image coordinates and the global coordinates corresponding to the image coordinates as the training data and the experimental data, and identify the model structure by using the performance index.

이러한, 모델 동일화의 과정은 다항식의 구조와 차수를 결정하는 구조 동일화(Structure identification) 과정과 결정된 다항식 구조에 따른 파라미터를 선정하는 파라미터 동일화(Parameter identification) 과정으로 나눌 수 있다.The process of model identification can be divided into a structure identification process for determining the structure and order of the polynomial and a parameter identification process for selecting parameters according to the determined polynomial structure.

이하, 도 6을 참조하여 계층형 다항식 모델의 구조를 설명한다. 도 6은 계층형 다항식 모델의 구조를 나타내는 개념도이며, 도6에 있어서,

Figure 112011049234569-pat00013
,
Figure 112011049234569-pat00014
는 왜곡이 없는 영상의 좌표점이고,
Figure 112011049234569-pat00015
,
Figure 112011049234569-pat00016
는 왜곡된 영상의 좌표점이며,
Figure 112011049234569-pat00017
는 학습데이터를 사용한 다항식 모델의 파라미터,
Figure 112011049234569-pat00018
은 다항식 모델의 차수이다.Hereinafter, the structure of the hierarchical polynomial model will be described with reference to FIG. 6. FIG. 6 is a conceptual diagram illustrating a structure of a hierarchical polynomial model. In FIG.
Figure 112011049234569-pat00013
,
Figure 112011049234569-pat00014
Is the coordinate point of the image without distortion,
Figure 112011049234569-pat00015
,
Figure 112011049234569-pat00016
Is the coordinate point of the distorted image,
Figure 112011049234569-pat00017
Is a parameter of a polynomial model using training data,
Figure 112011049234569-pat00018
Is the order of the polynomial model.

도 6과 같이 계층형 다항식 모델은 구조 동일화 과정에 따라 적어도 2차의 차수(레이어)를 가지도록 결정되며, 각 레이어는 왜곡된 영상의 좌표점들의 가중합의 구조를 가지고 있으며, 파라미터 동일화 과정에 따라 각 입력 변수에 대한 파라미터들이 선정된다. 또한, 구조, 차수 및 파라미터가 결정된 각 레이어들의 합이 다항식 모델의 결과값이 된다.As shown in FIG. 6, the hierarchical polynomial model is determined to have at least a second order (layer) according to a structure identification process, and each layer has a weighted sum of coordinate points of a distorted image, and according to a parameter identification process. Parameters for each input variable are selected. In addition, the sum of each layer whose structure, order, and parameters are determined becomes a result of the polynomial model.

계층형 다항식 모델에 있어서, 다항식 모델의 차수는 학습 데이터 및 실험 데이터의 구체적인 값에 따라 변동 될 수 있으며, 학습 데이터 및 실험 데이터의 값은 반사광의 조사 강도와, 반사광에 대한 화소값에 따라 빛의 면에서 반사광에 대응되는 영상 좌표 및 출력 데이터는 표적 상의 위치에 대응되는 전역 좌표의 값일 수 있다.In the hierarchical polynomial model, the order of the polynomial model may vary according to the specific values of the training data and the experimental data, and the values of the training data and the experimental data are determined according to the irradiation intensity of the reflected light and the pixel value of the reflected light. The image coordinates and output data corresponding to the reflected light in the plane may be values of global coordinates corresponding to positions on the target.

즉, 계층형 다항식 모델은 학습 데이터 및 실험 데이터를 이용하여 그 구조와 차수를 변동시키며, 구조 동일화와 파라미터 동일화 과정을 통해 최적의 구조와 차수를 결정하도록 하여 영상 좌표와 전역 좌표를 매칭할 수 있다. That is, the hierarchical polynomial model can change the structure and the order by using the training data and the experimental data, and can match the image coordinates and the global coordinates by determining the optimal structure and order through the process of structure identification and parameter identification. .

따라서, 모델링부(400)는 다항식 모델의 구조와 차수를 결정하는 구조 동일화부(410)와, 구조 동일화부(410)에서 결정된 다항식 모델의 구조에 따른 파라미터를 선정하는 파라미터 동일화부(420)를 포함한다.Accordingly, the modeling unit 400 may include a structure equalizer 410 that determines the structure and degree of the polynomial model, and a parameter equalizer 420 that selects parameters according to the structure of the polynomial model determined by the structure equalizer 410. Include.

여기서, 구조 동일화부(410)는, 참값과 다항식 모델에 따른 출력값 사이의 오차를 정의한 성능지수 함수에 따라 다항식 모델의 차수를 결정할 수 있다.Here, the structure equalizer 410 may determine the order of the polynomial model according to the performance index function that defines the error between the true value and the output value according to the polynomial model.

하기 수학식2는 성능지수 함수(Performance Criteria, PC)에 관한 식이다.Equation 2 is an equation relating to the performance index function (Performance Criteria, PC).

Figure 112011049234569-pat00019
Figure 112011049234569-pat00019

여기서,

Figure 112011049234569-pat00020
는 훈련데이터
Figure 112011049234569-pat00021
로 학습한 모델로 시험데이터
Figure 112011049234569-pat00022
를 입력했을 때 출력값,
Figure 112011049234569-pat00023
는 훈련데이터
Figure 112011049234569-pat00024
로 학습한 모델로 시험데이터
Figure 112011049234569-pat00025
를 입력했을 때 출력값,
Figure 112011049234569-pat00026
,
Figure 112011049234569-pat00027
는 목표값,
Figure 112011049234569-pat00028
,
Figure 112011049234569-pat00029
는 훈련데이터와 시험데이터로 사용된 개수,
Figure 112011049234569-pat00030
,
Figure 112011049234569-pat00031
는 가중치를 나타낸다.here,
Figure 112011049234569-pat00020
Training data
Figure 112011049234569-pat00021
Test data with a model
Figure 112011049234569-pat00022
Input value,
Figure 112011049234569-pat00023
Training data
Figure 112011049234569-pat00024
Test data with a model
Figure 112011049234569-pat00025
Input value,
Figure 112011049234569-pat00026
,
Figure 112011049234569-pat00027
Is the target value,
Figure 112011049234569-pat00028
,
Figure 112011049234569-pat00029
Is the number used as training data and test data,
Figure 112011049234569-pat00030
,
Figure 112011049234569-pat00031
Denotes a weight.

한편, 훈련 데이터 및 시험데이터로 영상 좌표와 영상 좌표에 대응되는 전역 좌표에서의 좌표값이 이용될 수 있다.Meanwhile, coordinate values in global coordinates corresponding to the image coordinates and the image coordinates may be used as the training data and the test data.

한편, 성능 지수 함수는 시험데이터를 입력했을 때의 오차 가중합으로 정의될 수 있으므로, 구조 동일화부(410)는 성능 지수 함수의 값이 최소가 되도록 다항식 모델의 차수를 결정하여 다항식 모델을 최적화할 수 있다.Meanwhile, since the figure of merit function may be defined as an error weighted sum when the test data is input, the structure equalizing unit 410 may optimize the polynomial model by determining the order of the polynomial model so that the value of the figure of merit function is minimized. Can be.

하기 수학식3은 다항식 모델의 차수를 결정하기 위한 식이다.Equation 3 is an equation for determining the order of the polynomial model.

Figure 112011049234569-pat00032
Figure 112011049234569-pat00032

한편, 파라미터 동일화부(420)는, 비선형 최소자승법에 따라 파라미터를 선정할 수 있다. 하기 수학식4는 결정된 다항식 구조에 따른 파라미터 선정에 관한 식이다.The parameter equalizer 420 may select a parameter according to a nonlinear least-squares method. Equation 4 is a formula for selecting a parameter according to the determined polynomial structure.

Figure 112011049234569-pat00033
Figure 112011049234569-pat00033

여기서,

Figure 112011049234569-pat00034
은 다항식 모델의 차수,
Figure 112011049234569-pat00035
,
Figure 112011049234569-pat00036
는 학습데이터를 사용해 최종 정의된 다항식 모델의 파라미터, PC는 참값과 모델의 출력값 사이의 오차를 정의한 성능 지수 함수이다.here,
Figure 112011049234569-pat00034
Is the order of the polynomial model,
Figure 112011049234569-pat00035
,
Figure 112011049234569-pat00036
Is the parameter of the polynomial model finally defined using the training data, and PC is the figure of merit function that defines the error between the true value and the output of the model.

탄착 위치 산출부(500)는 다항식 모델에 따라 전역 좌표에서의 물체의 탄착 위치를 산출한다.The impact position calculation unit 500 calculates the impact position of the object in the global coordinates according to the polynomial model.

즉, 탄착 위치 산출부(500)는 빛의 면을 통과한 물체에 의한 반사광에 대응되는 영상 좌표를 다항식 모델에 입력하여, 전역 좌표에서의 물체의 탄착 위치를 산출한다.That is, the impact position calculation unit 500 inputs image coordinates corresponding to the reflected light by the object passing through the plane of light to the polynomial model, and calculates the impact position of the object in the global coordinates.

특성 분석부(600)는 소정의 물체가 표적(900)의 앞쪽에 평면상의 빛의 면을 복수회에 걸쳐 통과할 때의 각각의 탄착 위치를 기초로 탄착군의 중심점 및 크기 중 적어도 하나를 계산하여 물체의 탄착 특성을 분석한다.The characteristic analyzer 600 calculates at least one of the center point and the size of the impact group based on each impact position when a predetermined object passes through the plane of light in front of the target 900 multiple times. Analyze the impact characteristics of the object.

한편, 특성 분석부(600)는 탄착군의 중심점 및 크기에 관한 기설정된 임계값을 기준으로 탄착의 정확도 및 정밀도를 판정하도록 할 수 있다.On the other hand, the characteristic analyzer 600 may determine the accuracy and precision of the impact on the basis of the predetermined threshold value for the center point and the size of the impact group.

출력부(700)는 영상 좌표, 전역 좌표, 물체가 통과한 영상 좌표상의 위치 및 탄착 위치 중 적어도 하나를 화면, 음성 및 외부와 통신 가능한 데이터의 형태로 출력한다. The output unit 700 outputs at least one of an image coordinate, a global coordinate, a position on the image coordinate through which the object has passed, and an impact position in the form of screen, voice, and data that can communicate with the outside.

또한, 출력부(700)는 원격지에서 화살 등의 탄착 위치를 손쉽게 파악할 수 있도록, 소정의 프로토콜에 따라 통신을 수행하는 통신 수단을 포함하여, 영상 좌표, 전역 좌표, 물체가 통과한 영상 좌표상의 위치 및 탄착 위치 중 적어도 하나에 대한 데이터를 외부의 단말기로 송수신하여 외부의 단말기에서 영상 좌표, 전역 좌표, 물체가 통과한 영상 좌표상의 위치 및 탄착 위치 중 적어도 하나를 이용할 수 있도록 할 수 있다.
In addition, the output unit 700 includes communication means for performing communication according to a predetermined protocol so as to easily grasp an impact position such as an arrow from a remote location, including image coordinates, global coordinates, and positions on image coordinates through which an object has passed. And transmitting and receiving data on at least one of the impact positions to an external terminal so that at least one of the image coordinates, the global coordinates, the position on the image coordinates through which the object passed, and the impact position may be used by the external terminal.

이하, 도 2를 참조하여 본 발명의 다른 실시예에 따른 탄착 위치 측정 방법을 설명한다. 도 2는 본 발명의 다른 실시예에 따른 탄착 위치 측정 방법을 설명하기 위한 순서도이다.Hereinafter, an impact position measuring method according to another embodiment of the present invention will be described with reference to FIG. 2. Figure 2 is a flow chart for explaining the impact position measurement method according to another embodiment of the present invention.

먼저, 사격의 목표가 되는 표적(900)의 앞쪽에 평면상의 빛의 면을 발생시킨다(S101).First, a plane of light is generated in front of the target 900 that is the target of shooting (S101).

이후, 화살 또는 탄환과 같은 소정의 물체가 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력 받으며(S103), 반사광의 조사 강도와 반사광에 대한 화소값을 이용하여 빛의 면에 대응되는 영상 좌표를 생성한다(S105).Subsequently, when a predetermined object such as an arrow or a bullet passes through the surface of the light, the reflected light is received as an image (S103), and the image corresponding to the surface of the light using the intensity of the reflected light and the pixel value of the reflected light. The coordinates are generated (S105).

여기서, 영상 좌표는 다항식 모델을 이용하여 전역 좌표로 변환되며, 이에 따라 물체의 탄착 위치 측정이 이루어질 수 있다.Here, the image coordinate is converted into global coordinates using the polynomial model, and thus the impact position measurement of the object may be performed.

따라서, 좌표의 변환에 앞서 영상 좌표를 표적상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성한다(S107).Therefore, prior to the transformation of the coordinates, a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target is generated (S107).

이 때, 다항식 모델을 생성하는데 있어서, 반사광의 조사 강도 및 반사광에 대한 화소값을 입력 변수로 설정하고, 입력 변수들의 가중합에 따라 전역 좌표에서의 좌표값을 출력하도록 하는 다항식 모델을 생성할 수 있다(S107).In this case, in generating the polynomial model, a polynomial model may be generated in which the irradiation intensity of the reflected light and the pixel value of the reflected light are set as input variables, and the coordinate values in global coordinates are output according to the weighted sum of the input variables. There is (S107).

이후, 영상 좌표에서의 좌표값과 전역 좌표에서의 좌표값을 학습데이터로 이용하여 다항식 모델을 최적화한다(S109).Thereafter, the polynomial model is optimized using the coordinate values in the image coordinates and the coordinate values in the global coordinates as learning data (S109).

이 때, 물체의 탄착 위치에 따른 참값과 다항식 모델에 따른 출력값 사이의 오차를 최소화하도록 다항식 모델의 차수 및 파라미터 중 적어도 하나를 결정하여 다항식 모델을 최적화 할 수 있다(S109).In this case, the polynomial model may be optimized by determining at least one of orders and parameters of the polynomial model so as to minimize an error between the true value according to the impact position of the object and the output value according to the polynomial model (S109).

또한, 다항식 모델을 최적화하는데 있어서, 복수개의 영상 좌표에서의 좌표값을 다항식 모델에 입력하고, 입력에 따른 다항식 모델에서의 출력값과 영상 좌표에서의 좌표값에 대응되는 전역 좌표에서의 좌표값 사이의 오차를 각각 산출한 후, 오차의 가중합을 최소화하도록 다항식 모델의 차수 및 파라미터 중 적어도 하나를 결정하여 다항식 모델을 최적화 할 수 있다(S109).In addition, in optimizing the polynomial model, the coordinate values of the plurality of image coordinates are input to the polynomial model, and between the output values of the polynomial model according to the input and the coordinate values in the global coordinates corresponding to the coordinate values in the image coordinates. After calculating the errors, the polynomial model may be optimized by determining at least one of the orders and parameters of the polynomial model to minimize the weighted sum of the errors (S109).

이후, 최적화에 따른 다항식 모델을 이용하여 영상 좌표에서의 좌표값에 대응되는 전역 좌표에서의 좌표값을 계산하고, 그 결과에 따라 물체의 탄착 위치를 산출한다(S111).
Thereafter, the coordinate value in the global coordinates corresponding to the coordinate value in the image coordinates is calculated using the polynomial model according to the optimization, and the impact position of the object is calculated according to the result (S111).

도 7은 본 발명의 실시예에 따라 측정된 물체의 탄착 위치와 실제 표적상에서의 참값을 비교한 것을 나타내며, 도 7에 있어서 실제 표적상에서의 참값은 o로, 다항식 모델에 따라 산출된 탄착 위치의 좌표값은 x로 도시하였다. FIG. 7 illustrates a comparison between an impact position of an object measured according to an embodiment of the present invention and a true value on an actual target. In FIG. 7, the true value on an actual target is o, and the impact position calculated according to the polynomial model is shown. Coordinate values are shown by x.

도 7에 도시된 바와 같이, 실제 표적상에서의 참값과 다항식 모델에 따라 산출된 탄착 위치의 좌표값이 일치되고 있음을 알 수 있다.As shown in FIG. 7, it can be seen that the true value on the actual target coincides with the coordinate value of the impact position calculated according to the polynomial model.

본 발명의 실시예에 따른 탄착위치 측정 장치 및 탄착 위치 측정 방법은, 화살 등의 탄착 위치를 정확하게 측정할 수 있으며, 다항식 모델을 이용하여, 카메라에 의한 영상 입력의 왜곡을 보정할 수 있다는 것을 알 수 있다.It is understood that the impact position measuring device and the impact position measuring method according to the embodiment of the present invention can accurately measure impact positions such as arrows, and can correct distortion of an image input by a camera using a polynomial model. Can be.

또한, 본 발명의 실시예에 따른 탄착위치 측정 장치 및 탄착 위치 측정 방법은 성능지수 등을 이용하여 다항식 모델을 최적화하여 탄착 위치 측정의 정밀도 향상이 가능하며, 표적에서 이격된 위치에서의 물체의 통과에 따른 반사광을 이용하여 탄착 위치를 측정할 수 있으므로, 화살 등의 표적에 대한 탄착시 표적의 물리적 변형 및 탄착된 물체의 위치 변동의 영향을 받지 않아, 화살의 탄착점, 탄착군을 정밀하게 측정할 수 있다.
In addition, the impact position measuring device and impact position measuring method according to an embodiment of the present invention can improve the accuracy of the impact position measurement by optimizing the polynomial model using the performance index, etc., passing the object at a position away from the target Since the impact position can be measured using the reflected light, the impact point and the impact group of the arrow can be accurately measured without being affected by the physical deformation of the target and the positional change of the impacted object when the impact on the target such as the arrow is performed. have.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the claims and their equivalents should be construed as being included in the scope of the present invention.

Claims (12)

사격의 목표가 되는 표적과 소정의 거리가 이격되어, 상기 표적의 앞쪽에 평면상의 빛의 면을 발생하는 광 발생부;
소정의 물체가 상기 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 영상입력부;
상기 빛의 면에서 상기 반사광의 영상 좌표를 생성하되, 상기 반사광의 조사 강도와 상기 반사광에 대한 화소값에 따라 상기 영상 좌표를 생성하는 영상 좌표 생성부;
상기 영상 좌표를 상기 표적 상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 모델링부; 및
상기 다항식 모델에 따라 상기 전역 좌표에서의 상기 물체의 탄착 위치를 산출하는 탄착 위치 산출부
를 포함하는 탄착 위치 측정 장치.
A light generator for generating a plane of light in front of the target at a predetermined distance from the target to be shot;
An image input unit configured to receive reflected light as an image when a predetermined object passes through the surface of the light;
An image coordinate generation unit generating image coordinates of the reflected light in the plane of the light and generating the image coordinates according to the irradiation intensity of the reflected light and the pixel value of the reflected light;
A modeling unit generating a polynomial model for converting the image coordinates into global coordinates corresponding to a position on the target; And
An impact position calculation unit for calculating an impact position of the object in the global coordinates according to the polynomial model
Impact location measuring device comprising a.
삭제delete 제 1 항에 있어서, 상기 모델링부는,
상기 반사광의 조사 강도 및 상기 반사광에 대한 화소값을 입력 변수로 하며, 상기 반사광의 조사 강도와 상기 반사광에 대한 화소값의 가중합에 따라 상기 전역 좌표에 대응되는 출력값을 가지도록 상기 다항식 모델을 생성하는 것
인 탄착 위치 측정 장치.
The method of claim 1, wherein the modeling unit,
The polynomial model is generated to have an output value corresponding to the global coordinates according to the irradiation intensity of the reflected light and the pixel value of the reflected light as an input variable, and according to a weighted sum of the irradiation intensity of the reflected light and the pixel value of the reflected light. To do
Impact position measuring device.
제 1 항에 있어서, 상기 모델링부는,
상기 다항식 모델의 구조와 차수를 결정하는 구조 동일화부; 및
상기 구조 동일화부에서 결정된 다항식 모델의 구조에 따른 파라미터를 선정하는 파라미터 동일화부를 포함하는 것
인 탄착 위치 측정 장치.
The method of claim 1, wherein the modeling unit,
A structural equalizer which determines a structure and an order of the polynomial model; And
And a parameter equalizer for selecting a parameter according to the structure of the polynomial model determined by the structural equalizer.
Impact position measuring device.
제 4 항에 있어서,
상기 구조 동일화부는,
참값과 상기 다항식 모델에 따른 출력값 사이의 오차를 정의한 성능지수 함수에 따라 상기 다항식 모델의 차수를 결정하는 것
인 탄착 위치 측정 장치.
The method of claim 4, wherein
The structure equalizing unit,
Determining the order of the polynomial model according to a figure of merit function that defines the error between the true value and the output value according to the polynomial model
Impact position measuring device.
제 4 항에 있어서,
상기 파라미터 동일화부는,
비선형 최소자승법에 따라 상기 파라미터를 선정하는 것
인 탄착 위치 측정 장치.
The method of claim 4, wherein
The parameter equalizer,
Selecting said parameters according to a nonlinear least-squares method
Impact position measuring device.
제 1 항에 있어서,
상기 탄착 위치를 기초로 탄착군의 중심점 및 크기 중 적어도 하나를 계산하여 상기 물체의 탄착 특성을 분석하는 특성 분석부
를 더 포함하는 탄착 위치 측정 장치.
The method of claim 1,
Characteristic analysis unit for analyzing the impact characteristics of the object by calculating at least one of the center point and the size of the impact group based on the impact position
Impact location measuring apparatus further comprising.
제 1 항에 있어서,
상기 영상 좌표, 상기 전역 좌표, 상기 물체가 통과한 영상 좌표상의 위치 및 상기 탄착 위치 중 적어도 하나를 출력하는 출력부
를 더 포함하는 탄착 위치 측정 장치.
The method of claim 1,
An output unit configured to output at least one of the image coordinates, the global coordinates, a position on the image coordinates through which the object has passed, and the impact position
Impact location measuring apparatus further comprising.
사격의 목표가 되는 표적의 앞쪽에 평면상의 빛의 면을 발생시키는 단계;
소정의 물체가 상기 빛의 면을 통과하는 때에 반사되는 반사광을 영상으로 입력받는 단계;
상기 반사광의 조사 강도와 상기 반사광에 대한 화소값을 이용하여 상기 빛의 면에 대응되는 영상 좌표를 생성하는 단계;
상기 영상 좌표를 상기 표적상의 위치에 대응되는 전역 좌표로 변환하기 위한 다항식 모델을 생성하는 단계;
상기 영상 좌표에서의 좌표값과 상기 전역 좌표에서의 좌표값을 학습데이터로 이용하여 상기 다항식 모델을 최적화하는 단계; 및
상기 최적화에 따른 다항식 모델을 이용하여 상기 영상 좌표에서의 좌표값에 대응되는 상기 전역 좌표에서의 좌표값을 계산하고, 그 결과에 따라 상기 물체의 탄착 위치를 산출하는 단계
를 포함하는 탄착 위치 측정 방법.
Generating a plane of light on a plane in front of a target targeted for shooting;
Receiving reflected light as an image when a predetermined object passes through the plane of light;
Generating image coordinates corresponding to the plane of the light by using the irradiation intensity of the reflected light and the pixel value of the reflected light;
Generating a polynomial model for converting the image coordinates into global coordinates corresponding to the position on the target;
Optimizing the polynomial model using coordinate values in the image coordinates and coordinate values in the global coordinates as learning data; And
Calculating a coordinate value in the global coordinates corresponding to the coordinate value in the image coordinates using the polynomial model according to the optimization, and calculating the impact position of the object according to the result
Impact location measurement method comprising a.
제 9 항에 있어서, 상기 다항식 모델을 생성하는 단계는,
상기 반사광의 조사 강도 및 상기 반사광에 대한 화소값을 입력 변수로 설정하는 단계; 및
상기 입력 변수들의 가중합에 따라 상기 전역 좌표에서의 좌표값을 출력하도록하는 다항식 모델을 생성하는 단계;
를 포함하는 탄착 위치 측정 방법.
The method of claim 9, wherein generating the polynomial model comprises:
Setting an irradiation intensity of the reflected light and a pixel value of the reflected light as an input variable; And
Generating a polynomial model for outputting coordinate values in the global coordinates according to the weighted sum of the input variables;
Impact location measurement method comprising a.
제 9 항에 있어서, 상기 다항식 모델을 최적화하는 단계는,
상기 물체의 탄착 위치에 따른 참값과 상기 다항식 모델에 따른 출력값 사이의 오차를 최소화하도록 상기 다항식 모델의 차수 및 파라미터 중 적어도 하나를 결정하여 상기 다항식 모델을 최적화하는 단계인 것
인 탄착 위치 측정 방법.
The method of claim 9, wherein optimizing the polynomial model comprises:
Optimizing the polynomial model by determining at least one of orders and parameters of the polynomial model to minimize the error between the true value according to the impact position of the object and the output value according to the polynomial model
How to measure the impact position.
제 9 항에 있어서, 상기 다항식 모델을 최적화하는 단계는,
복수개의 상기 영상 좌표에서의 좌표값을 상기 다항식 모델에 입력하는 단계;
상기 입력에 따른 상기 다항식 모델에서의 출력값과 상기 영상 좌표에서의 좌표값에 대응되는 상기 전역 좌표에서의 좌표값 사이의 오차를 각각 산출하는 단계; 및
상기 오차의 가중합을 최소화하도록 상기 다항식 모델의 차수 및 파라미터 중 적어도 하나를 결정하는 단계를 포함하는 것
인 탄착 위치 측정 방법.
The method of claim 9, wherein optimizing the polynomial model comprises:
Inputting coordinate values of the plurality of image coordinates into the polynomial model;
Calculating an error between an output value in the polynomial model according to the input and a coordinate value in the global coordinates corresponding to the coordinate value in the image coordinates; And
Determining at least one of the order and parameters of the polynomial model to minimize the weighted sum of the errors
How to measure the impact position.
KR1020110062829A 2011-06-28 2011-06-28 Apparatus and method for measuring point of impact KR101284181B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110062829A KR101284181B1 (en) 2011-06-28 2011-06-28 Apparatus and method for measuring point of impact

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110062829A KR101284181B1 (en) 2011-06-28 2011-06-28 Apparatus and method for measuring point of impact

Publications (2)

Publication Number Publication Date
KR20130001908A KR20130001908A (en) 2013-01-07
KR101284181B1 true KR101284181B1 (en) 2013-07-09

Family

ID=47834754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110062829A KR101284181B1 (en) 2011-06-28 2011-06-28 Apparatus and method for measuring point of impact

Country Status (1)

Country Link
KR (1) KR101284181B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101712426B1 (en) 2016-06-17 2017-03-06 한화시스템(주) Method for Correcting Target Location Information, Observation Device Having a Function of Correcting Target Location Information and Program Stored in Medium for Correcting Target Location Information of Observation Device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11230699A (en) * 1998-02-13 1999-08-27 Babcock Hitachi Kk Target arrival position measuring apparatus for bullet
KR200258271Y1 (en) 2001-06-26 2001-12-24 김칠수 Measurement System for Gun-target point
KR20020007880A (en) * 2000-07-19 2002-01-29 박원우 Method for finding the position of virtual impact point at a virtual firing range by using infrared
JP2007162989A (en) 2005-12-12 2007-06-28 Babcock Hitachi Kk Bullet position measuring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11230699A (en) * 1998-02-13 1999-08-27 Babcock Hitachi Kk Target arrival position measuring apparatus for bullet
KR20020007880A (en) * 2000-07-19 2002-01-29 박원우 Method for finding the position of virtual impact point at a virtual firing range by using infrared
KR200258271Y1 (en) 2001-06-26 2001-12-24 김칠수 Measurement System for Gun-target point
JP2007162989A (en) 2005-12-12 2007-06-28 Babcock Hitachi Kk Bullet position measuring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101712426B1 (en) 2016-06-17 2017-03-06 한화시스템(주) Method for Correcting Target Location Information, Observation Device Having a Function of Correcting Target Location Information and Program Stored in Medium for Correcting Target Location Information of Observation Device

Also Published As

Publication number Publication date
KR20130001908A (en) 2013-01-07

Similar Documents

Publication Publication Date Title
CN112766103B (en) Machine room inspection method and device
CN104683725B (en) A kind of shooting positioning automatic correction system and method based on shadow casting technique
CN110033473A (en) Motion target tracking method based on template matching and depth sorting network
CN110765674B (en) Pneumatic optical effect calculation method and system
WO2017149869A1 (en) Information processing device, method, program, and multi-camera system
CN110378227B (en) Method, device and equipment for correcting sample labeling data and storage medium
CN113134683A (en) Laser marking method and device based on machine learning
KR20130040026A (en) Method and apparatus for measuring distance of object
KR101284181B1 (en) Apparatus and method for measuring point of impact
CN203011419U (en) An optical axis parallelism digital calibration instrument for multiple optical sensors
CN112529941B (en) Multi-target tracking method and system based on depth trajectory prediction
US20190272629A1 (en) Method for Fast Judging and Optimizing Light Emitting Quality of Light Guide Plate Based on Image Processing Technology
CN107239743B (en) automatic detection method for scale mark reading based on projection method
CN113421236A (en) Building wall surface water leakage apparent development condition prediction method based on deep learning
CN106488204A (en) Possess depth photographic attachment and the self-aligning method of self-aligning
KR101961479B1 (en) Apparatus and method for measuring optical center in camera module
CN109242911A (en) One kind being based on subregional binocular camera fundamental matrix calculation method
CN113065373B (en) Automatic aiming correction system and method for optical aiming device
KR101703715B1 (en) The apparatus for measuring camera principal point and the method thereof
CN102749884A (en) Light transmission scanning-detecting controlling method for ceramic antenna cover
KR101442685B1 (en) Measuring apparatus and method of missile impact group and velocity using line laser and photodiode
CN112927201A (en) Curve detection method and device
CN105357435A (en) Focusing method for starlight orientation device under daytime environment
KR101525166B1 (en) Arrow and Bow Tuning System using Fast-moving Projectiles Measurement Device and Method of the Same
CN111936873A (en) Pulse system verification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160705

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170630

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee