KR102636413B1 - System and method for measuring tracking accuracy for tracking devices - Google Patents

System and method for measuring tracking accuracy for tracking devices Download PDF

Info

Publication number
KR102636413B1
KR102636413B1 KR1020230154252A KR20230154252A KR102636413B1 KR 102636413 B1 KR102636413 B1 KR 102636413B1 KR 1020230154252 A KR1020230154252 A KR 1020230154252A KR 20230154252 A KR20230154252 A KR 20230154252A KR 102636413 B1 KR102636413 B1 KR 102636413B1
Authority
KR
South Korea
Prior art keywords
tracking
image
target
analysis unit
image analysis
Prior art date
Application number
KR1020230154252A
Other languages
Korean (ko)
Inventor
이영진
Original Assignee
한화시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템(주) filed Critical 한화시스템(주)
Priority to KR1020230154252A priority Critical patent/KR102636413B1/en
Application granted granted Critical
Publication of KR102636413B1 publication Critical patent/KR102636413B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0891Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 추적장치를 위한 추적 정확도 측정 시스템은 추적 정확도 측정을 위한 대상 시험 추적장치가 탑재되어 이동을 모의하는 장착 플랫폼 이동 모의부, 상기 장착 플랫폼 이동 모의부 상에 탑재되어 자세를 모의하는 장착 플랫폼 자세 모의부, 영상 촬영장치 및 무게추를 구비하여 추적상황에 대한 영상을 촬영하는 추적상황 촬영부, 상기 추적상황 촬영부가 지향하고 촬영하는 추적 타겟인 추적 타겟 표식부 및 상기 추적상황에 대한 영상을 분석하여 추적 정확도를 도출하는 영상 분석부를 포함한다.A tracking accuracy measurement system for a tracking device according to the present invention includes a mounting platform movement simulation unit that is equipped with a target test tracking device for measuring tracking accuracy to simulate movement, and a mounting platform movement simulation unit that is mounted on the mounting platform movement simulation unit to simulate a posture. A tracking situation photographing unit equipped with a platform posture simulation unit, an image capture device, and a weight to capture images of the tracking situation, a tracking target marker unit that is a tracking target that the tracking situation filming unit aims and captures, and an image of the tracking situation. It includes an image analysis unit that analyzes and derives tracking accuracy.

Description

추적장치를 위한 추적 정확도 측정 시스템 및 방법{SYSTEM AND METHOD FOR MEASURING TRACKING ACCURACY FOR TRACKING DEVICES}Tracking accuracy measurement system and method for tracking devices {SYSTEM AND METHOD FOR MEASURING TRACKING ACCURACY FOR TRACKING DEVICES}

본 발명은 추적장치를 위한 추적 정확도 측정 시스템 및 방법에 관한 것으로서, 특히 영상분석 기법을 통해 추적 정확도를 보다 용이하게 측정할 수 있도록 한 추적장치를 위한 추적 정확도 측정 시스템 및 방법에 관한 것이다.The present invention relates to a tracking accuracy measurement system and method for a tracking device, and in particular, to a tracking accuracy measurement system and method for a tracking device that allows tracking accuracy to be more easily measured through image analysis techniques.

도 1은 종래 기술에 따른 GPS 기반 2축 구동 추적장치를 설명하기 위한 도면이다.Figure 1 is a diagram for explaining a GPS-based two-axis driving tracking device according to the prior art.

전통적인 GPS기반 추적장치는 도 1에 도시된 바와 같이 2축의 구동체, 구동체의 회전축에 일치되어 설치되는 안테나(방사체), 구동체 제어를 위한 앙각 구동판 및 방위각 구동판, 내외부 제어 및 추적을 관장하는 구동 제어부, 전원 공급을 위한 전원판, 그리고 GPS 추적을 위한 센서 정보로 사용하기 위한 DGPS 및 GYRO 등으로 구성된다.As shown in Figure 1, a traditional GPS-based tracking device includes a two-axis driving body, an antenna (radiator) installed in line with the rotation axis of the driving body, an elevation angle driving plate and an azimuth driving plate for controlling the driving body, and internal and external control and tracking. It is composed of a drive control unit to manage it, a power board to supply power, and DGPS and GYRO to use sensor information for GPS tracking.

이때, 2축 구동에 의한 추적 정확도는 일반적으로 구동 정확도, 구동 속도, 위치 정보의 갱신 주기 및 정확도 등의 다양한 복합적 요소들에 의한 결과에 따라 결정된다. 이와 같은 장비의 추적 정확도는 제조사가 제시하는 수치를 그대로 받아들이거나, 단순히 추적 수행시 지향하는 각도가 목표물과의 거리가 벗어나는 정도를 확인하여 제시하는 경우가 빈번하고 전무한 실정이어서 통계적으로 정확한 정보를 제공할 수 있는 시험 방법의 필요성이 있다.At this time, tracking accuracy by two-axis driving is generally determined according to the results of various complex factors such as driving accuracy, driving speed, update cycle and accuracy of position information. The tracking accuracy of such equipment is frequently and rarely presented by simply accepting the figures presented by the manufacturer or simply checking the degree to which the distance from the target deviates from the target when performing tracking, thereby providing statistically accurate information. There is a need for a test method that can do this.

따라서, 본 발명의 목적은, 영상분석 기법을 통해 추적 정확도를 보다 용이하게 측정할 수 있는, 추적장치를 위한 추적 정확도 측정 시스템 및 방법을 제공함에 있다. Therefore, the purpose of the present invention is to provide a tracking accuracy measurement system and method for a tracking device that can more easily measure tracking accuracy through image analysis techniques.

다만, 본 발명이 해결하고자 하는 과제는 상기된 바와 같은 과제로 한정되지 않으며, 또다른 과제들이 존재할 수 있다.However, the problem to be solved by the present invention is not limited to the problems described above, and other problems may exist.

상술한 과제를 해결하기 위한 본 발명의 제1 측면에 따른 추적장치를 위한 추적 정확도 측정 시스템은 추적 정확도 측정을 위한 대상 시험 추적장치가 탑재되어 이동을 모의하는 장착 플랫폼 이동 모의부, 상기 장착 플랫폼 이동 모의부 상에 탑재되어 자세를 모의하는 장착 플랫폼 자세 모의부, 영상 촬영장치 및 무게추를 구비하여 추적상황에 대한 영상을 촬영하는 추적상황 촬영부, 상기 추적상황 촬영부가 지향하고 촬영하는 추적 타겟인 추적 타겟 표식부 및 상기 추적상황에 대한 영상을 분석하여 추적 정확도를 도출하는 영상 분석부를 포함한다.A tracking accuracy measurement system for a tracking device according to the first aspect of the present invention to solve the above-described problem includes a movement simulation unit of a mounting platform that simulates movement of a target test tracker for measuring tracking accuracy, and a movement simulation unit of the mounting platform. A tracking situation photographing unit equipped with a posture simulation unit, an image capture device, and a weight to capture images of the tracking situation, a tracking target that the tracking situation filming unit aims and captures. It includes a tracking target marker and an image analysis unit that analyzes the image of the tracking situation to derive tracking accuracy.

본 발명의 일부 실시예에 있어서, 상기 장착 플랫폼 자세 모의부는, 6-DOF 이상의 자유도를 갖는 모션 시뮬레이터, 원격 제어를 위한 RF 모뎀, 자세에 대한 모의를 위한 자세 센서, GPS 안테나 및 수신기와 연동을 통해 상기 모션 시뮬레이터를 제어하여 장착 플랫폼의 자세를 모의하는 모션 제어기를 포함할 수 있다.In some embodiments of the present invention, the mounting platform posture simulation unit is linked with a motion simulator with a degree of freedom of 6-DOF or more, an RF modem for remote control, a posture sensor for simulating posture, and a GPS antenna and receiver. It may include a motion controller that controls the motion simulator to simulate the posture of the mounting platform.

본 발명의 일부 실시예에 있어서, 상기 추적 타겟 표식부는 원형의 형태를 가지며, 주변에 존재하는 색상 중 최소 색상으로 선택될 수 있다.In some embodiments of the present invention, the tracking target marker has a circular shape and may be selected as the minimum color among colors existing in the surrounding area.

본 발명의 일부 실시예에 있어서, 상기 추적 타겟 표식부는 상기 영상에서 식별 가능한 거리에 설치되는 타겟 표식 기준대를 포함하며, 상기 영상 분석부는 타겟 표식 기준대와 타겟 표식간의 거리와, 상기 추적장치와 타겟 표식 간의 거리에 기반하여, 상기 추적 정확도의 측정을 위한 상기 타겟 표식과 상기 타겟 표식 기준대 사이의 각도 정보를 환산할 수 있다.In some embodiments of the present invention, the tracking target mark unit includes a target mark standard installed at an identifiable distance in the image, and the image analysis unit determines the distance between the target mark standard and the target mark, and the tracking device and Based on the distance between target marks, angle information between the target mark and the target mark standard for measuring the tracking accuracy can be converted.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 소정의 시험 시나리오에 따라 상기 장착 플랫폼 이동 모의부 및 장착 플랫폼 자세 모의부에서의 이동 및 자세 변화에 따른 시험 수행시의 GPS 추적에 의한 영상을 저장할 수 있다.In some embodiments of the present invention, the image analysis unit may store images by GPS tracking when performing a test according to movement and posture changes in the mounting platform movement simulation unit and the mounting platform posture simulation unit according to a predetermined test scenario. You can.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 환산된 각도 정보에 기초하여 상기 저장된 영상의 분석을 위한 영상 내 거리 및 각도 환산 기준을 설정할 수 있다.In some embodiments of the present invention, the image analysis unit may set distance and angle conversion standards within the image for analysis of the stored image based on the converted angle information.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 환산된 각도 정보를 기준 서클 베이스인 제1 기준원으로 설정하고, 상기 제1 기준원의 소정 배수의 크기를 갖도록 제2 기준원을 설정하고, 상기 시험 수행시 설정되는 트래킹 존의 각도를 갖는 제3 기준원을 설정할 수 있다.In some embodiments of the present invention, the image analysis unit sets the converted angle information to a first reference circle that is a reference circle base, and sets the second reference circle to have a size that is a predetermined multiple of the first reference circle. , a third reference circle having the angle of the tracking zone set when performing the test can be set.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 촬영된 영상을 2진 영상으로 변환하고, 소정의 추출 기준에 상응하는 영역을 추출한 후, 상기 추출된 영역 내에서 상기 설정된 영상 내 거리 및 각도 환산 기준과의 거리를 기반으로 상기 추적 타겟과의 오차각을 산출할 수 있다.In some embodiments of the present invention, the image analysis unit converts the captured image into a binary image, extracts an area corresponding to a predetermined extraction standard, and then determines the distance and angle within the extracted area within the set image. The error angle with the tracking target can be calculated based on the distance from the conversion standard.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 촬영된 영상인 RGB영상을 HSV(Hue Saturations Value) 영상으로 변환하여 채도값 및 명도값을 조절하고, 상기 타겟 표식에 상응하는 픽셀에 대한 RGB 표준과의 색상 차이를 연산하여 기준점 내로 들어오는 픽셀을 타겟 표식으로 인식할 수 있다.In some embodiments of the present invention, the image analysis unit converts the captured RGB image into an HSV (Hue Saturations Value) image to adjust the saturation value and brightness value, and the RGB image for the pixel corresponding to the target mark. By calculating the color difference from the standard, pixels that fall within the reference point can be recognized as target marks.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 채도값 및 명도값이 조절된 HSV영상을 다시 RGB영상으로 변환하고, 상기 RGB 영상으로부터 타겟 표식으로 인식하고자 하는 마스킹 영역을 선택 및 추출하여 상기 마스킹 영역에 대한 상기 RGB 표준과의 색상 차이를 연산할 수 있다.In some embodiments of the present invention, the image analysis unit converts the HSV image whose saturation and brightness values have been adjusted back into an RGB image, and selects and extracts a masking area to be recognized as a target mark from the RGB image. The color difference from the RGB standard for the masking area can be calculated.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 마스킹 영역에 대한R, G, B색상의 평균값을 산출하고, 상기 평균값으로 전체 화면과 동일한 크기의 영상을 생성하며, 상기 R, G, B 각각에 대한 상기 평균값과의 차이값을 연산하고, 상기 차이값에 대한 평균 및 표준편차에 기반하여 영상 분석시 목표물 인식을 위한 기준값을 설정할 수 있다.In some embodiments of the present invention, the image analysis unit calculates the average value of the R, G, and B colors for the masking area, and generates an image of the same size as the entire screen using the average value. The difference from the average value for each can be calculated, and a reference value for target recognition when analyzing images can be set based on the average and standard deviation of the difference.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 평균값과 차이값을 이용하여 각 영상 프레임마다 목표물의 후보를 선정하고, 목표물 후보 중 소정의 조건을 만족하는 영역을 선택한 후, 지향 확인용 원의 중심과 선택된 영역의 중심과의 거리를 연산하여 목표물의 후보를 재선정할 수 있다.In some embodiments of the present invention, the image analysis unit selects a target candidate for each image frame using the average value and the difference value, selects an area that satisfies a predetermined condition among the target candidates, and then selects a target candidate for orientation confirmation. The target candidate can be reselected by calculating the distance between the center of and the center of the selected area.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 설정된 기준값과 상기 차이값을 비교한 결과에 기초하여 상기 목표물의 후보에 대한 픽셀을 추출하고, 추출된 목표물의 후보에 대한 픽셀을 이진 영상으로 변환하며, 변환된 영상에서 모든 객체에 대한 경계 픽셀을 산출하고, 경계 픽셀에 기초하여 객체의 원형성 판단할 수 있다.In some embodiments of the present invention, the image analysis unit extracts pixels for the target candidates based on a result of comparing the set reference value and the difference value, and converts the extracted pixels for the target candidates into a binary image. Convert, calculate boundary pixels for all objects in the converted image, and determine the circularity of the object based on the boundary pixels.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 상기 변환된 이진 영상에서 픽셀 간 연결된 객체를 선별하고, 선별된 객체의 면적을 계산한 후 일정 면적 이하의 객체는 제거할 수 있다.In some embodiments of the present invention, the image analysis unit may select objects connected between pixels in the converted binary image, calculate the area of the selected object, and then remove objects smaller than a certain area.

본 발명의 일부 실시예에 있어서, 상기 영상 분석부는 사용자가 입력한 원형성 판단 기준과 상기 경계 픽셀에 기초하여 산출된 객체의 원형성을 비교하여 판단 기준을 초과하는 객체를 상기 목표물의 후보로 재선정할 수 있다.In some embodiments of the present invention, the image analysis unit compares the circularity judgment standard input by the user with the circularity of the object calculated based on the boundary pixel and selects the object exceeding the judgment standard as a candidate for the target. You can select.

또한, 본 발명의 제2 측면에 따른 추적장치를 위한 추적 정확도 측정 시스템에 의해 수행되는 방법은 추적 정확도 측정을 위한 대상 시험 추적장치가 탑재되어 이동을 모의하는 장착 플랫폼 이동 모의부 및 상기 장착 플랫폼 이동 모의부 상에 탑재되어 자세를 모의하는 장착 플랫폼 자세 모의부를 통해 이동 및 자세 변화에 따른 시험을 수행하는 단계; 상기 시험 수행 시의 GPS 추적에 의한 추적 타겟 표식부의 영상을 촬영 및 저장하는 단계; 및 상기 추적상황에 대한 영상을 분석하여 추적 정확도를 도출하는 단계를 포함한다.In addition, the method performed by the tracking accuracy measurement system for a tracking device according to the second aspect of the present invention includes a movement simulation unit of a mounting platform for simulating movement of a target test tracker for measuring tracking accuracy, and movement of the mounting platform. Performing a test based on movement and posture changes through a mounting platform posture simulation unit mounted on the simulation unit to simulate the posture; Taking and storing an image of the tracking target marker by GPS tracking when performing the test; and deriving tracking accuracy by analyzing images of the tracking situation.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 추적장치를 위한 추적 정확도 측정 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.A computer program according to another aspect of the present invention for solving the above-described problem is combined with a computer as hardware, executes a tracking accuracy measurement method for the tracking device, and is stored in a computer-readable recording medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

기존의 추적 장치는 구동부 성능 및 센서의 정확도와 같은 정보를 기반으로 추적 정확도를 계산하거나 정지 상태에서만 추적을 수행하던 것과 달리, 본 발명의 일 실시예는 실제 동작 환경에서 추적 작업을 수행하고 영상 분석을 통해 정확도를 분석할 수 있는바, 정확한 동작 환경에서의 정확도를 측정하고 보다 높은 신뢰성을 제공할 수 있다.Unlike existing tracking devices that calculate tracking accuracy based on information such as driving unit performance and sensor accuracy or perform tracking only in a stationary state, an embodiment of the present invention performs tracking in an actual operating environment and analyzes images. Through this, accuracy can be analyzed, measuring accuracy in an accurate operating environment and providing higher reliability.

또한, 본 발명의 일 실시예는 핵심 기능들을 활용하여 1축, 2축, 3축 등의 구동 장치에 대해 제한이 없으며, 장착 플랫폼의 움직임과 이동을 실제 환경에서 모의할 수 있어, 다양한 환경 및 장치에서의 추적 정확도를 측정하고 비교하는 데 용이하게 활용할 수 있다.In addition, an embodiment of the present invention utilizes core functions and has no limitations on driving devices such as 1-axis, 2-axis, and 3-axis, and the movement and movement of the mounting platform can be simulated in a real environment, allowing for various environments and It can be easily used to measure and compare tracking accuracy across devices.

또한, 본 발명의 일 실시예는 실제 환경에서의 추적을 모의하고 분석함으로써, 추적 장치의 성능을 더 실제적으로 검증하고 개선할 수 있으며, 이는 다양한 응용 분야에서 추적 장치의 실제 성능을 향상시키는 데 기여할 수 있다.In addition, an embodiment of the present invention can more realistically verify and improve the performance of the tracking device by simulating and analyzing tracking in a real environment, which will contribute to improving the actual performance of the tracking device in various application fields. You can.

또한, 본 발명의 일 실시예는 영상 분석을 통해 정밀한 추적 정확도 측정 및 결과 도출이 가능하며, 이를 통해 시스템의 정확성을 개선하고 문제 식별 및 이를 해결할 수 있다.In addition, an embodiment of the present invention is capable of measuring precise tracking accuracy and deriving results through image analysis, thereby improving the accuracy of the system and identifying and solving problems.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시 예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 종래 기술에 따른 GPS 기반 2축 구동 추적장치를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 추적 정확도 측정 시스템(100)의 구성도이다.
도 3은 본 발명의 일 실시예에서의 장착 플랫폼 자세 모의부(120)를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에서의 추적 타겟 표식부(140)를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에서 기준원을 설정하는 예시를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에서 제1 트랙 모드에 따른 영상 분석 내용을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에서 마스킹 프레임을 생성하는 과정의 일 예시를 나타낸 도면이다.
도 8은 본 발명의 일 실시예에서 제2 트랙 모드에 따른 영상 분석 내용을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에서 이진 영상 변환 처리 결과를 도시한 도면이다.
도 10은 본 발명의 일 실시예에서 원형성을 만족하는 영상만 추출한 결과 영상을 나타낸 도면이다.
도 11은 저장된 영상을 이용하여 최종 분석된 결과의 일 예시를 도시한 도면이다.
도 12는 본 발명의 일 실시예에 따른 추적 정확도 측정 방법의 순서도이다.
The drawings attached below are intended to aid understanding of the present embodiment and provide examples along with a detailed description. However, the technical features of this embodiment are not limited to specific drawings, and the features disclosed in each drawing may be combined to form a new embodiment.
Figure 1 is a diagram for explaining a GPS-based two-axis driving tracking device according to the prior art.
Figure 2 is a configuration diagram of a tracking accuracy measurement system 100 according to an embodiment of the present invention.
Figure 3 is a diagram for explaining the mounting platform posture simulation unit 120 in one embodiment of the present invention.
Figure 4 is a diagram for explaining the tracking target marker 140 in one embodiment of the present invention.
Figure 5 is a diagram showing an example of setting a reference source in one embodiment of the present invention.
Figure 6 is a diagram for explaining video analysis content according to the first track mode in one embodiment of the present invention.
Figure 7 is a diagram showing an example of a process for generating a masking frame in an embodiment of the present invention.
Figure 8 is a diagram for explaining video analysis content according to the second track mode in one embodiment of the present invention.
Figure 9 is a diagram showing the results of binary image conversion processing in one embodiment of the present invention.
Figure 10 is a diagram showing the result of extracting only images that satisfy circularity in one embodiment of the present invention.
Figure 11 is a diagram showing an example of the final analysis result using the stored image.
Figure 12 is a flowchart of a method for measuring tracking accuracy according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하에서는 도 1에서 상술한 배경기술에 대해 보다 상세히 설명한 후 본 발명에 대해 구체적으로 기술하도록 한다.Hereinafter, the background technology described above in FIG. 1 will be described in more detail, and then the present invention will be described in detail.

일반적인 GPS에 기반한 추적장치는 매우 다양한 분야 및 시스템에 적용되고 있다. 이러한 추적장치의 가장 핵심적인 성능요소로는 구동속도, 추적 정확도 등이 있다. 구동속도는 최고 구동속도 도달까지의 시간과 최고 구동속도 도달 후 구동시간 대 RPM 등으로 비교적 정확한 수치를 산출하는데 이견이 적은 편이다. 하지만, 추적 정확도의 경우 추적장치가 장착되어 있는 시스템 자체의 자세 변경 및 이동과 같은 다양한 변화가 존재하는 경우가 많기 때문에 자세 변경 및 이동하는 순간의 추적 정확도를 정확하게 수치화 하는 것은 어려운 일이다. General GPS-based tracking devices are applied to a wide variety of fields and systems. The most core performance factors of these tracking devices include driving speed and tracking accuracy. There is little disagreement about calculating relatively accurate values for driving speed based on the time to reach the maximum driving speed and the driving time versus RPM after reaching the maximum driving speed. However, in the case of tracking accuracy, there are often various changes such as posture changes and movements of the system itself equipped with a tracking device, so it is difficult to accurately quantify the tracking accuracy at the moment of posture change or movement.

도 1은 2축 구동에 의해 구동축 중심에 장착된 안테나(방사체)가 목표지점을 바라보도록 하는 2축 구동 추적장치의 예시이다. 이러한 경우, RF 신호를 방사하는 RF 모듈 혹은 신호발생기를 연결하여 추적 방향에 수신장치를 설치하여 수신되는 신호레벨을 측정함으로써 추적 정확도로 환산할 수 있다. 하지만 이러한 경우, 2축 구동 추적장치에 장착된 안테나(방사체)의 방사패턴과 시험을 위해 장착한 수신부의 안테나 방사패턴을 정확하게 알고 있어야 한다. 더 큰 문제는 2축 구동 추적장치의 경우 자세변경과 이동을 하는 실제 상황을 모의하는 상황에서 측정되어야 하기 때문에 실내에서 시험이 불가능하며, RF가 전송되는 환경에서 발생되는 다중경로 페이딩(Multipath fading)에 의한 신호 왜곡도 고려되어야 한다. 또한, 정확한 수신 신호 레벨을 측정하기 위해서는 신호분석기의 스윕(Sweep) 속도를 매우 느리게 설정해야 하고, 필요시 평균화(Averaging)를 통해 측정 정확도를 높여야 한다. 이와 같이 RF 신호를 통해 측정하는 2축 구동 추적장치의 자세 변화 및 이동 중인 상황에서 측정되어야 하기 때문에 이러한 측정 시간은 충분하지 않게 된다. 따라서, 다양한 이유로 인해 정확한 추적 정확도를 측정하는 방법에 대한 다른 발명이 필요하다.Figure 1 is an example of a two-axis drive tracking device in which an antenna (radiator) mounted on the center of the drive shaft is directed to a target point by two-axis drive. In this case, it can be converted into tracking accuracy by connecting an RF module or signal generator that radiates RF signals, installing a receiving device in the tracking direction, and measuring the received signal level. However, in this case, the radiation pattern of the antenna (radiator) mounted on the two-axis tracking device and the antenna radiation pattern of the receiver mounted for testing must be accurately known. The bigger problem is that in the case of a 2-axis tracking device, it must be measured in a situation that simulates the actual situation of posture change and movement, so it cannot be tested indoors, and multipath fading that occurs in an environment where RF is transmitted Signal distortion caused by should also be considered. Additionally, in order to accurately measure the received signal level, the sweep speed of the signal analyzer must be set very slowly, and measurement accuracy must be increased through averaging when necessary. As such, the measurement time is not sufficient because the two-axis tracking device measuring through RF signals must be measured in situations where the posture is changing or moving. Therefore, there is a need for another invention on how to accurately measure tracking accuracy for various reasons.

본 발명의 일 실시예는 이러한 측정의 어려움을 극복하고 시험 후 오프라인으로 정밀한 분석을 통해 정확한 추적 정확도를 분석하기 위한 방법으로, 비교적 쉬운 방식으로 영상장치와 영상분석 방법을 통해 추적 정확도 측정이 가능한 시스템을 제안한다. 본 발명의 일 실시예에 따른 GPS기반 2축 구동 추적장치의 정확도 측정방법은 2축은 회전 축의 수에 제한되지 않으면서 환경에 영향을 거의 받지 않는 시험 방법으로써 다양한 분야에 활용될 수 있다.One embodiment of the present invention is a method for overcoming these measurement difficulties and analyzing accurate tracking accuracy through offline precise analysis after testing. A system that can measure tracking accuracy through an imaging device and an image analysis method in a relatively easy manner. suggests. The accuracy measurement method of a GPS-based two-axis driving tracking device according to an embodiment of the present invention is a test method that is not limited to the number of two-axis rotation axes and is almost unaffected by the environment, and can be used in various fields.

이하에서는 도 2 내지 도 11을 참조하여 본 발명의 일 실시예에 따른 추적장치를 위한 추적 정확도 측정 시스템(100)을 설명하도록 한다.Hereinafter, a tracking accuracy measurement system 100 for a tracking device according to an embodiment of the present invention will be described with reference to FIGS. 2 to 11.

도 2는 본 발명의 일 실시예에 따른 추적 정확도 측정 시스템(100)의 구성도이다.Figure 2 is a configuration diagram of a tracking accuracy measurement system 100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 추적 정확도 측정 시스템(100)은 추적 대상이 되는 타겟의 위치에 영상으로 인식하기 쉬운 타겟 표식을 설치하고, 이동차량(혹은 기타 이동체)에 모션 시뮬레이터를 장착하고 시뮬레이터 상단에 시험 대상품을 설치하여 시험하는 방식이다. 이때, 구동부의 중심부에 장착된 원래의 구성품(예를 들어, 방사체)을 대체하여 영상 촬영장치와 회전부의 중심부를 맞추기 위한 무게추(Counter Mass)를 장착한다. 즉, 실제 추적장치가 장착되는 시스템의 움직임을 모사하고 추적장치가 추적하는 위치에 영상을 촬영 및 저장하여 오프라인으로 쉽고 정확하게 분석하도록 하는 시험장비 및 소프트웨어를 구성한다.The tracking accuracy measurement system 100 according to an embodiment of the present invention installs a target mark that is easy to recognize by image at the location of the target to be tracked, mounts a motion simulator on a moving vehicle (or other moving object), and installs it on the top of the simulator. This is a method of testing by installing the test object in the test. At this time, a counter mass is installed to align the imaging device and the center of the rotating part in place of the original component (for example, a radiator) mounted at the center of the driving part. In other words, it configures test equipment and software that simulates the movement of a system equipped with an actual tracking device, captures and stores images at the location tracked by the tracking device, and allows easy and accurate analysis offline.

이러한 본 발명의 일 실시예는 장착 플랫폼 이동 모의부(110), 장착 플랫폼 자세 모의부(120), 추적상황 촬영부(130), 추적 타겟 표식부(140) 및 영상 분석부(150)를 포함한다. 한편, 본 발명의 일 실시예는 2축, 3축 등의 축 수에 상관없이 모두 적용 가능하며 본 발명의 동작 설명을 위해 2축을 예로 들어 설명하도록 한다.One embodiment of the present invention includes a mounting platform movement simulation unit 110, a mounting platform posture simulation unit 120, a tracking situation photographing unit 130, a tracking target marking unit 140, and an image analysis unit 150. do. Meanwhile, one embodiment of the present invention can be applied regardless of the number of axes, such as 2 axes or 3 axes, and to explain the operation of the present invention, 2 axes will be used as an example.

일 실시예로, 장착 플랫폼 이동 모의부(110)는 추적 정확도 측정을 위한 대상 시험 추적장치가 탑재되어 이동을 모의한다. 장착 플랫폼 이동 모의부(110)는 장착 플랫폼의 자세를 모의하는 모션 시뮬레이터 및 모션 제어기, 시험 대상품, 카메라 등을 탑재할 수 있다. 장착 플랫폼 이동 모의부(110)는 시험 대상품에 따라 자동차나 시스템 시험에 적합한 기타 이동체로 구성될 수 있다. 이때, 이동 모의는 시스템을 사용하는 운용 환경, 추적 장비와 타겟과의 시험 거리에 따라 필요한 이동속도가 결정되므로 각 운용환경에 맞게 선정될 수 있다.In one embodiment, the mounting platform movement simulation unit 110 is equipped with a target test tracking device for measuring tracking accuracy to simulate movement. The mounting platform movement simulation unit 110 can be equipped with a motion simulator and motion controller that simulates the posture of the mounting platform, a test object, a camera, etc. The mounting platform moving simulation unit 110 may be composed of a car or other moving body suitable for system testing, depending on the test object. At this time, the movement simulation can be selected to suit each operating environment because the required movement speed is determined depending on the operating environment in which the system is used and the test distance between the tracking equipment and the target.

일 실시예로, 장착 플랫폼 자세 모의부(120)는 장착 플랫폼 이동 모의부(110) 상에 탑재되어 자세를 모의한다. 이때, 장착 플랫폼 자세 모의부(120)는 모션 시뮬레이터, RF 모뎀, 자세 센서, GPS 안테나 및 수신기, 모션 제어기를 포함할 수 있다.In one embodiment, the mounting platform posture simulation unit 120 is mounted on the mounting platform movement simulation unit 110 to simulate the posture. At this time, the mounting platform posture simulation unit 120 may include a motion simulator, an RF modem, a posture sensor, a GPS antenna and receiver, and a motion controller.

도 3은 본 발명의 일 실시예에서의 장착 플랫폼 자세 모의부(120)를 설명하기 위한 도면이다.Figure 3 is a diagram for explaining the mounting platform posture simulation unit 120 in one embodiment of the present invention.

장착 플랫폼 자세 모의부(120)는 시스템의 운용환경(예를 들어, Roll/Pitch/Yaw 변화 환경)에 따라 6-DOF 이상의 자유도를 갖는 모션 시뮬레이터와 이를 제어하는 모션 제어기로 구성된다. 높이 변화가 필요한 경우 히브 조절을 추가하여 시험구성을 할 수 있다. 도 3은 장착 플랫폼 자세 모의부(120) 연동 구조를 나타낸 것으로, RF 모뎀은 원격으로 제어가 가능한 경우를 위한 것이며, 제어 PC가 자세센서(Gyro) 및 GPS 수신기와의 연동을 통해 모션 시뮬레이터를 제어하여 장착 플랫폼의 자세를 모의하는 구조이다.The mounting platform posture simulation unit 120 is composed of a motion simulator with a degree of freedom of 6-DOF or more depending on the operating environment of the system (e.g., Roll/Pitch/Yaw change environment) and a motion controller that controls it. If a change in height is necessary, the test configuration can be configured by adding heave adjustment. Figure 3 shows the linkage structure of the mounting platform posture simulation unit 120. The RF modem is for cases where remote control is possible, and the control PC controls the motion simulator through linkage with the posture sensor (Gyro) and GPS receiver. This is a structure that simulates the posture of the mounting platform.

일 실시예로, 추적상황 촬영부(130)는 영상 촬영장치 및 무게추를 구비하여 추적상황에 대한 영상을 촬영한다.In one embodiment, the tracking situation capturing unit 130 is equipped with an image capturing device and a weight to capture images of the tracking situation.

추적상황 촬영부(130)는 GPS기반 2축 구동 추적장치에 장착된 안테나를 대체하여 장착된다. 이때, 안테나와 동일한 무게중심을 갖도록 장착치구와 무게추를 구비할 수 있다. 영상 촬영장치는 일반적인 영상 촬영장치가 보유한 30FPS 이상의 촬영속도를 가지면 충분하다. 필요시 60FPS 이상의 촬영속도를 보유하는 영상 촬영장치를 활용할 수 있으며, 촬영된 영상은 메모리에 저장하거나 실시간 외부전송이 가능한 인터페이스를 보유한 장비를 선정할 수 있다.The tracking situation photographing unit 130 is installed to replace the antenna mounted on the GPS-based two-axis driving tracking device. At this time, a mounting fixture and weight may be provided to have the same center of gravity as the antenna. It is sufficient for a video capture device to have a shooting speed of 30 FPS or more, which is the standard video capture device. If necessary, a video recording device with a shooting speed of 60FPS or higher can be used, and the captured video can be saved in memory or selected as equipment with an interface that allows real-time external transmission.

일 실시예로, 추적 타겟 표식부(140)는 추적상황 촬영부(130)가 지향하고 촬영하는 추적 타겟이다. In one embodiment, the tracking target marker 140 is a tracking target that the tracking situation photographing unit 130 aims and photographs.

추적 타겟 표식부(140)는 추적시 GPS 기반으로 2축 구동장치에 대체하여 장착한 추적상황 촬영부(130)가 지향하고 촬영하는 추적 타겟이 되는 표식이다. 타겟 표식(141)은 주변 색상의 상황에 따라 주변에 최대한 없는 색상으로 선정될 수 있다. 이를 위해, 본 발명의 일 실시예에서 타겟 표식(141)은 영상 촬영장치에 의해 촬영된 주변 영상 중 최소 색상으로 선정되도록 하며, 타겟 표식(141)은 주변 상황의 색상에 따라 가변 운용될 수 있는 디스플레이 장치로 구성될 수 있다. 타겟 표식(141)의 크기는 영상 픽셀과 추적장치와 추적 타겟 표식부(140)간의 거리 수준에 따라 촬영 영상에서 수 픽셀 ~ 수십 픽셀이 되도록 선정하면 충분하다. 그리고 주변의 유사 색상 구조물과 구분을 짓기 위해 타겟 표식(141)의 형태는 원형으로 하여 분석시 주변 영상과 분류가 가능하도록 한다. 또한 픽셀과 무관하게 정확도 산출이 가능하도록 추적 타겟 표식부(140) 옆으로 소정 거리(Td)만큼 이격된 거리에 타겟 표식 기준대(142)를 사용하여 영상 내 추적 오차를 거리와 각도로 환한 가능하도록 한다. 이러한 추적 타겟 표식부(140)는 후술하는 도 4를 통해 다시 설명하도록 한다.The tracking target marker 140 is a marker that becomes a tracking target that the tracking situation photographing portion 130, which is installed in place of a GPS-based two-axis driving device, aims and photographs during tracking. The target mark 141 may be selected as a color that is as close to the surroundings as possible depending on the surrounding color situation. To this end, in one embodiment of the present invention, the target mark 141 is selected as the minimum color among the surrounding images captured by the image capture device, and the target mark 141 is variably operated depending on the color of the surrounding situation. It may be configured as a display device. It is sufficient to select the size of the target mark 141 to be a few to several tens of pixels in the captured image depending on the image pixel and the distance between the tracking device and the tracking target mark 140. In addition, in order to distinguish it from surrounding similarly colored structures, the shape of the target mark 141 is circular to enable classification with surrounding images during analysis. In addition, in order to calculate accuracy regardless of the pixel, the tracking error in the image can be converted to distance and angle by using the target marker standard 142 at a predetermined distance (Td) apart from the tracking target marker 140. Let's do it. This tracking target marker 140 will be described again with reference to FIG. 4 described later.

일 실시예로, 영상 분석부(150)는 추적상황에 대한 영상을 분석하여 추적 정확도를 도출한다.In one embodiment, the image analysis unit 150 analyzes images of the tracking situation and derives tracking accuracy.

영상 분석부(150)는 추적상황이 촬영된 영상을 활용하여 오프라인에서 영상의 프레임별 분석을 수행하도록 영상 분석 PC와 영상 분석 소프트웨어로 구성된다. 영상 분석 PC는 영상 분석 소프트웨어가 구동 가능한 PC로 준비하고, 본 발명의 중심이 되는 영상 분석 소프트웨어를 수행하여 저장된 영상을 분석하여 추적 정확도를 도출한다.The video analysis unit 150 is composed of a video analysis PC and video analysis software to perform frame-by-frame analysis of the video offline using the video in which the tracking situation is captured. The image analysis PC is prepared as a PC capable of running image analysis software, and the image analysis software, which is the center of the present invention, is run to analyze the stored images to derive tracking accuracy.

이때, 본 발명의 일 실시예에서 영상 분석 소프트웨어가 효과적인 영상 분석을 위해 필요한 주요 기능은 다음과 같다.At this time, the main functions required by the image analysis software for effective image analysis in one embodiment of the present invention are as follows.

- 측정 바이어스 적용 기능- Measurement bias application function

- 추적범위 설정에 의한 추적확인용 원형 설정 및 도시- Circular setting and city for tracking confirmation by tracking range setting

- Color/Black&White 재생- Color/Black&White playback

- 영상 재생과 함께 추적확인을 위한 추적범위 원형 동시 도시- Simultaneous display of circular tracking range for tracking confirmation along with video playback

- 목표물과 추적범위 원형 중심점과의 거리 측정을 통한 추적오차 측정/도시/저장- Tracking error measurement/city/storage by measuring the distance between the target and the circular center point of the tracking range

- 분석결과 화면을 영상으로 저장 및 재생- Save and play back the analysis result screen as a video

- 분석결과 추적오차의 통계적 결과분석 및 도시- Statistical result analysis and illustration of tracking error as a result of analysis

영상분석 소프트웨어는 저장된 영상의 재생과 함께 사전에 측정된 오차각과 픽셀간의 정보를 이용하여 영상에 목표물이 들어오는지 쉽게 확인할 수 있도록 추적 범위를 나타내는 원형과 함께 재생하는 기능을 수행한다. 또한, 추적 정확도의 수치화를 위하여 이미지 처리를 수행하는 기능을 수행한다.The video analysis software performs the function of playing back the saved video along with a circle indicating the tracking range so that it can be easily checked whether the target is in the video using the error angle and information between pixels measured in advance. In addition, it performs a function of performing image processing to quantify tracking accuracy.

이하에서는 도 4 내지 도 11을 참조하여 추적 정확도 측정 시스템(100)에서 추적 정확도를 측정하는 과정을 보다 상세히 설명하도록 한다.Hereinafter, the process of measuring tracking accuracy in the tracking accuracy measurement system 100 will be described in more detail with reference to FIGS. 4 to 11.

먼저, 도 2에 도시된 추적장치 및 추적 정확도 측정 시스템(100)을 시험 장소에 설치하고 난 다음, 타겟 표식(141)과 기준대(142)를 영상에서 식별 가능한 거리에 설치한 후, 타겟 표식 기준대(142)와 타겟 표식(141) 간의 거리(Td)를 측정하고, 추적 장치와 타겟 표식(141) 간의 거리(D)를 측정하면, 영상 분석부(150)는 각 거리에 기반하여 추적 정확도의 측정을 위한 타겟 표식(141)과 타겟 표식 기준대(142) 사이의 각도(Ta) 정보를 환산할 수 있다.First, the tracking device and tracking accuracy measurement system 100 shown in FIG. 2 are installed at the test site, and then the target mark 141 and the reference bar 142 are installed at a distance that can be identified in the image, and then the target mark When the distance (Td) between the reference bar 142 and the target mark 141 is measured and the distance (D) between the tracking device and the target mark 141 is measured, the image analysis unit 150 tracks based on each distance. The angle (Ta) information between the target mark 141 and the target mark standard 142 for measuring accuracy can be converted.

도 4는 본 발명의 일 실시예에서의 추적 타겟 표식부(140)를 설명하기 위한 도면이다.Figure 4 is a diagram for explaining the tracking target marker 140 in one embodiment of the present invention.

도 4와 같이 추적장치와 추적 타겟 간의 거리를 D라고 할 때, 추적 정확도 측정에 사용되는 픽셀과 거리 환산에 사용될 타겟 표식(141)과 기준대(142) 이격거리 환산은 다음 식 1에 기초하여 산출된다. 이때, D는 GPS를 이용하여 두 지점의 위치를 측정하여 계산될 수 있다.As shown in Figure 4, when the distance between the tracking device and the tracking target is D, the pixel used for tracking accuracy measurement and the conversion of the separation distance between the target mark 141 and the reference bar 142 to be used for distance conversion are based on the following equation 1. It is calculated. At this time, D can be calculated by measuring the positions of two points using GPS.

[식 1][Equation 1]

그 다음, 영상 분석부(150)는 소정의 시험 시나리오에 따라 장착 플랫폼 이동 모의부(110) 및 장착 플랫폼 자세 모의부(120)에서의 이동 및 자세 변화에 따른 시험 수행시의 GPS 추적에 의한 영상을 저장한다.Next, the image analysis unit 150 produces images by GPS tracking when performing a test according to movement and posture changes in the mounting platform movement simulation unit 110 and the mounting platform posture simulation unit 120 according to a predetermined test scenario. Save it.

그 다음, 영상 분석부(150)는 환산된 각도 정보 Ta를 이용하여 저장된 영상의 분석을 위한 영상 내 거리 및 각도 환산 기준을 설정할 수 있다. 도 5는 본 발명의 일 실시예에서 기준원을 설정하는 예시를 나타낸 도면이다.Next, the image analysis unit 150 may use the converted angle information Ta to set distance and angle conversion standards within the image for analysis of the stored image. Figure 5 is a diagram showing an example of setting a reference source in one embodiment of the present invention.

도 5를 참조하면, 영상 분석부(150)는 환산된 각도 정보 Ta를 기준 서클 베이스인 제1 기준원으로 설정할 수 있으며, 이 정보와 타겟 표식(141)과 타겟 표식 기준대(142)의 위치를 설정함으로써, 영상 내 거리와 각도 환산이 가능해지며 장치 설치에 발생되는 바이어스를 제외한 추적 정확도 측정이 가능하다. 그리고, 영상 분석부(150)는 제1 기준원의 소정 배수의 크기를 갖도록 제2 기준원을 설정하고, 시험 수행시 설정되는 트래킹 존의 각도를 갖는 제3 기준원을 설정할 수 있다.Referring to FIG. 5, the image analysis unit 150 can set the converted angle information Ta as the first reference circle, which is the reference circle base, and this information and the positions of the target mark 141 and the target mark standard 142. By setting, it becomes possible to convert the distance and angle within the image and measure tracking accuracy excluding bias that occurs when installing the device. Additionally, the image analysis unit 150 may set the second reference circle to have a size that is a predetermined multiple of the first reference circle, and set the third reference circle to have the angle of the tracking zone set when performing the test.

- Circle 1 Radius(Green) = 기준 Bar 이격거리(or Circle Basis)- Circle 1 Radius(Green) = Standard Bar Distance (or Circle Basis)

- Circle 2 Radius(Cyan) = Circle 2 x 2- Circle 2 Radius(Cyan) = Circle 2 x 2

- Circle 3 Radius(Red) = 시험 시 설정하는 Tracking Zone 각도- Circle 3 Radius(Red) = Tracking Zone angle set during testing

이후, 영상 분석부(150)는 2가지 트랙 모드에 기초하여 영상 분석을 수행할 수 있다.Thereafter, the image analysis unit 150 may perform image analysis based on the two track modes.

도 6은 본 발명의 일 실시예에서 제1 트랙 모드에 따른 영상 분석 내용을 설명하기 위한 도면이다.Figure 6 is a diagram for explaining video analysis content according to the first track mode in one embodiment of the present invention.

먼저, 첫번째 트랙 모드의 경우, 영상 분석부(150)는 촬영된 영상을 2진 영상으로 변환하고, 소정의 추출 기준에 상응하는 영역을 추출한 후, 추출된 영역 내에서 설정된 영상 내 거리 및 각도 환산 기준과의 거리를 기반으로 추적 타겟과의 오차각을 산출할 수 있다.First, in the case of the first track mode, the image analysis unit 150 converts the captured image into a binary image, extracts an area corresponding to a predetermined extraction standard, and then converts the distance and angle within the image set within the extracted area. The error angle with the tracking target can be calculated based on the distance from the reference.

즉, 제1 트랙 모드는 사용자가 입력한 기준치를 이용하여 단순한 흑백(Black & White) 영상의 2진 영상으로 변환 후, 사용자가 입력한 추출기준(면적 & 원마도(Roundness))를 확인하여 목표물로 인지하고자 하는 부분을 추출하여 추적 범위 원형과의 거리를 측정하여 오차각을 산출하는 방식이다. 제1 트랙 모드 방식은 목표물로 선정(설치)한 물체가 주변 배경과 경계가 뚜렷하게 구분되는 경우 사용할 수 있으며 분석 속도가 빠른 장점이 있다. In other words, the first track mode converts a simple black and white image into a binary image using the reference value entered by the user, and then checks the extraction standard (area & roundness) entered by the user to determine the target. This is a method of calculating the error angle by extracting the part to be recognized and measuring the distance from the original tracking range. The first track mode method can be used when the object selected (installed) as a target has a clear boundary from the surrounding background and has the advantage of fast analysis speed.

하지만, 목표물로 선정(설치)한 물체가 주변 배경과 뚜렷하게 구분되지 않는 경우 선정한 물체만을 추출하지 못하거나 다수개의 물체를 추출할 수 있다. 도 6은 제1 트랙 모드에 대한 예시로, 검은색 면적이 200 픽셀 이하는 제거하고 각 물체의 원마도가 0.65 이상인 물체만을 탐색하도록 설정 가능한 기능을 보유하고 있다.However, if the object selected (installed) as a target is not clearly distinguished from the surrounding background, only the selected object may not be extracted or multiple objects may be extracted. Figure 6 is an example of the first track mode, which has a function that can be set to remove black areas of 200 pixels or less and search only for objects with a roundness of 0.65 or more for each object.

다음으로, 제2 트랙 모드는 목표물로 선정(설치)한 객체가 주변 배경과 경계가 뚜렷하게 구분되지 않는 경우, 주변 배경에 없고 뚜렷하게 구분될 수 있는 객체를 선정(설치)하여 분석할 수 있는 방법이다.Next, the second track mode is a method that allows you to select (install) and analyze an object that is not in the surrounding background and can be clearly distinguished when the object selected (installed) as a target does not have a clear boundary from the surrounding background. .

정밀한 분석을 위해, 영상 분석부(150)는 촬영된 영상인 RGB 영상을 HSV(Hue Saturations Value) 영상으로 변환하여 채도값(Saturations) 및 명도값(Values)을 조절하여 목표물과 더욱 구분되도록 한 다음, 타겟 표식(141)에 상응하는 픽셀에 대한 RGB 표준과의 색상 차이 Delta E를 연산하여 기준점 내로 들어오는 픽셀을 타겟 표식(141)으로 인식할 수 있다.For precise analysis, the image analysis unit 150 converts the captured RGB image into an HSV (Hue Saturation Value) image and adjusts the saturation and brightness values to further distinguish it from the target. , the color difference Delta E from the RGB standard for the pixel corresponding to the target mark 141 is calculated, and the pixel that falls within the reference point can be recognized as the target mark 141.

이러한 제2 트랙 모드 방법은 연산량이 많아 속도는 느리지만 목표물로 선정한 픽셀을 제1 트랙 모드보다 정확하게 추출할 수 있다. 제2 트랙 모드에서 목표물의 위치를 찾기 위해서는 목표물로 인식하고 싶은 영역을 찾는 과정이 필요하다. 이를 위해 기준 프레임을 선택한 후(S11) 사전에 채도값과 명도값을 조절하여 목표물로 선정한 부분을 주변과 구분될 수 있도록 조절하고(S12), 분석기준 추출기능을 이용하여 목표물로 인식하고 싶은 영역을 선택한다(S13). 선택 후 선택 영역에 대한 통계적 특성을 추출하고 마스킹 프레임이 생성된다(S14). This second track mode method is slow due to the large amount of calculations, but can extract the pixel selected as the target more accurately than the first track mode. In order to find the location of a target in the second track mode, it is necessary to find the area that you want to recognize as the target. For this purpose, after selecting the reference frame (S11), adjust the saturation and brightness values in advance so that the part selected as the target can be distinguished from the surrounding area (S12), and use the analysis standard extraction function to recognize the area you want to recognize as the target. Select (S13). After selection, statistical characteristics of the selected area are extracted and a masking frame is created (S14).

도 7은 본 발명의 일 실시예에서 마스킹 프레임을 생성하는 과정의 일 예시를 나타낸 도면이다.Figure 7 is a diagram showing an example of a process for generating a masking frame in an embodiment of the present invention.

이후, 영상 분석부(150)는 채도값 및 명도값이 조절된 HSV 영상을 다시 RGB 영상으로 변환한다. 그리고 영상 분석부(150)는 RGB 영상으로부터 타겟 표식(141)으로 인식하고자 하는 마스킹 영역을 선택 및 추출하여 마스킹 영역에 대한 상기 RGB 표준과의 색상 차이를 연산할 수 있다.Afterwards, the image analysis unit 150 converts the HSV image with the saturation and brightness values adjusted back into an RGB image. Additionally, the image analysis unit 150 may select and extract a masking area to be recognized as a target mark 141 from the RGB image and calculate the color difference between the masking area and the RGB standard.

이때, 영상 분석부(150)는 마스킹 영역에 대한 R, G, B 색상의 각 영역에 대한 평균값을 산출하고, 평균값으로 전체 화면과 동일한 크기의 영상을 생성할 수 있다(S15). 그리고 R, G, B 색상 각각에 대한 평균값과의 차이값인 Delta E를 연산하여(S16, S17), 마스킹 영역의 Delta E에 대한 평균 및 표준편차가 실제 분석에서 목표물 인식을 위한 기준값으로 설정할 수 있다(S18, S19). 이때, 기본 기준치는 다음 식 2에 기초하여 산출될 수 있다.At this time, the image analysis unit 150 can calculate the average value for each area of R, G, and B colors for the masking area, and generate an image of the same size as the entire screen using the average value (S15). And by calculating Delta E, which is the difference value from the average value for each of the R, G, and B colors (S16, S17), the average and standard deviation of Delta E in the masking area can be set as a reference value for target recognition in actual analysis. There is (S18, S19). At this time, the basic standard value can be calculated based on the following equation 2.

[식 2][Equation 2]

meanMaskedDeltaE = sqrt(deltaR^2 + deltaG^2 + delta B^2);meanMaskedDeltaE = sqrt(deltaR^2 + deltaG^2 + delta B^2);

Delta E Threshold = meanMaskedDeltaE + 3 * stDevMaskedDeltaEDelta E Threshold = meanMaskedDeltaE + 3 * stDevMaskedDeltaE

영상에서 특정 색상의 편차와 사용자의 선택영역 오차를 감안하여 위의 식 2에서 제시된 기준치를 사용자가 판단하여 최종 입력할 수 있도록 한다(S20, S21). 다음 도 8은 상기에서 설명한 과정을 순서도로 나타낸 것이다.Considering the deviation of a specific color in the image and the error in the user's selection area, the user determines the standard value presented in Equation 2 above and makes the final input (S20, S21). Next, Figure 8 shows the above-described process as a flowchart.

이후, 분석 과정(S22)은 분석 기준에서 추출한 RGB 표준과 Delta E를 이용하여 각 영상 프레임마다 목표물의 후보를 선정하고, 목표물 후보 중 소정의 조건을 만족하는 영역을 선택하여, 지향 확인용 원의 중심과 선택된 영역의 중심(Centroid)과의 거리를 연산하여 목표물의 후보를 재선정할 수 있다.Afterwards, the analysis process (S22) selects a candidate target for each image frame using the RGB standard and Delta E extracted from the analysis standard, selects an area that satisfies a predetermined condition among the target candidates, and selects a target candidate for orientation confirmation. The target candidate can be reselected by calculating the distance between the center and the centroid of the selected area.

오차를 분석하기 위해, 영산 분석부는 각 프레임 별 목표물 추출과 지향 확인용 원과의 거리 연산 및 도시를 반복적으로 수행하며 그 절차 및 원리는 다음과 같다. 먼저, 앞서 연산된 RGB 표준을 이용하여 다음 식 3에 따라 Delta E를 산출한다.To analyze the error, the Youngsan analysis department repeatedly extracts the target for each frame and calculates and shows the distance to the source for orientation confirmation. The procedures and principles are as follows. First, Delta E is calculated according to the following equation 3 using the previously calculated RGB standard.

[식 3][Equation 3]

Delta E = sqrt((dataR - RStandard)2+(dataG - GStandard)2+(dataB - BStandard)2)Delta E = sqrt((dataR - RStandard)2+(dataG - GStandard)2+(dataB - BStandard)2)

그리고 영상 분석부(150)는 사용자의 확인을 받아 설정된 기준값(tolerance)과 차이값을 비교한 결과에 기초하여, 목표물의 후보에 대한 픽셀을 추출하고, 추출된 목표물의 후보에 대한 픽셀을 이진 영상으로 변환한다.And the image analysis unit 150 extracts pixels for target candidates based on the result of comparing the difference value with the reference value (tolerance) set upon confirmation by the user, and converts the pixels for the extracted target candidates into a binary image. Convert to

[식 4][Equation 4]

BW = (Delta E <= tolerance)BW = (Delta E <= tolerance)

이때, 영상 분석부(150)는 변환된 이진 영상에서 픽셀 간 연결된 객체를 선별하고, 선별된 객체의 면적을 계산한 후 일정 면적 이하의 객체는 제거할 수 있다. 도 9는 본 발명의 일 실시예에서 이진 영상 변환 처리 결과를 도시한 도면이다.At this time, the image analysis unit 150 may select objects connected between pixels in the converted binary image, calculate the area of the selected object, and then remove objects smaller than a certain area. Figure 9 is a diagram showing the results of binary image conversion processing in one embodiment of the present invention.

이후, 영상 분석부(150)는 변환된 영상에서 모든 객체에 대한 경계 픽셀을 산출하고, 경계 픽셀에 기초하여 객체의 원형성 판단할 수 있다. 이때, 본 예제(목표물 형태가 사각형)와는 다르게 실제 안테나 추적 신호 모의기는 영상 수집시 원형의 임의 목표물을 설치하므로 이 경우 원형성 판단 과정에 대해 설명하도록 한다. 이를 위해 경계의 길이(perimeter)를 계산하고 원형성(roundness metric)을 판단하는 과정은 다음 식 5를 이용할 수 있다.Thereafter, the image analysis unit 150 may calculate boundary pixels for all objects in the converted image and determine the circularity of the object based on the boundary pixels. At this time, unlike this example (target shape is square), the actual antenna tracking signal simulator installs a random circular target when collecting images, so the circularity determination process in this case will be explained. To this end, the process of calculating the boundary length (perimeter) and determining the roundness metric can be done using Equation 5 below.

[식 5][Equation 5]

경계 길이 연산 : delta_sq = diff(boundary).^2Boundary length operation: delta_sq = diff(boundary).^2

perimeter = sum(sqrt(sum(delta_sq,2)))perimeter = sum(sqrt(sum(delta_sq,2)))

원형성 연산 : metric = 4*pi*area/perimeter^2Circularity calculation: metric = 4*pi*area/perimeter^2

식 5에 의해 측정된 원형성은 사용자가 입력한 원형성 판단 기준과 비교하여 기준값을 초과하는 객체에 대해서만 목표물의 후보로 재선정하게 된다.The circularity measured by Equation 5 is compared with the circularity judgment criteria entered by the user, and only objects that exceed the standard value are re-selected as target candidates.

영상 분석부(150)는 최종 선택된 물체의 중심(Centroid)과 지향 확인용 원의 중심간의 거리를 픽셀과 각도 단위로 연산하고 도시할 수 있다. 도 10은 본 발명의 일 실시예에서 원형성을 만족하는 영상만 추출한 결과 영상을 나타낸 도면이다. 도 11은 저장된 영상을 이용하여 최종 분석된 결과의 일 예시를 도시한 도면이다.The image analysis unit 150 may calculate and display the distance between the centroid of the final selected object and the center of the circle for orientation confirmation in units of pixels and angles. Figure 10 is a diagram showing the result of extracting only images that satisfy circularity in one embodiment of the present invention. Figure 11 is a diagram showing an example of the final analysis result using the stored image.

이하에서는 도 12를 참조하여 본 발명의 일 실시예에 따른 추적장치를 위한 추적 정확도 측정 시스템(100)에 의해 수행되는 방법을 설명하도록 한다.Hereinafter, a method performed by the tracking accuracy measurement system 100 for a tracking device according to an embodiment of the present invention will be described with reference to FIG. 12.

도 12는 본 발명의 일 실시예에 따른 추적 정확도 측정 방법의 순서도이다.Figure 12 is a flowchart of a method for measuring tracking accuracy according to an embodiment of the present invention.

먼저, 추적 정확도 측정을 위한 대상 시험 추적장치가 탑재되어 이동을 모의하는 장착 플랫폼 이동 모의부(110) 및 장착 플랫폼 이동 모의부(110) 상에 탑재되어 자세를 모의하는 장착 플랫폼 자세 모의부(120)를 통해 이동 및 자세 변화에 따른 시험을 수행한다(S110).First, the mounting platform movement simulation unit 110, which is equipped with a target test tracking device for measuring tracking accuracy to simulate movement, and the mounting platform posture simulation unit 120, which is mounted on the mounting platform movement simulation unit 110 and simulates the posture. ) to perform tests based on movement and posture changes (S110).

다음으로, 시험 수행 시의 GPS 추적에 의한 추적 타겟 표식부(140)의 영상을 촬영 및 저장한다(S120).Next, an image of the tracking target marker 140 by GPS tracking during test performance is captured and stored (S120).

다음으로, 추적상황에 대한 영상을 분석하여 추적 정확도를 도출한다(S130).Next, the tracking accuracy is derived by analyzing the video of the tracking situation (S130).

한편, 상술한 설명에서, 단계 S11 내지 S130는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 2 내지 도 11에 기술된 내용과 도 12에 기술된 내용은 상호 적용될 수 있다.Meanwhile, in the above description, steps S11 to S130 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present invention. Additionally, some steps may be omitted or the order between steps may be changed as needed. In addition, even if other omitted content, the content described in FIGS. 2 to 11 and the content described in FIG. 12 can be mutually applied.

이상에서 전술한 본 발명의 일 실시예에 따른 추적 정확도 측정 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The tracking accuracy measurement method according to an embodiment of the present invention described above may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a computer, which is hardware.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program is C, C++, JAVA, Ruby, and It may include code encoded in a computer language such as machine language. These codes may include functional codes related to functions that define the necessary functions for executing the methods, and include control codes related to execution procedures necessary for the computer's processor to execute the functions according to predetermined procedures. can do. In addition, these codes may further include memory reference-related codes that indicate at which location (address address) in the computer's internal or external memory additional information or media required for the computer's processor to execute the above functions should be referenced. there is. In addition, if the computer's processor needs to communicate with any other remote computer or server in order to execute the above functions, the code uses the computer's communication module to determine how to communicate with any other remote computer or server. It may further include communication-related codes regarding whether communication should be performed and what information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, examples of the storage medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., but are not limited thereto. That is, the program may be stored in various recording media on various servers that the computer can access or on various recording media on the user's computer. Additionally, the medium may be distributed to computer systems connected to a network, and computer-readable code may be stored in a distributed manner.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

10: 추적 장치
100: 추적 정확도 측정 시스템
110: 장착 플랫폼 이동 모의부
120: 장착 플랫폼 자세 모의부
130: 추적상황 촬영부
140: 추적 타겟 표식부
150: 영상 분석부
10: Tracking device
100: Tracking accuracy measurement system
110: Mounting platform moving simulation unit
120: Mounting platform posture simulation unit
130: Tracking situation recording unit
140: Tracking target marking unit
150: Video analysis unit

Claims (16)

추적 정확도 측정을 위한 대상 시험 추적장치가 탑재되어 이동을 모의하는 장착 플랫폼 이동 모의부,
상기 장착 플랫폼 이동 모의부 상에 탑재되어 자세를 모의하는 장착 플랫폼 자세 모의부,
영상 촬영장치 및 무게추를 구비하여 추적상황에 대한 영상을 촬영하는 추적상황 촬영부,
상기 추적상황 촬영부가 지향하고 촬영하는 추적 타겟인 추적 타겟 표식부 및
상기 추적상황에 대한 영상을 분석하여 추적 정확도를 도출하는 영상 분석부를 포함하고,
상기 추적 타겟 표식부는 상기 영상에서 식별 가능한 거리에 설치되는 타겟 표식 기준대를 포함하며,
상기 영상 분석부는 타겟 표식 기준대와 타겟 표식간의 거리(Td)와, 상기 추적장치와 타겟 표식 간의 거리(D)에 기반하여, 상기 추적 정확도의 측정을 위한 상기 타겟 표식과 상기 타겟 표식 기준대 사이의 각도(Ta) 정보를 환산하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
A moving simulation unit of a mounted platform equipped with a target test tracker to measure tracking accuracy and simulating movement;
A mounting platform posture simulation unit mounted on the mounting platform movement simulation unit to simulate a posture,
A tracking situation recording unit equipped with a video recording device and a weight to capture images of the tracking situation,
A tracking target marking unit, which is a tracking target that the tracking situation photographing unit aims and photographs, and
It includes an image analysis unit that analyzes the image of the tracking situation and derives tracking accuracy,
The tracking target marker unit includes a target marker standard installed at an identifiable distance in the image,
The image analysis unit is based on the distance (Td) between the target mark and the target mark and the distance (D) between the tracking device and the target mark, between the target mark and the target mark for measurement of the tracking accuracy. A tracking accuracy measurement system for a tracking device that converts angle (Ta) information.
제1항에 있어서,
상기 장착 플랫폼 자세 모의부는,
6-DOF 이상의 자유도를 갖는 모션 시뮬레이터,
원격 제어를 위한 RF 모뎀, 자세에 대한 모의를 위한 자세 센서, GPS 안테나 및 수신기와 연동을 통해 상기 모션 시뮬레이터를 제어하여 장착 플랫폼의 자세를 모의하는 모션 제어기를 포함하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to paragraph 1,
The mounting platform posture simulation unit,
Motion simulator with more than 6-DOF degrees of freedom,
Tracking accuracy for a tracking device comprising an RF modem for remote control, a posture sensor for simulating the posture, and a motion controller that controls the motion simulator through linkage with a GPS antenna and receiver to simulate the posture of the mounting platform. Measurement system.
제1항에 있어서,
상기 추적 타겟 표식부는 원형의 형태를 가지며, 주변에 존재하는 색상 중 최소 색상으로 선택되는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to paragraph 1,
A tracking accuracy measurement system for a tracking device wherein the tracking target marker has a circular shape and is selected as the minimum color among colors existing in the surrounding area.
삭제delete 제1항에 있어서,
상기 영상 분석부는 소정의 시험 시나리오에 따라 상기 장착 플랫폼 이동 모의부 및 장착 플랫폼 자세 모의부에서의 이동 및 자세 변화에 따른 시험 수행시의 GPS 추적에 의한 영상을 저장하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to paragraph 1,
The image analysis unit stores images by GPS tracking when performing a test according to movement and posture changes in the mounting platform movement simulation unit and the mounting platform posture simulation unit according to a predetermined test scenario. Tracking accuracy for a tracking device. Measurement system.
제5항에 있어서,
상기 영상 분석부는 상기 환산된 각도 정보에 기초하여 상기 저장된 영상의 분석을 위한 영상 내 거리 및 각도 환산 기준을 설정하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 5,
The image analysis unit sets distance and angle conversion standards within the image for analysis of the stored image based on the converted angle information.
제6항에 있어서,
상기 영상 분석부는 상기 환산된 각도 정보를 기준 서클 베이스인 제1 기준원으로 설정하고, 상기 제1 기준원의 소정 배수의 크기를 갖도록 제2 기준원을 설정하고, 상기 시험 수행시 설정되는 트래킹 존의 각도를 갖는 제3 기준원을 설정하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 6,
The image analysis unit sets the converted angle information to a first reference circle that is the base of the reference circle, sets the second reference circle to have a size that is a predetermined multiple of the first reference circle, and sets the tracking zone set when performing the test. A tracking accuracy measurement system for a tracking device, wherein a third reference circle is set with an angle of .
제6항에 있어서,
상기 영상 분석부는 상기 촬영된 영상을 2진 영상으로 변환하고, 소정의 추출 기준에 상응하는 영역을 추출한 후, 상기 추출된 영역 내에서 설정된 영상 내 거리 및 각도 환산 기준과의 거리를 기반으로 상기 추적 타겟과의 오차각을 산출하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 6,
The image analysis unit converts the captured image into a binary image, extracts an area corresponding to a predetermined extraction standard, and then tracks the image based on the distance within the image and the angle conversion standard set within the extracted area. A tracking accuracy measurement system for a tracking device that calculates the error angle with the target.
제5항에 있어서,
상기 영상 분석부는 상기 촬영된 영상인 RGB영상을 HSV(Hue Saturations Value) 영상으로 변환하여 채도값 및 명도값을 조절하고, 상기 타겟 표식에 상응하는 픽셀에 대한 RGB 표준과의 색상 차이를 연산하여 기준점 내로 들어오는 픽셀을 타겟 표식으로 인식하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 5,
The image analysis unit converts the captured RGB image into an HSV (Hue Saturations Value) image to adjust the saturation value and brightness value, and calculates the color difference from the RGB standard for the pixel corresponding to the target mark to a reference point. A tracking accuracy measurement system for tracking devices that recognizes incoming pixels as target marks.
제9항에 있어서,
상기 영상 분석부는 상기 채도값 및 명도값이 조절된 HSV 영상을 다시 RGB 영상으로 변환하고, 상기 RGB 영상으로부터 타겟 표식으로 인식하고자 하는 마스킹 영역을 선택 및 추출하여 상기 마스킹 영역에 대한 상기 RGB 표준과의 색상 차이를 연산하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 9,
The image analysis unit converts the HSV image with the saturation and brightness values adjusted back into an RGB image, selects and extracts a masking area to be recognized as a target mark from the RGB image, and compares the RGB standard for the masking area with the RGB standard for the masking area. A tracking accuracy measurement system for tracking devices that calculates color differences.
제10항에 있어서,
상기 영상 분석부는 상기 마스킹 영역에 대한R, G, B색상의 평균값을 산출하고, 상기 평균값으로 전체 화면과 동일한 크기의 영상을 생성하며, 상기 R, G, B 각각에 대한 상기 평균값과의 차이값(Delta E)을 연산하고, 상기 차이값에 대한 평균 및 표준편차에 기반하여 영상 분석시 목표물 인식을 위한 기준값을 설정하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 10,
The image analysis unit calculates the average value of the R, G, and B colors for the masking area, generates an image of the same size as the entire screen using the average value, and provides a difference value from the average value for each of the R, G, and B. A tracking accuracy measurement system for a tracking device that calculates (Delta E) and sets a reference value for target recognition when analyzing images based on the average and standard deviation of the difference values.
제11항에 있어서,
상기 영상 분석부는 상기 평균값과 차이값을 이용하여 각 영상 프레임마다 목표물의 후보를 선정하고, 목표물 후보 중 소정의 조건을 만족하는 영역을 선택한 후, 지향 확인용 원의 중심과 선택된 영역의 중심과의 거리를 연산하여 목표물의 후보를 재선정하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 11,
The image analysis unit selects a target candidate for each image frame using the average value and the difference value, selects an area that satisfies a predetermined condition among the target candidates, and then divides the center of the orientation confirmation circle and the center of the selected area. A tracking accuracy measurement system for a tracking device that reselects target candidates by calculating the distance.
제12항에 있어서,
상기 영상 분석부는 상기 설정된 기준값과 상기 차이값을 비교한 결과에 기초하여 상기 목표물의 후보에 대한 픽셀을 추출하고, 추출된 목표물의 후보에 대한 픽셀을 이진 영상으로 변환하며, 변환된 영상에서 모든 객체에 대한 경계 픽셀을 산출하고, 경계 픽셀에 기초하여 객체의 원형성 판단하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 12,
The image analysis unit extracts pixels for the target candidates based on a result of comparing the set reference value and the difference value, converts the pixels for the extracted target candidates into a binary image, and all objects in the converted image. A tracking accuracy measurement system for a tracking device that calculates boundary pixels for and determines the circularity of the object based on the boundary pixels.
제13항에 있어서,
상기 영상 분석부는 상기 변환된 이진 영상에서 픽셀 간 연결된 객체를 선별하고, 선별된 객체의 면적을 계산한 후 일정 면적 이하의 객체는 제거하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 13,
The image analysis unit selects objects connected between pixels in the converted binary image, calculates the area of the selected object, and then removes objects smaller than a certain area.
제13항에 있어서,
상기 영상 분석부는 사용자가 입력한 원형성 판단 기준과 상기 경계 픽셀에 기초하여 산출된 객체의 원형성을 비교하여 판단 기준을 초과하는 객체를 상기 목표물의 후보로 재선정하는 것인 추적장치를 위한 추적 정확도 측정 시스템.
According to clause 13,
The image analysis unit compares the circularity judgment standard input by the user with the circularity of the object calculated based on the boundary pixel, and reselects the object exceeding the judgment standard as a candidate for the target. Tracking accuracy for a tracking device Measurement system.
삭제delete
KR1020230154252A 2023-11-09 2023-11-09 System and method for measuring tracking accuracy for tracking devices KR102636413B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230154252A KR102636413B1 (en) 2023-11-09 2023-11-09 System and method for measuring tracking accuracy for tracking devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230154252A KR102636413B1 (en) 2023-11-09 2023-11-09 System and method for measuring tracking accuracy for tracking devices

Publications (1)

Publication Number Publication Date
KR102636413B1 true KR102636413B1 (en) 2024-02-14

Family

ID=89896163

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230154252A KR102636413B1 (en) 2023-11-09 2023-11-09 System and method for measuring tracking accuracy for tracking devices

Country Status (1)

Country Link
KR (1) KR102636413B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130107089A (en) * 2012-03-21 2013-10-01 국방과학연구소 Method and appratus for measuring tracking accuracy of electro-optical tracking system
KR20140048773A (en) * 2012-10-16 2014-04-24 강민건 Camera stabilizer
KR20140095339A (en) * 2013-01-24 2014-08-01 삼성테크윈 주식회사 Apparatus and method for analyzing aiming accuracy
KR20150123002A (en) * 2014-04-24 2015-11-03 국방과학연구소 Geo-pointing accuracy and automatic picture-taking test devices and methodology of the airborne eo/ir payload
KR20200095316A (en) * 2019-06-27 2020-08-10 한화시스템 주식회사 Hils system for dual-sensor imaging seeker's test and evaluation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130107089A (en) * 2012-03-21 2013-10-01 국방과학연구소 Method and appratus for measuring tracking accuracy of electro-optical tracking system
KR20140048773A (en) * 2012-10-16 2014-04-24 강민건 Camera stabilizer
KR20140095339A (en) * 2013-01-24 2014-08-01 삼성테크윈 주식회사 Apparatus and method for analyzing aiming accuracy
KR20150123002A (en) * 2014-04-24 2015-11-03 국방과학연구소 Geo-pointing accuracy and automatic picture-taking test devices and methodology of the airborne eo/ir payload
KR20200095316A (en) * 2019-06-27 2020-08-10 한화시스템 주식회사 Hils system for dual-sensor imaging seeker's test and evaluation

Similar Documents

Publication Publication Date Title
US7300356B2 (en) Apparatus and method of measuring the flying behavior of a flying body
Ellis Performance metrics and methods for tracking in surveillance
JP7051315B2 (en) Methods, systems, and non-temporary computer-readable recording media for measuring ball rotation.
CN108416285A (en) Rifle ball linkage surveillance method, apparatus and computer readable storage medium
US20080306708A1 (en) System and method for orientation and location calibration for image sensors
CN105049839B (en) OIS camera module test system based on mobile terminal and method of testing
JP2009528119A (en) Automatic event detection method and system in sports stadium
CN110910341B (en) Method and device for detecting defects of rusted areas of power transmission line
CN104813339A (en) Methods, devices and systems for detecting objects in a video
US10587797B2 (en) Method, system and non-transitory computer-readable recording medium for compensating brightness of ball images
CN110493524A (en) A kind of survey light method of adjustment, device, equipment and storage medium
CN111507204A (en) Method and device for detecting countdown signal lamp, electronic equipment and storage medium
KR20180014141A (en) A trajectory analysis device of a golf ball for a screen golf system
KR20220066759A (en) Method for tracking sports participants, device for tracking sports participants, and system for tracking sports participants
KR102636413B1 (en) System and method for measuring tracking accuracy for tracking devices
CN116990830B (en) Distance positioning method and device based on binocular and TOF, electronic equipment and medium
CN101929863A (en) Real-time graph generation method for scene matching navigation technology
CN109948630A (en) Recognition methods, device, system and the storage medium of target sheet image
KR101775153B1 (en) Target Training System and Analysis Method
CN109815773A (en) A kind of low slow small aircraft detection method of view-based access control model
CN116310263A (en) Pointer type aviation horizon instrument indication automatic reading implementation method
CN112902986B (en) Device and method for measuring angular error of photoelectric tracking equipment based on attitude feedback
CN111882619A (en) Sea surface target identification method for simulating and testing visual equipment on intelligent ship
CN114252868A (en) Laser radar calibration method and device, computer equipment and storage medium
KR20210010408A (en) Apparatus and Method for Vision-Sensor Data Based Golf Swing Trace Tracking and Analysis

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant