KR20180038761A - Method for target data acquisition - Google Patents

Method for target data acquisition Download PDF

Info

Publication number
KR20180038761A
KR20180038761A KR1020160129797A KR20160129797A KR20180038761A KR 20180038761 A KR20180038761 A KR 20180038761A KR 1020160129797 A KR1020160129797 A KR 1020160129797A KR 20160129797 A KR20160129797 A KR 20160129797A KR 20180038761 A KR20180038761 A KR 20180038761A
Authority
KR
South Korea
Prior art keywords
target
attitude
sensor
angle change
change value
Prior art date
Application number
KR1020160129797A
Other languages
Korean (ko)
Other versions
KR101900563B1 (en
Inventor
송진모
이상훈
김태완
배종수
Original Assignee
주식회사 한화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한화 filed Critical 주식회사 한화
Priority to KR1020160129797A priority Critical patent/KR101900563B1/en
Publication of KR20180038761A publication Critical patent/KR20180038761A/en
Application granted granted Critical
Publication of KR101900563B1 publication Critical patent/KR101900563B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G11/00Details of sighting or aiming apparatus; Accessories
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/42Devices characterised by the use of electric or magnetic means
    • G01P3/44Devices characterised by the use of electric or magnetic means for measuring angular speed

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The present invention relates to a target data acquisition method and, more specifically, relates to a target data acquisition method which estimates a speed and a position of a target with a distance between an aiming unit and the target and an orientation angle change value of a gunner.

Description

표적 정보 획득 방법{Method for target data acquisition}Method for target data acquisition [

본 발명은 표적 정보 획득 방법에 관한 발명으로, 더욱 상세하게는 조준 장치와 표적 사이의 거리 및 사수의 자세각 변화값을 이용하여 표적의 속도 및 위치를 추정하는 표적 정보 획득 방법에 관한 발명이다.The present invention relates to a target information acquiring method, and more particularly, to a target information acquiring method for estimating a target speed and position using a distance between a sighting device and a target and a change value of a posture angle of a shooter.

일반적으로 표적의 정보를 획득하는 장치에서의 표적 정보를 획득하는 방법은 레이더(radar) 센서를 이용하는 방법에서 많은 연구가 진행되어 왔다. 하지만 레이더 센서의 경우 방향성 안테나에서 발산된 전파를 이용해 반사되는 전파의 시간을 측정하여 목표물의 거리, 방향, 고도를 알아내는 방법으로, 크기와 비용, 전력 소모 등의 문제로 휴대용 무기의 조준 장치에는 적용하기 어렵다.In general, a method of acquiring target information in an apparatus for acquiring target information has been studied in a method using a radar sensor. However, in the case of a radar sensor, the distance, direction, and altitude of the target are measured by measuring the time of the reflected wave using the radio wave emitted from the directional antenna. Due to the problems such as size, cost and power consumption, It is difficult to apply.

따라서 또 다른 방법으로는 거리 측정 센서와 자세 센서를 이용하여 사수와 표적 간의 거리 정보와 사수가 표적을 조준하는 동안의 방향각 변화를 이용하는 방법이 있다.Therefore, another method is to use the distance information between the shooter and the target using the distance measuring sensor and the attitude sensor, and to use the direction angle change while the target is aiming at the target.

하지만 휴대용에 적합한 자세 센서는 정밀도가 낮고 자세 센서의 특성상 오차 누적문제가 있어 정밀한 표적 정보 획득이 어려운 문제점이 있었다.However, the posture sensor suitable for portable use has a problem that it is difficult to acquire precise target information due to a low precision and a cumulative error due to the characteristics of the posture sensor.

도 1은 거리와 방향각 측정치에 따른 표적 정보 획득 방법 개념도를 도시하고 있다.FIG. 1 is a conceptual diagram of a target information acquisition method according to distance and direction angle measurement values.

도 1은 사수의 위치가 원점에 있을 때 관측할 수 있는 데이터가 표적의 속도 벡터와 어떠한 상관관계가 있는지를 보여준다. 자세 센서의 오차가 없는 이상적인 환경에서는 바로 이전에 측정한 데이터와 표적 이동의 벡터 합은 다음 시간의 측정 벡터와 같은 것을 볼 수 있다.Figure 1 shows how the observable data correlates with the velocity vector of the target when the shooter's position is at the origin. In an ideal environment where there is no error of the attitude sensor, the vector sum of the measured data and the target movement just before is the same as the measurement vector of the next time.

하지만 각속도를 측정하는 자세 센서의 경우에는 필연적으로 바이어스(bias) 오차와 드리프트(drift) 오차가 발생하게 되며, 자세 센서의 정밀도가 요구 조건에 충분하지 않은 경우 표적 정보의 추정 오차가 커지는 문제점이 있다.However, in the case of an attitude sensor for measuring an angular velocity, a bias error and a drift error are inevitably generated. If the accuracy of the attitude sensor is not sufficient for the requirement, there is a problem that the estimation error of the target information becomes large .

한국 공개특허공보 제10-2010-0029504호Korean Patent Publication No. 10-2010-0029504

본 발명은 상기와 같은 문제를 해결하기 위해 발명된 것으로서, 영상 센서로부터 얻어진 자세각 변화값과 자세 센서로부터 얻어진 자세각 변화값을 합산하여 하나의 자세각 변화값을 산출함으로써 바이어스(bias) 오차 및 드리프트(drift) 오차를 제거하는데 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a method and an apparatus for calculating a posture angle change value by summing a posture angle change value obtained from an image sensor, It is aimed to eliminate the drift error.

또한, 주성분 분석(Primary Components Analysis, PCA) 방법을 사용하여 극도로 낮은 주기의 거리 측정치에도 등속으로 기동하는 표적의 정확한 위치 및 속도 정보를 획득하는데 목적이 있다.It is also aimed to obtain accurate position and velocity information of a target that is steadily moving at constant speed even with extremely low cycle distance measurements using the Primary Components Analysis (PCA) method.

상기와 같은 목적을 달성하기 위한 본 발명의 표적 정보 획득 방법에 있어서,In order to achieve the above object, according to the present invention,

영상 센서를 포함하는 주야간 카메라를 이용하여 사수가 표적을 지향하는 동안의 사수의 자세각 변화를 측정하는 자세 측정 단계;A posture measuring step of measuring a change in posture angle of a shooter while a shooter is aiming a target using a day / night camera including an image sensor;

자세 센서를 이용하여 사수가 표적을 지향하는 동안의 사수의 자세각 변화를 측정하는 자세 측정 단계;A posture measuring step of measuring a change in the posture angle of the shooter while the shooter is aiming the target using the posture sensor;

자세 센서를 이용하여 측정된 자세각 변화값과 상기 영상 센서를 이용하여 측정된 자세각 변화값을 합산하여 하나의 자세각 변화값을 산출해내는 센서융합단계를 포함하며,And a sensor fusion step of calculating a single attitude angle change value by summing up the attitude angle change value measured using the attitude sensor and the attitude angle change value measured using the image sensor,

센서융합단계에서는, 자세 센서를 이용하여 측정된 자세각 변화값은 조준장치의 회전 각도에 누적시키게 되고, 영상 센서를 이용하여 측정된 자세각 변화값이 입력되면 현재 측정 각도를 영상 센서를 이용하여 측정된 자세각 변화값으로 갱신하는 것을 특징으로 한다.In the sensor fusion step, the attitude angle change value measured using the attitude sensor is accumulated at the rotation angle of the aiming device. When the attitude angle change value measured using the image sensor is inputted, And updates the measured attitude angle change value.

상기 센서융합단계에서 합산된 자세각 변화값으로 조준장치의 회전 각속도를 산출하는 것을 특징으로 한다.And the rotational angular velocity of the aiming device is calculated from the attitude angle change value summed in the sensor fusion step.

영상 센서를 이용한 자세 측정 단계는,In the posture measurement step using the image sensor,

특징점 추출 단계;A feature point extraction step;

특징점 대응 탐색 단계;A minutia matching correspondence searching step;

대표 각도 추정 단계를 포함하는 것으로,And a representative angle estimation step,

특징점은 표적의 특징점이 아닌 배경의 특징점 만을 이용하는 것을 특징으로 한다.The feature point is characterized by using only the feature points of the background, not the feature points of the target.

특징점 대응 탐색 단계에서는, 연속하는 프레임에서 특징점 화소 단위의 이동 변위를 측정하는 것을 특징으로 한다.And in the feature point correspondence search step, the movement displacement in the unit of the feature point pixel is measured in successive frames.

대표 각도 추정 단계에서는, 특징점들의 이동 변위들 중 잡음을 제거하기 위한 수학적 기술을 이용하여 거짓 변위를 제거하는 것을 특징으로 한다.In the representative angle estimating step, a false displacement is removed using a mathematical technique for eliminating noise among moving displacements of the minutiae points.

대표 각도 추정 단계에서는, 상기 잡음을 제거하기 위한 수학적 기술을 이용하여 얻은 대표 이동 변위가 움직임 각도로 변환되는 것을 특징으로 한다.In the representative angle estimating step, representative moving displacements obtained by using a mathematical technique for removing the noise are converted into motion angles.

특징점의 개수가 임계값 미만이거나 프레임당 픽셀 이동변위가 임계값 이상이면, 영상 센서를 이용한 자세각 변화값은 이용하지 않고, 자세 센서를 이용한 자세각 변화값만 이용하는 것을 특징으로 한다. When the number of feature points is less than the threshold value or when the pixel shift displacement per frame is equal to or more than the threshold value, only the attitude angle change value using the attitude sensor is used without using the attitude angle change value using the image sensor.

센서융합단계 이후에는, After the sensor fusion step,

센서융합단계에서 합산된 자세각 변화값과 거리 측정 단계에서 측정된 사수와 표적 간의 거리 정보를 이용하여 표적의 3차원 위치 좌표와 속도를 산출하는 표적정보 산출단계가 진행되는 것을 특징으로 한다.The target information calculating step of calculating the three-dimensional position coordinates and the velocity of the target using the positional angle change value added in the sensor fusion step and the distance information between the target number and the target measured in the distance measuring step is performed.

표적정보 산출단계에서는,In the target information calculation step,

표적과 상기 사수 간의 거리 정보를 이용하여 초기 표적 좌표를 설정하는 단계;Setting initial target coordinates using distance information between the target and the shooter;

사수가 상기 표적을 조준하는 동안 센서융합단계에서 산출된 자세각 변화값과 거리 측정 단계에서 측정된 거리정보를 이용하여 표적의 극좌표를 산출하는 단계;Calculating a polar coordinate of a target using the attitude angle change value calculated in the sensor fusion step and the distance information measured in the distance measuring step while the shooter is aiming the target;

극좌표를 3차원 직교좌표로 변환하여 미분함으로써 표적의 3차원 좌표와 속도를 산출하는 단계를 포함하는 것을 특징으로 한다.Dimensional coordinates and velocity of the target by converting the polar coordinates into three-dimensional rectangular coordinates and differentiating the polar coordinates.

특징점 추출 단계 이전에는, 표적이 사수의 조준에 의해 영상의 중심 영역에 있다고 가정하여 중심 영역을 크로핑(corpping)하는 크로핑 단계를 더 포함하는 것을 특징으로 한다.Before the feature point extracting step, the method further includes a cropping step of corping the center region assuming that the target is located in the center region of the image by the aim of the shooter.

자세 센서를 이용하는 자세 측정 단계와 영상 센서를 이용하는 자세 측정 단계는 동시에 진행되는 것을 특징으로 한다.The posture measuring step using the posture sensor and the posture measuring step using the image sensor are performed simultaneously.

자세 측정 단계와 거리 측정 단계는 표적을 조준하는 동안 동시에 진행되는 것을 특징으로 한다.The attitude measuring step and the distance measuring step are characterized in that they proceed simultaneously while aiming the target.

본 발명에 따르면 영상 센서로부터 얻어진 자세각 변화값과 자세 센서로부터 얻어진 자세각 변화값을 합산하여 하나의 자세각 변화값을 산출함으로써 바이어스(bias) 오차 및 드리프트(drift) 오차를 효과적으로 제거할 수 있는 효과가 있다.According to the present invention, it is possible to effectively remove a bias error and a drift error by calculating one posture angle change value by summing up the posture angle change value obtained from the image sensor and the posture angle change value obtained from the posture sensor It is effective.

따라서, 표적의 위치 및 속도 등의 정보를 보다 정확하게 추정할 수 있는 효과가 있다.Therefore, there is an effect that information such as the position and speed of the target can be estimated more accurately.

또한, 레이저 거리 측정(Laser range finder) 주기가 극도로 낮은 환경에서도 성능 저하 없이 표적 정보 획득이 가능하여 배터리 소모량을 줄여 운용 시간을 늘릴 수 있는 효과가 있다.In addition, it is possible to acquire target information without degrading performance even in an extremely low laser range finder cycle, thereby reducing battery consumption and increasing operation time.

도 1은 거리와 방향각 측정치에 따른 일반적인 표적 정보 획득 방법 개념도.
도 2는 본 발명에 따른 이동 표적의 위치, 속도 추정 개념도.
도 3은 본 발명에 따른 이동 표적의 위치, 속도 추정 순서도.
도 4는 본 발명에 따른 특징점 대응 탐색 개념도.
도 5는 본 발명에 따른 거짓 변위 제거 코드.
도 6은 본 발명에 따른 핀홀 카메라 모델과 카메라 시야각을 이용한 픽셀-방향각 변환 개념도.
도 7은 본 발명에 따른 자세 센서와 영상 센서 결과 값 합산 다이어그램.
도 8은 본 발명에 따른 주성분 분석을 이용한 3차원 직선 추정 결과 그래프.
도 9는 본 발명의 정지 표적의 요(yaw)축 방향각 추정 결과 그래프.
도 10은 본 발명의 이동 표적의 요(yaw)축 방향각 추정 결과 그래프.
도 11은 본 발명을 이용한 표적의 예측 지점 분포도.
FIG. 1 is a conceptual diagram of a general target information acquisition method according to distance and direction angle measurement values. FIG.
2 is a conceptual diagram illustrating the position and velocity estimation of a moving target according to the present invention.
3 is a flow chart for estimating the position and velocity of a moving target according to the present invention.
FIG. 4 is a conceptual diagram illustrating a feature point corresponding search according to the present invention; FIG.
5 is a diagram of a false displacement removal code according to the present invention.
6 is a conceptual diagram of a pixel-direction angle conversion using a pinhole camera model and a camera viewing angle according to the present invention.
FIG. 7 is a diagram showing a resultant value summation of an image sensor and an attitude sensor according to the present invention. FIG.
8 is a graph of a three-dimensional straight line estimation result using principal component analysis according to the present invention.
FIG. 9 is a graph showing a yaw axial angle estimation result of a stationary target according to the present invention. FIG.
10 is a graph showing a yaw axis direction angle estimation result of a moving target according to the present invention.
11 is a distribution of prediction points of a target using the present invention.

본 발명을 충분히 이해하기 위해서 본 발명의 바람직한 실시 예를 첨부 도면을 참조하여 설명한다. 본 발명의 실시 예는 여러 가지 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상세히 설명하는 실시 예로 한정되는 것으로 해석되어서는 안 된다. 본 실시 예는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공 되어지는 것이다. 따라서 도면에서의 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어 표현될 수 있다. 각 도면에서 동일한 구성은 동일한 참조부호로 도시한 경우가 있음을 유의하여야 한다. 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 기술은 생략된다.For a better understanding of the present invention, a preferred embodiment of the present invention will be described with reference to the accompanying drawings. The embodiments of the present invention can be modified in various forms, and the scope of the present invention should not be construed as being limited to the embodiments described in detail below. The present embodiments are provided to enable those skilled in the art to more fully understand the present invention. Therefore, the shapes and the like of the elements in the drawings can be exaggeratedly expressed to emphasize a clearer description. It should be noted that the same components are denoted by the same reference numerals in the drawings. Detailed descriptions of well-known functions and constructions which may be unnecessarily obscured by the gist of the present invention are omitted.

본 발명은 조준 장치와 표적 사이의 거리 및 사수의 자세각 변화값을 이용하여 표적의 속도 및 위치를 추정하는 표적 정보 획득 방법에 관한 발명이다.The present invention relates to a target information acquiring method for estimating a target speed and position using a distance between a target and a target and a change value of a posture angle of a shooter.

도 2는 본 발명에 따른 이동 표적의 위치, 속도 추정 개념도를 도시하고 있다.2 is a conceptual diagram of the position and velocity estimation of a moving target according to the present invention.

사수가 조준장치를 통해 이동 표적을 조준하게 되면 영상에서의 표적은 움직이지 않고 배경만 움직이는 것처럼 보이게 된다. 따라서, 표적이 위치하는 중앙 부분을 제외한 배경 영역에 영상 기반의 기술을 적용하면 배경 영상의 픽셀 이동량을 계산할 수 있으며, 핀홀 카메라 모델과 카메라 스펙(시야각, 크기)을 이용하면 조준장치의 회전 각도를 얻을 수 있다.When the shooter is aiming at a moving target through the aiming device, the target in the image will appear to move but not move. Therefore, it is possible to calculate the pixel shift amount of the background image by applying the image based technique to the background area excluding the central part where the target is located. If the pinhole camera model and the camera specification (viewing angle, size) Can be obtained.

도 3은 본 발명에 따른 이동 표적의 위치, 속도 추정 순서도를 도시하고 있다.FIG. 3 shows a position and velocity estimation flowchart of a moving target according to the present invention.

본 발명의 표적 정보 획득 방법은,In the target information obtaining method of the present invention,

영상 센서를 포함하는 주야간 카메라를 이용하여 사수가 표적을 지향하는 동안의 사수의 자세각 변화를 측정하는 자세 측정 단계;A posture measuring step of measuring a change in posture angle of a shooter while a shooter is aiming a target using a day / night camera including an image sensor;

자세 센서를 이용하여 사수가 표적을 지향하는 동안의 사수의 자세각 변화를 측정하는 자세 측정 단계;A posture measuring step of measuring a change in the posture angle of the shooter while the shooter is aiming the target using the posture sensor;

거리 측정 센서를 이용하여 사수와 표적 간의 거리를 측정하는 거리 측정 단계;A distance measuring step of measuring a distance between a shooter and a target using a distance measuring sensor;

상기 자세 센서를 이용하여 측정된 자세각 변화값과 상기 영상 센서를 이용하여 측정된 자세각 변화값을 합산하여 하나의 자세각 변화값을 산출해내는 센서융합단계;A sensor fusion step of calculating a single attitude angle change value by summing the attitude angle change value measured using the attitude sensor and the attitude angle change value measured using the image sensor;

상기 센서융합단계에서 합산된 자세각 변화값과 거리 측정 단계에서 측정된 상기 사수와 상기 표적 간의 거리 정보와 이용하여 상기 표적의 3차원 위치 좌표와 속도를 산출하는 표적정보 산출단계;A target information calculation step of calculating a three-dimensional position coordinate and a velocity of the target using the posture angle change value summed in the sensor fusion step and the distance information between the target number and the target measured in the distance measurement step;

를 포함하여 진행된다.Lt; / RTI >

상기 자세 센서를 이용하는 자세 측정 단계와 상기 영상 센서를 이용하는 자세 측정 단계는 동시에 진행되어지며, 상기 자세각 변화값으로 조준장치의 회전 각속도를 산출하게 된다.The attitude measuring step using the attitude sensor and the attitude measuring step using the image sensor are simultaneously performed, and the angular velocity of the aiming device is calculated from the attitude angle variation value.

상기에서 설명한 영상 기반의 기술을 이용하여 조준장치의 회전 각속도를 구하기 위해서는 상기 영상 센서를 이용하는 자세 측정 단계에서,In order to obtain the rotational angular velocity of the aiming device using the image-based technique described above, in the posture measuring step using the image sensor,

크로핑 단계:Cropping steps:

특징점 추출 단계;A feature point extraction step;

특징점 대응 탐색 단계;A minutia matching correspondence searching step;

대표 각도 추정 단계가 진행되어야 한다.The representative angle estimation step should proceed.

상기 영상 센서를 이용하는 자세 측정 단계에서 추출되는 특징점은 표적의 특징점이 아닌 배경의 특징점 만을 추출하여 이용하게 된다.The feature points extracted in the posture measurement step using the image sensor extract and use only the feature points of the background rather than the feature points of the target.

상기 크로핑 단계에서는 도 4에 도시된 바와 같이 표적이 사수의 조준에 의해 영상의 중심 영역에 있다고 가정하여 중심 영역을 크로핑(corpping)하여 사용하게 된다.In the clipping step, as shown in FIG. 4, the center is assumed to be located in the center region of the image by the aim of the shooter, and the center region is corppointed and used.

상기 특징점 추출 단계에서는 해리스 코너 검출기(Harris corner detection)를 이용하여 특징점을 추출하게 되며, 상기 특징점 대응 탐색 단계에서는 광류(optical flow) 기술 등을 사용하여 연속하는 프레임에서 특징점의 화소 단위의 이동 변위를 측정하게 된다. In the feature point extraction step, feature points are extracted using Harris corner detection. In the feature point correspondence search step, an optical flow technique or the like is used to calculate the displacement of the feature point pixel unit in successive frames .

최적 해를 구하기 위해서는 수학식1과 같은 연산을 반복하기 때문에 아주 작은 움직임까지 정확하게 예측 가능해지며, 따라서 주로 무인 로봇이나 감시 카메라의 위치 변화를 계산하기 위한 기술에 사용될 수 있다.In order to obtain an optimal solution, it is possible to accurately predict a very small movement because the operation as shown in Equation (1) is repeated. Therefore, it can be mainly used for a technique for calculating the position change of an unmanned robot or a surveillance camera.

Figure pat00001
Figure pat00001

상기 특징점 대응 탐색 단계에서 얻어진 특징점의 이동 변위들로부터 조준장치의 회전 각속도를 산출하기 위해서는 특징점의 이동 변위들을 하나의 대표 성분으로 나타내야 한다. 변위 중에는 잡음 성분에 의한 거짓 변위(outlier)가 존재하므로 상기 대표 각도 추정 단계에서는 특징점들의 이동 변위들 중 가장 많은 수의 데이터들로부터 지지를 받는 모델을 선택하는 RANSAC(Random Sample Consensus) 기술을 사용하여 거짓 변위를 분류하게 된다. 도 5에는 RANSAC(Random Sample Consensus)을 이용하여 거짓 변위들을 제거하는 코드가 도시되어 있다.In order to calculate the rotational angular velocity of the aiming device from the moving displacements of the minutiae obtained in the minutia matching step, the moving displacements of the minutiae should be represented as one representative component. Since there is a false outlier due to a noise component during the displacement, in the representative angle estimation step, RANSAC (Random Sample Consensus) technique is used to select a model supported from the largest number of displacement displacements of the feature points False displacement is classified. FIG. 5 shows codes for eliminating false displacements using Random Sample Consensus (RANSAC).

이렇게 구해진 이동 변위로부터 이동 각도를 얻기 위해서는 카메라의 시야각(Field of View)을 고려해야 한다. 도 6과 같이 이동 변위가 △x pixel 일 경우 시야각 F° 와 영상 크기 V pixel을 이용하면 픽셀 좌표계에서 각도 좌표계로 변환할 수 있다. 단, 조준장치의 롤(roll) 각에 의해 영상 좌표계와 월드 좌표계 간의 각도 불일치가 발생하므로 수학식 2와 같은 핀홀 카메라 모델의 영상 회전 변환식을 이용하여 롤각 보정을 해주어야 정확한 각도를 측정할 수 있게 된다.In order to obtain the moving angle from the obtained displacement, the field of view of the camera must be considered. As shown in FIG. 6, when the moving displacement is Δx pixel, the angular coordinate system can be converted from the pixel coordinate system to the angular coordinate system by using the viewing angle F ° and the image size V pixel. However, since an angle mismatch occurs between the image coordinate system and the world coordinate system due to the roll angle of the aiming device, it is necessary to perform the roll angle correction using the image rotation transformation formula of the pinhole camera model as shown in Equation (2) .

하기의 수학식 2에서 (X, Y, Z)는 월드 좌표계 상의 3D 좌표, [R|t]는 월드 좌표계를 카메라 좌표계로 변환시키기 위한 회전/이동 행렬이며 카메라 외부 파라미터를 의미한다. A는 카메라 내부 파라미터(camera matrix)이며 카메라 초점거리(f), 주점(c), 비대칭 계수(skew)를 의미하며, 카메라 캘리브레이션을 수행하여 얻게 된다.(X, Y, Z) is a 3D coordinate on the world coordinate system, and [R | t] is a rotation / movement matrix for transforming the world coordinate system into the camera coordinate system. A is a camera matrix, which means camera focal length (f), principal point (c), asymmetry coefficient (skew) and is obtained by performing camera calibration.

Figure pat00002
Figure pat00002

상기 자세 센서를 이용하는 자세 측정 단계에서는 자이로(Gyro) 센서 등과 같은 일반적인 자세 센서를 이용해 자세각 변화값을 측정하여 회전 각속도를 구하게 된다.In the posture measuring step using the posture sensor, a rotational angle velocity is obtained by measuring a posture angle change value using a general posture sensor such as a gyro sensor.

영상 센서와 자세 센서는 모두 조준장치의 요(yaw)축, 피치(pitch)축의 각도를 출력하고 그 특성이 다르므로 합산하였을 경우 더 좋은 성능을 낼 수 있다. 영상 센서의 경우에는 바이어스(bias) 오차가 없고 출력 오차가 적지만 큰 움직임이 발생하거나 배경 특징점이 없는 경우에는 각도 획득이 되지 않아 큰 오차를 발생시키게 되며 비동기로 동작한다.Both the image sensor and the attitude sensor output the angles of the yaw axis and the pitch axis of the aiming device and their characteristics are different, so that they can perform better when summed. In the case of the image sensor, there is no bias error and the output error is small, but when large motion occurs or there is no background feature point, angle is not obtained and it causes a large error and operates asynchronously.

반면, 자세 센서의 경우 시간이 지날수록 오차가 누적되는 바이어스 오차를 갖지만 영상 센서와는 다르게 배경 특징점에 의한 오차가 발생하지 않으며, 일정한 속도로 각속도 값을 출력하게 된다.On the other hand, in the case of the posture sensor, the error is accumulated as the time passes. However, unlike the image sensor, the error is not caused by the background feature point, and the angular velocity is output at a constant speed.

따라서, 상기 센서융합단계에서는 상기 자세 센서를 이용하여 측정된 자세각 변화값(

Figure pat00003
,
Figure pat00004
)은 상기 조준장치의 회전 각도에 누적시키게 되고, 상기 영상 센서를 이용하여 측정된 자세각 변화값이 입력되면 현재 측정 각도를 상기 영상 센서를 이용하여 측정된 자세각 변화값(
Figure pat00005
,
Figure pat00006
)으로 갱신하여 자세 센서의 누적 오차를 개선하였으며, 출력 주기를 30Hz로 유지하였다.Therefore, in the sensor fusion step, the attitude angle change value measured using the attitude sensor
Figure pat00003
,
Figure pat00004
) Is accumulated at a rotation angle of the aiming device, and when the measured attitude angle change value is input using the image sensor, the current measured angle is calculated as the attitude angle change value
Figure pat00005
,
Figure pat00006
) To improve the cumulative error of the posture sensor, and the output period was maintained at 30 Hz.

또한, 환경에 의한 오차가 발생하는 것을 방지하기 위하여 도 7에 도시된 바와 같이, 상기 특징점의 개수가 임계값 미만이거나 프레임당 픽셀 이동 변위가 임계값 이상이면, 상기 영상 센서를 이용한 자세각 변화값은 이용하지 않고, 상기 자세 센서를 이용한 자세각 변화값만 이용하여 오차가 크게 발생하는 것을 방지하였다.7, if the number of the feature points is less than the threshold value or the pixel shift displacement per frame is equal to or greater than the threshold value, the posture angle change value using the image sensor And a large error is prevented from occurring by using only the attitude angle change value using the attitude sensor.

상기 특징점 개수 임계값과 픽셀 이동 변위 임계값은 실험을 통하여 미리 정해둔 값으로 한다.The feature point count threshold value and the pixel shift threshold value are predetermined values through experiments.

상기 센서융합단계 이후에는, 상기 센서융합단계에서 합산된 자세각 변화값과 거리 측정 단계에서 측정된 상기 사수와 상기 표적 간의 거리 정보와 이용하여 상기 표적의 3차원 위치 좌표와 속도를 산출하는 표적정보 산출단계가 진행된다.After the sensor fusing step, target information for calculating the three-dimensional position coordinates and velocity of the target using the posture angle change value summed in the sensor fusion step and the distance information between the target number and the target measured in the distance measuring step The calculation step proceeds.

상기 표적정보 산출단계에서는,In the target information calculation step,

상기 표적과 상기 사수 간의 거리 정보를 이용하여 초기 표적 좌표를 설정하는 단계;Setting initial target coordinates using distance information between the target and the shooter;

상기 사수가 상기 표적을 조준하는 동안 상기 센서융합단계에서 산출된 자세각 변화값과 상기 거리 측정 단계에서 측정된 거리정보를 이용하여 상기 표적의 극좌표를 산출하는 단계;Calculating a polar coordinate of the target using the attitude angle change value calculated in the sensor fusion step and the distance information measured in the distance measuring step while the shooter is aiming the target;

상기 극좌표를 3차원 직교좌표로 변환하여 미분함으로써 상기 표적의 3차원 좌표와 속도를 산출하는 단계를 진행하게 된다.Dimensional coordinates and velocity of the target by converting the polar coordinates into three-dimensional rectangular coordinates and differentiating the polar coordinates.

상기 자세 측정 단계와 거리 측정 단계는 상기 표적을 조준하는 동안 동시에 진행되어진다. 즉, 사수가 표적을 조준하는 동안 자세 측정과 거리 측정이 동시에 진행되는 것이다.The posture measurement step and the distance measurement step are simultaneously performed while aiming the target. That is, while the shooter is aiming the target, the attitude measurement and the distance measurement proceed simultaneously.

상기 센서융합단계에서 산출된 자세각 변화값과 상기 거리 측정 단계에서 측정된 거리정보를 이용하여 추정된 각속도 정보는 {

Figure pat00007
}의 극좌표 이므로 3차원 공간상의 표적 운동 {
Figure pat00008
}을 분석하기 위해서 하기의 수학식 3을 이용하여 직교 좌표계로 변환한다.The estimated angular velocity information using the attitude angle change value calculated in the sensor fusion step and the distance information measured in the distance measurement step is {
Figure pat00007
}, The target motion in the three-dimensional space {
Figure pat00008
} Is transformed into an orthogonal coordinate system using the following equation (3).

Figure pat00009
Figure pat00009

Figure pat00010
Figure pat00010

Figure pat00011
Figure pat00011

기존의 EKF(extended kalman filter)와 같은 추정 방법들은 센서의 입력 주기가 낮은 경우 데이터의 분산이 커져 표적 위치 추정 성능이 저하되는 문제점이 있었기 때문에 센서의 획득 주기가 낮은 환경에서도 표적의 선형 움직임을 잘 추정할 수 있는 PCA 기반 직선 추정 방법을 사용해 데이터들의 분포를 가장 잘 표현하는 하나의 직선을 생성하여 추정하였다.Estimation methods such as the existing EKF (Extended Kalman Filter) have a problem that the target position estimation performance is deteriorated when the input period of the sensor is low, because the dispersion of the data is large. Therefore, even when the acquisition period of the sensor is low, Using the estimable PCA - based linear estimation method, one straight line that best represents the distribution of data is generated and estimated.

2차 평면에서의 직선의 추정은 고윳값 분석(eigenvalue analysis)을 통해 구할 수 있으며, 공분산 행렬의 고유 벡터 중에서 가장 큰 고윳값에 해당하는 벡터가 직선의 방향을 나타내게 된다. 3차원 표적의 움직임을 표현하기 위해서는 3차 평면으로 확장해야 한다.The estimation of the straight line in the second plane can be obtained by eigenvalue analysis, and the vector corresponding to the highest value of the eigenvectors of the covariance matrix represents the direction of the straight line. In order to express the movement of the three-dimensional target, it must be extended to the third plane.

3차 직선을 추정하기 위해서는 수학식 4의 SVD(특이값 분해-Singular Value Decomposition)를 이용하며, 임의의 m?n의 행렬 A는 다음과 같이 분해될 수 있다. To estimate the third-order straight line, SVD (Singular Value Decomposition) of Equation (4) is used, and the matrix A of any m? N can be decomposed as follows.

Figure pat00012
Figure pat00012

Figure pat00013
Figure pat00013

Figure pat00014
Figure pat00014

U는

Figure pat00016
를 고윳값 분해해서 얻은
Figure pat00017
직교행렬(orthogonal matrix)이고 V는
Figure pat00018
를 고윳값 분해해서 얻은
Figure pat00019
직교행렬이다. 마지막으로
Figure pat00020
는 를 고윳값 분해해서 나오는 고윳값(eigenvalue)들의 square root(제곱근)를 대각원소로 하는
Figure pat00021
직사각 대각행렬이다. U is
Figure pat00016
Obtained by high-resolution decomposition of
Figure pat00017
Is an orthogonal matrix and V is
Figure pat00018
Obtained by high-resolution decomposition of
Figure pat00019
Orthogonal matrix. Finally
Figure pat00020
The square root of the eigenvalues resulting from high-resolution decomposition is a diagonal element.
Figure pat00021
It is a rectangular diagonal matrix.

수학식 5와 같이 전체 입력 행렬 I 에 각 행의 평균값을 뺀 행렬을

Figure pat00022
라고 놓으면
Figure pat00023
Figure pat00024
공분산 매트릭스가 된다. 따라서 SVD는 공분산 행렬의 고윳값 분해의 문제가 되어 3차원 점들로 구성된 공분산 행렬의 고유 벡터 중에서 가장 큰 고윳값에 해당하는 벡터가 직선의 방향을 나타내게 된다. 도 8은 30개의 측정치 샘플에 대해서 3차원 PCA 직선 추정을 수행한 결과이다. A matrix obtained by subtracting the average value of each row from the entire input matrix I as shown in Equation (5)
Figure pat00022
You release
Figure pat00023
The
Figure pat00024
It becomes a covariance matrix. Therefore, SVD is a problem of high-order decomposition of a covariance matrix, so that the vector corresponding to the highest value of the eigenvectors of the covariance matrix composed of three-dimensional points represents the direction of the straight line. 8 is a result of performing a three-dimensional PCA straight line estimation on 30 measurement samples.

Figure pat00025
Figure pat00025

Figure pat00026
Figure pat00026

Figure pat00027
Figure pat00027

도 9는 본 발명의 정지 표적의 요(yaw)축 방향각 추정 결과 그래프를 도시하고 있으며, 도 10은 본 발명의 이동 표적의 요(yaw)축 방향각 추정 결과 그래프를 도시하고 있다.FIG. 9 is a graph showing a yaw axial angle estimation result of a stationary target according to the present invention, and FIG. 10 is a graph showing a yaw axial angle estimation result of a moving target according to the present invention.

정지 표적에서 시험한 결과 자세 센서만 이용하는 경우 바이어스 오차로 인하여 시간이 지날수록 오차가 누적되는 것을 확인할 수 있다. 하지만 본 발명의 방법을 이용하는 경우에는 바이어스 오차가 발생하지 않음을 확인할 수 있다. 일정한 속도로 이동하는 표적의 경우에도 본 발명의 방법의 정밀도가 더 우수함을 확인하였다. As a result of the test in the stationary target, it can be confirmed that the error is accumulated as time goes by due to the bias error when only the attitude sensor is used. However, when the method of the present invention is used, it can be confirmed that bias error does not occur. It has been confirmed that the method of the present invention is more accurate in the case of a target moving at a constant speed.

표적의 위치, 속도를 추정하는 기법의 성능을 검증하기 위해서 몬테카를로 시뮬레이션을 수행하였으며, 각 센서의 성능에 따른 잡음을 정규 분포로 더해주어 생성하였다. 설정된 잡음은 데이터 시트와 조준 시험 결과를 참고하여 설정하였다.Monte Carlo simulation was performed to verify the performance of the target position and velocity estimating method, and noise was generated by adding the noise according to the performance of each sensor to the normal distribution. The set noise was set by referring to the data sheet and the aim test result.

도 11은 본 발명을 이용한 표적의 예측 지점 분포도를 도시한 것으로, 탄이 발사대에서 발사된 후 2초간의 비행을 한다고 가정하였을 때, 표적의 예측지점에 대한 분포를 보인 것이다. FIG. 11 shows a distribution of predicted points of a target using the present invention. FIG. 11 shows a distribution of a predicted point of a target when a shot is fired from a launching platform for 2 seconds.

EKF의 표적 분포는 가로축으로 퍼져있는 데 반해 PCA의 표적 분포는 중앙에 모여 있어 표적이 등속 기동하고 획득 주기가 낮은 경우 PCA 기법이 EKF 보다 추정 성능이 좋음을 확인하였다. 단, 탄의 운동 특성(추진, 공력 등)과 환경조건(습도, 바람, 고도 등)은 고려하지 않았다. The target distribution of the EKF is distributed along the horizontal axis, whereas the target distribution of the PCA is concentrated at the center, and it is confirmed that the PCA technique has better estimation performance than the EKF when the target is constant velocity and the acquisition period is low. However, the motion characteristics (propulsion, aerodynamics, etc.) and environmental conditions (humidity, wind, altitude, etc.) were not taken into account.

상기와 같은 본 발명의 표적 정보 획득 방법은 영상 센서로부터 얻어진 자세각 변화값과 자세 센서로부터 얻어진 자세각 변화값을 합산하여 하나의 자세각 변화값을 산출함으로써 바이어스(bias) 오차 및 드리프트(drift) 오차를 효과적으로 제거할 수 있게 되며, 따라서, 표적의 위치 및 속도 등의 정보를 보다 정확하게 추정할 수 있는 효과가 있다.In the target information acquisition method of the present invention as described above, a bias error and a drift are calculated by calculating one posture angle change value by summing the posture angle change value obtained from the image sensor and the posture angle change value obtained from the posture sensor, Therefore, it is possible to more accurately estimate the information such as the position and velocity of the target.

또한, 레이저 거리 측정(Laser range finder) 주기가 극도로 낮은 환경에서도 성능 저하 없이 표적 정보 획득이 가능하여 배터리 소모량을 줄여 운용 시간을 늘릴 수 있는 효과가 있다.In addition, it is possible to acquire target information without degrading performance even in an extremely low laser range finder cycle, thereby reducing battery consumption and increasing operation time.

이상에서 설명된 본 발명의 표적 정보 획득 방법의 실시 예는 예시적인 것에 불과하며, 본 발명이 속한 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 잘 알 수 있을 것이다. 그럼으로 본 발명은 상기의 상세한 설명에서 언급되는 형태로만 한정되는 것은 아님을 잘 이해할 수 있다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. 또한, 본 발명은 첨부된 청구범위에 의해 정의되는 본 발명의 정신과 그 범위 내에 있는 모든 변형물과 균등물 및 대체물을 포함하는 것으로 이해되어야 한다.The embodiments of the target information acquisition method of the present invention described above are merely illustrative and those skilled in the art will appreciate that various modifications and equivalent embodiments are possible without departing from the scope of the present invention. You will know. It is therefore to be understood that the invention is not limited to the form set forth in the foregoing description. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims. It is also to be understood that the invention includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention as defined by the appended claims.

Claims (12)

거리 측정 센서, 자세 센서 및 영상센서를 포함하는 조준장치를 이용한 표적 정보 획득 방법에 있어서,
상기 영상 센서를 포함하는 주야간 카메라를 이용하여 사수가 표적을 지향하는 동안의 상기 사수의 자세각 변화를 측정하는 자세 측정 단계;
상기 자세 센서를 이용하여 사수가 표적을 지향하는 동안의 사수의 자세각 변화를 측정하는 자세 측정 단계;
상기 자세 센서를 이용하여 측정된 자세각 변화값과 상기 영상 센서를 이용하여 측정된 자세각 변화값을 합산하여 하나의 자세각 변화값을 산출해내는 센서융합단계;를 포함하며,
상기 센서융합단계에서는, 상기 자세 센서를 이용하여 측정된 자세각 변화값은 상기 조준장치의 회전 각도에 누적시키게 되고, 상기 영상 센서를 이용하여 측정된 자세각 변화값이 입력되면 현재 측정 각도를 상기 영상 센서를 이용하여 측정된 자세각 변화값으로 갱신하는 것을 특징으로 하는 표적 정보 획득 방법.
A method of acquiring target information using a sighting device including a distance measuring sensor, an attitude sensor, and an image sensor,
A posture measuring step of measuring a change in the posture angle of the shooter while the shooter is aiming the target by using a day / night camera including the image sensor;
A posture measuring step of measuring a posture angle change of a shooter while the shooter is aiming at a target using the posture sensor;
And a sensor fusion step of calculating a single attitude angle change value by summing up the attitude angle change value measured using the attitude sensor and the attitude angle change value measured using the image sensor,
Wherein, when the measured angle change value is measured using the image sensor, the current measured angle is calculated as the current measured angle using the image sensor, And updating the attitude angle change value measured using the image sensor.
제1항에 있어서,
상기 자세각 변화값으로 조준장치의 회전 각속도를 산출하는 것을 특징으로 하는 표적 정보 획득 방법.
The method according to claim 1,
And the rotational angular velocity of the aiming device is calculated from the attitude angle change value.
제2항에 있어서,
상기 영상 센서를 이용한 자세 측정 단계는,
특징점 추출 단계;
특징점 대응 탐색 단계;
대표 각도 추정 단계;를 포함하는 것으로,
상기 특징점은 표적의 특징점이 아닌 배경의 특징점 만을 이용하는 것
을 특징으로 하는 표적 정보 획득 방법.
3. The method of claim 2,
In the posture measurement step using the image sensor,
A feature point extraction step;
A minutia matching correspondence searching step;
And a representative angle estimating step,
The feature points are not feature points of the target but only feature points of the background
Wherein the target information acquisition method comprises the steps of:
제3항에 있어서,
상기 특징점 대응 탐색 단계에서는, 연속하는 프레임에서 특징점 화소 단위의 이동 변위를 측정하는 것을 특징으로 하는 표적 정보 획득 방법.
The method of claim 3,
Wherein in the searching for the feature point correspondence, the movement displacement in the unit of the feature point pixel is measured in successive frames.
제4항에 있어서,
상기 대표 각도 추정 단계에서는, 특징점들의 이동 변위들 중 잡음을 제거하기 위한 수학적 기술을 이용하여 거짓 변위를 제거하는 것을 특징으로 하는 표적 정보 획득 방법.
5. The method of claim 4,
Wherein the representative angle estimating step removes the false displacement using a mathematical technique for removing noise among moving displacements of the minutiae points.
제5항에 있어서,
상기 대표 각도 추정 단계에서는, 상기 잡음을 제거하기 위한 수학적 기술을 이용하여 얻은 대표 이동 변위가 움직임 각도로 변환되는 것을 특징으로 하는 표적 정보 획득 방법.
6. The method of claim 5,
Wherein in the representative angle estimating step, a representative moving displacement obtained by using a mathematical technique for removing the noise is converted into a moving angle.
제6항에 있어서,
상기 특징점의 개수가 임계값 미만이거나 프레임당 픽셀 이동변위가 임계값 이상이면, 상기 영상 센서를 이용한 자세각 변화값은 이용하지 않고, 상기 자세 센서를 이용한 자세각 변화값만 이용하는 것을 특징으로 하는 표적 정보 획득 방법.
The method according to claim 6,
Wherein only the attitude angle change value using the attitude sensor is used instead of the attitude angle change value using the image sensor when the number of the minutiae is less than the threshold or the pixel movement displacement per frame is equal to or more than the threshold value Information acquisition method.
제1항에 있어서,
상기 센서융합단계 이후에는,
상기 센서융합단계에서 합산된 자세각 변화값과 거리 측정 단계에서 측정된 상기 사수와 상기 표적 간의 거리 정보와 이용하여 상기 표적의 3차원 위치 좌표와 속도를 산출하는 표적정보 산출단계가 진행되는 것을 특징으로 하는 표적 정보 획득 방법.
The method according to claim 1,
After the sensor fusion step,
And a target information calculating step of calculating the three-dimensional position coordinates and the velocity of the target using the sum of the attitude angle change values summed in the sensor fusion step and the distance information between the target number and the target measured in the distance measuring step To obtain the target information.
제8항에 있어서,
상기 표적정보 산출단계에서는,
상기 표적과 상기 사수 간의 거리 정보를 이용하여 초기 표적 좌표를 설정하는 단계;
상기 사수가 상기 표적을 조준하는 동안 상기 센서융합단계에서 산출된 자세각 변화값과 상기 거리 측정 단계에서 측정된 거리정보를 이용하여 상기 표적의 극좌표를 산출하는 단계;
상기 극좌표를 3차원 직교좌표로 변환하여 미분함으로써 상기 표적의 3차원 좌표와 속도를 산출하는 단계;
를 포함하는 것을 특징으로 하는 표적 정보 획득 방법.
9. The method of claim 8,
In the target information calculation step,
Setting initial target coordinates using distance information between the target and the shooter;
Calculating a polar coordinate of the target using the attitude angle change value calculated in the sensor fusion step and the distance information measured in the distance measuring step while the shooter is aiming the target;
Calculating three-dimensional coordinates and speed of the target by converting the polar coordinates into three-dimensional rectangular coordinates and differentiating the polar coordinates;
Wherein the target information obtaining step comprises:
제3항에 있어서,
상기 특징점 추출 단계 이전에는, 표적이 사수의 조준에 의해 영상의 중심 영역에 있다고 가정하여 중심 영역을 크로핑(corpping)하는 크로핑 단계를 더 포함하는 것을 특징으로 하는 표적 정보 획득 방법.
The method of claim 3,
Further comprising a cropping step of corpusing the center area assuming that the target is located in the center region of the image by the aim of the shooter before the extraction of the feature point.
제8항에 있어서,
상기 자세 센서를 이용하는 자세 측정 단계와 상기 영상 센서를 이용하는 자세 측정 단계는 동시에 진행되는 것을 특징으로 하는 표적 정보 획득 방법.
9. The method of claim 8,
Wherein the attitude measuring step using the attitude sensor and the attitude measuring step using the image sensor proceed simultaneously.
제11항에 있어서,
상기 자세 측정 단계와 상기 거리 측정 단계는 상기 표적을 조준하는 동안 동시에 진행되는 것을 특징으로 하는 표적 정보 획득 방법.

12. The method of claim 11,
Wherein the attitude measuring step and the distance measuring step are simultaneously performed while aiming the target.

KR1020160129797A 2016-10-07 2016-10-07 Method for target data acquisition KR101900563B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160129797A KR101900563B1 (en) 2016-10-07 2016-10-07 Method for target data acquisition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160129797A KR101900563B1 (en) 2016-10-07 2016-10-07 Method for target data acquisition

Publications (2)

Publication Number Publication Date
KR20180038761A true KR20180038761A (en) 2018-04-17
KR101900563B1 KR101900563B1 (en) 2018-11-05

Family

ID=62082973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160129797A KR101900563B1 (en) 2016-10-07 2016-10-07 Method for target data acquisition

Country Status (1)

Country Link
KR (1) KR101900563B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102076721B1 (en) * 2018-09-27 2020-02-12 주식회사 한화 Apparatus and method for providing target information
CN112818715A (en) * 2020-12-31 2021-05-18 北京云迹科技有限公司 Pose identification method and device, electronic equipment and storage medium
KR20220140342A (en) * 2021-04-09 2022-10-18 엘아이지넥스원 주식회사 Method and Apparatus for Measuring Impact Information of Guided Air Vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000258122A (en) * 1999-03-12 2000-09-22 Mitsubishi Electric Corp Luminous position standardizing device
KR101036833B1 (en) 2010-03-31 2011-05-25 국방과학연구소 Apparatus and method for estimating an alignment error between a radar sensor and an image sensor in a target tracking system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102076721B1 (en) * 2018-09-27 2020-02-12 주식회사 한화 Apparatus and method for providing target information
CN112818715A (en) * 2020-12-31 2021-05-18 北京云迹科技有限公司 Pose identification method and device, electronic equipment and storage medium
KR20220140342A (en) * 2021-04-09 2022-10-18 엘아이지넥스원 주식회사 Method and Apparatus for Measuring Impact Information of Guided Air Vehicle

Also Published As

Publication number Publication date
KR101900563B1 (en) 2018-11-05

Similar Documents

Publication Publication Date Title
Li et al. Kalman filter and its application
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
EP2901236B1 (en) Video-assisted target location
CN110726406A (en) Improved nonlinear optimization monocular inertial navigation SLAM method
KR101900563B1 (en) Method for target data acquisition
CN113466890B (en) Light laser radar inertial combination positioning method and system based on key feature extraction
Veth et al. Fusing Low‐Cost Image and Inertial Sensors for Passive Navigation
KR101737950B1 (en) Vision-based navigation solution estimation system and method in terrain referenced navigation
CN112254729A (en) Mobile robot positioning method based on multi-sensor fusion
US20160034607A1 (en) Video-assisted landing guidance system and method
Veth et al. Stochastic constraints for efficient image correspondence search
García-Moreno et al. Error propagation and uncertainty analysis between 3D laser scanner and camera
CN113160331B (en) External parameter calibration method based on visual system imaging
CN112580683B (en) Multi-sensor data time alignment system and method based on cross correlation
Veth et al. Two-dimensional stochastic projections for tight integration of optical and inertial sensors for navigation
EP3166849B1 (en) System for locating the barycenter of at least one object orbiting in space and related process of physical and mechanical characterization of the identified object
KR101900564B1 (en) Apparatus for target data acquisition
Pachter et al. Vision-based target geolocation using micro air vehicles
Cassinis et al. Leveraging neural network uncertainty in adaptive unscented Kalman Filter for spacecraft pose estimation
CN114705223A (en) Inertial navigation error compensation method and system for multiple mobile intelligent bodies in target tracking
CN112407344B (en) Pose prediction method and device for space non-cooperative target
Lim et al. A MEMS based, low cost GPS-aided INS for UAV motion sensing
CN107796417B (en) Method for adaptively estimating scene matching and inertial navigation installation error
Jensen et al. In-situ unmanned aerial vehicle (UAV) sensor calibration to improve automatic image orthorectification
CN112166340B (en) Method for acquiring radar position, radar and movable platform

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant