KR20150055248A - Method for tracking of tactical object using unbiased data fusion algorithms - Google Patents

Method for tracking of tactical object using unbiased data fusion algorithms Download PDF

Info

Publication number
KR20150055248A
KR20150055248A KR1020130137342A KR20130137342A KR20150055248A KR 20150055248 A KR20150055248 A KR 20150055248A KR 1020130137342 A KR1020130137342 A KR 1020130137342A KR 20130137342 A KR20130137342 A KR 20130137342A KR 20150055248 A KR20150055248 A KR 20150055248A
Authority
KR
South Korea
Prior art keywords
data
tracking
radar
data fusion
tactical
Prior art date
Application number
KR1020130137342A
Other languages
Korean (ko)
Inventor
박동조
진승리
최원철
황근철
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020130137342A priority Critical patent/KR20150055248A/en
Publication of KR20150055248A publication Critical patent/KR20150055248A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering

Abstract

The present invention relates to a method for tracking a location of a tactical object using unbiased data fusion method, and, more specifically, provided is the method for tracking the location of a tactical object using unbiased data fusion method, which is capable of being applied to displaying and tracking the location of the tactical object, by receiving observation data from a plurality of radars or a simulator for replicating the radar, tracking the location by using a Kalman filter, and fusing data by using the unbiased data fusion method considering a distance. For the foregoing, the method comprises: an observation data inputting step (S10) for inputting the observation data from the plurality of radars or the simulator for replicating the radar; a tracking step (S20) for tracking the tactical object based on the inputted observed data by using the Kalman filter in the observation data inputting step (S10); and a data fusion step (S30) for receiving, by a fusion center, the data tracked in the tracking step (S20), and fusing data by using the unbiased data fusion method considering a distance with the tactical object.

Description

불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법 {METHOD FOR TRACKING OF TACTICAL OBJECT USING UNBIASED DATA FUSION ALGORITHMS}Field of the Invention < RTI ID = 0.0 > Field of the Invention < / RTI >

본 발명은 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법에 관한 것으로서, 보다 상세하게는 다수의 레이더 또는 레이더를 모사하는 시뮬레이터로부터 관측데이터를 입력받고, 칼만필터를 이용하여 위치를 추적하며, 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 데이터를 융합함으로써, 전술객체의 위치 표현 및 추적에 적용 가능한 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법에 관한 것이다.
The present invention relates to a method of tracking a tactical object position using an incoherent estimator data fusion technique. More particularly, the present invention relates to a method for tracking a tactical object position by using a Kalman filter, The present invention relates to a method of tracking a tactical object using a data fusion method using an incoherent estimator, which can be applied to position representation and tracking of a tactical object by fusing data using an incoherent estimator data fusion technique.

레이더(RADAR: Radio Detection and Ranging)는 전파가 물체에 부딪쳐서 반사하는 것을 이용해 물체의 유무, 거리, 속도 등을 알아내며, 전파의 형식에 따라 크게 지속파(CW) 레이더와 펄스 레이더로 분류된다.Radar Detection and Ranging (RADAR) detects the presence, distance, speed, etc. of an object by using the reflection of a radio wave against an object, and classified into a continuous wave (CW) radar and a pulse radar depending on the type of the radio wave.

지속파 레이더는 두 개의 안테나(송신, 수신)로 구성되며, 움직이는 표적만을 탐지(속도 자료를 얻음)하고, 펄스 레이더는 단일 안테나로 구성되며, PW(Pulse width), PRF(Pulse Repetition Frequency)에 의해 성능에 크게 영향을 준다.The continuous wave radar consists of two antennas (transmitting and receiving). It detects only the moving target (obtains the velocity data) and the pulse radar is composed of a single antenna. The pulse width and the pulse repetition frequency (PRF) Which greatly affects performance.

국방 M&S(Modeling and Simulation) 연구는 국방분야에서 가상시험을 통해 군의 기술을 평가하고 적에 대응할 수 있는 상황에 대한 대비의 목적으로 연구되고 있는 분야이다.Defense M & S (Modeling and Simulation) research is a field that has been studied for the purpose of evaluating the military technology through the virtual test in the defense field and preparing for the situation that can respond to the enemy.

여기서, 합성 환경 내에서 전술객체의 위치 표현 기술 연구는 전술객체의 위치를 실시간으로 탐지, 추적하고 이를 가상현실 내에서 모의하기 위한 기술을 획득하는 것을 목적으로 연구되고 있다. Here, research on the technique of describing the location representation of tactical objects in a synthetic environment is being studied in order to detect and track the positions of tactical objects in real time and to acquire techniques for simulating them in virtual reality.

이를 위해서는 크게 두 가지 분야의 연구가 중요하다. 첫 번째는 실시간 센서 데이터를 실제 센서 시스템의 측정값과 유사하게 모델링 하는 연구이다. 합성 환경에서의 실험에서는 실제 데이터와 유사하게 센서를 모델링하여 측정오차 및 수학적 모델링의 불확실성을 줄여 탐지 정확도의 향상에 기여하고자 한다. Two major areas of research are important for this. The first is the study of real-time sensor data modeling similar to the actual sensor system. In the synthetic environment, we try to contribute to the improvement of detection accuracy by reducing the uncertainty of the measurement error and mathematical modeling by modeling the sensor similar to the actual data.

고성능 센싱에 의한 정확도 향상 기술 연구Research on improving accuracy by high-performance sensing

레이더 모델링은 위치 추적 및 모의 정확도 향상을 위한 실제적인 센싱 데이터 수집을 목적으로 하며, 대기 환경, 레이더 파라미터, 잡음 및 클러터와 같은 요소에 의해 성능 차이가 나타난다. 실제 사용되는 레이더와 유사한 환경을 모델링함으로써 시뮬레이션 결과가 실제 탐지결과와 유사하게 나오게 하려고 한다.Radar modeling aims to collect actual sensing data for location tracking and simulation accuracy improvement, and performance difference is caused by factors such as atmospheric environment, radar parameters, noise and clutter. By modeling an environment similar to the actual radar, we want to make the simulation results appear similar to the actual detection results.

두 번째는 추적 정확도 향상을 위한 연구로 수학적 모델과 관측 모델을 이용한 필터링 및 분산 데이터 융합에 관한 연구이다. 칼만필터(Kalman Filter)를 통해 현재 상태와 측정값을 예측하고, 현재의 실제 관측값을 통해 현재 상태를 수정하여 운동하는 객체의 궤적이나 현재 위치를 알 수 있다. 또한 합성 환경내에서 얻어진 다중 센서 데이터를 통하여 적절한 데이터 융합 기술을 사용하면 전술객체의 위치 추적 정확도를 크게 향상할 수 있다.The second is a study on improvement of tracking accuracy, filtering and distributed data fusion using mathematical model and observation model. The Kalman filter predicts the current state and the measured value, and corrects the current state through the actual observed value to know the trajectory or current position of the moving object. Also, by using appropriate data convergence technology through multi sensor data obtained in synthetic environment, it is possible to improve the accuracy of positioning of tactical object.

모델링된 레이더를 기반으로 시뮬레이터를 제작하여 실제 탐지결과를 실험할 수 있으며, 레이더 성능에 영향을 주는 입력 파라미터에 따라 움직이는 운동체를 탐지한 결과를 출력으로 나타내고, 탐지 결과를 바탕으로 데이터 융합 기법을 적용하여 위치 및 추적 정확도 향상을 도모한다.The simulator can be produced based on the modeled radar to test the actual detection result. The result of detecting the moving object according to the input parameter affecting the radar performance is expressed as the output, and the data fusion technique is applied based on the detection result Thereby improving the position and tracking accuracy.

레이더는 항공기나 비행체의 위치나 속도를 실시간으로 추적하는 용도로 사용되며, 위치를 추적함에 있어 기상환경, 지형, 저고도 비행, 방해 전파 등에 따라 추적 상태와 추적 신호의 감도가 많이 변하게 된다. 이러한 환경 변화로 인해 예측하지 못하는 추적 오차를 갖게 되고 이를 개선하기 위해 다수의 레이더를 이용하여 레이더간 자료 융합(Data Fusion), 자료 연동(Data Federation) 등의 기술을 필요로 한다.Radar is used to track the position and speed of an aircraft or aircraft in real time. Tracking status and sensitivity of tracking signals vary greatly depending on weather conditions, terrain, low altitude flight, and jamming. In order to improve the tracking error that can not be anticipated due to such environmental changes, it is necessary to use technologies such as data fusion and data fusion between radar using multiple radars.

자료 융합은 여러 개의 계측 센서들로부터 얻어지는 자료를 분석하고 처리하여 관심 있는 특정 정보를 얻고자 하는 기술을 말한다. 다수의 레이더를 이용하여 무유도탄, 항공, 선박, 차량 등의 위치 측정에 적용되는 자료 융합 방법에 있어 각 레이더는 추적상태와 신호대잡음비를 갖는데, 기상 환경이나 비행체의 위치 등에 따라 추적상태가 실패되거나 신호대잡음비의 성능이 낮아지는 경우가 발생한다. 이러한 부정확한 정보에 의해 발생한 위치 정보가 자료 융합 입력으로 사용될 경우 비행체의 추적 능력은 현저하게 저하된다.Data fusion is a technique that analyzes and processes data obtained from several measurement sensors to obtain specific information of interest. In a data fusion method applied to position measurement of non-guided missiles, aviation, ships, and vehicles using multiple radars, each radar has a tracking status and a signal-to-noise ratio. Depending on the weather environment or the location of the aircraft, The performance of the signal-to-noise ratio may be lowered. When the location information generated by such inaccurate information is used as the data fusion input, the tracing ability of the aircraft is significantly degraded.

종래의 기술에 의하면 다수의 레이더를 이용한 위치 추적 능력을 향상시키는 자료 융합 방법에 있어 각 레이더로부터 추적 상태(Track Status)가 양호한 위치 정보만을 추적필터(α-β 추적 필터 또는 칼만 필터)로 설계하는 방법이 사용되었다. 이러한 자료 융합방법은 다수의 레이더 추적 상태가 양호할 경우에 적절히 사용될 수 있다. 그러나 기상 환경 변화가 심하거나 이동 물체의 위치에 따른 방해요소가 발생하는 경우 레이더는 추적에 실패하거나 추적이 양호하더라도 신호대잡음비(Signal-To-Noise Ratio: SNR)가 현저히 저하되어 추적필터만으로는 정확한 위치 추적에 한계를 갖는다.
According to the conventional technique, in the data convergence method that improves the position tracking ability using a plurality of radars, only the position information having good track status from each radar is designed as a tracking filter (? -Β tracking filter or Kalman filter) Method was used. This data fusion method can be used appropriately when many radar tracking conditions are good. However, if the weather conditions change significantly or obstacles occur due to the location of the moving object, the radar can not detect the signal-to-noise ratio (SNR) There is a limit to traceability.

한국공개특허[10-2011-0125803]에 비행체 위치 추적 자료 융합 장치 및 이를 이용한 융합 방법이 개시되어 있다.
Korean Unexamined Patent Publication [10-2011-0125803] discloses an apparatus for integrating flight position data and a fusion method using the same.

한국공개특허[10-2011-0125803]Korean Patent Publication [10-2011-0125803]

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 데이터를 융합함으로써, 전술객체의 위치 표현 및 추적에 적용 가능한 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법을 제공하는 것이다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide a data fusion method using an inconvenience estimation data fusion technique considering distance, And to provide a method of tracking a tactical object position using an estimator data fusion technique.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법은, 컴퓨터를 포함하는 연산처리수단에 의하여 실행되는 프로그램 형태로 이루어지는 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법에 있어서, 레이더 또는 상기 레이더를 모사하는 시뮬레이터로부터 관측데이터를 입력받는 관측데이터입력 단계(S10); 칼만필터를 이용하여 상기 관측데이터입력 단계(S10)에서 입력받은 관측데이터를 기반으로 전술객체를 추적하는 추적 단계(S20); 및 융합센터가 상기 추적단계(S20)에서 추적된 데이터를 입력받고, 전술객체와의 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 데이터를 융합하는 데이터융합 단계(S30);를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method for tracking a tactical object position using an inconvenience estimation data fusion technique, the method comprising: The method comprising: inputting observation data from a simulator simulating a radar or the radar (S10); A tracking step (S20) of tracking a tactical object based on the observation data input in the observation data input step (S10) using a Kalman filter; And a data convergence step (S30) in which the fusion center receives the data tracked in the tracking step (S20) and fuses the data using the unbiased estimation data fusion method considering the distance to the tactical object (S30) do.

또한, 상기 추적 단계(S20)는 관측데이터를 입력받고, 선형측정모델을 이용하여 현재위치를 추정(Measurement update: Estimation)하는 현재위치추정 단계(21); 및 상기 현재위치추정 단계(S21)의 현재위치추정결과를 입력받고, 선형운동모델을 이용하여 다음 위치를 예측(Time update: Prediction)하는 다음위치예측 단계(S22);를 포함하며, 상기 현재위치추정 단계(S21)는 다음위치예측 단계(S22)의 예측 결과를 피드백 받아 현재위치를 추정하는 것을 특징으로 한다.The tracking step S20 includes a current position estimation step 21 for receiving observation data and estimating a current position using a linear measurement model (Measurement update: Estimation); And a next position prediction step (S22) of receiving a current position estimation result of the current position estimation step (S21) and predicting a next position using a linear motion model (S22) The estimation step S21 is characterized in that the current position is estimated by feeding back the prediction result of the next position estimation step S22.

아울러, 상기 데이터융합 단계(S30)는 전술객체와의 거리를 고려한 불편추정량 데이터 융합 기법인 다음식,In addition, the data convergence step (S30) may be a discretionary estimator data fusion technique considering distances from a tactical object,

Figure pat00001
Figure pat00001

(여기서,

Figure pat00002
는 K개의 독립된 센서 시스템에서의 관측 결과,
Figure pat00003
는 K개의 센서들의 채널,
Figure pat00004
Figure pat00005
을 분산으로 가지는 잡음,
Figure pat00006
는 추정하고자 하는 벡터,
Figure pat00007
는 전술객체와의 잡음과 거리를 고려한 데이터 융합 결과,
Figure pat00008
는 k번째 레이더의 잡음 분산,
Figure pat00009
는 수신 SNR로 구한 상수,
Figure pat00010
는 레이더로부터의 상대적인 거리를 나타내는 상수)(here,
Figure pat00002
Is the result of observations in K independent sensor systems,
Figure pat00003
Is a channel of K sensors,
Figure pat00004
The
Figure pat00005
As noise,
Figure pat00006
Is a vector to be estimated,
Figure pat00007
The result of data fusion considering noise and distance to tactical object,
Figure pat00008
Is the noise variance of the kth radar,
Figure pat00009
Is a constant obtained by the reception SNR,
Figure pat00010
Is a constant indicating the relative distance from the radar)

을 이용하여 데이터를 융합하는 것을 특징으로 한다.
And the data is fused using the data.

본 발명의 일 실시예에 따른 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법에 의하면, 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 데이터를 융합함으로써, 전술객체의 위치 표현 및 추적을 보다 정확하게 할 수 있는 효과가 있다.According to the tactical object position tracking method using the incoherent estimator data fusion technique according to an embodiment of the present invention, by fusing data using the incoherent estimator data fusion technique considering distance, There is an effect that can be.

또한, 칼만필터를 이용하여 등속도 또는 등가속도로 움직이는 전술객체의 현재 위치의 예측 및 다음 위치의 추정을 보다 정확하게 할 수 있는 효과가 있다.Further, there is an effect that the current position prediction and the next position estimation of a tactical object moving at a uniform velocity or an equivalent velocity using the Kalman filter can be more accurately performed.

또, 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 레이더의 잡음 분산값과 레이더와 전술객체 사이의 거리를 고려하여 가중치를 결정함으로써, 보다 정확한 전술객체의 위치 표현 및 추적을 할 수 있는 효과가 있다.In addition, it is possible to more precisely represent and track the position of the tactical object by determining the weight by considering the noise variance value of the radar and the distance between the radar and the tactical object by using the incoherent estimator data fusion technique considering the distance .

아울러, 서로 다른 특징 및 오차를 가지는 레이더의 관측데이터들의 융합기법으로 활용 가능한 효과가 있다.
In addition, there is an effect that can be utilized as a fusion technique of observation data of radar having different characteristics and errors.

도 1은 본 발명의 일 실시예에 따른 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법의 순서도.
도 2는 다수의 레이더 또는 시뮬레이터를 이용한 데이터의 융합 과정을 보여주는 블록도.
도 3은 도 1의 추적 단계의 일 실시예를 보여주는 순서도.
도 4는 칼만필터의 알고리즘을 보여주는 블록도.
도 5는 좌표계별 평균제곱오차를 보여주는 그래프.
도 6은 평균제곱오차의 비율을 보여주는 그래프.
FIG. 1 is a flowchart of a method of tracking a tactical object position using an unbiased estimator data fusion technique according to an embodiment of the present invention. FIG.
2 is a block diagram showing a process of converging data using a plurality of radar or simulators.
Figure 3 is a flow chart showing one embodiment of the tracking step of Figure 1;
4 is a block diagram showing the algorithm of the Kalman filter;
5 is a graph showing a mean square error of each coordinate system.
6 is a graph showing the ratio of the mean squared error;

이하, 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.
Hereinafter, the present invention will be described in more detail with reference to the drawings. The following drawings are provided by way of example so that those skilled in the art can fully understand the spirit of the present invention. Therefore, the present invention is not limited to the following drawings, but may be embodied in other forms. In addition, like reference numerals designate like elements throughout the specification. It is to be noted that the same elements among the drawings are denoted by the same reference numerals whenever possible. Further, it is to be understood that, unless otherwise defined, technical terms and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Descriptions of known functions and configurations that may be unnecessarily blurred are omitted.

도 1은 본 발명의 일 실시예에 따른 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법의 순서도이고, 도 2는 다수의 레이더 또는 시뮬레이터를 이용한 데이터의 융합 과정을 보여주는 블록도이며, 도 3은 도 1의 추적 단계의 일 실시예를 보여주는 순서도이고, 도 4는 칼만필터의 알고리즘을 보여주는 블록도이며, 도 5는 좌표계별 평균제곱오차를 보여주는 그래프이고, 도 6은 평균제곱오차의 비율을 보여주는 그래프이다.
FIG. 1 is a flowchart illustrating a method of tracking a tactical object position using an unbiased estimator data fusion technique according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating a process of converging data using a plurality of radar or simulators. 4 is a block diagram showing an algorithm of a Kalman filter, FIG. 5 is a graph showing a mean square error according to a coordinate system, and FIG. 6 is a graph showing a ratio of a mean square error Graph.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법은 컴퓨터를 포함하는 연산처리수단에 의하여 실행되는 프로그램 형태로 이루어지는 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법에 있어서, 관측데이터입력 단계(S10), 추적 단계(S20) 및 데이터융합 단계(S30)를 포함한다.As shown in FIG. 1, a method for tracking a tactical object position using an incoherent estimator data fusion technique according to an embodiment of the present invention includes the following steps: The tracking method of a tactical object using the method includes an observation data input step (S10), a tracking step (S20), and a data fusion step (S30).

도 2에 도시된 바와 같이, 다수의 레이더 또는 레이더를 모사하는 시뮬레이터로부터 관측데이터를 입력받고, 다수의 칼만필터를 이용하여 각각의 관측데이터로부터 추정된 전술객체의 위치정보를 융합센터로 보내며, 융합센터는 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 하나의 데이터(시스템 트랙)로 융합함으로써, 보다 정확하게 전술객체의 위치 표현 및 추적이 가능하다. 다시 말해, 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 데이터를 융합함으로써, 전술객체의 위치 표현 및 추적을 보다 정확하게 할 수 있다.
As shown in FIG. 2, the observation data is input from a simulator simulating a plurality of radar or radar, and the position information of the tactical object estimated from each observation data is sent to the fusion center using a plurality of Kalman filters, The center fuses the data into one data (system track) using the discrete estimator data fusion technique considering distance, and it is possible to more accurately represent and track the position of the tactical object. In other words, by fusing the data using the discrete estimator data fusion technique considering the distance, the position representation and tracking of the tactical object can be more accurately performed.

관측데이터입력 단계(S10)는 레이더 또는 상기 레이더를 모사하는 시뮬레이터로부터 관측데이터를 입력받는다.The observation data input step (S10) receives observation data from a radar or a simulator simulating the radar.

이때, 관측데이터입력 단계(S10)는 레이더를 이용하여 전술객체의 관측데이터를 입력받을 수 있다. 다시 말해, 가상 전투 시나리오 상황에서 실제 레이더로 측정된 데이터를 입력받을 수 있다. 그러나 전술객체(전투기 등)를 직접 사용하여 레이더로 관측데이터를 입력받기 위해서는 많은 제약(군사적, 경제적 제약 등)이 따른다. 그러므로, 레이더를 모사하는 시뮬레이터로 가상의 전투 시나리오(전술객체의 사양, 대기 환경, 레이더 파라미터, 잡음, 클러터 등)를 입력하여 얻어진 실험 데이터를 관측데이터로 사용할 수 있다. 여기서, 시뮬레이터로 호주의 BAE Systems에서 제공하는 대함방어시뮬레이션 툴인 SADM(Ship Air Defense Model) 등을 이용하여 전술객체 및 시나리오를 생성하고 관측데이터를 얻을 수 있다.
At this time, the observation data input step (S10) can receive observation data of the tactical object using the radar. In other words, the data measured by the actual radar can be input in the virtual battle scenarios situation. However, there are many restrictions (military, economic constraints, etc.) in order to receive observational data by radar using a tactical object (such as a fighter) directly. Therefore, experimental data obtained by inputting virtual combat scenarios (tactical object specification, atmospheric environment, radar parameters, noise, clutter, etc.) with the simulator simulating the radar can be used as observation data. Here, the tactical objects and scenarios can be generated and the observation data can be obtained by using the ship air defense model (SADM), which is a defense defense simulation tool provided by BAE Systems, Australia, as a simulator.

추적 단계(S20)는 칼만필터를 이용하여 상기 관측데이터입력 단계(S10)에서 입력받은 관측데이터를 기반으로 전술객체를 추적한다.The tracking step S20 tracks the tactical object based on the observation data input in the observation data input step S10 using the Kalman filter.

다시 말해, 칼만필터를 이용하여 등속도 또는 등가속도로 움직이는 전술객체의 현재 위치의 예측 및 다음 위치의 추정을 보다 정확하게 할 수 있다.In other words, the Kalman filter can be used to predict the current position of a tactical object moving at a uniform velocity or an equivalent velocity, and to estimate the next position more accurately.

도 3에 도시된 바와 같이, 상기 추적 단계(S20)는 현재위치추정 단계(21) 및 다음위치예측 단계(S22)를 포함하며, 상기 현재위치추정 단계(S21)는 다음위치예측 단계(S22)의 예측 결과를 피드백 받아 현재위치를 추정하는 것을 특징으로 할 수 있다.3, the tracking step S20 includes a current position estimation step 21 and a next position estimation step S22, and the current position estimation step S21 may be performed in a next position estimation step S22, And estimates the current position based on the feedback of the prediction result.

현재위치추정 단계(21)는 관측데이터를 입력받고, 선형측정모델을 이용하여 현재위치를 추정(Measurement update: Estimation)한다.The current position estimation step 21 receives the observation data and estimates the current position using a linear measurement model (Measurement update: Estimation).

도 4에 도시된 바와 같이, 최초의 현재위치 추정 단계(21)는 관측데이터와 선형측정모델을 이용하여 현재위치를 추정하나, 그 이후의 현재위치 추정 단계(21)는 관측데이터, 선형측정모델 및 다음위치를 예측한 결과를 이용하여 현재위치를 추정할 수 있다. 여기서 선형측정모델은 전술객체가 선형(등속도 또는 등가속도)운동을 할 경우 관측데이터의 오차를 보정하기 위한 모델을 의미한다. 관측데이터에 오차가 생기는 이유는 전파가 전술객체에 부딪쳐서 돌아오는데 걸리는 시간이 있기 때문에 발생하며, 이를 보정하여 보다 정확하게 전술객체의 현재 위치를 예측하기 위함이다.4, the initial current position estimation step 21 estimates the current position using the observed data and the linear measurement model, but the current position estimation step 21 thereafter uses the observed data and the linear measurement model And the current location can be estimated using the result of predicting the next location. Here, the linear measurement model means a model for correcting the error of the observation data when the tactical object performs linear (constant velocity or equivalent velocity) motion. The reason why the error occurs in the observation data is that there is a time that it takes for the radio wave to hit the tactical object, and corrects it to predict the current position of the tactical object more accurately.

다음위치예측 단계(S22)는 상기 현재위치추정 단계(S21)의 현재위치추정결과를 입력받고, 선형운동모델을 이용하여 다음 위치를 예측(Time update: Prediction)한다.The next position estimation step S22 receives the current position estimation result of the current position estimation step S21, and predicts the next position using a linear motion model.

여기서, 선형운동모델은 전술객체가 선형(등속도 또는 등가속도)운동을 할 경우 다음 위치를 예측하는데 사용된다.
Here, the linear motion model is used to predict the next position when a tactical object performs a linear (uniform velocity or equivalent velocity) motion.

데이터융합 단계(S30)는 융합센터가 상기 추적단계(S20)에서 추적된 데이터를 입력받고, 전술객체와의 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 데이터를 융합한다.In the data convergence step (S30), the convergence center receives the data tracked in the tracking step (S20), and fuses the data using the incoherent estimator data fusion technique considering the distance from the tactical object.

이때, 상기 데이터융합 단계(S30)는 전술객체와의 거리를 고려한 불편추정량 데이터 융합 기법인 다음식,At this time, the data convergence step (S30) is a discretionary estimator data fusion technique considering distances from the tactical object,

Figure pat00011
Figure pat00011

(여기서,

Figure pat00012
는 K개의 독립된 센서 시스템에서의 관측 결과,
Figure pat00013
는 K개의 센서들의 채널,
Figure pat00014
Figure pat00015
을 분산으로 가지는 잡음,
Figure pat00016
는 추정하고자 하는 벡터,
Figure pat00017
는 전술객체와의 잡음과 거리를 고려한 데이터 융합 결과,
Figure pat00018
는 k번째 레이더의 잡음 분산,
Figure pat00019
는 수신 SNR로 구한 상수,
Figure pat00020
는 레이더로부터의 상대적인 거리를 나타내는 상수)(here,
Figure pat00012
Is the result of observations in K independent sensor systems,
Figure pat00013
Is a channel of K sensors,
Figure pat00014
The
Figure pat00015
As noise,
Figure pat00016
Is a vector to be estimated,
Figure pat00017
The result of data fusion considering noise and distance to tactical object,
Figure pat00018
Is the noise variance of the kth radar,
Figure pat00019
Is a constant obtained by the reception SNR,
Figure pat00020
Is a constant indicating the relative distance from the radar)

을 이용하여 데이터를 융합하는 것을 특징으로 할 수 있다.And the data is fused by using the data.

이는, 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 레이더의 잡음 분산값과 레이더와 전술객체 사이의 거리를 고려하여 가중치를 결정함으로써, 보다 정확한 전술객체의 위치 표현 및 추적을 할 수 있다.
This can be accomplished by determining the weights by considering the noise variance of the radar and the distance between the radar and the tactical object by using the discrete estimator data fusion technique considering the distance.

본 발명의 일 실시예에 따른 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법이 종래의 기술보다 보다 정확한 전술객체의 위치 표현 및 추적이 가능함을 증명하기 위한 실험을하였다. 먼저 전술객체의 위치 추적을 위한 시나리오를 구성하고 SADM을 통해 설정함으로써 데이터 획득을 위한 실험 환경을 구성한다. The tactical object position tracking method using the incoherent estimator data fusion technique according to an embodiment of the present invention has been tested to demonstrate that it is possible to more accurately represent and track the position of a tactical object than the conventional technique. First, a scenario for tracking the location of the tactical object is constructed and the experimental environment for data acquisition is constructed by setting it through SADM.

X축(km)X-axis (km) Y축(km)Y-axis (km) Z축(km)Z axis (km) 잡음분산(dBm)Noise variance (dBm) 함정 1Trap 1 -35-35 -35-35 00 1212 함정 2Trap 2 00 00 00 1010 함정 3Trap 3 4040 -40-40 00 1414

본 발명에서는 표 1과 같은 전술객체들의 환경을 설정하여 실험하였다. 여기서 각 함정에는 1개의 탐지 레이더(SPY-1D)를 탑재하고 있다고 가정하였고, 공개된 레이더 파라미터를 SADM에 입력하여 실험하였다. 또한 움직이는 적 전투기는 초기 좌표 (35, 24, 1)[km]에서 등속도로 이동하여 최종 좌표 (-17, 13, 1)[km]로 비행하는 상황을 구현하였다.In the present invention, the environment of the tactical objects as shown in Table 1 was set and tested. Here, it is assumed that each trap is equipped with one detection radar (SPY-1D), and the disclosed radar parameters are input to the SADM. In addition, the moving enemy fighter jets are flying at the constant velocity (-17, 13, 1) [km] in the initial coordinates (35, 24, 1) [km].

함정에 포함된 레이더에서 잡음분산 값을 서로 다르게 설정하였고, 이는 데이터 융합에서의 가중치가 달라지는 효과를 나타낸다. 이를 통해 레이더의 잡음분산이 데이터 융합 결과에 반영되는 것을 확인할 수 있다.In the radar included in the ship, the noise variance values are set to be different from each other, and this shows the effect of changing the weight in the data fusion. This shows that the noise variance of the radar is reflected in the data convergence result.

실험 시나리오는 선형 동적 시스템이기 때문에 도 2와 같이 측정된 레이더 데이터들은 칼만필터를 통해 정확한 트랙을 얻고자 하였다. 이를 통해 얻어진 각각의 트랙들의 위치 추적 정확도를 향상시키기 위한 데이터 융합 기법으로 다음식,Since the experimental scenario is a linear dynamic system, the radar data measured as shown in FIG. 2 were intended to obtain an accurate track through a Kalman filter. In order to improve the tracking accuracy of each track,

Figure pat00021
Figure pat00021

(여기서,

Figure pat00022
는 K개의 독립된 센서 시스템에서의 관측 결과,
Figure pat00023
는 K개의 센서들의 채널,
Figure pat00024
Figure pat00025
을 분산으로 가지는 잡음,
Figure pat00026
는 추정하고자 하는 벡터,
Figure pat00027
는 전술객체와의 잡음을 고려한 데이터 융합 결과,
Figure pat00028
는 k번째 레이더의 잡음 분산)(here,
Figure pat00022
Is the result of observations in K independent sensor systems,
Figure pat00023
Is a channel of K sensors,
Figure pat00024
The
Figure pat00025
As noise,
Figure pat00026
Is a vector to be estimated,
Figure pat00027
The result of data fusion considering noise with tactical object,
Figure pat00028
Is the noise variance of the kth radar)

과 같은 최량선형불편추정량 기법(Best Linear Unbiased Estimation, BLUE)을 사용하였고, 추가적으로 전술객체와의 거리에 대한 영향을 가중치로 주는 기법으로 다음식, (Best Linear Unbiased Estimation, BLUE), and additionally weights the influence on the distance from the tactical object.

Figure pat00029
Figure pat00029

(여기서,

Figure pat00030
는 K개의 독립된 센서 시스템에서의 관측 결과,
Figure pat00031
는 K개의 센서들의 채널,
Figure pat00032
Figure pat00033
을 분산으로 가지는 잡음,
Figure pat00034
는 추정하고자 하는 벡터,
Figure pat00035
는 전술객체와의 잡음과 거리를 고려한 데이터 융합 결과,
Figure pat00036
는 k번째 레이더의 잡음 분산,
Figure pat00037
는 수신 SNR로 구한 상수,
Figure pat00038
는 레이더로부터의 상대적인 거리를 나타내는 상수)(here,
Figure pat00030
Is the result of observations in K independent sensor systems,
Figure pat00031
Is a channel of K sensors,
Figure pat00032
The
Figure pat00033
As noise,
Figure pat00034
Is a vector to be estimated,
Figure pat00035
The result of data fusion considering noise and distance to tactical object,
Figure pat00036
Is the noise variance of the kth radar,
Figure pat00037
Is a constant obtained by the reception SNR,
Figure pat00038
Is a constant indicating the relative distance from the radar)

을 사용하였다.Were used.

즉, 레이더의 수신 잡음과 상대적인 거리를 고려하여 가중치를 설정함으로써 데이터 융합을 할 때의 변수를 추가로 얻을 수 있어 전술객체의 위치 추적 정확도를 높일 수 있다.In other words, setting the weight based on the radar received noise and the relative distance makes it possible to obtain additional variables when data fusion is performed, thereby increasing the accuracy of locating the tactical object.

도 5에서는 전술객체의 실제 이동 위치와 제안하는 2가지 데이터 융합 기법(BLUE(I) 과 BLUE(II))을 통한 위치 추정 오차의 성능을 비교하였다. 비교를 위해 간단하게 각 레이더의 가중치를 동등하고 두고 실험한 결과를 민메쏘드(Mean method)로 두고 제안하는 기법의 성능이 뛰어남을 확인하였다.
FIG. 5 compares the actual movement position of the tactical object with the performance of the position estimation error through the proposed two data fusion techniques (BLUE (I) and BLUE (II)). For comparison, we have confirmed that the proposed method has excellent performance by using the mean method as a result of simply setting the weight of each radar equal.

도 6에서는 이 성능을 보다 자세히 확인하기 위해 민메쏘드(Mean method) 대비 제안하는 기법의 비율을 표시하였고, 대부분의 시간에서 비율이 1보다 작게 나타남을 확인함으로써 제안하는 기법이 민메쏘드(Mean method)보다 오차가 적음을 확인하였다.
6 shows the ratio of the proposed method to the mean method in order to confirm this performance in more detail and confirms that the ratio is smaller than 1 in most of the time, It is confirmed that there is less error.

본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

S10: 관측데이터입력 단계
S20: 추적 단계
S21: 현재위치추정 단계
S22: 다음위치추정 단계
S30: 데이터융합 단계
S10: Observation data input step
S20: Tracking phase
S21: current position estimation step
S22: Next location estimation step
S30: Data fusion step

Claims (3)

컴퓨터를 포함하는 연산처리수단에 의하여 실행되는 프로그램 형태로 이루어지는 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법에 있어서,
레이더 또는 상기 레이더를 모사하는 시뮬레이터로부터 관측데이터를 입력받는 관측데이터입력 단계(S10);
칼만필터를 이용하여 상기 관측데이터입력 단계(S10)에서 입력받은 관측데이터를 기반으로 전술객체를 추적하는 추적 단계(S20); 및
융합센터가 상기 추적단계(S20)에서 추적된 데이터를 입력받고, 전술객체와의 거리를 고려한 불편추정량 데이터 융합 기법을 이용하여 데이터를 융합하는 데이터융합 단계(S30);
를 포함하는 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법.
A tactical object position tracking method using a discrete estimated quantity data fusion technique comprising a program executed by an arithmetic processing means including a computer,
An observation data input step (S10) for inputting observation data from a radar or a simulator simulating the radar;
A tracking step (S20) of tracking a tactical object based on the observation data input in the observation data input step (S10) using a Kalman filter; And
A data convergence step (S30) in which the convergence center receives the data tracked in the tracking step (S20) and fuses the data using the disadvantaged estimator data fusion technique considering the distance to the tactical object;
A method for tracking a tactical object position using an incoherent estimator data fusion technique.
제1항에 있어서,
상기 추적 단계(S20)는
관측데이터를 입력받고, 선형측정모델을 이용하여 현재위치를 추정(Measurement update: Estimation)하는 현재위치추정 단계(21); 및
상기 현재위치추정 단계(S21)의 현재위치추정결과를 입력받고, 선형운동모델을 이용하여 다음 위치를 예측(Time update: Prediction)하는 다음위치예측 단계(S22);
를 포함하며,
상기 현재위치추정 단계(S21)는
다음위치예측 단계(S22)의 예측 결과를 피드백 받아 현재위치를 추정하는 것을 특징으로 하는 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법.
The method according to claim 1,
The tracking step S20
A current position estimation step (21) of receiving observation data and performing a measurement update (Estimation) of a current position using a linear measurement model; And
A next position prediction step (S22) of receiving a current position estimation result of the current position estimation step (S21) and predicting a next position using a linear motion model (Time update: Prediction);
/ RTI >
The current position estimation step S21
And estimating the current position by feeding back the prediction result of the next position prediction step (S22).
제1항에 있어서,
상기 데이터융합 단계(S30)는
전술객체와의 거리를 고려한 불편추정량 데이터 융합 기법인 다음식,
Figure pat00039

(여기서,
Figure pat00040
는 K개의 독립된 센서 시스템에서의 관측 결과,
Figure pat00041
는 K개의 센서들의 채널,
Figure pat00042
Figure pat00043
을 분산으로 가지는 잡음,
Figure pat00044
는 추정하고자 하는 벡터,
Figure pat00045
는 전술객체와의 잡음과 거리를 고려한 데이터 융합 결과,
Figure pat00046
는 k번째 레이더의 잡음 분산,
Figure pat00047
는 수신 SNR로 구한 상수,
Figure pat00048
는 레이더로부터의 상대적인 거리를 나타내는 상수)
을 이용하여 데이터를 융합하는 것을 특징으로 하는 불편추정량 데이터 융합 기법을 이용한 전술객체 위치 추적 방법.
The method according to claim 1,
The data convergence step (S30)
In this paper, we propose a data fusion method based on discrete estimators considering distance from tactical objects.
Figure pat00039

(here,
Figure pat00040
Is the result of observations in K independent sensor systems,
Figure pat00041
Is a channel of K sensors,
Figure pat00042
The
Figure pat00043
As noise,
Figure pat00044
Is a vector to be estimated,
Figure pat00045
The result of data fusion considering noise and distance to tactical object,
Figure pat00046
Is the noise variance of the kth radar,
Figure pat00047
Is a constant obtained by the reception SNR,
Figure pat00048
Is a constant indicating the relative distance from the radar)
Wherein the data is fused by using the discrete estimated data fusion method.
KR1020130137342A 2013-11-13 2013-11-13 Method for tracking of tactical object using unbiased data fusion algorithms KR20150055248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130137342A KR20150055248A (en) 2013-11-13 2013-11-13 Method for tracking of tactical object using unbiased data fusion algorithms

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130137342A KR20150055248A (en) 2013-11-13 2013-11-13 Method for tracking of tactical object using unbiased data fusion algorithms

Publications (1)

Publication Number Publication Date
KR20150055248A true KR20150055248A (en) 2015-05-21

Family

ID=53390888

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130137342A KR20150055248A (en) 2013-11-13 2013-11-13 Method for tracking of tactical object using unbiased data fusion algorithms

Country Status (1)

Country Link
KR (1) KR20150055248A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109982398A (en) * 2019-02-25 2019-07-05 广州市香港科大霍英东研究院 Indoor and outdoor seamless positioning method, device, equipment and medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109982398A (en) * 2019-02-25 2019-07-05 广州市香港科大霍英东研究院 Indoor and outdoor seamless positioning method, device, equipment and medium
CN109982398B (en) * 2019-02-25 2021-04-16 广州市香港科大霍英东研究院 Indoor and outdoor seamless positioning method, device, equipment and medium

Similar Documents

Publication Publication Date Title
US9223007B2 (en) Kalman filtering with indirect noise measurements
EP2972475B1 (en) Iterative kalman filtering
JP6328789B2 (en) Method and apparatus for determining angle of arrival (AOA) in a radar warning receiver
Chakraborty et al. Multipath exploitationwith adaptivewaveform design for tracking in urban terrain
CN108535720B (en) Adaptive process noise description for improved Kalman filtering target tracking
US20150241545A1 (en) Single Platform Doppler Geolocation
RU2660498C1 (en) Method of tracking of airborne maneuvering radiation sources according to angle information from airborne single-position electronic reconnaissance system
Dehghan et al. Aerial localization of an RF source in NLOS condition
Chen et al. TDOA/FDOA mobile target localization and tracking with adaptive extended Kalman filter
US8933836B1 (en) High speed angle-to-target estimation for a multiple antenna system and method
CN105116393A (en) Method for estimating flight height of high-altitude object and radar sectional area based on position fingerprint
Blueml et al. Bias compensated uwb anchor initialization using information-theoretic supported triangulation points
CN111505573A (en) Track generation method and device of distributed positioning system
Ulmschneider et al. Association of transmitters in multipath-assisted positioning
KR20150055248A (en) Method for tracking of tactical object using unbiased data fusion algorithms
KR101480834B1 (en) Target motion analysis method using target classification and ray tracing of underwater sound energy
KR20150055260A (en) Synchronization method of data acquisition time for the distributed search radar system
Liu et al. A method for non-line of sight identification and delay correction for UWB indoor positioning
RU2645006C1 (en) Method of testing the protection systems of objects from precision-guided munition
Merkulov et al. Estimation of the range and its derivatives in an active two-position radar system
Ciesielski et al. Analysis of Data Source Influence on Tracking Accuracy in Passive Radar
CN114488116B (en) 3D target tracking method based on two-part two-coordinate exogenous radar system
Sweeney et al. Air-to-air missile vector scoring
Fränken An approximate maximum-likelihood estimator for localisation using bistatic measurements
Mohammadzadeh BLSML: A Combined Passive Method for Target Position Estimation using Brown's Least Square Error and Maximum Likelihood with Integrated Optimization

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination