KR101567769B1 - Method for reducing acquisition time for searching a moving target through multi node cooperation based on network - Google Patents

Method for reducing acquisition time for searching a moving target through multi node cooperation based on network Download PDF

Info

Publication number
KR101567769B1
KR101567769B1 KR1020140020577A KR20140020577A KR101567769B1 KR 101567769 B1 KR101567769 B1 KR 101567769B1 KR 1020140020577 A KR1020140020577 A KR 1020140020577A KR 20140020577 A KR20140020577 A KR 20140020577A KR 101567769 B1 KR101567769 B1 KR 101567769B1
Authority
KR
South Korea
Prior art keywords
target
unmanned vehicle
path
unmanned
anticipated
Prior art date
Application number
KR1020140020577A
Other languages
Korean (ko)
Other versions
KR20150099076A (en
Inventor
백주현
류철형
최준성
김도종
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020140020577A priority Critical patent/KR101567769B1/en
Publication of KR20150099076A publication Critical patent/KR20150099076A/en
Application granted granted Critical
Publication of KR101567769B1 publication Critical patent/KR101567769B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 이동 표적의 탐지 기술에 관한 것으로서, 더 상세하게는 다수의 지상무인 차량 운용 환경에서 이동 표적의 진행방향을 예측 후 인접 무인차량에게 실시간 전파함으로써 표적 탐지 획득시간을 단축하고 임무 단절을 초래하는 상황을 미연에 예방할 수 있도록 하는 탐지 획득시간 단축 방법에 대한 것이다.More particularly, the present invention relates to a technology for detecting a moving target, and more particularly, it predicts the traveling direction of a moving target in a plurality of ground unmanned vehicle operating environments and then propagates the moving target to a near unmanned vehicle in real time to shorten the target detection acquisition time, This is a method of shortening the detection acquisition time so as to prevent the situation of the detection acquisition.

Description

네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법{Method for reducing acquisition time for searching a moving target through multi node cooperation based on network}[0001] The present invention relates to a method for reducing acquisition time of a moving target by using a network-based multi-

본 발명은 이동 표적의 탐지 기술에 관한 것으로서, 더 상세하게는 다수의 지상무인 차량 운용 환경에서 이동 표적의 진행방향을 예측 후 인접 무인차량에게 실시간 전파함으로써 표적 탐지 획득시간을 단축하고 임무 단절을 초래하는 상황을 미연에 예방할 수 있도록 하는 탐지 획득시간 단축 방법에 대한 것이다.More particularly, the present invention relates to a technology for detecting a moving target, and more particularly, it predicts the traveling direction of a moving target in a plurality of ground unmanned vehicle operating environments and then propagates the moving target to a near unmanned vehicle in real time to shorten the target detection acquisition time, This is a method of shortening the detection acquisition time so as to prevent the situation of the detection acquisition.

전장 환경에서는 위협세력이 다수이고, 위협의 레벨이 높을수록 단일 플랫폼에서 이들을 대응하기란 한계가 있다. 협동교전(Cooperative Engagement)의 개념은 작전구역내의 세력들 간의 협력 및 협조관계를 긴밀히 하여 자신뿐만 아니라 구역 내의 모든 플랫폼에 대한 방어능력 및 대응능력을 증가시키는데 목적을 두고 있다. There are many threats in the battlefield environment, and the higher the level of threat, the more difficult it is to deal with them on a single platform. The concept of Cooperative Engagement is aimed at increasing the ability to defend and respond to all platforms in the area, as well as within themselves, by closely cooperating and cooperating forces within the operational zone.

특히 지상 네트워크 중심 전에서의 임무수행능력을 극대화하기 위해서는 미래 전장에서 운용 예정인 다수의 무인 차량들간의 협동교전 운용 개념이 적용될 필요가 있다. 지상 환경에서는 지형지물 또는 장애물 등의 문제로 무인차량이 이동하는 표적을 감시할 경우 표적을 놓치는 상황이 자주 발생하고, 이로 인해 임무를 지속하는데 어려움이 발생할 수 있다. Especially, in order to maximize the ability to perform mission in the center of the ground network, it is necessary to apply the concept of cooperative engagement operation among a large number of unmanned vehicles scheduled to operate in the future battlefield. In the terrestrial environment, if the unmanned vehicle is moving due to problems such as topographical features or obstacles, it often happens that the target is missed, which may cause difficulties in maintaining the mission.

일반적인 플랫폼 기반 전장 환경에서는 표적에 대한 감시정찰 업무를 단일 무기체계 혹은 감시장비가 담당하므로 이동 표적이 해당 장비의 감시 영역으로 벗어날 경우 해당 표적의 위치를 신속하게 다시 파악하는데 어려움이 존재한다.In a typical platform-based battlefield environment, a single weapon system or surveillance equipment is responsible for the surveillance and reconnaissance service of the target. Therefore, when the mobile target deviates from the surveillance area of the corresponding equipment, there is a difficulty in quickly grasping the position of the target.

하지만 모든 무인체계가 네트워크 기반으로 연결되는 미래 전장 환경에서는 각 무인차량에서 획득한 정보를 이용한 융합처리를 통해 표적의 이동방향을 예측하여 인접한 다른 무인차량에 중요 표적의 감시 업무를 인계할 필요가 있다.However, in the future battlefield environment where all the unmanned systems are network-based, it is necessary to predict the moving direction of the target through convergence processing using the information acquired from each unmanned vehicle and to transfer the monitoring task of the important target to the adjacent unmanned vehicle .

또한, 단독으로 감시 정찰 임무를 수행할 경우 표적을 종종 놓치게 되는 상황을 극복할 필요가 있다. Also, when performing surveillance missions on a stand-alone basis, it is necessary to overcome situations where targets are often missed.

1. 한국등록특허번호 제10-1200747호1. Korean Registered Patent No. 10-1200747

1. 송재복외, "GPS 정보와 차선정보의 정합을 통한 이동로봇의 실외 위치추정"제어ㅇ로봇ㅇ시스템학회논문지 제18권 제6호 (2012년 6월) pp.594-600 1976-4529 KCI1. Song, Jae-Bok et al., "Estimation of Outdoor Position of Mobile Robot by Matching GPS Information and Lane Information" Control ㅇ Robot ㅇ Systems Journal Vol. 18, No. 6 (June 2012) pp.594-600 1976-4529 KCI

본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 다수의 지상무인 차량 운용 환경에서 이동 표적의 진행방향을 예측 후 인접 무인차량에게 실시간 전파함으로써 표적 탐지 획득시간을 단축하고 임무 단절을 초래하는 상황을 미연에 예방할 수 있도록 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법을 제공하는데 그 목적이 있다.The present invention has been proposed in order to solve the problem according to the above background art. The present invention predicts the traveling direction of a moving target in a plurality of ground unmanned vehicle operating environments, shortens the target detection acquisition time by real- The present invention provides a method for shortening the detection time of a moving target by network-based multi-node cooperation.

또한, 본 발명은 무인차량이 이동 표적을 탐지하는 과정에서 장애물에 의해 가려져 탐지가 불가능 할 경우 이를 미리 판단하여 인접 무인차량의 표적 탐지 획득시간을 단축하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법을 제공하는데 다른 목적이 있다.In addition, the present invention provides a method for detecting a moving target by network-based multi-node cooperation that shortens target acquisition time of an adjacent unmanned vehicle by preliminarily determining if the unmanned vehicle is obstructed by an obstacle in detecting a moving target, There are other purposes to provide a method of shortening the acquisition time.

또한, 본 발명은 이동 표적의 예상 궤적을 예측하고 해당 궤적 값인 위치값과 지향각도값을 타 무인차량에게 전송하여 탐지를 지속적으로 수행할 수 있도록 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법을 제공하는데 또 다른 목적이 있다.In addition, the present invention provides a method for detecting a moving target by a network-based multi-node cooperative operation in which a predicted trajectory of a moving target is predicted and a position value and a directional angle value corresponding to the trajectory value are transmitted to a non- There is another purpose in providing a time reduction method.

본 발명은 위에서 제시된 과제를 달성하기 위해, 다수의 지상무인 차량 운용 환경에서 이동 표적의 진행방향을 예측 후 인접 무인차량에게 실시간 전파함으로써 표적 탐지 획득시간을 단축하고 임무 단절을 초래하는 상황을 미연에 예방할 수 있도록 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법을 제공한다.In order to achieve the above-mentioned object, in order to achieve the above-mentioned object, it is desirable to predict the traveling direction of a moving target in a plurality of ground unmanned vehicle operating environments and to shorten the target detection acquisition time The present invention provides a method for shortening the detection time of the moving target by network-based multi-node cooperation.

상기 이동 표적의 탐지 획득시간 단축 방법은,The method for shortening the detection acquisition time of the moving target includes:

다수의 무인 차량이 특정 표적에 대한 표적 위치 정보를 생성하는 단계;Generating a plurality of unmanned vehicles with target location information for a particular target;

무인 차량 통제 장치가 생성된 표적 위치 정보를 수신하여 상기 특정 표적에 대한 추적 및 감시 연속성을 분석하는 단계;Analyzing the tracking and monitoring continuity of the specific target by receiving target position information on which the unmanned vehicle control device is generated;

분석 결과, 상기 무인 차량 통제 장치는 상기 특정 표적에 대한 추적 및 감시가 불가하면 상기 특정 표적의 이동 경로를 예측하여 표적 예상 경로를 생성하는 단계;If the unmanned vehicle control apparatus can not track and monitor the specific target, the unmanned vehicle control apparatus may generate a target anticipated path by predicting the movement path of the specific target.

상기 무인 차량 통제 장치가 다수의 무인 차량 중 생성된 표적 예상 경로의 주변에 있는 무인 차량을 탐색하는 단계; 및 The unmanned vehicle control apparatus searching for an unmanned vehicle around a target expected path generated among a plurality of unmanned vehicles; And

상기 무인 차량 통제 장치가 탐색된 무인 차량에 감시 지향각 정보를 전송하는 단계;를 포함하는 것을 특징으로 한다.And transmitting the monitoring orientation angle information to the unmanned vehicle detected by the unmanned vehicle control apparatus.

이때, 상기 표적 예상 경로는 최소 자승법(least square method)을 이용하여 산출되는 것을 특징으로 할 수 있다.In this case, the target expected path may be calculated using a least square method.

또한, 상기 표적 예상 경로는 상기 최소 자승법과 상기 특정 표적의 좌표를 이용하여 산출되는 속도를 기반으로 상기 특정 표적의 시간별로 예측된 경로인 것을 특징으로 할 수 있다.In addition, the target expected path may be a predicted path for each specific target based on the velocity calculated using the least squares method and the coordinates of the specific target.

또한, 상기 생성된 표적 예상 경로의 주변에 있는 무인 차량의 탐색은 해당 표적의 예상 진행 방향의 연장선과 인접한 다수의 무인 차량의 임무 장비 각도의 연장선이 교차하는 접점을 계산하여 상기 해당 표적에 보다 근접한 거리에 있는 무인차량을 선택하는 것을 특징으로 할 수 있다.Also, the search for the unmanned vehicle around the generated target anticipated path may be performed by calculating a contact point at which an extension line of the anticipated traveling direction of the target intersects with an extension line of the mission equipment angle of a plurality of unmanned vehicles adjacent to the anticipated traveling direction, And selecting the unmanned vehicle in the distance.

또한, 상기 생성된 표적 예상 경로의 주변에 있는 무인 차량의 탐색은 3차원 지도 정보를 이용하여 이루어지는 것을 특징으로 할 수 있다.In addition, the search for the unmanned vehicle around the generated target expected path may be performed using the three-dimensional map information.

또한, 상기 해당 표적의 예상 진행 방향의 연장선은 수학식

Figure 112014017309122-pat00001
(여기서, X,
Figure 112014017309122-pat00002
는 추정과정을 통해 얻어진 표적의 위치이고,
Figure 112014017309122-pat00003
는 일차방정식을 구성하는 계수이다.)에 의해 산출되는 것을 특징으로 할 수 있다.Further, an extension line of the predicted traveling direction of the target is expressed by the following equation
Figure 112014017309122-pat00001
(Wherein X,
Figure 112014017309122-pat00002
Is the position of the target obtained through the estimation process,
Figure 112014017309122-pat00003
Is a coefficient constituting a linear equation).

또한, 상기 생성된 표적 예상 경로는 디지털 지도 화면상에 디스플레이되는 것을 특징으로 할 수 있다. In addition, the generated target anticipated route may be displayed on a digital map screen.

본 발명에 따르면, 이동 표적의 경로 추정을 통해 표적의 인수인계 필요성을 판단할 수 있고 표적의 출현지점을 분석함으로써 표적의 탐지 획득시간을 단축 할 수 있게 되고 중요 표적에 대한 원활한 지속감시가 가능해 진다.According to the present invention, it is possible to determine the necessity of takeover of a target through path estimation of a moving target, and it is possible to shorten the detection acquisition time of the target by analyzing the appearance point of the target, and smooth continuous monitoring of the important target becomes possible .

또한, 본 발명의 다른 효과로서는 이로 인해 다수 무인차량에서 획득되는 디지털 전술 정보를 융합함으로써 단일 무인차량 운용시보다 정보 정확도 및/또는 가용성 등을 개선시킬 수 있어 협동 교전능력을 개선시킬 수 있다는 점을 들 수 있다. In addition, as another effect of the present invention, it is possible to improve information accuracy and / or availability and the like in a single unmanned vehicle operation by fusing digital tactical information obtained from a plurality of unmanned vehicles, .

도 1은 본 발명의 일실시예에 따른 이동 표적의 탐지 획득시간 단축 시스템(100)의 구성도이다.
도 2는 본 발명의 일실시예에 따른 표적 탐지 획득시간 단축 기능 수행을 위한 GUI(Graphic User Interface)의 화면예이다.
도 3은 본 발명의 일실시예에 따른 최소 자승법을 적용하여 표적 위치값(310)을 활용한 직선 방정식을 도출하는 개념도이다.
도 4는 본 발명의 일실시예에 따른 이동 표적의 경로를 예측하는 함수의 일예이다.
도 5는 본 발명의 일실시예에 따른 표적 탐지 가능 무인차량을 탐색하는 개념도이다.
도 6은 본 발명의 일실시예에 따른 디지털 지도화면에서 표적 예상 경로 전시를 통한 탐지 지속 가능 확인을 보여주는 예이다.
도 7은 본 발명의 일실시예에 따른 표적 탐지 획득시간 단축 관련 융합처리 절차도이다.
도 8은 본 발명의 일실시예에 따른 표적 탐지 획득시간 단축 관련 융합처리 검증을 위한 시험장비 구성도이다.
도 9는 본 발명의 다른 일실시예에 따른 결과 근사식의 그래프이다.
1 is a configuration diagram of a detection target acquisition time reduction system 100 according to an embodiment of the present invention.
FIG. 2 is an example of a GUI (Graphic User Interface) screen for performing a target detection acquisition time reduction function according to an embodiment of the present invention.
FIG. 3 is a conceptual diagram for deriving a linear equation using the target position value 310 by applying the least squares method according to an embodiment of the present invention.
4 is an example of a function for predicting a path of a moving target according to an embodiment of the present invention.
5 is a conceptual diagram for exploring a target detectable unmanned vehicle according to an embodiment of the present invention.
FIG. 6 is an example showing a detection sustainability confirmation based on a target predicted path display on a digital map screen according to an embodiment of the present invention.
FIG. 7 is a flowchart of convergence processing related to the target detection acquisition time reduction according to an embodiment of the present invention.
FIG. 8 is a configuration diagram of a test equipment for verification of convergence processing related to shortening of target detection acquisition time according to an embodiment of the present invention.
9 is a graph of a result approximate expression according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.Like reference numerals are used for similar elements in describing each drawing.

제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term "and / or" includes any combination of a plurality of related listed items or any of a plurality of related listed items.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Should not.

이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법을 상세하게 설명하기로 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a method for shortening a detection time of a moving target by network-based multi-node cooperation according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 이동 표적의 탐지 획득시간 단축 시스템(100)의 구성도이다. 도 1을 참조하면, 탐지 획득시간 단축 시스템(100)은 지상 무인 차량용 통제장치(110), 제 1 내지 제 3 무인 차량(121-a 내지 121-c)으로 구성되어 표적(122)을 감시 정찰하는 정찰 감시 네트워크(120) 및 이들을 연결하는 통신망(130) 등으로 구성된다.1 is a configuration diagram of a detection target acquisition time reduction system 100 according to an embodiment of the present invention. Referring to FIG. 1, the detection acquisition time reduction system 100 includes a ground unmanned vehicle control device 110, first to third unmanned vehicles 121-a to 121-c, A surveillance surveillance network 120, and a communication network 130 for connecting them.

지상 무인 차량용 통제장치(110)는 임무 통합 장치(111) 및 임무 통제 장치(112) 등으로 구성된다. 따라서, 임무 통제 장치(112)는 제 1 내지 제 3 무인 차량(121-a 내지 121-c)에 감시정찰 임무를 할당하여 각 무인차량(121-a 내지 121-c)이 임무를 수행토록 한다. 또한, 임무 통제 장치(112)는 영상 전시 화면(115)을 디스플레이에 출력한다. 물론, 임무 통제 장치(112)는 한 개 또는 그 이상으로 구성되며, 서로 연결되어 데이터 및/또는 제어 신호를 주고받을 수 있다. The ground unmanned vehicle control device 110 includes a mission integration device 111 and a mission control device 112. Accordingly, the mission control device 112 assigns surveillance and reconnaissance missions to the first to third unmanned vehicles 121-a to 121-c so that each unattended vehicle 121-a to 121-c performs the mission . In addition, the mission control device 112 outputs the video display screen 115 to the display. Of course, the mission control devices 112 may be composed of one or more, and may be connected to each other to exchange data and / or control signals.

임무 통합 장치(111)는 운용자(119)에게 정보를 제공하거나 운용자(119)의 지시를 임무 통제 장치(112)에 제공하는 기능을 수행한다. 또한, 임무 통제 장치(112)를 통합 제어하며, 수신되는 표적 위치 정보들로부터 해당 표적의 이동 방향을 추정하며, 수초 후까지 해당 표적을 지속적으로 감시할 수 있는지 분석한다.The task integration device 111 performs functions of providing information to the operator 119 or providing an instruction of the operator 119 to the mission control device 112. [ In addition, the mission control device 112 is integratedly controlled, the moving direction of the target is estimated from the received target position information, and the target is continuously monitored until several seconds afterwards.

통신망(130)은 공중교환 전화망(PSTN), 공중교환 데이터망(PSDN), 종합정보통신망(ISDN: Integrated Services Digital Networks), 광대역 종합 정보 통신망(BISDN: Broadband ISDN), 근거리 통신망(LAN: Local Area Network), 대도시 지역망(MAN: Metropolitan Area Network), 광역 통신망(WLAN: Wide LAN) 등이 될 수 있다, 그러나, 본 발명은 이에 한정되지는 않으며, 무선 통신망인 CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), Wibro(Wireless Broadband), WiFi(Wireless Fidelity), HSDPA(High Speed Downlink Packet Access) 망 등이 될 수 있다. The communication network 130 may be a public switched telephone network (PSTN), a public switched data network (PSDN), an Integrated Services Digital Network (ISDN), a Broadband Integrated Services Digital Network (BISDN), a Local Area Network However, the present invention is not limited to this, and may be applied to a wireless communication system such as a CDMA (Code Division Multiple Access) system, a wireless communication system, (WCDMA), Wireless Broadband (Wibro), Wireless Fidelity (WiFi), and High Speed Downlink Packet Access (HSDPA) networks.

이러한 상용 통신망 이외에도 무인차량을 통제하기 위한 무인체계 전용 통신망이 존재한다. 무인체계 전용 통신망은 Multi-hop OFDMA(Orthogonal Frequency Division Multiple Access) 통신방식으로 구성되며 기존의 통신방식 대비 스펙트럼 전송효율 및 통달거리 증대를 위한 4x4 다중입출력(MIMO) 신호처리 기술, 지휘통제차량 및 다수의 무인차량간 네트워크 구성 및 Ad-hoc 중계가 가능한 적응형 네트워크 기술이 가능하다.In addition to these commercial networks, there is a dedicated unmanned network for controlling unmanned vehicles. The unmanned system dedicated communication network consists of multi-hop OFDMA (Orthogonal Frequency Division Multiple Access) communication method, 4x4 multi-input / output (MIMO) signal processing technology for spectral transmission efficiency and communication distance compared to existing communication method, To-vehicle network configuration and an adaptive network technology capable of ad-hoc relaying are possible.

제 1 내지 제 3 무인 차량(121-a 내지 121-c)은 표적 탐지가 가능한 로봇으로 선택된 로봇이다. 제 1 내지 제 3 무인 차량(121-a 내지 121-c)은 임무 수행 중에 해당 장애물 및/또는 지형지물로 인하여 더 이상 임무(예를 들면 표적(122)의 탐지 등을 들 수 있음)를 수행할 수 없게 되면 관련 예측정보를 분석하여 장애물 및/또는 지형지물 지대로 진입 전에 무인 차량 통제 장치(110)에 분석정보를 송신한다. 이에 따라 무인 차량 통제 장치(110)는 운용자(119)에게 경고 알람을 보낸다. The first to third unmanned vehicles 121-a to 121-c are robots selected as targets capable of detecting a target. The first to third unmanned vehicles 121-a to 121-c may perform a mission (for example, detection of the target 122, etc.) due to the obstacle and / If not, analyzes the associated prediction information and transmits the analysis information to the unmanned vehicle control device 110 before entering the obstacle and / or feature area. Accordingly, the unmanned vehicle control apparatus 110 sends a warning alarm to the operator 119.

이 경우, 무인 차량 통제 장치(110)에서는 장애물에 의해 가려진 표적(122)을 탐지할 수 있는 다른 무인차량(121-a 내지 121-c)들에 대하여 최적의 감시 시계범위를 분석하여 해당 무인차량에 감시 지향각 정보를 전송한다.In this case, the unmanned vehicle control apparatus 110 analyzes the optimum monitoring clock range for the other unmanned vehicles 121-a to 121-c capable of detecting the target 122 hidden by the obstacle, And transmits the monitoring-oriented angle information.

무인차량(121-a 내지 121-c)은 이때 해당 무인차량의 관측시야각(FOV: Field Of View)을 변경하고 표적(122)의 장애물 지대 진입후의 표적 예상 경로를 전시하며 이를 통해 무인차량(121-a 내지 121-c) 간의 정보 교환을 통해 탐지가 지속 가능함을 확인한다.The unmanned vehicles 121-a to 121-c change the field of view (FOV) of the unmanned vehicle at this time and display the anticipated target route after entering the obstacle zone of the target 122, -a through < RTI ID = 0.0 > 121-c). < / RTI >

비록 장애물 및/또는 지형지물로 인해 표적감시가 불가하더라도 운용자에게 표적의 이동경로를 전시함으로써 표적의 경로를 감시할 수 있다. 이를 보여주는 도면이 도 2에 도시된다. 도 2는 본 발명의 일실시예에 따른 표적 탐지 획득시간 단축 기능 수행을 위한 GUI(Graphic User Interface)의 화면예이다. 도 2를 참조하면, 무인 차량(121-a 내지 121-c)에 의한 표적 정보 융합 정보 등이 디스플레이된다. 이러한 정보들로는 방위각, 거리, 이동 방향, 위치 보정 등을 들 수 있다.Although targets can not be monitored due to obstacles and / or features, it is possible to monitor the route of the target by displaying the route of the target to the operator. A diagram showing this is shown in Fig. FIG. 2 is an example of a GUI (Graphic User Interface) screen for performing a target detection acquisition time reduction function according to an embodiment of the present invention. Referring to Fig. 2, target information fusion information and the like by the unmanned vehicles 121-a to 121-c are displayed. Such information includes azimuth angle, distance, moving direction, and position correction.

표적(도 1의 122)이 장애물 지대를 빠져나올 때 표적탐지가 가능한 무인차량으로 선택된 무인차량이 표적을 탐지하게 되며 이후에 해당 표적(122)을 지속적으로 추적하게 된다.When the target (122 in FIG. 1) exits the obstacle zone, the unmanned vehicle selected as the unmanned vehicle capable of detecting the target detects the target, and then the target 122 is continuously tracked.

여기서 표적 예상 경로는 최소 자승법(least square method)을 통해 예측한다. 이와 함께 표적의 좌표를 이용하여 속도를 계산하고, 표적(122)의 표적 예상 경로 및 속도를 이용하여 표적의 시간 별 표적 예상 경로를 예측한다. Here, the predicted target path is predicted through the least square method. In addition, the velocity is calculated using the coordinates of the target, and the predicted target anticipated path of the target is predicted using the target predicted path and velocity of the target 122.

즉, 표적(122)의 위치값이 시간에 따라 지속적으로 추정되면 이 값을 활용하여 최적의 직선 방정식을 산출한다. 최적의 직선 방정식은 다음식과 같다.That is, if the position value of the target 122 is continuously estimated with time, the optimal linear equation is calculated by using this value. The optimal linear equation is as follows.

Figure 112014017309122-pat00004
Figure 112014017309122-pat00004

여기서, X,

Figure 112014017309122-pat00005
는 추정과정을 통해 얻어진 표적의 위치이고,
Figure 112014017309122-pat00006
는 일차방정식을 구성하는 계수이다.Here, X,
Figure 112014017309122-pat00005
Is the position of the target obtained through the estimation process,
Figure 112014017309122-pat00006
Is a coefficient constituting a linear equation.

이러한 최적의 직선 방정식을 달리 설명하면, 표적의 위치값이 시간에 따라 지속적으로 추정되면 이 값을 활용하여 최적의 직선 방정식을 산출하는 것이다.Describing this optimal linear equation in another way, If the position value of the target is constantly estimated over time, this value is used to calculate the optimal linear equation.

여기서 위치 값은 지도상의 좌표 값으로 하여 계산하였다. 추정된 위치 값에 대해 구하고자 하는 근사식을 f(x) = ax + b라고 가정한다. 오차의 제곱합은 다음식과 같이 나타낼 수 있다. Here, the position value was calculated as the coordinate value on the map. Let f (x) = ax + b be the approximate expression for the estimated position value. The sum of squares of the errors can be expressed as:

Figure 112014017309122-pat00007
Figure 112014017309122-pat00007

여기서 E를 최소화하는 f를 찾는 것이 최소 자승법이다. 다음은 관측된 4개 (n=4)의 표적 값을 활용하는 최소 자승법의 예이다. 여기서 계산과 결과 확인의 편의를 위해 수치를 간략화하였다. 각 좌표값은 다음과 같다.Here, finding f that minimizes E is least squares. The following is an example of the least squares method using four observed ( n = 4 ) target values. Here, numerical values are simplified for convenience of calculation and confirmation of results. Each coordinate value is as follows.

속성property 첫번째first 두번째second 세번째third 네번째fourth 합계Sum xx 22 33 55 66 1616 yy 33 55 66 88 2222 x2 x 2 44 99 2525 3636 7474 xyxy 66 1515 3030 4848 9999

위 좌표값 및 계산 값을 통해 아래의 두 식을 얻을 수 있다.The following two formulas can be obtained from the above coordinate values and calculated values.

Figure 112014017309122-pat00008
Figure 112014017309122-pat00008

Figure 112014017309122-pat00009
Figure 112014017309122-pat00009

위 두 식을 통해 a 는 1.1 그리고 b 역시 1.1의 값을 얻을 수 있다. 따라서 다음과 같은 결과 근사식을 얻을 수 있으며 그래프는 도 9와 같다.From the above two formulas, a can be obtained as 1.1 and b as 1.1. Therefore, the following approximate expression can be obtained and the graph is shown in FIG.

Figure 112014017309122-pat00010
Figure 112014017309122-pat00010

부연하면, 표적 탐지 가능한 무인차량의 탐색은 표적(도 1의 122)의 예상 진행 방향의 연장선(즉 최적의 직선)과 인접한 다른 무인차량들(도 1의 121-a 내지 121-c)의 탐지 가능 각도 연장선과의 접점을 계산한 후 접점 중 표적을 제일 빨리 탐지할 수 있는 접점의 무인차량을 선택하는 것이다. 이를 이해하기 쉽도록 도식적으로 표현한 것이 도 3이다. 즉, 도 3은 본 발명의 일실시예에 따른 최소 자승법을 적용하여 표적 위치값을 활용한 직선 방정식을 도출하는 개념도이다. 표적 위치값(310)으로부터 일정 거리를 이으면 하나의 직선(320)이 생성된다.In addition, the search for the target detectable unmanned vehicle can be performed by detecting the presence of other unattended vehicles (121-a to 121-c of FIG. 1) adjacent to the extension of the expected direction of travel of the target (122 in FIG. 1) After calculating the contact point with the possible extension line, it selects the contactless unmanned vehicle which can detect the target among the contacts as soon as possible. Fig. 3 is a diagrammatic representation for easy understanding. That is, FIG. 3 is a conceptual diagram for deriving a linear equation using a target position value by applying a least squares method according to an embodiment of the present invention. A straight line 320 is generated at a distance from the target position value 310.

도 4는 본 발명의 일실시예에 따른 이동 표적의 경로를 예측하는 함수의 일예이다. 물론, 이는 예시를 위한 것으로 다른 프로그래밍을 이용하여 함수를 생성하는 것도 가능하다.4 is an example of a function for predicting a path of a moving target according to an embodiment of the present invention. Of course, this is for the sake of example and it is also possible to create functions using other programming.

도 5는 본 발명의 일실시예에 따른 표적 탐지 가능 무인차량을 탐색하는 개념도이다. 도 5를 참조하면, 제 1 무인차량(121-a)이 탐지할 수 있는 관측 시야각(FOV: Field Of View)(500)은 탐지가 가능한 탐지 가능 범위(540)와 장애물(560) 및/또는 지형(570)으로 인행 탐지가 불가능한 탐지 불가능 범위(550)로 구성된다.5 is a conceptual diagram for exploring a target detectable unmanned vehicle according to an embodiment of the present invention. 5, a field of view (FOV) 500 that can be detected by the first unmanned vehicle 121-a includes a detectable range 540, an obstacle 560, and / And an undetectable range (550) in which landfall detection is impossible due to the terrain (570).

이 경우, 탐지 가능 범위(540)에서는 제 1 무인차량(121-a)을 이용하여 표적(122)에 대한 탐지를 수행한다. 탐지 불가능 범위(550)에서는 제 2 및 제 3 무인차량(121-b,121-c)을 이용하여 탐지를 수행한다. In this case, in the detectable range 540, the first unmanned vehicle 121-a is used to detect the target 122. [ In the undetectable range 550, detection is performed using the second and third unmanned vehicles 121-b and 121-c.

부연하면, 제 2 및 제 3 무인차량(121-b,121-c)의 임무장비 각도와 표적(122)의 표적 예상 경로(530)가 만나는 접점(510,530)을 이용하면 장애물(560) 및/또는 지형(570)에도 불구하고 탐지가 가능하다. The obstacle 560 and / or the obstacle 560 can be detected using the contacts 510 and 530 where the mission equipment angles of the second and third unmanned vehicles 121-b and 121-c meet the target predicted path 530 of the target 122, Or terrain 570, as shown in FIG.

도 6은 본 발명의 일실시예에 따른 디지털 지도화면에서 표적 예상 경로 전시를 통한 탐지 지속 가능 확인을 보여주는 예이다. 도 6을 참조하면, 탐지 영역(610,620,630) 및 장애물 지대(640)가 디지털 지도화면에 디스플레이된다.FIG. 6 is an example showing a detection sustainability confirmation based on a target predicted path display on a digital map screen according to an embodiment of the present invention. Referring to FIG. 6, the detection areas 610, 620, 630 and the obstacle area 640 are displayed on the digital map screen.

도 7은 본 발명의 일실시예에 따른 표적 탐지 획득시간 단축 관련 융합처리 절차도이다. 도 7을 참조하면, 임무 통제 장치(도 1의 112)를 통합 제어하는 임무 통합 장치(111)는 수신되는 표적위치들(710,720)로부터 해당 표적(122)의 이동 방향을 추정하며, 수초 후까지 해당 표적을 지속적으로 감시할 수 있는지 분석한다(730). 분석 정보로는 초기 탐지까지 추정시간, 초기 탐지를 위한 방위각 및 고각 등을 들 수 있다.FIG. 7 is a flowchart of convergence processing related to the target detection acquisition time reduction according to an embodiment of the present invention. Referring to FIG. 7, the mission integrating apparatus 111 for integrally controlling the mission control apparatus (112 in FIG. 1) estimates the direction of movement of the target 122 from the target positions 710 and 720 to be received, Analyze whether the target can be continuously monitored (730). Analysis information includes estimation time from initial detection, azimuth and elevation angle for initial detection.

만약 해당 표적에 대한 지속 탐지가 불가하면 특정표적에 대한 추적 유지를 위해 임무 통합 장치(111)는 해당 표적(122)의 이동 경로를 예측하여 주변의 다른 무인차량들이 탐지할 수 있는지 분석한다. 임무 통합 장치(111)는 표적의 이동경로 예측값과 3차원 지도 정보를 이용하여 표적을 가장 빨리 탐지할 수 있는 무인차량(도 1의 121-a 내지 121-c)을 탐색하여 특정 표적에 대한 추적 유지를 임무 통제 장치(1112)에 요청한다(740). If continuous detection of the target is impossible, the mission integrating unit 111 predicts the movement route of the target 122 and keeps track of a specific target, and analyzes whether the target unmanned vehicles can detect the target. The mission integrating device 111 searches for an unmanned vehicle (121-a to 121-c in FIG. 1) capable of detecting the target the earliest by using the travel route predictive value of the target and the three- And requests maintenance to the mission control device 1112 (740).

임무 통제 장치(112)는 그 탐색된 해당 무인차량(도 1의 121-a 내지 121-c)에 감시 지향각 정보 등을 전송하여 임무를 인계한다(750). 그로 인해 임무 단절 없이 무인차량이 수행해야 할 본연의 임무달성이 가능하게 된다(760,770). 표적 탐지 획득시간 단축을 위한 융합처리 결과는 3D 디지털 지도가 전시되는 임무상황화면을 통해 확인할 수 있다. The mission control device 112 transfers the monitoring orientation information to the detected unmanned vehicle (121-a to 121-c in FIG. 1) to take over the mission (750). This makes it possible to accomplish the mission of the unmanned vehicle without interrupting the mission (760,770). The convergence processing result for shortening the target detection acquisition time can be confirmed through the mission status screen on which the 3D digital map is displayed.

도 8은 본 발명의 일실시예에 따른 표적 탐지 획득시간 단축 관련 융합처리 검증을 위한 시험장비 구성도이다. 도 8을 참조하면, 전장 시뮬레이터(810)에서는 표적 위치 정보 오류 생성기(811)를 통해 가상무인차량들(821-a 내지 821-n)의 가상 표적(801)에 대한 표적 위치 정보를 생성하여 무인 차량 통제 장치(110)에 전달하며 통제장치는 표적 이동 경로 추정과 탐지 지속성을 분석하고, 가상무인차량별 정찰 가능한 영역을 분석하여 인접한 다른 무인차량이 임무를 지속할 수 있도록 한다. FIG. 8 is a configuration diagram of a test equipment for verification of convergence processing related to shortening of target detection acquisition time according to an embodiment of the present invention. 8, the electric field simulator 810 generates target position information for the virtual target 801 of the virtual unmanned vehicles 821-a to 821-n through the target position information error generator 811, To the vehicle control device 110. The control device analyzes the target movement route estimation and detection continuity and analyzes the area where the virtual unmanned vehicle can be scouted so that the adjacent unmanned vehicle can continue its mission.

100: 탐지 획득 시간 단축 시스템
110: 무인 차량 통제 장치
111: 임무 통합 장치 112: 임무 통제 장치
120: 정찰 감시 네트워크
121-a 내지 121-c: 무인 차량
122: 표적
130: 통신망
100: Detection acquisition time reduction system
110: Unmanned vehicle control device
111: Mission Integration Device 112: Mission Control Device
120: Reconnaissance Surveillance Network
121-a to 121-c: unmanned vehicles
122: Target
130: communication network

Claims (7)

다수의 무인 차량이 특정 표적에 대한 표적 위치 정보를 생성하는 단계;
무인 차량 통제 장치가 생성된 표적 위치 정보를 수신하여 상기 특정 표적에 대한 추적 및 감시 연속성을 분석하는 단계;
분석 결과, 상기 무인 차량 통제 장치는 상기 특정 표적에 대한 추적 및 감시가 불가하면 상기 특정 표적의 이동 경로를 예측하여 표적 예상 경로를 생성하는 단계;
상기 무인 차량 통제 장치가 다수의 무인 차량 중 생성된 표적 예상 경로의 주변에 있는 무인 차량을 탐색하는 단계; 및
상기 무인 차량 통제 장치가 탐색된 무인 차량에 상기 표적 예상 경로의 위치값 및 감시 지향각 정보를 전송하는 단계;
를 포함하되,
상기 생성된 표적 예상 경로의 주변에 있는 무인 차량의 탐색은 해당 표적의 예상 진행 방향의 연장선과 인접한 다수의 무인 차량의 임무 장비 각도의 연장선이 교차하는 접점을 계산하여, 현재 시점에서 상기 해당 표적을 탐색하지 못하나,일정시간 경과후 표적 탐색이 가능한 상기 해당 표적에 보다 근접한 거리에 있는 무인차량을 선택하는 것을 특징 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법.
Generating a plurality of unmanned vehicles with target location information for a particular target;
Analyzing the tracking and monitoring continuity of the specific target by receiving target position information on which the unmanned vehicle control device is generated;
If the unmanned vehicle control apparatus can not track and monitor the specific target, the unmanned vehicle control apparatus may generate a target anticipated path by predicting the movement path of the specific target.
The unmanned vehicle control apparatus searching for an unmanned vehicle around a target expected path generated among a plurality of unmanned vehicles; And
Transmitting the position value of the target expected path and the monitoring orientation angle information to the unmanned vehicle in which the unmanned vehicle control apparatus searches;
, ≪ / RTI &
The search for the unmanned vehicle around the generated target anticipated path is performed by calculating a contact point at which an extension line of the mission equipment angle of the plurality of unmanned vehicles adjacent to the extension line of the anticipated traveling direction of the target crosses, And selecting an unmanned vehicle that is located at a distance closer to the target that can not be searched but is capable of target searching after a predetermined time elapses.
제 1 항에 있어서,
상기 표적 예상 경로는 최소 자승법(least square method)을 이용하여 산출되는 것을 특징으로 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법.
The method according to claim 1,
Wherein the target expected path is calculated using a least square method. The method of claim 1, wherein the target expected path is calculated using a least square method.
제 2 항에 있어서,
상기 표적 예상 경로는 상기 최소 자승법과 상기 특정 표적의 좌표를 이용하여 산출되는 속도를 기반으로 상기 특정 표적의 시간별로 예측된 경로인 것을 특징으로 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법.
3. The method of claim 2,
Wherein the target expected path is a path predicted by time of the specific target based on the speed calculated using the least squares method and the coordinates of the specific target. Shortening method.
삭제delete 제 1 항에 있어서,
상기 생성된 표적 예상 경로의 주변에 있는 무인 차량의 탐색은 3차원 지도 정보를 이용하여 이루어지는 것을 특징으로 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법.
The method according to claim 1,
Wherein the searching of the unmanned vehicle around the generated target expected path is performed using the three-dimensional map information.
제 1 항에 있어서,
상기 해당 표적의 예상 진행 방향의 연장선은 수학식
Figure 112015069317747-pat00011


(여기서, X,
Figure 112015069317747-pat00012
는 추정과정을 통해 얻어진 표적의 위치이고,
Figure 112015069317747-pat00013
는 일차방정식을 구성하는 계수이다.)에 의해 산출되는 것을 특징으로 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법.
The method according to claim 1,
The extension line of the anticipated traveling direction of the target is calculated by the following equation
Figure 112015069317747-pat00011


(Wherein X,
Figure 112015069317747-pat00012
Is the position of the target obtained through the estimation process,
Figure 112015069317747-pat00013
Is a coefficient constituting a linear equation). ≪ RTI ID = 0.0 > 1, < / RTI >
제 1 항에 있어서,
상기 생성된 표적 예상 경로는 디지털 지도 화면상에 디스플레이되는 것을 특징으로 하는 네트워크 기반 다중 노드 협력에 의한 이동 표적의 탐지 획득시간 단축 방법.
The method according to claim 1,
Wherein the generated target anticipated path is displayed on a digital map screen.
KR1020140020577A 2014-02-21 2014-02-21 Method for reducing acquisition time for searching a moving target through multi node cooperation based on network KR101567769B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140020577A KR101567769B1 (en) 2014-02-21 2014-02-21 Method for reducing acquisition time for searching a moving target through multi node cooperation based on network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140020577A KR101567769B1 (en) 2014-02-21 2014-02-21 Method for reducing acquisition time for searching a moving target through multi node cooperation based on network

Publications (2)

Publication Number Publication Date
KR20150099076A KR20150099076A (en) 2015-08-31
KR101567769B1 true KR101567769B1 (en) 2015-11-11

Family

ID=54060315

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140020577A KR101567769B1 (en) 2014-02-21 2014-02-21 Method for reducing acquisition time for searching a moving target through multi node cooperation based on network

Country Status (1)

Country Link
KR (1) KR101567769B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101894242B1 (en) * 2016-08-24 2018-09-04 국방과학연구소 Method and appatatus for interlocking flight position information between tracking devices using position prediction technique

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101299134B1 (en) * 2012-03-19 2013-08-22 한국과학기술연구원 Searching system and method for moving targets in dynamic environment by cooperation of plural robots

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101299134B1 (en) * 2012-03-19 2013-08-22 한국과학기술연구원 Searching system and method for moving targets in dynamic environment by cooperation of plural robots

Also Published As

Publication number Publication date
KR20150099076A (en) 2015-08-31

Similar Documents

Publication Publication Date Title
CN105466421B (en) Mobile robot autonomous cruise method towards reliable WIFI connections
Guerra et al. Dynamic radar networks of UAVs: A tutorial overview and tracking performance comparison with terrestrial radar networks
Nguyen et al. Maintaining communication link for a robot operating in a hazardous environment
CN111044052B (en) Unmanned aerial vehicle self-adaptive navigation system and method based on intelligent sensing
KR20100007726A (en) Inertial measurement with an imaging sensor and a digitized map
US11881111B2 (en) Multiple object collision avoidance based on centralized coordination of vehicle operations
Dehghan et al. Optimal path planning for DRSSI based localization of an RF source by multiple UAVs
KR101701873B1 (en) Method for managing target of naval vessel combat system
KR101751333B1 (en) Method for calibrating target position of naval vessel combat system
Chai et al. Single landmark based collaborative multi-agent localization with time-varying range measurements and information sharing
CN114114368A (en) Vehicle positioning method, system, device and storage medium
Santoso A new framework for rapid wireless tracking verifications based on optimized trajectories in received signal strength measurements
Wu et al. UAV-based target tracking: Integrating sensing into communication signals
Rodrigues et al. Mobile robot localization in indoor environments using multiple wireless technologies
CN105467366A (en) Mobile platform cooperative locating device and mobile platform cooperative locating system
Goharimanesh et al. Optimum parameters of nonlinear integrator using design of experiments based on Taguchi method
Kim Three dimensional tracking of a maneuvering emitter utilizing doppler-bearing measurements of a constant velocity observer
KR101553896B1 (en) Intelligent surveillance system using robot and method therof
KR101567769B1 (en) Method for reducing acquisition time for searching a moving target through multi node cooperation based on network
Chen et al. TDOA/FDOA mobile target localization and tracking with adaptive extended Kalman filter
Zhao et al. Ultraviolet anti-collision and localization algorithm in UAV formation network
Kim et al. Airborne multisensor management for multitarget tracking
Jirků et al. WiFi localization in 3D
Hager et al. Cooperative target localization using heterogeneous unmanned ground and aerial vehicles
US10203418B2 (en) Method for estimating the position of a portable device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181102

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191015

Year of fee payment: 5