KR101236195B1 - Uav training simulator and the real-time simulation method and system for interworking - Google Patents

Uav training simulator and the real-time simulation method and system for interworking Download PDF

Info

Publication number
KR101236195B1
KR101236195B1 KR1020120080299A KR20120080299A KR101236195B1 KR 101236195 B1 KR101236195 B1 KR 101236195B1 KR 1020120080299 A KR1020120080299 A KR 1020120080299A KR 20120080299 A KR20120080299 A KR 20120080299A KR 101236195 B1 KR101236195 B1 KR 101236195B1
Authority
KR
South Korea
Prior art keywords
uav
unit
information
image
real
Prior art date
Application number
KR1020120080299A
Other languages
Korean (ko)
Inventor
김형세
김종필
오철홍
정재우
김영국
이문환
정찬석
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020120080299A priority Critical patent/KR101236195B1/en
Application granted granted Critical
Publication of KR101236195B1 publication Critical patent/KR101236195B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/42Aircraft, aircraft simulator or means connected thereto, travelling on the ground or water during simulated flight training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • G09B19/165Control of aircraft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A link method of a real-time unmanned spy plane image simulator and a training simulation and a system thereof are provided to uplift a fighting power of a group by solving all limitations for real-time link between a simulation and a simulator. CONSTITUTION: A UAV engine processor(10) comprises a UAV damage processing terminal(11), a troops data for transmitting terminal(12) generating the information of a fixed object and a moving object, and a UAV data receiving terminal(13) for processing the current location information of UAV. A UAV operator(20) transmits information processed in a UAV engine processor to a UAV control processor set through a computer network. A UAV operator controls the direction and angle of a UAV sensor and the screen size which can be zoomed in and out with a control and adjustment device(40) by determining a rule displayed through a UAV control processor. A UAV operator displays information which processes unit information in the screen size by a UAV engine processor on a UAV screen display part and inputs a configuration and connection information connecting with a UAV engine processor by using a setting part(24). An enlarged image display terminal(50) transmits the image of a UAV screen display part through a remote image transmission group and displays the transmitted image. [Reference numerals] (10) UAV system; (100) Main model; (11) Developing a UAV damage processing terminal[citing existing information model logic]; (12) Transmitting GT[corps information] - generating fixed object, moving object information; (13) Receiving UAV information(such as location information); (AA) Command station; (BB) Image communication; (C1,C2,C3) Additional information; (D1,D2,DE) UAV state information; (EE) UAV simulation group

Description

실시간 무인첩보기 영상 시뮬레이터와 훈련시뮬레이션의 연동 방법 및 그 시스템{UAV training simulator and the real-time simulation method and system for interworking.}Interlocking method and system of real time unmanned image simulator and training simulation {UAV training simulator and the real-time simulation method and system for interworking.}

워게임 및 군사 전술/전략 시뮬레이션간의 상호 연동을 위해서는 부대(객체)들간의 상황 모두를 상호 연동하고 있어야 한다. 그러나, 시뮬레이션간의 연동에도 많은 데이터 전송량으로 인해 연동간에 실시간 전송이 상당한 애로사항으로 해결해야 하는 과제이다. Interaction between wargames and military tactics / strategy simulations requires interlocking all situations between units. However, due to the large amount of data transmission even in the interworking between simulations, the real-time transmission between the interworkings has to be solved with considerable difficulties.

시뮬레이터는 실시간에 변화되는 데이터를 수신받고 그 처리를 영상을 통해 훈련자가 판단과 처리를 수행하고, 실시간 처리 결과를 상호 연동되어 있는 시뮬레이터 또는 시뮬레이션에 전송해야 한다. The simulator should receive the data that is changed in real time, perform the processing and judgment by the trainer through the image, and transmit the real-time processing results to the interlocked simulator or simulation.

이를 위해, 시뮬레이터가 처리하는 데이터만을 재가공하여 부대(객체) 전송에 부하량을 감소시키는 방법을 적용하고, 감지기 범위내의 3차원 지형을 실시간 처리하면서 각종 실제 전투상황과 동일한 요소로 표시 할 수 있는 시스템을 구성한다.To this end, we apply a method to reduce the load on troop (object) transmission by reprocessing only the data processed by the simulator, and process the 3D terrain within the detector range in real time while displaying the same elements as in various combat situations. Configure.

또한, 군사 시뮬레이션에 부합되는 전술적인 요소를 시뮬레이터의 시스템내에서 처리한다.   In addition, tactical elements that correspond to military simulations are processed in the simulator's system.

상기와 같은 군사 전술적인 요소는 시뮬레이터의 조종장치로 조작 및 통제할 수 있게 함으로 실제 UAV 운용장비와 동일한 운영방법을 적용한다.  The military tactical elements as described above can be operated and controlled by the control device of the simulator, thereby applying the same operating method as the actual UAV operating equipment.

각종 군사 시뮬레이션에서 시뮬레이션간의 연동은 진행하고 있으나, 국제적인 규약으로 정의되어 있는 통제규칙(Rule)에 의한 연동만을 강조하고 있고, 그에 따라 정보 송수신량이 정하여 진 상태로 일정 시간내에 전송되어지는 정보로만 처리하고 있다.In various military simulations, interworking between simulations is in progress, but it emphasizes only interlocking by the rules defined by international conventions, and accordingly processes only the information transmitted within a certain time with a fixed amount of information transmission and reception. have.

시뮬레이터로 운영되어야 할 부분을 시뮬레이션 내부의 하나의 기능으로 운영함으로 상황이 처리된 결과만으로 훈련을 하고 있는 실정이다.By operating the part that should be operated by the simulator as a function inside the simulation, the situation is being trained only with the result of processing the situation.

그 내부에서 운영되고 있는 기능으로는 자산의 특성에 일치하는 모의 논리를 적용하여 첩보를 수집한 후 첩보 요청 부대에 보고서의 형태로만 제공되다보니, 실전성이 결여되고 있으며, 컴퓨터 및 정보기술의 획기적 발전, 기존모델 성능개선 한계시점 도래, 전장환경 (적, 지형, 기상)의 사실적 묘사가 지속적으로 요구되고 있으나, 상기와 같이 허용되어지는 일정시간내의 정보는 시뮬레이터가 받아 운영되기 때문에 첫째는 부대객체의 모든 행위가 실시간 지향이나 이벤트 드리븐 설계로 되어 있어서 단위 객체의 실시간 묘사에 문제가 있고, 둘째는 지휘반응 시간(부대이동시 준비시간, 방어 시 준비시간 등)이 고려되지 않아서 실체계와의 차이가 발생하며, 섯째는 전장환경은 국지기상 적용이 아닌 전역 기상이 적용되고, 지도 축적은 1:5만이 최소 축적이어서 실 체계를 묘사하는데 한계가 있다. 넷째는 필요시 처리속도를 2배속 이상 진행할 수 있으므로 인하여 현실 세계와 거리가 있다. The functions that are operated in the inside are collected by applying simulation logic that matches the characteristics of the assets, and then provided to the intelligence request unit only in the form of reports, which lacks practicality and breakthroughs in computer and information technology. Development, performance improvement of the existing model, the arrival of the limit point, and realistic description of the battlefield environment (red, terrain, weather) is constantly required, but as the information within the allowable time as described above is operated by the simulator, All behaviors of the system are real-time oriented or event-driven design, so there is a problem in the real-time description of the unit object. Second, the command response time (preparation time for troop movement, preparation time for defense, etc.) is not taken into account. Sixth, the battlefield environment is applied to the global weather, not to the geospatial application, and map accumulation is at least 1: 5. There is a limit to ever come depict the actual system. Fourth, because the processing speed can be more than doubled if necessary, there is a distance from the real world.

이러한 문제점의 시뮬레이션은 실시간의 묘사를 중시하는 시뮬레이터와 같은 시스템에서는 많은 문제점을 갖고 있다. Simulation of such problems has many problems in systems such as simulators that emphasize real-time depiction.

또한, 상호 시뮬레이터와 시뮬레이션의 연동을 고려하지 않은 상태에서는 첫째는 관리 가능한 부대객체수가 제한되어(2000개 미만) 있어 대규모 시뮬레이션과의 연동이 제한되고, 둘째는 시뮬레이션에서 발생되는 행위를 묘사할 수 없는 경우가 많다. (부대이동 시 지뢰지대에 의한 지연현상 등) 셋째는 시뮬레이션의 모든 장비를 묘사할 수 없다(다른 장비로 대체묘사).In addition, without considering mutual simulator and simulation interoperability, firstly, the number of subsidiary objects that can be managed is limited (less than 2000), so interlocking with large-scale simulation is limited, and second, it is impossible to describe the behavior occurring in the simulation. There are many cases. Third, it is impossible to describe all the equipment in the simulation (replacement with other equipment).

시뮬레이터 및 라이브를 구현하는 시스템에서는 훈련자 또는 운영자의 훈련참여가 필요로 하는 구성이라서 어떠한 데이터라도 실시간 처리 및 결과 값으로 운영되어야 하는 특징을 갖고 있어야 한다.   Systems that implement simulators and live must have the characteristics that any data needs to be run in real time and resulted in a configuration that requires the participation of a trainer or operator.

그러나, 상기와 같은 시뮬레이터와 시뮬레이션의 시스템간 연동이 구체적으로 실현된 실시간 전송되는 시스템은 아직 없는 상태이고, 상호 연동을 고려하지 않는 가운데 독자적인 시스템 운영으로만 개발되어 있는 상태이다.     However, there is no real-time transmission system in which the interworking between the simulator and the system of the simulation is specifically realized, and is developed only by the independent system operation without considering the interworking.

현재는 상호 실시간에 필요로 하는 정보를 연동되어져야 하는 요구는 증대되고 있으며, 시뮬레이션이 추구하고 있는 각종 모의논리에 맞는 운영이 될 수 있는 영상을 표시되는 시뮬레이터가 필요한 실정이다.At present, the demand for interlocking the information needed in real time with each other is increasing, and there is a need for a simulator that displays images that can be operated in accordance with various simulation logics pursued by simulation.

시뮬레이터 체계가 시뮬레이션 체계와의 실시간 데이터 연동을 위해 시뮬레이션에서 처리되는 실시간 부대(객체)단위 정보를 개별 객체단위로 정보처리 버퍼기능을 적용하고, 처리되는 데이터를 시뮬레이터에서 필요한 정보로 재처리하여 시뮬레이터가 필요로 하는 모든 정보를 시뮬레이션으로부터 수신 할 수 있도록 구성한다. The simulator system applies the information processing buffer function to individual object units of real-time incidental (object) unit information processed in the simulation for real-time data interworking with the simulation system, and reprocesses the processed data into necessary information from the simulator. Configure all the necessary information from the simulation.

시뮬레이션 부분에서는 별도의 부대객체의 모든 행위가 실시간 지향이나 이벤트 드리븐 설계로 된 단위 객체의 실시간 묘사를 처리하도록 하고, 지휘반응 시간(부대이동시 준비시간, 방어 시 준비시간 등)이 고려될 수 있도록 실체계와의 연계성을 갖도록 하며, 전장환경은 국지기상 적용이 되어도 해당 비행체의 기상으로 전환하여 적용되어 각종 논리가 적용될 수 있게 한다. 추가로 필요시 처리속도를 2배속 이상 진행하여도 해당 객체만을 관리하게 한다.  In the simulation part, all the actions of a separate unit object handle the real-time depiction of the unit object with real-time orientation or event-driven design, and the command response time (preparation time for troop movement, preparation time for defense, etc.) can be considered. The system is connected to the system, and the battlefield environment is applied to the weather of the aircraft even if it is applied to the national ground so that various logics can be applied. In addition, if necessary, it manages only the object even if the processing speed is progressed more than 2 times.

상기 시뮬레이션과 동일한 시간대에 상호 연동이 되기 위한 시뮬레이터는 관리 가능한 부대객체수가 제한되어(2000개 미만) 있는 통상적인 시스템 능력으로도 감지기의 성능 범위내에서 실시간 연동이 될 수 있는 부하량을 감소한 정보관리를 실시한다.   The simulator for interworking in the same time zone as the simulation is designed to reduce the amount of load that can be interlocked in real time within the performance range of the detector, even with the normal system capability with a limited number of manageable incident objects (less than 2000). Conduct.

또한, 시뮬레이터의 실시간 영상표시와 시뮬레이션에서 적용되어진 전술을 수신한 정보만으로도 구현할 수 있는 UAV 영상 시뮬레이터만의 방법을 적용한다.   In addition, the method of the UAV video simulator that can be implemented only by the information received in the real-time video display of the simulator and the tactics applied in the simulation is applied.

시뮬레이션이 부대(객체)단위로 실시간 외부 시스템(UAV 영상 시뮬레이터)에 전송되어야 전송 데이터의 부하량을 감소시킬 수 있는 처리방법을 발명하고, 시뮬레이션 처리부외에 시뮬레이터와의 정보 교환을 담당하는 처리단을 구성한다.Invents a processing method that can reduce the load of transmission data when the simulation is transmitted to a real-time external system (UAV video simulator) in units of units, and constitutes a processing unit in charge of exchanging information with the simulator in addition to the simulation processing unit. .

상호 연동되어 처리된 결과 값을 송수신하는 정보를 정의하고, 수신되어진 데이터로 3차원 영상을 조정, 표시하면서 UAV의 각종 처리화면을 통해 전술적인 교리를 적용(실시간 기상으로 인한 UAV 비행체 영향, 상공에서 바라본 각 객체의 3차원 표시 및 지형 차폐, 각 객체의 전술적인 이동 능력, 시뮬레이션에서 처리된 객체의 상태에 맞는 호면 표시 등)하여 수신받은 데이터를 처리하여 훈련자에 표시하 며, 처리된 데이터의 저장과 해당 UAV운용 장비와 동일한 기능을 시뮬레이터에 적용한다.   Define the information that transmits and receives the processed values interlocked with each other, and applies tactical doctrines through various processing screens of UAV while adjusting and displaying three-dimensional images with the received data. 3D display and terrain shielding of each object viewed, tactical movement ability of each object, and display of a road surface according to the state of the object processed in the simulation, etc. to process the received data and display it to the trainer, and to store the processed data. And the same function as the corresponding UAV operating equipment is applied to the simulator.

시뮬레이션과 시뮬레이터간의 실시간 연동에 제한사항을 모두 해결할 수있어 유사한 개발과제에 신기술 지원이 강화되며 각 훈련체계를 연동시키는 기술적 성과와 실전훈련과 동일한 효과를 얻을 수 있어 군의 전투력 증강에도 큰 효과가 있을 것이다.It can solve all the limitations in the real-time linkage between the simulation and the simulator, so that new technology support is strengthened for similar development tasks, and the same effect as the technical achievements and practical training for linking each training system can have a great effect on increasing the military's combat power. will be.

도 1은 UAV영상 시뮬레이터와 시뮬레이션의 연동 시스템 체계도
도 2는 UAV엔진처리부의 내부 기능처리 연관도
도 3은 비행체가 영상감지기로 부대(객체)를 확인하는 영상도
도 4는 부대(객체)의 전송되는 데이터량의 부하를 감소하기 위한 구상도
도 5는 UAV 운영부의 기능 구성도
도 6은 접속구분입력부와 임무부여부의 구성도
도 7은 부대(객체) 이동 또는 전개시 대형 간격을 유지하고 표시되는 구성도
도 8은 밀집되어 있는 부대(객체)간의 객체를 이격하여 표시하는 영상도
도 9는 이동되는 부대(객체)간 전술적인 이동간격으로 이격되어 표시되는 영상도
도 10은 객체상세정보표시부를 포함하는 UAV화면표시부(22)의 구성도
도 11은 UAV영상 시뮬레이터와 시뮬레이션의 연동 방법을 나타내는 과정도
1 is a system diagram of the interlocking system between a UAV video simulator and a simulation
2 is a related diagram of internal functional processing of the UAV engine processing unit;
3 is an image of the aircraft to check the unit (object) with an image sensor
4 is a conceptual diagram for reducing the load of the amount of data transmitted to the unit (object)
5 is a functional configuration diagram of the UAV operation unit
6 is a block diagram of a connection classification input unit and a mission grant unit;
7 is a configuration diagram that is displayed while maintaining a large gap when moving or deploying the unit (object)
FIG. 8 is an image diagram showing objects spaced apart from each other in a concentrated unit (object)
9 is an image diagram that is displayed spaced apart by the tactical movement interval between the moving unit (object)
10 is a configuration diagram of a UAV screen display section 22 including an object detail information display section.
11 is a process diagram showing a method of linking a UAV video simulator and a simulation;

시뮬레이션 모델인 oo모델(100)은 정보수집을 위하여 KICM모델(KICM : Korean Intelligence Collection Model)(200)을 운영하고 있으나, KICM(200)은 자산의 특성에 일치하는 모의 논리를 적용하여 첩보를 수집한 후 첩보 요청 부대에 보고서의 형태로만 제공되다보니, 실전성이 결여되고 있으며, 컴퓨터 및 정보기술의 획기적 발전, 기존모델 성능개선 한계시점 도래, 전장환경 (적, 지형, 기상)의 사실적 묘사가 지속적으로 요구되고 있다.The oo model 100, a simulation model, operates a KICM model (KICM) (200) for collecting information, but the KICM (200) collects intelligence by applying simulation logic that matches the characteristics of assets. looked at one after intelligence requested troops be provided only in the form of reports, practical castle has been lacking, there is a factual description of the dramatic development of computer and information technology, existing models improve performance limit time comes, battlefield environment (enemy, terrain, weather) There is a constant demand.

이러한 문제를 해결하기 위해 육군에서는 실기동-가상-워게임 체계(이하 L-V-C)간의 연동을 위해 여러 관점에서 시도하고 있으나 표준화된 방법론이나 사례가 없어서 시뮬레이션모델인 oo모델과 시뮬레이터 모델인 UAV영상모델간의 V-C연동을 개발하였다.In order to solve this problem, the Army is trying from several perspectives for interworking between the real mobile-virtual-wargame system (hereinafter referred to as LVC), but there is no standardized methodology or example, so there is no standardized method between the oo model and the UAV image model. VC linkage was developed .

참고로 KICM : Korean Intelligence Collection Model(200)을 설명하면 For reference, KICM: Korean Intelligence Collection Model (200)

대부대급 훈련간 oo모델의 내부에서 시행되는 모델로써, 훈련부대가 보유한 첩보 수집 자산의 특성과 첩보 수집명령에 의거 첩보를 수집, 처리, 전파하는 정보상황을 묘사한다. 따라서 KICM모델은 대부대급 훈련동안 훈련부대에 전출처정보 기능수단을 제공한다. It is a model implemented inside the oo model between godfathers and describes the characteristics of intelligence collection assets possessed by training units and the information situation of collecting, processing and disseminating information based on intelligence collection orders. Therefore, the KICM model provides the source with information transfer functions during the training of the troops.

KICM모델을 운용하는 목적은 실시 부대의 지휘관, 정보 관계자 및 게임어에게 첩보를 제공하기 위한 것으로 정KICM모델 엔진에 의해 자동적으로 첩보 수집 상황이 묘사되며, 실전과 거의 유사하게 첩보 수집자산이 운용된다. 현재 정보수집모델에서 모의 가능한 자산은 통신, 전자, 영상, 지상감시레이더(GSR), 해안레이더 및 무인항공기 등이며 첩보명령은 지상임무와 항공임무로 운용/모의된다. The purpose of operating the KICM model is to provide intelligence to commanders, intelligence officials, and gamers of the unit, and the intelligence collection situation is automatically described by the static KIMC model engine, and the intelligence collection asset is operated in almost the same way as in practice. . The assets that can be simulated in the current information collection model are telecommunications, electronics, video, ground surveillance radar (GSR), coastal radar and unmanned aerial vehicles, and intelligence orders are operated and simulated by ground and air missions.

정보 생산의 운용 기본 절차는 실시부대가 보유한 첩보 수집자산의 특성에 따라 첩보 수집 계획을 작성하여 정보수집모델에 요청하고, KICM모델은 자산의 특성에 일치하는 모의 논리를 적용하여 첩보를 수집한 후 첩보 요청 부대에 보고서(텍스트 형태)로 전달된다.The basic procedure of information production is to prepare an intelligence collection plan according to the characteristics of the intelligence collection assets possessed by the execution unit and request the information collection model, and the KICM model collects the intelligence by applying simulation logic that matches the characteristics of the assets. It is delivered as a report (in text form) to the intelligence request unit.

상기와 같이 부대단위로 묶어져 그 상태를 보고서 형태로 전파되어 실전성이 결여 되어 했다치고의 상황조치훈련으로만 거치고 있는 실정이다.As described above, the situation is spread in the form of a report unit, and the status is transmitted as a report form.

본 발명은 부대가 소유하고 있는 각 무기체계의 외형을 각각의 객체들로 구분하여 움직이는 각각의 객체별 위치를 전술교리에 맞게 생성하고 이를 oo모델(100)에서 운영하고 있는 기타의 부대(객체)와의 전투묘사가 될 수 있게 주변모델로써의 운영이 될 수 있도록 상호 연동간의 부하량을 최대한 축소하면서 해당 시뮬레이터에서도 끊어짐 없는 영상을 지원하기 위해 개별 객체로 영상을 생성하게 하였다. According to the present invention, the appearance of each weapon system owned by the unit is divided into individual objects to create positions for each object moving according to the tactical doctrine, and the other units (objects) operated by the oo model 100. In order to be able to operate as a surrounding model to be able to be described as a battle with the maximal reduction of the load between the interworking to create a video as an individual object to support the seamless image in the simulator.

도 11은 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 방법을 단계화 구분하여 나타낸 과정도이다. 11 is a process diagram illustrating a step-by-step classification of a method of linking a real-time UAV image simulator and a training simulation.

이를 구분하여 상세히 설명하면, UAV엔진처리부(10)와 UAV운영부(20)를 상호 접속하는 단계(s100)로 도 6에서 UAV운영부(20)의 접속구분입력부(57)와 임무부여부(56)로 UAV엔진처리부(10)와 UAV운영부(20)를 상호 접속하게 한다. 다수의 UAV운영부(20)를 운영하기 위해서는 접속구분입력부(57)의 선택되어지는 특정 시스템을 구분하여 접속하게 한다.  In detail, this will be described in detail. In operation S100 of connecting the UAV engine processing unit 10 and the UAV operating unit 20 to FIG. 6, the connection classification input unit 57 and the mission granting unit 56 of the UAV operating unit 20 are illustrated. The UAV engine processor 10 and the UAV operator 20 are interconnected. In order to operate a plurality of UAV operating unit 20 to be connected to the specific system selected by the connection classification input unit 57 is separated.

도 1 및 도2 는 UAV엔진처리부의 내부 기능처리 연관도을 포함한 대부대모델에 접속한 시스템 체계도를 설명한 것으로 훈련용 대부대모델(100)에 각 하위 서버로 정보를 송수신하는 네트워크 서버(101)를 통해 네트워크 서버로부터 정보를 수신 받아 처리하는 중간서버(102)까지 전송되어 운영되는 대부대 훈련 시스템에서 특정 시뮬레이터를 접속을 위해 훈련용 대부대모델내 정보기능 처리단(200)을 통해 처리된 각종 정보를 UAV운영부(20)에 상호 실시간 전송처리한다.  1 and 2 illustrate a system diagram connected to a godfather model including an internal function processing association diagram of the UAV engine processing unit through a network server 101 for transmitting and receiving information to each subordinate server in the training godfather model 100. The UAV operator sends various information processed through the information function processing unit 200 in the training bag model for accessing a specific simulator in the battalion training system that is transmitted and operated up to the intermediate server 102 that receives and processes information from the network server. The real-time transmission process is performed at 20.

부대정보송신단(12)은 무수히 많은 부대내에 전투장비와 전투지원장비 및 보급품(이하 부대(객체))들을 보유하고 이를 한 묶음으로 하나의 위치정보를 통해서 기타의 개별 부대와 전투상황을 묘사하고 있는 것을 부대가 보유하고 있는 개별의 단위 객체를 구분하여 별도로 객체별로 위치정보를 생성하고 그 생성된 정보를 UAV엔진처리부(10)의 각종 운용방법과 표시방법을 개별 객체별로 지원하게 한다. The unit information transmitter (12) holds combat equipment, combat support equipment, and supplies (hereinafter referred to as units) within a myriad of units and describes them as a bundle to describe other individual units and combat situations through a single location. It separates the individual unit objects held by the unit to generate location information for each object separately, and to support the generated information of the operation method and display method of the UAV engine processing unit 10 for each individual object.

임무부여된 지점과 비행경로를 UAV엔진처리부(10)로 전송하는 단계(s200)로써 도 3은 UAV운영부(20)에서 내부에서 운영되어지는 비행체(e1)의 아랫부분에 장착되어 운영되어지는 영상감지기(e2)를 직접 나타낸 것으로 영상감지기가 조정기에 의해 원격으로 좌우 상하로 조정되어 영상의 줌인 및 줌아웃, 확대 및 축소를 시켜 영상에 나타나는 객체의 3차원 투영된 모습을 감시하기 위한 것이다.   As a step (s200) of transmitting the mission point and the flight path to the UAV engine processing unit 10, FIG. 3 is an image operated by being mounted on the lower part of the aircraft e1 that is operated in the UAV operating unit 20. The sensor (e2) is shown directly to monitor the three-dimensional projection of the object appearing in the image by adjusting the image sensor to the left and right, up and down remotely by the adjuster to zoom in, zoom out, zoom in and out of the image.

도 4에서 보는 바와 같이 영상감지기(e2) 감시범위에 따른 부대(객체) 전시여부 결정과 초기자료를 UAV 정보 수신단(13)에서 UAV운영부(20)로 전송하며, 도 2에서의 시뮬레이션과 시뮬레이터간의 연동 처리되는 주요 구성요소를 연관시킨 도면을 통해 부대정보송신단(12)에서는 훈련용 대부대모델(100)의 전송 주기인 2분주기의 부대현황을 1초단위의 변환된 부대내 소고된 단위 객체 정보로 재생성하며, UAV엔진처리부(10)에서는 UAV 정보 수신단에서 수신한 전시여부 결정과 초기자료를 이용하여 적 부대와 모의교전된 결과(Kill, Non-Kill)를 UAV 피해처리단(11)에서 UAV운영부(20)로 전송하고 그 교전결과가 Kill 이면 운영되고 있는 화면을 다운시킨다.  As shown in FIG. 4, the determination of whether to display the unit (object) according to the monitoring range of the video sensor (e2) and initial data is transmitted from the UAV information receiving unit 13 to the UAV operating unit 20. The unit information transmitting unit 12 transmits the unit status of the second divider, which is the transmission period of the training godfather model 100, to the converted unit object information in the converted unit of 1 second through the drawing in association with the main components to be interworked. The UAV engine processing unit 10 reproduces the result (Kill, Non-Kill) that is simulated with the enemy unit using the determination of whether or not the exhibition is received from the UAV information receiving unit and initial data. Transfer to the operation unit 20 and if the engagement result is Kill down the running screen.

또한, 대부대 훈련 모델(100)에서는 실시간 변환된 객체로 부대전개(역삼각대, 삼각대, 횡대, 종대)된 부대(객체)의 정보와 부대(객체)가 이동하는 위치정보를 생성하며, 도7과 같이 부대배치간 중복된 객체는 도 8과 같이 일정간격으로 상호 이격하여 배치 시켜 표시하고, 도 9와 같이 이격되어 이동되는 객체의 정보가 생성토록 객체별의 위치정보를 생성한후, 부대정보송신단(12)으로 보낸다.   In addition, the troop training model 100 generates the information of the unit (object) deployed in the unit deployment (inverted tripod, tripod, horizontal, vertical) and the position information to move the unit (object) as a real-time transformed object, Figure 7 As shown in FIG. 8, the duplicated objects are arranged and displayed at a predetermined interval, as shown in FIG. 8, and after generating the location information for each object so that the information of the objects moved apart from each other is generated as shown in FIG. Send to (12).

수신받은 정보로 영상감지기의 화면표시 영역내 부대(객체)정보를 UAV운영부(20)로 전송하는 단계(s300)로서 ; 부대정보송신단(12)에서 UAV 비행(위치변경)에 따른 객체정보 및 부대위치 변경에 따른 부대의 위치정보를 UAV통제처리부(21)로 전송한다.   As the step (s300) of transmitting the unit (object) information in the screen display area of the image sensor to the UAV operating unit 20 with the received information; The unit information transmitting unit 12 transmits the object information according to the UAV flight (position change) and the position information of the unit according to the unit position change to the UAV control processor 21.

전송 받은 부대(객체)의 정보를 UAV화면표시부(22)로 표시하는 단계(s400)로서; 상기 UAV통제처리부(21)는 표시되는 규칙을 정하여 통제조정기(40)로 UAV감지기의 방향과 각도 및 줌인, 줌아웃한 화면크기를 조절하고, 그 화면크기에 있는 부대정보를 UAV엔진처리부(10)에서 처리한 정보를 UAV화면표시부(22)에 표시하며 환경설정과 UAV엔진처리부(10)와의 접속정보를 입력하는 설정조작부(24)를 통해 임의로 실시간에 운영되는 환경 정보를 수정할 수 있게 한다.
Displaying the information of the transmitted unit (object) on the UAV screen display unit 22 (s400); The UAV control processor 21 sets the displayed rule to adjust the direction, angle and zoom-in of the UAV sensor, the zoomed-out screen size using the control controller 40, and the UAV engine processor 10 controls the accompanying information in the screen size. The information processed in the is displayed on the UAV screen display unit 22, and through the setting operation unit 24 for inputting the environment setting and the connection information with the UAV engine processing unit 10, it is possible to modify the environment information operating in real time at random.

그 결과로 설정된 경로로 진행하며 내부 저장정보 및 UAV엔진처리부(10)로부터 수신한 부대(객체)정보를 3차원영상표시부(51)에 표시한다.  As a result, it proceeds to the set path and displays the internal storage information and the unit (object) information received from the UAV engine processing unit 10 on the three-dimensional image display unit 51.

표시되는 화면으로부터 통제조정기(40)로 조절하여 그 화면내 부대(객체)를 검색, 표시하는 단계(s500)로  From the displayed screen to adjust to the controller 40 to search and display the unit (object) in the screen (s500)

영상감지기(e2)를 포함한 비행체(e1)의 상태를 조정 통제하는 비행통제부(53), 비행경로를 2차원 지도위에 임무에 맞는 지점을 설정(55)하고 그 결과를 표시하는 비행경로입력부(52), 상기 비행경로입력부에서 입력한 지점으로 비행하면서 감시영역내 영상(e100, e101)을 3차원 지형의 칼라, 흑백 또는 적외선영상으로 선택 표시하는 3차원영상표시부(51)의 기능과 추가로 상기 3차원영상표시부(51)의 특정 지점에 있는 부대(객체)정보를 통제조정기(40)로 선택하면 부대(객체) 상세정보를 객체상세정보표시부(58)에 표시한다. Flight control unit 53 for adjusting and controlling the state of the aircraft (e1) including the image sensor (e2), flight path input unit for setting the flight path (55) to match the mission on the two-dimensional map and display the result ( 52) In addition to the function of the three-dimensional image display unit 51 to fly to the point input from the flight path input unit to display the image in the surveillance area (e100, e101) in color, black and white or infrared image of the three-dimensional terrain When the unit (object) information at a specific point of the three-dimensional image display unit 51 is selected by the control controller 40, the unit (object) detailed information is displayed on the object detail information display unit 58.

상기 단계에 추가로 UAV 비행(위치변경)에 따른 객체정보 및 부대위치 변경에 따른 부대의 위치정보를 표시한다.   In addition to the above step, the object information according to the UAV flight (position change) and the position information of the unit according to the unit position change are displayed.

통제조정기(40)의 임의 조절로 변경된 화면 표시영역을 UAV엔진처리부(10)로 전송하는 단계(s600)로 도 5의 감지기제어부(54)로 영상감지기의 기술특성을 반영하며 영상감지기(e2)의 비행경로, 고도 및 비행속도를 비행통제부(53)로 지정하여 반복적으로 본 단계를 운영한다.  Transmitting the screen display area changed by the arbitrary adjustment of the control controller 40 to the UAV engine processing unit 10 (s600) to reflect the technical characteristics of the image sensor to the detector control unit 54 of FIG. The flight path, altitude and flight speed of the flight control unit 53 by specifying the operation repeatedly this step.

상기 s600으로부터 수신한 정보로 표시영역의 버퍼링 삭제와 추가를 하여 통제조정기(40)의 조절로 수정된 화면표시 영역의 부대(객체)를 전송하는 단계(s700)로 도 4와 같이 버퍼링되는 영역을 구분화 함으로써 전송되어지는 데이터량을 최대한 줄일 수 있게 한다.   In step S700, the buffered area of the display area is deleted and added to the information received from the s600, and the unit (object) of the screen display area modified by the control controller 40 is transmitted (s700). By separating, the amount of data transmitted can be reduced as much as possible.

즉, 부대정보송신단(12)에서는 UAV통제처리부(21)로부터 화면 표시영역(e300)에 있는 부대정보만을 버퍼로 수신 받아 버퍼에 임시저장 한다. 또한, 이미 범위를 벗어난 후방의 일정 반경(e200)에 포함된 부대(객체)를 삭제하고, 비행체(e1)가 향하는 진행방향(e302)에 영상감지기(e2)의 화면 표시영역(e300)의 전방의 일정 반경(e201)에 포함되는 부대(객체)를 버퍼로부터 UAV운영부(20)로 전송한다.  That is, the auxiliary information transmitter 12 receives only the auxiliary information in the screen display area e300 from the UAV control processor 21 as a buffer and temporarily stores it in the buffer. In addition, the unit (object) included in a predetermined radius (e200) of the rear already out of range is deleted, and in front of the screen display area (e300) of the image sensor (e2) in the traveling direction (e302) to which the aircraft (e1) is directed. The unit (object) included in a predetermined radius (e201) of the transmission from the buffer to the UAV operator 20.

도 2에서와 같이 증폭전송단(59)을 통해 UAV운영부(20)의 UAV화면표시부(22)내 3차원영상표시부(51)만을 외부로 전송하여 표시하는 단계(s800)로 UAV화면표시부(22)의 영상을 원격영상전송단(51)을 통해 전송하고, 전송되어진 영상을 표시하는 확대영상표시단(50) 다수를 운영 할 수 있게 한다.   As shown in FIG. 2, only the three-dimensional image display unit 51 in the UAV screen display unit 22 of the UAV operating unit 20 is transmitted to the outside through the amplification transmission unit 59 (S800). ) To transmit the image of the remote image transmission unit 51, and to operate a plurality of enlarged image display unit 50 for displaying the transmitted image.

10 : UAV엔진처리부
11 : UAV피해처리단
12 : 부대정보송신단
13 : UAV정보수신단
20 : UAV운영부
21 : UAV통제처리부
22 : UAV화면표시부
24 : 설정조작부
40 : 통제조정기
50 : 확대영상표시단
51 : 3차원영상표시부
52 : 비행경로입력부
53 : 비행통제부
54 : 감지기제어부
55 : 비행체의 비행하는 경로지점
56 : 임무부여부
57 : 접속구분입력부
58 : 객체상세정보표시부
59 : 증폭전송단
61 : 부대이동시 삼각대형으로 이동하는 부대(객체)
62 : 밀집된 부대(객체)
63 : 부대(객체)간 이격되어 표시되는 부대(객체)
64 : 개개체로 구분하지 않고 부대표시로 이동하는 부대(객체)
65 : 이동간 일정거리가 이격되어 진행하는 부대(객체)
100 : 훈련용 대부대모델
101 : 각 하위 서버로 정보를 송수신하는 네트워크 서버
102 : 네트워크 서버로부터 정보를 수신 받아 처리하는 중간서버
200 : 훈련용 대부대모델내 정보기능 처리단
e1 : 비행체
e2 : 영상감지기
e100 : 감시영역내 수직 3차원 영상
e101 : 감시영역내 확대된 3차원 영상
e200 : 후방의 일정한 반경
e201 : 전방의 일정한 반경
e300 : 화면표시영역
e301 : 버퍼링을 위한 일정반경을 확대한 버퍼링 영역
e400 : 정북방향기준선
e401 : 감지기시야기준선
s100 : UAV엔진처리부(10)와 UAV운영부(20)를 상호 접속하는 단계
s200 : 임무부여된 지점과 비행경로를 UAV엔진처리부(10)로 전송하는 단계
s300 : 상기 단계로 부터 수신받은 정보로 영상감지기의 화면표시 영역내 부대(객체)정보를 UAV운영부(20)로 전송하는 단계
s400 : 전송 받은 부대(객체)의 정보를 UAV화면표시부(22)로 표시하는 단계
s500 : 표시되는 화면으로부터 통제조정기(23)로 조절하여 그 화면내 부대(객체)를 검색, 표시하는 단계
s600 :통제조정기(23)의 임의 조절로 변경된 화면 표시영역을 UAV엔진처리부(10)로 전송하는 단계
s700 : 상기 s600으로부터 수신한 정보로 표시영역의 버퍼링 삭제와 추가를 하여 통제조정기(23)의 조절로 수정된 화면표시 영역의 부대(객체)를 전송하는 단계
s800 : 상기 s400에서 s700의 UAV화면표시부(22)의 3차원영상표시부(51) 영상을 외부로 전송하여 표시하는 단계
10: UAV engine processing unit
11: UAV damage processing stage
12: incident information transmitter
13: UAV information receiver
20: UAV operation department
21: UAV control processing unit
22: UAV screen display
24: setting control unit
40: controller
50: enlarged image display stage
51: 3D image display unit
52: flight path input unit
53: flight control department
54: detector control unit
55: route point of the aircraft
56: mission assignment
57: connection division input unit
58: object detail display unit
59: amplification transmission stage
61: unit moving to the tripod (object)
62: dense troops (objects)
63: units (objects) displayed apart from each other (objects)
64: A unit (object) that moves to the unit display without being classified as an individual
65: unit (object) that proceeds with a certain distance between movements
100: training bag model
101: network server transmitting and receiving information to each subordinate server
102: an intermediate server that receives and processes information from a network server
200: Information function processing unit in training troop model
e1: aircraft
e2: Video sensor
e100: vertical 3D image in the surveillance area
e101: magnified 3D image in the surveillance area
e200: constant radius behind
e201: constant radius ahead
e300: Screen display area
e301: Buffering area enlarged constant radius for buffering
e400: true north reference line
e401: detector field of reference line
s100: Step of interconnecting the UAV engine processing unit 10 and the UAV operating unit 20
s200: transmitting the mission point and the flight path to the UAV engine processing unit 10
s300: transmitting the unit (object) information in the screen display area of the video sensor to the UAV operator 20 with the information received from the above step
s400: displaying information of the received unit (object) by the UAV screen display unit 22
s500: Searching and displaying the unit (object) in the screen by adjusting the control controller 23 from the displayed screen
s600: transmitting the changed screen display area to the UAV engine processing unit 10 by arbitrary adjustment of the control controller 23
s700: transmitting and deleting an object (object) of the display area modified by the control controller 23 by deleting and adding buffering of the display area with the information received from the s600.
s800: transmitting and displaying an image of the 3D image display unit 51 of the UAV screen display unit 22 of the s700 from the s400

Claims (18)

3차원 영상을 지원하는 다수개의 UAV운영부와 훈련 시뮬레이션 서버의 UAV엔진처리부를 구비한 컴퓨터네트워크를 통하여 연결되며 연동 체계의 환경을 적용하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템에 있어서,
UAV피해처리단(11)과 고정객체 및 이동객체의 정보를 생성하는 부대정보송신단(12), UAV의 현재 위치정보를 처리하는 UAV정보수신단(13)을 포함하는 UAV엔진처리부(10); 및
상기 UAV엔진처리부(10)에서 처리된 정보를 컴퓨터 네트워크를 통해 설정된 UAV통제처리부(21);로 전송하고, 상기 UAV통제처리부(21)는 표시되는 규칙을 정하여 통제조정기(40)로 UAV감지기의 방향과 각도 및 줌인, 줌아웃한 화면크기를 조절하고, 그 화면크기에 있는 부대정보를 UAV엔진처리부(10)에서 처리한 정보를 UAV화면표시부(22)에 표시하며 환경설정과 UAV엔진처리부(10)와의 접속정보를 입력하는 설정조작부(24)를 포함하는 UAV운영부(20); 및
UAV화면표시부(22)의 영상을 원격영상전송단(51)을 통해 전송하고, 전송되어진 영상을 표시하는 확대영상표시단(50);을 특징으로 하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
In the interworking system of a real-time UAV image simulator and training simulation that is connected via a computer network including a plurality of UAV operating units supporting 3D images and a UAV engine processing unit of a training simulation server and applying an interlocking system environment,
A UAV engine processing unit (10) including a UAV damage processing unit (11), an auxiliary information transmitting unit (12) for generating information on fixed objects and moving objects, and a UAV information receiving unit (13) for processing the current position information of the UAV; And
The UAV engine processing unit 10 transmits the information processed by the computer network to the UAV control processing unit 21 set up, and the UAV control processing unit 21 sets the rules to be displayed to the control coordinator 40 of the UAV sensor. Adjust the direction, angle, zoom-in and zoomed-out screen size, and display the information processed by the UAV engine processing unit 10 on the accompanying information in the screen size on the UAV screen display unit 22, and the environment setting and UAV engine processing unit 10 UAV operating unit 20 including a setting operation unit 24 for inputting the connection information with; And
A system for real-time UAV image simulator and training simulation, comprising: an enlarged image display unit 50 for transmitting the image of the UAV screen display unit 22 through the remote image transmission unit 51 and displaying the transmitted image.
제 1 항에 있어서,
UAV화면표시부(22)에 있어서, 영상감지기(e2)를 포함한 비행체(e1)의 상태를 조정 통제하는 비행통제부(53), 비행경로를 2차원 지도위에 임무에 맞는 지점을 설정(55)하고 그 결과를 표시하는 비행경로입력부(52), 상기 비행경로입력부에서 입력한 지점으로 비행하면서 감시영역내 영상(e100, e101)을 3차원 지형의 칼라, 흑백 또는 적외선영상으로 선택 표시하는 3차원영상표시부(51)를 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
The method of claim 1,
In the UAV screen display unit 22, a flight control unit 53 which controls and regulates the state of the vehicle e1 including the image sensor e2, sets a flight path 55 on the two-dimensional map, and sets a point suitable for the mission (55). Flight path input unit 52 for displaying the result, a three-dimensional image to display and display the image in the surveillance area (e100, e101) to the color, black and white or infrared image of the three-dimensional terrain while flying to the point input from the flight path input unit Interlocking system of real time UAV video simulator including display unit 51 and training simulation
제 2 항에 있어서,
상기 3차원영상표시부(51)의 특정 지점에 있는 부대(객체)정보를 통제조정기(40)로 선택하면 부대(객체) 상세정보를 표시하는 객체상세정보표시부(58)를 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
The method of claim 2,
Real-time UAV image simulator including an object detail information display unit 58 for displaying the unit (object) detailed information when selecting the unit (object) information at a specific point of the three-dimensional image display unit 51 with the control controller 40 System of training and training simulation
제 2 항 또는 3항에 있어서,
다수의 확대영상표시단(50)을 포함하는 것을 특징으로 하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
The method of claim 2 or 3,
Real-time UAV video simulator and training simulation interworking system comprising a plurality of magnified image display stage 50
제 1 항에 있어서,
2분주기의 부대현황을 1초단위의 변환된 단위 객체 정보로 재생성하는 부대정보송신단(12)을 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
The method of claim 1,
Interworking system of a real-time UAV image simulator and training simulation including a secondary information transmitter 12 for regenerating the secondary status of a 2-minute period into the converted unit object information of 1 second unit
삭제delete 제 1 항에 있어서,
UAV통제처리부(21)로부터 화면 표시영역(e300)을 수신받아 비행체(e1)가 향하는 진행방향(e302)에 영상감지기(e2)의 화면 표시영역(e300)의 전방의 일정 반경(e201)에 포함되는 부대(객체)를 버퍼링 전송하고 이미 범위를 벗어난 후방의 일정 반경(e200)에 포함된 부대(객체)를 삭제하여 전송하는 부대정보송신단(12)을 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
The method of claim 1,
The screen display area e300 is received from the UAV control processor 21 and is included in a predetermined radius e201 in front of the screen display area e300 of the image sensor e2 in the traveling direction e302 facing the aircraft e1. Interlocking training simulation with a real-time UAV image simulator including a unit information transmitter 12 that buffers and transmits a unit (object) that is already out of range and deletes and transmits a unit (object) included in a predetermined radius e200. system
제 1 항에 있어서,
UAV운영부(20)에 있어서 감지기제어부(54)로 영상감지기의 기술특성을 반영하며 영상감지기(e2)의 비행경로, 고도 및 비행속도를 비행통제부(53)로 지정하는 특징을 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
The method of claim 1,
The UAV operator 20 reflects the technical characteristics of the image sensor to the detector control unit 54 and real-time UAV including a feature of designating the flight path, altitude, and flight speed of the image sensor e2 to the flight control unit 53. Interlocking System of Image Simulator and Training Simulation
제 8 항에 있어서,
UAV운영부(20)에서 설정된 경로로 진행하며 내부 저장정보 및 UAV엔진처리부(10)로부터 수신한 부대(객체)정보를 3차원 영상으로 표시하는 3차원영상표시부(51)를 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
The method of claim 8,
Real-time UAV image simulator including a three-dimensional image display unit 51 proceeds to the path set by the UAV operating unit 20 and displays the internal storage information and the unit (object) information received from the UAV engine processing unit 10 as a three-dimensional image. System of training and training simulation
삭제delete 제 1 항에 있어서,
UAV운영부(20)가 다수개 구비 된 것을 특징으로 하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 시스템
The method of claim 1,
Real-time UAV video simulator and training simulation interworking system, characterized in that a plurality of UAV operating unit 20 is provided
3차원 영상을 지원하는 다수개의 UAV운영부와 훈련 시뮬레이션 서버의 UAV엔진처리부를 구비한 컴퓨터네트워크를 통하여 연결되며 연동 체계의 환경을 적용하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 방법에 있어서,
UAV엔진처리부(10)와 UAV운영부(20)를 상호 접속하는 단계(s100);
임무부여된 지점과 비행경로를 UAV엔진처리부(10)로 전송하는 단계(s200);
상기 단계로 부터 수신받은 정보로 영상감지기의 화면표시 영역내 부대(객체)정보를 UAV운영부(20)로 전송하는 단계(s300);
전송 받은 부대(객체)의 정보를 UAV화면표시부(22)로 표시하는 단계(s400);
표시되는 화면으로부터 통제조정기(40)로 조절하여 그 화면내 부대(객체)를 검색, 표시하는 단계(s500);
통제조정기(40)의 임의 조절로 변경된 화면 표시영역을 UAV엔진처리부(10)로 전송하는 단계(s600);
상기 s600으로부터 수신한 정보로 표시영역의 버퍼링 삭제와 추가를 하여 통제조정기(40)의 조절로 수정된 화면표시 영역의 부대(객체)를 전송하는 단계(s700);
상기 s400에서 s700의 UAV화면표시부(22)의 3차원영상표시부(51) 영상을 외부로 전송하여 표시하는 단계(s800);를 특징으로 하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 방법
In the interworking method of the real-time UAV image simulator and training simulation that is connected via a computer network including a plurality of UAV operation unit supporting three-dimensional image and the UAV engine processing unit of the training simulation server, applying the environment of the interlocking system,
Interconnecting the UAV engine processing unit 10 and the UAV operating unit 20 (s100);
Transmitting the mission point and the flight path to the UAV engine processing unit 10 (s200);
Transmitting unit (object) information in the screen display area of the image sensor to the UAV operator 20 using the information received from the step (s300);
Displaying information of the received unit (object) on the UAV screen display unit 22 (s400);
Adjusting the control controller 40 from the displayed screen to search for and display a unit (object) in the screen (s500);
Transmitting the screen display area changed by arbitrary adjustment of the control controller 40 to the UAV engine processing unit 10 (s600);
Transmitting, by adding and removing buffering of the display area with the information received from the s600, and transmitting the unit (object) of the screen display area modified by the control controller 40 (s700);
And transmitting and displaying the 3D image display unit 51 image of the UAV screen display unit 22 of s700 from the s400 (s800); real-time UAV image simulator and training simulation interworking method, characterized in that
삭제delete 제 12 항에 있어서,
s200 단계에 있어서 실시간 변환된 객체로 부대전개(역삼각대, 삼각대, 횡대, 종대 등)된 부대(객체)의 정보와 부대(객체)가 이동하는 위치정보를 전송하는 특징을 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 방법
13. The method of claim 12,
The real-time UAV image simulator including a feature of transmitting the unit (object) and the position information of the unit (object) in the unit development (inverted tripod, tripod, horizontal, vertical, etc.) to the real-time converted object in step s200 Of training and training simulation
제 12 항에 있어서,
s400 단계에 있어서 부대배치간 중복된 객체간의 일정간격으로 상호 이격되어 표시하는 특징을 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 방법
13. The method of claim 12,
Interlocking method of the real-time UAV video simulator and training simulation comprising a feature that is spaced apart from each other at a predetermined interval between the overlapping objects in the unit arrangement in step s400
제 12 항에 있어서,
s400 단계에 있어서 부대이동간 객체간의 일정간격으로 이격되어 표시하고, 이격되어 이동되는 객체의 정보가 UAV엔진처리부(10)로 위치정보를 교환하는 특징을 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 방법
13. The method of claim 12,
In step s400, the movement between the unit movement is displayed at a predetermined interval between the objects, the method of interlocking the real-time UAV image simulator and training simulation, including the feature that the information of the spaced and moved objects to the UAV engine processing unit 10 to exchange the location information
제 12 항에 있어서,
s500 단계에 있어서 UAV엔진처리부(10)로 부터 특정 기상 정보를 수신하여 이륙을 제한하고, 강수량에 맞는 화면내 강수 및 강설을 표시하는 특징을 포함하는 실시간 UAV영상 시뮬레이터와 훈련시뮬레이션의 연동 방법
13. The method of claim 12,
In step s500, the UAV engine processing unit 10 receives the specific weather information to limit the takeoff, and the method of linking the real-time UAV image simulator and the training simulation, which includes a feature for displaying the precipitation and snowfall on the screen according to the precipitation.
삭제delete
KR1020120080299A 2012-07-24 2012-07-24 Uav training simulator and the real-time simulation method and system for interworking KR101236195B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120080299A KR101236195B1 (en) 2012-07-24 2012-07-24 Uav training simulator and the real-time simulation method and system for interworking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120080299A KR101236195B1 (en) 2012-07-24 2012-07-24 Uav training simulator and the real-time simulation method and system for interworking

Publications (1)

Publication Number Publication Date
KR101236195B1 true KR101236195B1 (en) 2013-02-26

Family

ID=47900011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120080299A KR101236195B1 (en) 2012-07-24 2012-07-24 Uav training simulator and the real-time simulation method and system for interworking

Country Status (1)

Country Link
KR (1) KR101236195B1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103236037A (en) * 2013-04-03 2013-08-07 北京航空航天大学 Unmanned aerial vehicle real-time image simulation method based on hierarchical degradation model
KR101418491B1 (en) 2013-05-03 2014-07-14 한국항공우주산업 주식회사 Simulating System for testing a Various Configuration UAV using a Scheduler and Controlling Meathod for the Same
CN104765280A (en) * 2015-03-13 2015-07-08 吉林医药学院 Unmanned aerial vehicle three-dimensional display control comprehensive-training system
KR101557092B1 (en) * 2015-05-12 2015-11-19 대한민국(방위사업청장) UAV simulation system for wargame
KR101571760B1 (en) 2015-09-10 2015-11-25 엘아이지넥스원 주식회사 Device and method for generating time based moving path scenario of object model
KR101745578B1 (en) 2017-02-28 2017-06-09 주식회사 지오스토리 Tidal channel extraction system using remote sensing data
KR101754739B1 (en) 2016-12-26 2017-08-08 대한민국(방위사업청장) Battlefield situation placement device and method thereof
KR101767648B1 (en) * 2016-10-07 2017-08-14 주식회사 지오스토리 Aviation Survey data processing software system
KR101767645B1 (en) * 2016-09-26 2017-08-14 주식회사 지오스토리 Flight Processing System Design Software
KR20180070130A (en) * 2016-12-16 2018-06-26 주식회사 한화 Apparatus and method for managing available resource of air vehicle equipped with mfr
CN109035957A (en) * 2018-10-16 2018-12-18 广东群创建设科技有限公司 A kind of intelligent fire operation training system
WO2021016880A1 (en) * 2019-07-30 2021-02-04 深圳市大疆创新科技有限公司 Flight simulation method and device for unmanned aerial vehicle, and recording medium
US11086337B2 (en) 2017-06-20 2021-08-10 Planck Aerosystems Inc. Systems and methods for charging unmanned aerial vehicles on a moving platform
CN113311856A (en) * 2021-05-31 2021-08-27 中煤航测遥感集团有限公司 Unmanned aerial vehicle data management method, device, equipment and storage medium
KR102461855B1 (en) * 2022-05-30 2022-10-31 이인환 Driving training system and method for military tracked vehicles and vehicles equipment using ai geographic information system database
KR20240027220A (en) * 2022-08-23 2024-03-04 주식회사 비주얼라이트 Unmanned aerial vehicle training system
US12084179B2 (en) 2018-05-23 2024-09-10 Aerovironment, Inc. System and method for drone tethering

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007093045A (en) 2005-09-27 2007-04-12 Mitsubishi Electric Corp Command device and command method
JP2010049051A (en) 2008-08-22 2010-03-04 Mitsubishi Heavy Ind Ltd Simulation system
KR101083128B1 (en) 2010-05-28 2011-11-11 한국항공우주산업 주식회사 Image based uav flight test system and method
JP2012047866A (en) 2010-08-25 2012-03-08 Kawasaki Heavy Ind Ltd Display device, aviation survey system having the same, and display method of display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007093045A (en) 2005-09-27 2007-04-12 Mitsubishi Electric Corp Command device and command method
JP2010049051A (en) 2008-08-22 2010-03-04 Mitsubishi Heavy Ind Ltd Simulation system
KR101083128B1 (en) 2010-05-28 2011-11-11 한국항공우주산업 주식회사 Image based uav flight test system and method
JP2012047866A (en) 2010-08-25 2012-03-08 Kawasaki Heavy Ind Ltd Display device, aviation survey system having the same, and display method of display device

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103236037B (en) * 2013-04-03 2016-05-11 北京航空航天大学 Unmanned plane realtime graphic analogy method based on layering degradation model
CN103236037A (en) * 2013-04-03 2013-08-07 北京航空航天大学 Unmanned aerial vehicle real-time image simulation method based on hierarchical degradation model
KR101418491B1 (en) 2013-05-03 2014-07-14 한국항공우주산업 주식회사 Simulating System for testing a Various Configuration UAV using a Scheduler and Controlling Meathod for the Same
CN104765280B (en) * 2015-03-13 2018-05-01 吉林医药学院 The three-dimensional aobvious control comprehensive training system of no-manned plane three-dimensional
CN104765280A (en) * 2015-03-13 2015-07-08 吉林医药学院 Unmanned aerial vehicle three-dimensional display control comprehensive-training system
KR101557092B1 (en) * 2015-05-12 2015-11-19 대한민국(방위사업청장) UAV simulation system for wargame
KR101571760B1 (en) 2015-09-10 2015-11-25 엘아이지넥스원 주식회사 Device and method for generating time based moving path scenario of object model
KR101767645B1 (en) * 2016-09-26 2017-08-14 주식회사 지오스토리 Flight Processing System Design Software
KR101767648B1 (en) * 2016-10-07 2017-08-14 주식회사 지오스토리 Aviation Survey data processing software system
KR101872621B1 (en) * 2016-12-16 2018-06-28 주식회사 한화 Apparatus and method for managing available resource of air vehicle equipped with mfr
KR20180070130A (en) * 2016-12-16 2018-06-26 주식회사 한화 Apparatus and method for managing available resource of air vehicle equipped with mfr
KR101754739B1 (en) 2016-12-26 2017-08-08 대한민국(방위사업청장) Battlefield situation placement device and method thereof
KR101745578B1 (en) 2017-02-28 2017-06-09 주식회사 지오스토리 Tidal channel extraction system using remote sensing data
US11086337B2 (en) 2017-06-20 2021-08-10 Planck Aerosystems Inc. Systems and methods for charging unmanned aerial vehicles on a moving platform
US12084179B2 (en) 2018-05-23 2024-09-10 Aerovironment, Inc. System and method for drone tethering
CN109035957A (en) * 2018-10-16 2018-12-18 广东群创建设科技有限公司 A kind of intelligent fire operation training system
CN109035957B (en) * 2018-10-16 2024-01-23 广东群创建设科技有限公司 Intelligent fire-fighting real-operation training system
WO2021016880A1 (en) * 2019-07-30 2021-02-04 深圳市大疆创新科技有限公司 Flight simulation method and device for unmanned aerial vehicle, and recording medium
CN113311856A (en) * 2021-05-31 2021-08-27 中煤航测遥感集团有限公司 Unmanned aerial vehicle data management method, device, equipment and storage medium
KR102461855B1 (en) * 2022-05-30 2022-10-31 이인환 Driving training system and method for military tracked vehicles and vehicles equipment using ai geographic information system database
KR20240027220A (en) * 2022-08-23 2024-03-04 주식회사 비주얼라이트 Unmanned aerial vehicle training system
KR102653118B1 (en) * 2022-08-23 2024-04-01 주식회사 비주얼라이트 Unmanned aerial vehicle training system

Similar Documents

Publication Publication Date Title
KR101236195B1 (en) Uav training simulator and the real-time simulation method and system for interworking
CN109359405B (en) Air-space-ground integrated big data battlefield environment semi-physical simulation system
JP7403206B2 (en) Real-time in-flight simulation of targets
KR101557092B1 (en) UAV simulation system for wargame
CN104615010A (en) FlightGear and VC hybrid system developing method based on network communication
KR20140112811A (en) Combat effect analysis system under V-C interoperability, and operation method of the same
US10565783B2 (en) Federated system mission management
US20230162449A1 (en) Systems and methods for data transmission and rendering of virtual objects for display
CN109410677A (en) Interactive operational commanding sand table system platform
US11017232B2 (en) System for providing live virtual-reality and augmented reality environments
CN103869708A (en) Complex infrared environment modeling method supporting multispectral engagement level simulation
US20210335145A1 (en) Augmented Reality Training Systems and Methods
Rohde et al. Avigle: A system of systems concept for an avionic digital service platform based on micro unmanned aerial vehicles
Roganov et al. Main provisions for formation of cognitive model of visually observable environment synthesized for aircraft simulator
KR101076240B1 (en) Device and method for an air defense situation awareness using augmented reality
Walter et al. Virtual UAV ground control station
Griffith et al. A system for the generation of synthetic Wide Area Aerial surveillance imagery
Bethke Persistent vision-based search and track using multiple UAVs
CN116257975A (en) One-seat control multi-machine visual simulation system and design method thereof
Zhi-Hua et al. Design of UAV telepresence and simulation platform based on VR
Hogan et al. Enhanced situational awareness for uav operations over hostile terrain
Gerretsen et al. Representation of Dynamic Synthetic Environments in Distributed Simulation
Siddappaji et al. Uavs/drones-based iot services
Göktoğan et al. Airborne vision sensor detection performance simulation
Kim et al. A real time synchronous V-C system with the extracted data from buffering function

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant