KR102042989B1 - L-v-c 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템 - Google Patents

L-v-c 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템 Download PDF

Info

Publication number
KR102042989B1
KR102042989B1 KR1020170151459A KR20170151459A KR102042989B1 KR 102042989 B1 KR102042989 B1 KR 102042989B1 KR 1020170151459 A KR1020170151459 A KR 1020170151459A KR 20170151459 A KR20170151459 A KR 20170151459A KR 102042989 B1 KR102042989 B1 KR 102042989B1
Authority
KR
South Korea
Prior art keywords
training
augmented reality
aircraft
mission
virtual object
Prior art date
Application number
KR1020170151459A
Other languages
English (en)
Other versions
KR20190054645A (ko
Inventor
장광규
Original Assignee
한국항공우주산업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주산업 주식회사 filed Critical 한국항공우주산업 주식회사
Priority to KR1020170151459A priority Critical patent/KR102042989B1/ko
Publication of KR20190054645A publication Critical patent/KR20190054645A/ko
Application granted granted Critical
Publication of KR102042989B1 publication Critical patent/KR102042989B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/003Simulators for teaching or training purposes for military purposes and tactics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템에 관한 것으로, 항공기 조종사에게 증강현실을 속에서 임무를 부여하여 실제 전장 상황과 흡사하게 임무 훈련을 할 수 있도록 한다.

Description

L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템{Live mission training machine, method, system through augmented reality and live virtual constructive}
본 발명은 L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템에 관한 것으로, 더욱 구체적으로는 증강현실 기반의 시현장치를 장착함으로써 실제와 같은 훈련 상황을 구현할 수 있도록 하는 라이브 임무 훈련에 관한 것이다.
일반적으로 다수의 개체들을 묶어 일정 규모의 편성부대 단위로 구성하여 모의를 수행하는 워게임(War Game) 모델(Constructive, C 훈련자산)들은 복잡한 전장 상황을 모의하는데 많이 사용된다. 모의된 전장에서 모의된 사람들이 운용하는 C 훈련자산들만으로 구성된 환경은 독립적인 훈련체계라기보다는 실제 전투원들의 훈련을 지원하기 위한 훈련보조체계라고 할 수 있다.
반면에 실제 사람이 수반되는 Live(L) 및 Virtual(V) 훈련자산들은 그 자체로써 훈련환경을 제공한다. 즉, 실제 전투원들이 L 또는 V 훈련자산을 통해 실제 또는 실제와 유사한 환경 하에 전투에서 필요로 하는 다양한 기량들을 숙달할 수 있는 것이다. 이와 같이 훈련의 효과를 극대화하기 위해서는 실제의 전장에서 전투를 수행하는 것과 유사하게 훈련을 수행할 수 있어야 하고, 훈련을 수행하는 전투원들이 실제 전투상황이라 인식하게끔 해야만 훈련의 효과를 극대화 할 수 있다. 따라서 L-V-C 임무 훈련을 통해 지휘관 및 참모들은 전장상황 인식과 명령하달, 실제의 의사결정 활동들을 숙달하며, 예하의 실제 전투원들은 실제 전장상황에 대한 연습을 진행할 수 있다.
종래의 L-V-C 임무 훈련을 살펴보면, 국외에서는 대규모 실제 및 가상 합동 훈련을 위해 L-V-C(War Game)를 연동하여 실제 비행중인 항공기에서 지상에 설치된 시뮬레이터와 워게임 모델을 수신하고, 다기능 시현장치 및 전방상단 시현장치와 같은 조종석의 전시 장치에 기 계획된 전장 환경 및 지상에서 수신된 정보에 대해 전시 및 훈련을 수행하는 것으로 연구 및 운용중이다.
또한, 국내에서는 Live가 제외된 V-V, V-C 및 C-C 개념의 형태로 운용중이며, Live 체계에서의 가상 임무 훈련은 기 계획된 전장 환경데이터를 장입하여 특정 조건에 도달할 시 장입된 임무 훈련을 수행하는 형식의 연구가 이루어지고 있다.
따라서 L-V-C 개념의 임무 훈련에서 보다 더 실제와 같은 훈련효과를 발생시키기 위한 방안이 강구되고 있는 실정이다.
대한민국 등록특허 제10-1418483호
본 발명은 상술한 바와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 항공기 조종사에게 가상의 객체 데이터를 전송하여 항공기 조종사의 육안으로 가상의 물체가 포함되어 실제 상황과 같은 증강현실을 시현함으로써, 항공기 조종사가 실제 상황 속에서 임무 훈련을 실시하는 데 그 목적이 있다.
상기 목적을 달성하기 위한 본 발명에 따른 L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치는 L-V-C(Live Virtual Constructive)를 기반으로 한 임무 훈련에 있어서, 임무 훈련을 관장하는 관제모듈; 적어도 하나 이상의 차량 또는 항공기 내부에 위치하여 상기 관제모듈로부터 가상의 객체 데이터를 전송받아 증강현실을 시현하는 시현모듈;을 포함하고, 상기 관제모듈에서 상기 증강현실에 대한 가상의 객체 데이터를 전송하여 상기 시현모듈에서 상기 증강현실을 시현함으로써 상기 임무 훈련을 진행하는 것을 특징으로 한다.
여기서, 상기 관제모듈는, 상기 차량 또는 상기 항공기와의 상대적인 거리정보 및 위치정보를 수신하는 위치수신부; 상기 거리정보 및 위치정보를 처리하여 상기 차량 또는 상기 항공기의 거리 및 위치를 계산하는 데이터처리부; 훈련 관리자의 명령에 따라 상기 증강현실에 대한 상기 가상의 객체 데이터를 결정하는 증강현실결정부; 및 결정된 상기 가상의 객체 데이터를 상기 시현모듈로 전송하는 제1데이터송수신부;를 포함하며, 상기 시현모듈은, 상기 위치수신부로 상기 차량 또는 상기 항공기의 상대적인 거리정보 및 위치정보를 송신하는 위치송신부; 상기 제1데이터송수신부로부터 상기 가상의 객체 데이터를 전송받는 제2데이터송수신부; 및 상기 가상의 객체 데이터를 기반으로 상기 증강현실을 시현하는 증강현실시현부;를 포함할 수 있다.
또한, 상기 관제모듈은 상기 임무 훈련에 대한 정보가 저장된 데이터베이스를 더 포함하고, 상기 증강현실결정부는 상기 데이터베이스를 참조하여 상기 데이터베이스에 저장된 상기 가상의 객체 데이터를 결정하는 것을 특징으로 한다.
또, 상기 관제모듈은 상기 임무 훈련을 수행하는 상기 차량 운전자 또는 상기 항공기 조종사의 신상정보를 등록하는 훈련자등록부를 더 포함하고, 등록된 상기 차량 운전자 또는 상기 항공기 조종사의 신상정보는 상기 데이터베이스에 저장되어 있는 것을 특징으로 한다.
아울러, 상기 시현모듈은 상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련의 결과를 임시로 기록하는 훈련기록부를 더 포함할 수 있다.
또한, 상기 관제모듈은 상기 훈련기록부에서 기록한 상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련 기록을 전송 받아 상기 차량 운전자 또는 상기 항공기 조종사의 훈련 성과를 기록 및 저장하는 성과기록부를 더 포함할 수 있다.
또, 상기 성과기록부에는 상기 임무 훈련의 유형에 따라 분류코드를 부여하는 것을 특징으로 한다.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 L-V-C 및 증강현실을 통한 라이브 임무 훈련 방법은 관제모듈에서 차량 또는 항공기와의 상대적 거리정보 및 위치정보를 수신하는 단계; 상기 거리정보 및 위치정보를 처리하여 상기 관제모듈로부터 상기 차량 또는 상기 항공기의 거리 및 위치를 계산하는 단계; 훈련 관리자의 명령에 따라 임무 훈련에 대한 증강현실에 대한 가상의 객체 데이터를 결정하는 단계; 결정된 상기 증강현실에 대한 상기 가상의 객체 데이터를 상기 차량 또는 상기 항공기 측의 시현모듈로 전송하는 단계; 상기 시현모듈에서 상기 가상의 객체 데이터를 전송받는 단계; 및 상기 가상의 객체 데이터를 이용하여 상기 증강현실을 시현하는 단계;를 포함할 수 있다.
여기서, 상기 관제모듈은 상기 임무 훈련에 대한 정보가 저장된 데이터베이스를 포함하고, 상기 증강현실결정부는 상기 데이터베이스를 참조하여 상기 데이터베이스에 저장된 상기 가상의 객체 데이터를 결정하는 것을 특징으로 한다.
또한, 상기 관제모듈은 상기 임무 훈련을 수행하는 상기 차량 운전자 또는 상기 항공기 조종사의 신상정보를 등록하는 훈련자등록부를 더 포함하고, 등록된 상기 차량 운전자 또는 상기 항공기 조종사의 신상정보는 상기 데이터베이스에 저장되어 있는 것을 특징으로 한다.
또, 상기 시현모듈은 상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련의 결과를 임시로 기록하는 훈련기록부를 더 포함할 수 있다.
아울러, 상기 관제모듈은 상기 훈련기록부에서 기록한 상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련 기록을 전송 받아 상기 차량 운전자 또는 상기 항공기 조종사의 훈련 성과를 기록 및 저장하는 성과기록부를 더 포함할 수 있다.
또한, 상기 성과기록부에는 상기 임무 훈련의 유형에 따라 분류코드를 부여하는 것을 특징으로 한다.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 L-V-C 및 증강현실을 통한 라이브 임무 훈련 시스템은 L-V-C(Live Virtual Constructive)를 기반으로 한 임무 훈련에 있어서, 차량 또는 항공기의 거리정보 및 위치정보를 수신하여 상기 차량 또는 상기 항공기가 떨어진 위치를 계산하고, 데이터베이스에서 증강현실에 대한 가상의 객체 데이터를 전송하여 상기 임무 훈련을 관장하는 관제모듈; 적어도 하나 이상의 차량 또는 항공기 내부에 위치하여 상기 관제모듈로부터 상기 증강현실에 대한 가상의 객체 데이터를 전송받아 증강현실을 시현하는 시현모듈;을 포함할 수 있다.
본 발명에 따른 임무 훈련은 다음과 같은 효과가 있다.
첫째, 효과적인 훈련이 가능하다. 본 발명에 따른 라이브 임무 훈련은 임무 훈련을 관장하는 관제소에서 항공기 내부의 디스플레이나 항공기 조종사의 헬멧에 설치되어 가상의 객체를 생성하는 모듈을 통해 증강현실이 시현될 수 있다. 이러한 증강현실은 실제 지형지물을 배경으로 임무의 목표물이나 적군의 숫자, 진형, 배치, 이동 등을 설정하여 시현할 수 있고, 이에 따라 항공기 조종사는 모의된 전장 상황이라도 실제 전장 상황과 같은 상황을 대면함으로써 미사일 피격 회피 훈련 등이나 목표물 타격과 같은 실제 전장 상황에서의 임무 훈련을 진행하여 훈련의 효율성을 증가시킬 수 있다.
둘째, 비용을 절감할 수 있다. 종래에는 공대공 훈련 시 더미를 통해 임무 훈련을 진행하였다. 즉, 공대공 훈련 시 요격 더미를 장착한 항공기 또는 전투기를 운용하여 훈련 대상 항공기의 임무 훈련을 보조하게 하는 상황이 있었다. 하지만 본 발명에 따른 임무 훈련은 임무 훈련을 진행하는 항공기의 조종사에게 증강현실을 시현함으로써, 훈련 대상 항공기 외에 별도의 추가 항공기를 운용하지 않더라도 임무 훈련이 가능하기 때문에 항공기 운용에 대한 비용이 절감될 수 있다.
도1은 본 발명의 일실시예에 따른 임무 훈련의 시스템 구성도이다.
도2는 본 발명의 일실시예에 따른 임무 훈련의 장치의 블록도이다.
도3은 본 발명의 일실시예에 따른 임무 훈련 방법의 순서도이다.
도4는 본 발명의 일실시예에 따라 임무 훈련에서 증강현실에 대한 가상의 객체 데이터를 송수신하여 항공기 조종사에게 시현하는 것을 개략적으로 나타낸 도면이다.
도5는 본 발명의 일실시예에 따라 임무 훈련에 대한 성과를 표시하기 위한 예시를 개략적으로 나타낸 도면이다.
도6은 본 발명의 일실시예에 따라 다수의 항공기가 임무 훈련을 진행하는 것을 개략적으로 나타낸 도면이다.
도7은 본 발명의 일실시예에 따라 다수의 차량이 임무 훈련을 진행하는 것을 개략적으로 나타낸 도면이다.
이하에서는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 다만 발명의 요지와 무관한 일부 구성은 생략 또는 압축할 것이나, 생략된 구성이라고 하여 반드시 본 발명에서 필요가 없는 구성은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 결합되어 사용될 수 있다.
<관제모듈 및 시현모듈의 구성>
도1은 본 발명의 일실시예에 따른 임무 훈련의 시스템 구성도이고, 도2는 본 발명의 일실시예에 따른 임무 훈련 장치의 블록도이다.
도1 및 도2에 도시된 바와 같이, 본 발명의 일실시예에 따른 L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치(이하 '임무 훈련'이라 함)는 관제모듈(100) 및 시현모듈(200)을 포함한다.
관제모듈(100)은 L-V-C(Live Virtual Constructive)를 기반으로 한 임무 훈련을 관장하는 구성으로, 항공기 측에 임무 훈련을 실시하는 증강현실에 대한 가상의 객체 데이터를 결정하고, 이에 대한 객체 데이터를 전송한다. 이러한 관제모듈(100)은 소형의 단말기일 수도 있고, 거대한 시스템 장치일 수도 있다. 관제모듈(100)은 훈련자등록부(110), 위치수신부(120), 데이터처리부(130), 증강현실결정부(140), 제1데이터송수신부(150), 성과기록부(160) 및 데이터베이스(170)를 포함한다.
훈련자등록부(110)는 임무 훈련을 실시하는 훈련자를 데이터베이스(170)에 등록시키는 구성으로, 훈련자의 이름, 키, 시력, 몸무게, 계급, 관련된 다른 훈련의 성적 등 훈련자와 관련된 신상정보를 시스템에 등록하여 저장할 수 있다. 이러한 훈련자는 항공기에 탑승하여 항공기 조종사로써 임무 훈련을 받게 된다.
여기서, 항공기는 전투 및 물자 이동에 관련되어 조종사가 탑승하여 조종하는 모든 비행 물체를 일컫는 것으로, 소형 전투기, 헬리콥터, 헬기 등 다양하게 포함될 수 있다.
위치수신부(120)는 항공기의 위치정보를 수신하여 항공기의 위치를 파악하는 구성으로, 시현모듈(200)의 위치송신부(210)에서 전송하는 GPS 데이터를 기반으로 한 거리정보 및 위치정보를 수신한다.
데이터처리부(130)는 위치송신부(210)로부터 전송받은 거리정보 및 위치정보를 토대로 미리 설정된 일련의 프로세스를 통해 관제모듈(100)과 항공기의 상대적인 거리 및 위치를 계산하는 구성이다.
증강현실결정부(140)는 훈련 관리자의 명령에 따라 시현모듈(200)로 전송할 증강현실에 대한 가상의 객체 데이터를 결정하는 구성이다. 이러한 증강현실결정부(140)는 훈련 관리자가 훈련자에게 임무 훈련을 실시하기 위한 다양한 가상의 객체 데이터를 데이터베이스(170)에서 결정할 수 있다. 이와 같은 가상의 객체 데이터는 임무 유형에 따라 훈련자가 상대하는 가상의 항공기에 대한 자세, 위치, 항공기의 숫자, 가상의 타격 시설에 대한 형상 및 가상의 환경 등 다양하게 생성될 수 있다.
증강현실에 대한 가상의 객체 데이터를 결정할 때는 데이터베이스(170)에서 기존의 임무 훈련을 실시한 정보를 바탕으로 동일한 임무 훈련에 대한 가상의 객체 데이터를 결정할 수도 있고, 이와는 달리 데이터베이스(170)에 저장되어 있지 않은 임무 훈련은 훈련 관리자가 별도의 툴을 이용하여 직접 임무 훈련의 유형과 관련된 가상의 객체 데이터를 생성하여 데이터베이스(170)에 저장한 후 해당 임무 훈련과 관련된 가상의 객체 데이터를 결정할 수 있다.
제1데이터송수신부(150)는 시현모듈(200)의 제2데이터송수신부(230)와 증강현실에 대한 가상의 객체 데이터 및 훈련자의 임무 훈련에 대한 훈련기록을 서로 송수신하는 구성이다. 이러한 제1데이터송수신부(150)는 가상의 객체 데이터를 패킷화 하고 실시간 통신 프로토콜을 기반으로 하여 데이터링크를 통해 제2데이터송수신부(230)로 송신할 수 있다.
성과기록부(160)는 훈련자가 참여하는 임무 훈련의 성과에 대한 정보를 전송받아 기록 및 저장하는 구성이다. 이러한 성과기록부(160)는 등록된 훈련자가 실시한 임무 훈련의 유형과 훈련 실시과정에 따른 세부기록 등을 훈련자 개별적으로 기록하고, 또한 전체 훈련자를 대상으로 한 각종 통계자료를 훈련 관리자에게 제공할 수 있다.
데이터베이스(170)는 훈련자에게 실시하는 임무 훈련에 대한 가상의 객체 데이터 및 환경정보를 저장하여 보관하는 구성이다. 이러한 데이터베이스(170)에는 훈련 관리자가 새롭게 생성한 임무 훈련 및 이에 대한 가상의 객체 데이터가 업데이트 되어 저장될 수 있다.
제1제어부(180)는 관제모듈(100)에서 훈련자등록부(110)가 훈련자를 데이터베이스(170)에 등록하는 것과, 위치수신부(120)에서 항공기의 위치정보를 수신하는 것과, 데이터처리부(130)에서 위치수신부(120)가 수신한 거리정보 및 위치정보를 토대로 항공기의 상대적인 거리를 계산하는 것과, 증강현실결정부(140)에서 증강현실에 대한 가상의 객체 데이터를 결정하는 것과, 제1데이터송수신부(150)에서 가상의 객체 데이터 및 훈련자의 훈련기록을 송수신하는 것과, 성과기록부(160)에서 훈련자의 훈련성과를 기록 및 저장하는 것을 제어하는 구성이다.
시현모듈(200)은 항공기 내부 일측 또는 항공기 조종사의 헬멧에 구비되어 증강현실을 시현함으로써, 항공기 조종사(또는 훈련자)가 육안으로 증강현실을 확인할 수 있도록 한다. 이러한 시현모듈(200)은 위치송신부(210), 증강현실시현부(220), 제2데이터송수신부(230), 훈련기록부(240) 및 제2제어부(250)를 포함한다.
위치송신부(210)는 항공기의 현재 위치를 관제모듈(100)의 위치수신부(120)로 송신하는 구성으로, GPS 장치 및 중력센서(또는 자이로스코프 센서)가 내장되어 GPS 데이터를 기반한 거리정보 및 위치정보를 송신할 수 있다.
증강현실시현부(220)는 임무 훈련에 따라 증강현실결정부(140)에서 데이터베이스(170)에서 추출한 가상의 객체 데이터를 전달받아 항공기 조종사에게 시현하는 구성이다. 이러한 증강현실시현부(220)는 증강현실결정부(140)에서 결정한 임무 유형에 따라 훈련자가 상대하는 가상의 항공기에 대한 자세, 위치, 항공기의 숫자 및 가상의 타격 시설에 대한 형상 등에 대한 가상의 객체 데이터를 시현하여 항공기 조종사가 육안으로 확인할 수 있도록 한다.
제2데이터송수신부(230)는 제1데이터송수신부(150)와 증강현실에 대한 가상의 객체 데이터 및 훈련자의 훈련기록을 서로 송수신하는 구성이다. 이러한 제2데이터송수신부(230)는 제1데이터송수신부(150)와 동일하게 가상의 객체 데이터를 패킷화 하고 실시간 통신 프로토콜을 기반으로 하여 데이터링크를 통해 제1데이터송수신부(150)로 송신할 수 있다.
훈련기록부(240)는 등록된 항공기 조종사가 임무 훈련을 실시하고 나서 해당 임무 훈련에 대한 항공기 조종사의 훈련내용을 시현모듈(200) 내에서 임시로 기록하는 구성이다. 이러한 훈련기록부(240)는 항공기 조종사가 해당 임무 훈련 과정에서 목표물을 타격한 횟수, 다양한 세부 임무를 완수한 횟수, 가상의 적군이 발사한 미사일 회피 개수, 임무 달성에 소요된 시간 및 임무 훈련의 성공여부 등에 대한 다양한 통계를 기록할 수 있다.
제2제어부(250)는 시현모듈(200) 내에서 위치송신부(210)가 위치수신부(120)로 항공기에 대한 위치정보를 송신하는 것과, 증강현실시현부(220)에서 전송받은 가상의 객체 데이터에 의해 증강현실을 시현하는 것과, 제2데이터송수신부(230)에서 제1데이터송수신부(150)와 가상의 객체 데이터 및 훈련자의 훈련기록을 서로 송수신하는 것과, 훈련기록부(240)에서 등록된 항공기 조종사의 임무 훈련 과정에서 발생한 통계를 기록하는 것을 제어하는 구성이다.
<증강현실 시현방법>
이하에서는 항공기 조종사에게 증강현실을 시현하여 임무 훈련을 진행하는 방법에 대하여 설명하기로 한다.
도3은 본 발명의 일실시예에 따른 임무 훈련 방법의 순서도이다.
도3에 도시된 바와 같이, 최초에 항공기와의 상대적 거리정보 및 위치정보를 수신한다.<S30> 등록된 훈련자가 임무 훈련을 위해 탑승한 항공기에서는 항공기 또는 훈련자의 헬멧 일측에 시현모듈(200)이 구비될 수 있고, 시현모듈(200)에는 위치송신부(210)가 포함된다.
여기서, 등록된 훈련자는 임무 훈련을 진행하기 위해 항공기에 탑승한 후 항공기 조종사라는 명칭으로 동일하게 사용하기로 한다. 따라서 훈련자와 항공기 탑승자는 동일한 인물을 지칭하는 것으로 간주한다.
이에 따라, 항공기 조종사가 탑승한 항공기에서는 시현모듈(200)의 위치송신부(210)가 항공기의 현재 위치정보를 관제모듈(100)의 위치수신부(120)로 전송한다. 이 때 전송하는 거리정보 및 위치정보는 GPS 장치 및 중력센서가 감지한 GPS 데이터를 전송할 수 있다.
다음으로, 위치수신부(120)에서 전송받은 거리정보 및 위치정보를 처리하여 관제모듈(100)로부터 항공기까지의 상대적인 거리 및 위치를 계산한다.<S31> 이 때 위치수신부(120)에서 전송받은 항공기의 거리정보 및 위치정보는 데이터처리부(130)로 전해지고, 데이터처리부(130)에서는 미리 설정된 일련의 프로세스에 의해 관제모듈(100)로부터 항공기 사이의 상대적인 거리 및 현재 위치를 계산하게 된다. 이렇게 항공기의 거리 및 위치의 계산하는 것은 임무 훈련에 진행과정에 따라 데이터처리부(130)에서 실시간으로 수행될 수 있다.
구체적으로, 임무 훈련 진행과정에서는 항공기가 임무 훈련의 목적에 맞게 증강현실을 기반으로 한 전장이나 임무 수행 지역을 비행하게 된다. 이 때 증강현실에서는 항공기가 비행하는 위치를 향해 적의 항공기에서 미사일이 발사되는 경우도 발생한다. 따라서 데이터처리부(130)에서는 위치수신부(120)에서 전송받은 거리정보 및 위치정보를 처리하여 항공기의 현재 거리 및 위치를 실시간으로 계산함으로써, 항공기가 비행하는 위치를 실시간으로 파악하고, 이에 따라 추후 증강현실을 시현할 시에는 적의 항공기가 임무 훈련을 진행하는 항공기의 위치에 미사일을 발사하는 증강현실을 시현할 수 있다.
이후 훈련 관리자의 명령에 따라 임무 훈련의 증강현실에 대한 가상의 객체 데이터를 결정한다.<S32> 이 때 관제모듈(100)에서는 훈련 관리자가 관제모듈(100)과 연결되어 있거나 또는 내부에 포함되어 있는 데이터베이스(170)에 접속하여 이전에 진행하였던 임무 훈련에 대한 가상의 객체 데이터를 결정할 수 있다.
구체적으로, 훈련 관리자의 명령에 따라 증강현실결정부(140)가 증강현실에 대한 가상의 객체 데이터를 결정할 시 이전에 실시했던 임무 훈련에 대해서는 증강현실결정부(140)가 데이터베이스(170)를 참조하여 해당 증강현실에 대한 가상의 객체 데이터를 결정한다.
이러한 임무 훈련과 관련된 증강현실은 증강현실시현부(220)에서 가상의 객체 데이터들의 결합으로 구성되어 임무 훈련에서 실시하는 적의 항공기나 미사일, 타격해야 될 적 기지의 주요시설, 적 병력 등 다양한 가상 물체들을 시현할 수 있다.
아울러, 기존에 진행하지 않았던 임무 훈련에 대해서는 증강현실에 대한 가상의 객체 데이터를 생성하는 별도의 툴이나 장치를 사용함으로써, 새로운 증강현실에 대한 가상의 객체 데이터를 생성할 수 있고, 이러한 가상의 객체 데이터를 데이터베이스(170)에 저장시킬 수 있다.
이렇게 새로운 임무 훈련에 대해 가상의 객체 데이터를 제작하는 것은 증강현실을 생성하는 별도의 툴에서 임무 유형과 상황에 기반하여 해당 지역의 지리적 환경정보에 부합하도록 가상의 적의 시설 위치, 적 병력 배치, 아군 병력 배치 등 다양한 가상의 객체 데이터를 생성할 수 있다.
다음으로, 결정된 증강현실에 대한 가상의 객체 데이터를 항공기 측의 시현모듈(200)로 전송한다.<S33> 이 때 증강현실에 대한 가상의 객체 데이터는 관제모듈(100) 측의 제1데이터송수신부(150)에서 가상의 객체 데이터를 패킷화 하고 실시간 통신 프로토콜을 기반으로 하여 데이터링크를 통해 시현모듈(200)의 제2데이터송수신부(230)로 전송된다.
이후 시현모듈(200)에서 가상의 객체 데이터를 전송받는다.<S34> 이 때 제1데이터송수신부(150)로부터 제2데이터송수신부(230)로 전송된 가상의 객체 데이터는 시현모듈(200) 내부에서 다시 증강현실시현부(220)로 이동된다.
마지막으로, 가상의 객체 데이터를 이용하여 증강현실을 시현한다.<S35> 증강현실시현부(220)로 전송된 가상의 객체 데이터는 증강현실시현부(220)에 의해 가공 및 조합되어 다수의 가상 객체들이 포함된 증강현실로 구성되고, 이러한 증강현실은 항공기 조종사의 헬멧에 구비된 디스플레이나 항공기의 앞쪽 창문에 시현됨으로써 항공기 조종사가 증강현실을 육안으로 확인할 수 있고, 이에 따라 증강현실을 이용한 임무 훈련이 진행될 수 있다.
이러한 일련의 과정을 도4를 통해 간략하게 정리해보기로 한다.
도4는 본 발명의 일실시예에 따라 임무 훈련에서 증강현실에 대한 가상의 객체 데이터를 송수신하여 항공기 조종사에게 시현하는 것을 개략적으로 나타낸 도면이다.
도4에 도시된 바와 같이, 관제모듈(100)의 위치수신부(120)에서는 항공기 내부 또는 항공기 조종사의 헬멧에 마련된 시현모듈(200)의 위치송신부(210)로부터 관제모듈(100)에서 항공기까지의 상대적인 위치정보 및 거리정보를 수신하여 항공기의 현재 위치를 지속적으로 파악한다. 이 때 위치송신부(210)에서 송신하는 정보에는 항공기의 진행방향과 현재 자세들이 포함될 수 있다.
이렇게 항공기의 위치송신부(210)에서 항공기의 위치를 관제모듈(100)의 위치수신부(120)로 전송한 후에는 훈련 관리자에 의해 선택된 증강현실에 대한 가상의 객체 데이터 다수를 데이터베이스(170)에서 결정하고, 해당 가상의 객체 데이터를 제1데이터송수신부(150)에서 제2데이터송수신부(230)로 전달한다.
이후 전달받은 가상의 객체 데이터는 증강현실시현부(220)로 이동되고, 증강현실시현부(220)에서는 이동된 가상의 객체 데이터를 가공 및 조합함으로써, 가상의 객체가 포함된 증강현실을 항공기 조종사에게 시현할 수 있다.
<임무 훈련에 대한 성과 기록>
이하에서는 도5를 참고하여 항공기 조종사의 임무 훈련 후 임무 훈련에 대한 성과를 기록하는 것에 대해 설명하기로 한다.
도5는 본 발명의 일실시예에 따라 임무 훈련에 대한 성과를 표시하기 위한 예시를 나타낸 도면이다.
도5에 도시된 바와 같이, 본 발명에 따른 임무 훈련은 항공기 조종사에게 증강현실을 시현하여 진행할 수 있고, 임무 훈련 과정에서 발생한 성과를 항공기 조종사 별로 성과기록부(160)에 저장할 수 있다.
구체적으로, 시현모듈(200)에는 임무 훈련 과정에서 항공기 조종사의 훈련내용을 임시로 기록하는 훈련기록부(240)가 마련되어 있다. 또한, 해당 임무 훈련에서는 항공기 조종사가 임무 훈련을 진행하는 동안 임무와 관련된 다양한 시나리오가 설정될 수 있다. 따라서 이러한 임무 훈련 과정에서 복수의 세부 임무를 설정하고, 이를 달성하는지 여부를 판단하여 항공기 조종사의 임무 훈련에 대한 훈련을 기록하고, 기록된 훈련 기록은 제2데이터송수신부(230)에서 제1데이터송수신부(150)를 통해 전달되어 성과기록부(160)에서 분류된 후 저장될 수 있다.
예를 들어, 항공기 조종사가 적군의 미사일을 회피하여 가상으로 마련된 적의 주요시설을 타격하는 임무 훈련에 대한 시나리오 및 목표가 설정되어 있다고 가정하자. 이 때 해당 임무 훈련 과정에서는 세부 임무로써 적 항공기에서 발사된 미사일을 회피한 횟수가 설정될 수 있고, 적의 주요시설에서 목표물을 타격한 횟수가 설정될 수 있으며, 적의 주요시설에서 목표물이 파괴된 정도가 설정될 수 있고, 임무 달성에 소요된 시간 및 임무 훈련의 최종 성공여부 등에 대한 요소를 기록할 수 있다.
이러한 예시는 일부분 일 뿐, 이러한 예시뿐만 아니라 항공기 조종사의 임무 훈련에 대한 다양한 시나리오를 설정하여 임무 훈련에 대한 목표 달성을 기록할 수 있다.
이후 임무 훈련 과정에서 항공기 조종사의 훈련 기록은 성과기록부(160)에 항공기 조종사 별로 저장되어 보관될 수 있다. 이러한 성과기록부(160)에는 항공기 조종사가 실시한 임무 유형별로 해당 임무 훈련에 관한 훈련 기록이 저장될 수 있다.
임무 유형에는 적의 미사일 회피, 적 시설 타격, 아군 시설 방어 및 적의 미사일 격추 등 다양하게 실시할 수 있고, 이에 대하여 A부터 X(변수)까지 임무 유형에 대한 분류코드가 부여될 수 있다.
또한, 임무 유형에 대하여 해당 임무 유형에서 우수한 성과를 기록한 항공기 조종사의 등급을 정렬할 수도 있다. 이에 따라, 훈련 관리자는 관제모듈(100)에서 성과기록부(160)를 통해 해당 임무 유형에 대한 항공기 조종사들의 성과를 용이하게 파악할 수 있다.
아울러, 성과기록부(160)에서 개인별 항공기 조종사의 영역으로 진입하면, 해당 항공기 조종사가 진행한 다수의 임무 훈련에 대한 이력과 성과에 대한 등급을 확인할 수 있고, 세부 임무에 대한 임무 성공 확률 등을 훈련 관리자가 파악할 수 있다.
이와 같은 성과기록부(160)에 관한 예시들은 본 발명에서 실시하기 위한 하나의 예시일 뿐, 성과기록부(160)는 이와 같은 예시뿐만 아니라 항공기 조종사가 실시한 임무 훈련에 대해 다양한 지표로 성과를 기록할 수 있다.
<다수의 항공기 임무 훈련 진행>
도6은 본 발명의 일실시예에 따라 다수의 항공기가 임무 훈련을 진행하는 것을 개략적으로 나타낸 도면이다.
도6에 도시된 바와 같이, 본 발명에서는 관제모듈(100)에서 하나의 항공기 측에 증강현실에 대한 가상의 객체 데이터를 전송하는 것뿐만 아니라 다수의 항공기 측에 증강현실에 대한 가상의 객체 데이터를 전송함으로써, 다수의 항공기가 동시에 임무 훈련을 진행하는 것도 가능하다. 이러한 임무 훈련은 다수의 항공기 조종사가 임무 훈련 진행과정에서 서로 역할을 분담하여 적 항공기를 타격하거나 적의 주요시설을 타격하는 등 다양하게 진행될 수 있다.
예를 들어, 도6과 같이 3대의 아군 항공기 A, B, C가 적 항공기 a, b, c를 타격하는 임무 훈련을 진행한다고 가정하자. 이 때 아군 항공기 A는 적 항공기 a를 타격하도록 임무를 부여받고, 아군 항공기 B는 적 항공기 b를 타격하도록 임무를 부여받으며, 아군 항공기 C는 적 항공기 c를 타격하도록 임무를 부여받을 수 있다.
이에 따라, 아군 항공기 A, B, C는 적 항공기 a, b, c와 전투를 진행하면서 적 항공기를 어느 정도 타격하였는지, 적 항공기에서 발사한 미사일을 얼마나 회피하였는지, 아군 항공기와 임무 훈련 내에서 협력한 정도 등을 세부 임무로 설정하여 임무 훈련을 진행할 수 있다.
이러한 임무 훈련 진행에서는 아군 항공기 A, B, C가 팀으로 구성되어 팀 단위로의 임무 훈련으로 성과기록부(160)에 기록될 수 있고, 팀 내부에서 각각의 항공기 조종사 별로 세부 임무에 대한 성과를 훈련 관리자가 파악할 수도 있다.
<다수의 차량 임무 훈련 진행>
도7은 본 발명의 일실시예에 따라 다수의 차량이 임무 훈련을 진행하는 것을 개략적으로 나타낸 도면이다.
도7에 도시된 바와 같이, 본 발명에 따른 임무 훈련은 항공기 조종사에게 증강현실을 시현하여 임무 훈련을 진행하는 것뿐만 아니라, 차량 운전자에게도 증강현실을 시현함으로써 임무 훈련을 진행할 수 있다. 따라서 훈련자등록부(110)에는 차량 운전자의 신상정보 또한 등록될 수 있으며, 아울러 훈련자는 항공기 및 차량을 모두 조종 및 운전함으로써 항공기 조종사 및 차량 운전자가 될 수 있다.
이러한 차량은 지상을 바퀴로 이동하여 전투에 사용될 수 있는 모든 무기장비를 일컫는 것으로, 탱크, 장갑차, 트럭, 미사일 포대, 자주포 등 다양하게 포함될 수 있다.
관제모듈(100)은 차량 내부 일측에 시현모듈(200)이 구비되어 항공기 조종사와 동일하게 차량 운전자의 Helmet Mounted Display에서 차량 운전자가 육안으로 증강현실을 확인할 수 있도록 증강현실시현부(220)를 통해 증강현실을 시현하거나, 차량 앞 유리창에 증강현실을 시현함으로써 차량 운전자 또한 증강현실을 통해 임무 훈련을 진행할 수 있다. 이러한 증강현실 시현방법은 앞서 설명한 항공기 조종사에게 시현하는 방법과 동일하기 때문에 동일한 설명에 대해선 생략하기로 한다.
또한, 차량 운전자에게도 동일하게 성과기록부(160)에 임무 훈련에 대한 성과를 기록 및 저장할 수 있다. 이러한 차량 운전사의 해당 임무 훈련에 대한 성과 기록은 항공기 측에 마련된 시현모듈(200)과 동일하게 해당 임무 훈련 과정에서 차량 운전자가 달성한 세부 임무를 시현모듈(200)의 훈련기록부(240)에서 기록하고, 이를 제2데이터송수신부(230)를 통해 관제모듈(100)의 제1데이터송수신부(150)로 전송하며, 이에 따라 성과기록부(160)에 차량 운전자의 성과가 기록 및 저장될 수 있다.
아울러, 다수의 차량 운전자에게 증강현실을 시현함으로써 다수의 항공기 조종사가 팀 단위로 구성되어 임무 훈련을 진행하는 것과 같이, 다수의 차량 운전자가 팀 단위로 구성되어 임무 훈련을 진행할 수 있다.
예를 들어, 도7과 같이 3대의 아군 차량 D, E, F가 적 차량 d, e, f를 타격하는 임무 훈련을 진행한다고 가정하자. 이 때 아군 차량 D는 적 차량 d를 타격하도록 임무를 부여받고, 아군 차량 E는 적 차량 e를 타격하도록 임무를 부여받으며, 아군 차량 F는 적 차량 f를 타격하도록 임무를 부여받을 수 있다.
이에 따라, 아군 차량 D, E, F는 적 d, e, f와 전투를 진행하면서 적 차량을 어느 정도 타격하였는지, 적 차량에서 발사한 포를 얼마나 회피하였는지, 아군 차량과 임무 훈련 내에서 협력한 정도 등을 세부 임무로 설정하여 임무 훈련을 진행할 수 있다.
이러한 임무 훈련 진행에서는 아군 차량 D, E, F가 팀으로 구성되어 팀 단위로의 임무 훈련으로 성과기록부(160)에 기록될 수 있고, 팀 내부에서 각각의 차량 운전자 별로 세부 임무에 대한 성과를 훈련 관리자가 파악할 수도 있다.
또, 임무 훈련 진행 시 다수의 항공기 조종사와 다수의 차량 운전자가 함께 임무 훈련을 진행할 수도 있다. 이와 같은 상황에서도 앞서 설명과 동일하게 각각의 항공기 측과 차량 측에 시현모듈(200)이 마련되어 있으면, 관제모듈(100)에서 각각의 시현모듈(200)로 증강현실에 대한 가상의 객체 데이터를 전송하여 증강현실을 시현함으로써 임무 훈련을 진행할 수 있다.
이상에서 설명한 바와 같이, 본 발명에 따른 L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치 및 임무 훈련 방법은 항공기 조종사 또는 차량 운전자에게 효과적인 훈련이 가능하다.
본 발명에 따른 라이브 임무 훈련은 임무 훈련을 관장하는 관제소에서 항공기 내부의 디스플레이나 항공기 조종사의 헬멧에 설치되어 가상의 객체를 생성하는 모듈을 통해 증강현실이 시현될 수 있다.
이러한 증강현실은 실제 지형지물을 배경으로 임무의 목표물이나 적군의 숫자, 진형, 배치, 이동 등을 설정하여 시현할 수 있고, 이에 따라 항공기 조종사 및 차량 운전자는 모의된 전장 상황이라도 실제 전장 상황과 같은 상황을 대면함으로써 미사일 피격 회피 훈련 등이나 목표물 타격과 같은 실제 전장 상황에서의 임무 훈련을 진행하여 훈련의 효율성을 증가시킬 수 있다.
또한, 비용을 절감할 수 있다. 종래에는 공대공 훈련 시 더미를 통해 임무 훈련을 진행하였다. 즉, 공대공 훈련 시 요격 더미를 장착한 항공기 또는 전투기를 운용하여 훈련 대상 항공기의 임무 훈련을 보조하게 하는 상황이 있었다.
하지만 본 발명에 따른 임무 훈련은 임무 훈련을 진행하는 항공기의 조종사에게 증강현실을 시현함으로써, 훈련 대상 항공기 외에 별도의 추가 항공기를 운용하지 않더라도 임무 훈련이 가능하기 때문에 항공기 운용에 대한 비용이 절감될 수 있다.
상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면, 본 발명의 사상과 범위 안에서 다양한 수정, 변경 및 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 본 발명의 특허청구 범위에 속하는 것으로 보아야 할 것이다.
100 : 관제모듈
110 : 훈련자등록부
120 : 위치수신부
130 : 데이터처리부
140 : 증강현실결정부
150 : 제1데이터송수신부
160 : 성과기록부
170 : 데이터베이스
180 : 제1제어부
200 : 시현모듈
210 : 위치송신부
220 : 증강현실시현부
230 : 제2데이터송수신부
240 : 훈련기록부
250 : 제2제어부

Claims (14)

  1. L-V-C(Live Virtual Constructive)를 기반으로 한 임무 훈련에 있어서,
    임무 훈련을 관장하는 관제모듈;
    적어도 하나 이상의 차량 또는 항공기 내부에 위치하여 상기 관제모듈로부터 가상의 객체 데이터를 전송받아 증강현실을 시현하는 시현모듈;을 포함하고,
    상기 관제모듈에서 상기 증강현실에 대한 가상의 객체 데이터를 전송하여 상기 시현모듈에서 상기 증강현실을 시현함으로써 상기 임무 훈련을 진행하고,
    상기 관제모듈은,
    상기 차량 또는 상기 항공기와의 상대적인 거리정보 및 위치정보를 수신하는 위치수신부;
    상기 거리정보 및 위치정보를 처리하여 상기 차량 또는 상기 항공기의 거리 및 위치를 계산하는 데이터처리부;
    훈련 관리자의 명령에 따라 상기 증강현실에 대한 가상의 객체 데이터를 결정하는 증강현실결정부; 및
    결정된 상기 가상의 객체 데이터를 상기 시현모듈로 전송하는 제1데이터송수신부;를 포함하며,
    상기 시현모듈은,
    상기 위치수신부로 상기 차량 또는 상기 항공기의 상대적인 거리정보 및 위치정보를 송신하는 위치송신부;
    상기 제1데이터송수신부로부터 상기 가상의 객체 데이터를 전송받는 제2데이터송수신부;
    상기 가상의 객체 데이터를 기반으로 상기 증강현실을 시현하는 증강현실시현부;
    상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련의 결과를 임시로 기록하는 훈련기록부;
    상기 훈련기록부에서 기록한 상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련 기록을 전송 받아 상기 차량 운전자 또는 상기 항공기 조종사의 훈련 성과를 기록 및 저장하는 성과기록부를 포함하며, 상기 성과기록부에는 상기 임무 훈련의 유형에 따라 분류코드를 부여하는 것을 특징으로 하는 L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 관제모듈은 상기 임무 훈련에 대한 정보가 저장된 데이터베이스를 더 포함하고,
    상기 증강현실결정부는 상기 데이터베이스를 참조하여 상기 데이터베이스에 저장된 상기 가상의 객체 데이터를 결정하는 것을 특징으로 하는 L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치.
  4. 제3항에 있어서,
    상기 관제모듈은 상기 임무 훈련을 수행하는 상기 차량 운전자 또는 상기 항공기 조종사의 신상정보를 등록하는 훈련자등록부를 더 포함하고,
    등록된 상기 차량 운전자 또는 상기 항공기 조종사의 신상정보는 상기 데이터베이스에 저장되어 있는 것을 특징으로 하는 L-V-C 및 증강현실을 통한 라이브 임무 훈련 장치.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 위치수신부가 관제모듈에서 차량 또는 항공기와의 상대적 거리정보 및 위치정보를 수신하는 단계;
    데이터처리부가 상기 거리정보 및 위치정보를 처리하여 상기 관제모듈로부터 상기 차량 또는 상기 항공기의 거리 및 위치를 계산하는 단계;
    훈련 관리자의 명령에 따라 증강현실결정부가 임무 훈련에 대한 증강현실에 대한 가상의 객체 데이터를 결정하는 단계;
    제1데이터송수신부가 결정된 상기 증강현실에 대한 상기 가상의 객체 데이터를 상기 차량 또는 상기 항공기 측의 시현모듈로 전송하는 단계;
    제2데이터송수신부가 상기 가상의 객체 데이터를 전송받는 단계; 및
    증강현실시현부가 상기 가상의 객체 데이터를 이용하여 상기 증강현실을 시현하는 단계;를 포함하되,
    훈련기록부는 상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련의 결과를 임시로 기록하고,
    성과기록부는 상기 훈련기록부에서 기록한 상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련 기록을 전송 받아 상기 차량 운전자 또는 상기 항공기 조종사의 훈련 성과를 기록 및 저장하고, 상기 성과기록부에는 상기 임무 훈련의 유형에 따라 분류코드를 부여하는 것을 특징으로 하는 L-V-C 및 증강현실을 통한 라이브 임무 훈련 방법.
  9. 제8항에 있어서,
    상기 관제모듈은 상기 임무 훈련에 대한 정보가 저장된 데이터베이스를 포함하고,
    상기 증강현실결정부는 상기 데이터베이스를 참조하여 상기 데이터베이스에 저장된 상기 가상의 객체 데이터를 결정하는 것을 특징으로 하는 L-V-C 및 증강현실을 통한 라이브 임무 훈련 방법.
  10. 제9항에 있어서,
    상기 관제모듈은 상기 임무 훈련을 수행하는 상기 차량 운전자 또는 상기 항공기 조종사의 신상정보를 등록하는 훈련자등록부를 더 포함하고,
    등록된 상기 차량 운전자 또는 상기 항공기 조종사의 신상정보는 상기 데이터베이스에 저장되어 있는 것을 특징으로 하는 L-V-C 및 증강현실을 통한 라이브 임무 훈련 방법.
  11. 삭제
  12. 삭제
  13. 삭제
  14. L-V-C(Live Virtual Constructive)를 기반으로 한 임무 훈련에 있어서,
    차량 또는 항공기의 거리정보 및 위치정보를 수신하여 상기 차량 또는 상기 항공기가 떨어진 위치를 계산하고, 데이터베이스에서 증강현실에 대한 가상의 객체 데이터를 전송하여 상기 임무 훈련을 관장하는 관제모듈;
    적어도 하나 이상의 차량 또는 항공기 내부에 위치하여 상기 관제모듈로부터 상기 증강현실에 대한 가상의 객체 데이터를 전송받아 증강현실을 시현하는 시현모듈;을 포함하되,
    상기 관제모듈에서 상기 증강현실에 대한 가상의 객체 데이터를 전송하여 상기 시현모듈에서 상기 증강현실을 시현함으로써 상기 임무 훈련을 진행하고,
    상기 관제모듈은,
    상기 차량 또는 상기 항공기와의 상대적인 거리정보 및 위치정보를 수신하는 위치수신부;
    상기 거리정보 및 위치정보를 처리하여 상기 차량 또는 상기 항공기의 거리 및 위치를 계산하는 데이터처리부;
    훈련 관리자의 명령에 따라 상기 증강현실에 대한 가상의 객체 데이터를 결정하는 증강현실결정부; 및
    결정된 상기 가상의 객체 데이터를 상기 시현모듈로 전송하는 제1데이터송수신부;를 포함하며,
    상기 시현모듈은,
    상기 위치수신부로 상기 차량 또는 상기 항공기의 상대적인 거리정보 및 위치정보를 송신하는 위치송신부;
    상기 제1데이터송수신부로부터 상기 가상의 객체 데이터를 전송받는 제2데이터송수신부;
    상기 가상의 객체 데이터를 기반으로 상기 증강현실을 시현하는 증강현실시현부;
    상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련의 결과를 임시로 기록하는 훈련기록부;
    상기 훈련기록부에서 기록한 상기 차량 운전자 또는 상기 항공기 조종사의 임무 훈련 기록을 전송 받아 상기 차량 운전자 또는 상기 항공기 조종사의 훈련 성과를 기록 및 저장하는 성과기록부를 포함하며, 상기 성과기록부에는 상기 임무 훈련의 유형에 따라 분류코드를 부여하는 것을 특징으로 하는 L-V-C 및 증강현실을 통한 라이브 임무 훈련 시스템.
KR1020170151459A 2017-11-14 2017-11-14 L-v-c 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템 KR102042989B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170151459A KR102042989B1 (ko) 2017-11-14 2017-11-14 L-v-c 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170151459A KR102042989B1 (ko) 2017-11-14 2017-11-14 L-v-c 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20190054645A KR20190054645A (ko) 2019-05-22
KR102042989B1 true KR102042989B1 (ko) 2019-12-02

Family

ID=66679820

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170151459A KR102042989B1 (ko) 2017-11-14 2017-11-14 L-v-c 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102042989B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11277203B1 (en) 2020-01-22 2022-03-15 Architecture Technology Corporation Hybrid communications based upon aerial networks
US11474596B1 (en) 2020-06-04 2022-10-18 Architecture Technology Corporation Systems and methods for multi-user virtual training
US11508253B1 (en) 2020-02-12 2022-11-22 Architecture Technology Corporation Systems and methods for networked virtual reality training

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110675688A (zh) * 2019-10-08 2020-01-10 江西洪都航空工业集团有限责任公司 一种真虚共融可重构空地一体化多域战术训练系统
CN112102677A (zh) * 2020-09-17 2020-12-18 中国人民解放军陆军军医大学 混合现实高仿真战现场急救训练平台及其训练方法
KR102471842B1 (ko) * 2022-03-30 2022-11-30 (주)디투이노베이션 Lvc 기반 드론 전술훈련을 위한 eo/ir 영상 시뮬레이션 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101333147B1 (ko) * 2012-06-19 2013-11-26 에이알비전 (주) 융합 현실을 이용한 실내 집단훈련 지원시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110136038A (ko) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 복수개의 센서를 이용한 증강현실 장치 방향 트래킹 시스템
US9799229B2 (en) * 2012-12-13 2017-10-24 The Boeing Company Data sharing system for aircraft training
KR101418483B1 (ko) 2012-12-24 2014-07-15 한국항공우주산업 주식회사 특수임무훈련을 위한 비행 시뮬레이터장치 및 그 제어방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101333147B1 (ko) * 2012-06-19 2013-11-26 에이알비전 (주) 융합 현실을 이용한 실내 집단훈련 지원시스템

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11277203B1 (en) 2020-01-22 2022-03-15 Architecture Technology Corporation Hybrid communications based upon aerial networks
US11508253B1 (en) 2020-02-12 2022-11-22 Architecture Technology Corporation Systems and methods for networked virtual reality training
US11474596B1 (en) 2020-06-04 2022-10-18 Architecture Technology Corporation Systems and methods for multi-user virtual training
US11868519B2 (en) 2020-06-04 2024-01-09 Architecture Technology Corporation Systems and methods for virtual training within three-dimensional adaptive learning environments

Also Published As

Publication number Publication date
KR20190054645A (ko) 2019-05-22

Similar Documents

Publication Publication Date Title
KR102042989B1 (ko) L-v-c 및 증강현실을 통한 라이브 임무 훈련 장치, 방법 및 시스템
US9454910B2 (en) Vehicle crew training system for ground and air vehicles
US9099009B2 (en) Performance-based simulation system for an aircraft
ES2411307T3 (es) Entorno de formación conducido por instructor e interfaces con el mismo
US6296486B1 (en) Missile firing simulator with the gunner immersed in a virtual space
CN104471627B (zh) 嵌入式模拟方法及相关系统
EP3341926B1 (en) System and method for identifying a deviation of an operator of a vehicle from a doctrine
WO2015112058A1 (ru) Учебный тренажер боевых расчетов зенитного ракетного комплекса
RU144759U1 (ru) Учебный тренажер боевых расчетов зенитного ракетного комплекса
KR20160132662A (ko) 무인 비행체를 이용한 ais 포드 모의 장치 및 방법
EP1166029B1 (de) Verfahren zur gefechtsfeldsimulation
Dutta Simulation in military training: Recent developments
RU71756U1 (ru) Модульный комплексный тренажер экипажа боевой машины пехоты бмп-2
KR102528037B1 (ko) 대대급 전술 비행 훈련을 지원하는 탁상형 비행 전술 시뮬레이션 시스템 및 방법
Guckenberger et al. Training high performance skills using above real-time training
KR102279384B1 (ko) 다중접속 멀티협업 군사용 교육 훈련 시스템
RU2297674C2 (ru) Тренажер воздушного боя
Prachyabrued et al. Development of Attack Helicopter Simulator
KR20240045187A (ko) 증강 현실을 이용한 군용 드론 포격 훈련 시스템
Iyengar et al. Military development and applications of simulation systems
Masters Drone Pilot
CN114353581A (zh) 一种便携式导弹模拟训练方法及系统
Bahr et al. Embedded Simulation: INVEST-STO and Beyond
Hanon Robots on the battlefield-are we ready for them?
Cobleigh et al. The American Approach to Aerial Reconnaissance and Observation During World War I

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant