KR101076240B1 - Device and method for an air defense situation awareness using augmented reality - Google Patents

Device and method for an air defense situation awareness using augmented reality Download PDF

Info

Publication number
KR101076240B1
KR101076240B1 KR1020110019678A KR20110019678A KR101076240B1 KR 101076240 B1 KR101076240 B1 KR 101076240B1 KR 1020110019678 A KR1020110019678 A KR 1020110019678A KR 20110019678 A KR20110019678 A KR 20110019678A KR 101076240 B1 KR101076240 B1 KR 101076240B1
Authority
KR
South Korea
Prior art keywords
information
unit
tactical
image
augmented reality
Prior art date
Application number
KR1020110019678A
Other languages
Korean (ko)
Inventor
임동주
Original Assignee
삼성탈레스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성탈레스 주식회사 filed Critical 삼성탈레스 주식회사
Priority to KR1020110019678A priority Critical patent/KR101076240B1/en
Application granted granted Critical
Publication of KR101076240B1 publication Critical patent/KR101076240B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition

Abstract

본 발명에 따른 증강현실을 이용한 방공 전장상황 제공 장치는, 외부의 실제 영상을 촬영하여 실제영상정보를 제공하는 영상획득부와; 위치정보를 측정하는 위치측정부와; 상기 위치측정부에 의해 제공되는 상기 위치정보에 대응하는 전자지도를 제공하는 전자지도생성부와; 상기 실제 영상에 대응하는 적군 및 아군에 관한 전술정보를 제공하는 전술정보처리부와; 사용자 명령을 입력받는 입력부와; 상기 영상획득부에 의해 제공되는 실제 영상과, 상기 전자지도생성부에 의해 제공되는 전자지도와, 상기 전술정보처리부 및 상기 입력부 중 적어도 하나로부터 제공되는 전술정보와, 운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 서로 상하 계층구조 형태로 중첩되는 전술정보영상을 생성하는 증강현실 생성부; 및 상기 전술정보영상을 디스플레이하는 디스플레이부를 포함하는 것을 특징으로 한다. The air defense electric field situation providing apparatus using augmented reality according to the present invention comprises: an image acquisition unit for photographing an external real image and providing real image information; A position measuring unit measuring position information; An electronic map generator for providing an electronic map corresponding to the position information provided by the position measuring unit; A tactical information processor for providing tactical information about the enemy and allies corresponding to the actual image; An input unit for receiving a user command; An actual image provided by the image acquisition unit, an electronic map provided by the electronic map generation unit, tactical information provided from at least one of the tactical information processing unit and the input unit, and a user for receiving a command from an operator An augmented reality generating unit generating a tactical information image in which interface symbols overlap each other in a hierarchical structure; And a display unit for displaying the tactical information image.

Description

증강현실을 이용한 방공 전장상황 제공 장치 및 방법{Device and method for an air defense situation awareness using augmented reality}Device and method for providing air defense battlefield situation using augmented reality {a device and method for an air defense situation awareness using augmented reality}

본 발명은 방공 전장상황을 제공하는 장치 및 방법에 관한 것으로, 특히 하나의 디스플레이 화면에 다양한 전술 정보를 제공함으로써 운용자의 작전수행능력을 향상시킬 수 있는 장치 및 방법에 관한 것이다.
The present invention relates to an apparatus and method for providing an air defense battlefield situation, and more particularly, to an apparatus and a method capable of improving an operator's operational performance by providing various tactical information on one display screen.

미래전은 단위 무기체계별 플랫폼 중심의 전장에서 모든 무기체계가 기술적 연결성과 상호 운용성을 통하여 관련 부대 및 요원들이 필요한 정보를 공유하고 공동으로 조치하는 네트워크 중심 작전환경으로 변화하고 있다. The future war is changing from a platform-based battlefield by unit weapon system to a network-driven operational environment in which all weapon systems share and co-operate with the information required by relevant units and personnel through technical connectivity and interoperability.

네트워크중심 작전환경에서는 센서 및 지휘통제체계가 네트워크를 통하여 상황인식을 공유하고 이를 통하여 정밀타격을 수행함으로써 전쟁 수행능력을 극대화하며 이때 무기체계 상호간의 지휘통제를 위한 통신수단으로써 전술데이터링크(TDL: Tactical Data Link)가 사용되며, 적의 위협에 대항하여 일련의 작전을 행하기 위해서는 실시간 전술데이터링크(Tactical data link)가 전제되어야 한다. In a network-based operating environment, sensors and command control systems share situational awareness through the network and perform precise strikes, thereby maximizing warfare capability.At this time, tactical data link (TDL) is used as a communication means for command control between weapon systems. Tactical Data Links are used, and real-time tactical data links are required to perform a series of operations against enemy threats.

방공자동화체계는 센서인 레이더망으로부터 수집된 데이터를 통합처리하여 필요한 전술조치를 취하는 체계이다. 레이더, 사격통제체계 및 연동체계 등과 데이터 링크 처리기(DLP: Data Link Processor), 입력된 자료를 처리하는 중앙처리컴퓨터 및 처리된 결과를 전시하고 적절한 전술조치를 취하는 전시콘솔 등으로 구성되어 있으며 체계 내외부와 음성통신을 할 수 있는 유무선 음성통신 장비도 체계에 포함되어 있다. The air defense automation system integrates the data collected from the sensor radar network and takes necessary tactical measures. It consists of radar, fire control system and interlock system, data link processor (DLP), central processing computer to process input data, and exhibition console to display processed results and take appropriate tactical action. The system also includes wired and wireless voice communication equipment for voice communication.

방공자동화체계는 레이더, ESM(Electronic Support Measures) 등의 센서체계에서 가공하지 않은 원천 데이터(law data)를 입력받으며, 미사일 사격통제장비(예를 들어, AN/TSQ-73) 등에서 처리된 표적자료와 무기통제 명령들을 지시하며, 인접 방공자동화체계, AWACS(Airborne Warning and Control System) 및 NTDS(Naval Tactical Data System)와 같은 기능이 유사한 전술 지휘통제체계(tactical data system)와 표적정보를 교환한다. The air defense automation system receives raw data (raw data) from sensor systems such as radar and electronic support measures (ESM), and target data processed by missile fire control equipment (eg AN / TSQ-73). It also directs weapons control commands and exchanges target information with similar tactical data systems, such as the adjacent air defense automation systems, AWACS (Airborne Warning and Control System), and Naval Tactical Data System (NTDS).

표준화된 전술데이터링크로는 TADIL-A(Link-11), TADIL-B(TActical Digital Information Link-B), JTIDS(Joint Tactical Information Distribution System), ATDL(Army Tactical Data Link) 등이 있다.
Standardized tactical data links include TADIL-A (Link-11), TADIL-B (TActical Digital Information Link-B), JTIDS (Joint Tactical Information Distribution System), and ATDL (Army Tactical Data Link).

종래의 방공자동화체계에서는 전자지도를 바탕으로 전술데이터링크를 통해 전장상황정보(예를 들어, 아군정보, 적군정보, 상황도, 각종 임무명령 및 상황보고 등)를 시현하여 운용자에게 현 시점에서의 전술정보를 제공한다. 영상획득장치가 탑재된 체계는 획득한 영상을 처리하고 시현하는 장치가 별도로 존재하여 운용자에게 해당 정보를 제공한다.In the conventional air defense automation system, the battlefield situation information (for example, friendly information, enemy information, situation map, various mission orders and situation report, etc.) is displayed through the tactical data link based on the electronic map to the operator at the present time. Provide tactical information. In the system equipped with the image acquisition device, there is a separate device for processing and displaying the acquired image and providing the corresponding information to the operator.

그러나, 종래의 전장상황정보를 제공하는 방법에 따르면, 방공 전투상황에서 전자지도 및 레이더 등을 통한 전장상황 인식만이 가능했기 때문에, 운용자가 이를 숙지하고 임무를 수행해야 하며, 인간의 기억능력의 한계로 인해 전장상황정보 손실 및 왜곡이 발생하게 되는 문제가 있다. 또한, 전자지도의 시현을 위한 시현장비 및 카메라 획득영상을 시현하기 위한 시현장비 등 다수의 시현장비가 별도로 존재해야 하므로 시스템을 위한 공간이 많이 차지하게 되며, 이에 따른 시스템 설치 비용이 증가하게 될 뿐만 아니라, 탱크, 장갑차 또는 비행체와 같은 이동체는 내부 공간이 협소하여 시스템 설치에 장소적 제한이 있는 문제가 있다.
However, according to the conventional method of providing battlefield information, the battlefield situation can be recognized only through the electronic map and radar in the air defense combat situation, so that the operator should be aware of it and perform the mission. Due to limitations, there is a problem that loss and distortion of the battlefield information occurs. In addition, since a large number of display equipment, such as a display equipment for displaying an electronic map and a display equipment for displaying a camera acquired image, must exist separately, it takes up a lot of space for the system, thereby increasing the system installation cost. Rather, moving objects such as tanks, armored vehicles or vehicles have a problem that there is a limited space in the installation of the system due to the narrow internal space.

상기와 같은 문제점을 해소하기 위한 본 발명의 목적은 운용자의 전장상황 인식의 속도 및 정확도를 향상시킬 수 있는 장치 및 방법을 제공함에 있다.An object of the present invention for solving the above problems is to provide an apparatus and method that can improve the speed and accuracy of operator recognition of the battlefield situation.

또한, 본 발명의 다른 목적은 운용자의 의사결정 및 전투상황정보 입력의 편의성을 향상시킬 수 있는 장치 및 방법을 제공함에 있다.In addition, another object of the present invention is to provide an apparatus and method that can improve the convenience of the operator's decision-making and combat situation information input.

또한, 본 발명의 또 다른 목적은 시스템 설치 공간을 감소시킬 수 있는 장치 및 방법을 제공함에 있다.
Still another object of the present invention is to provide an apparatus and a method capable of reducing a system installation space.

상기 목적을 달성하기 위한 본 발명에 따른 증강현실을 이용한 방공 전장상황 제공 장치는, 외부의 실제 영상을 촬영하여 실제영상정보를 제공하는 영상획득부와; 위치정보를 측정하는 위치측정부와; 상기 위치측정부에 의해 제공되는 상기 위치정보에 대응하는 전자지도를 제공하는 전자지도생성부와; 상기 실제 영상에 대응하는 적군 및 아군에 관한 전술정보를 제공하는 전술정보처리부와; 사용자 명령을 입력받는 입력부와; 상기 영상획득부에 의해 제공되는 실제 영상과, 상기 전자지도생성부에 의해 제공되는 전자지도와, 상기 전술정보처리부 및 상기 입력부 중 적어도 하나로부터 제공되는 전술정보와, 운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 서로 상하 계층구조 형태로 중첩되는 전술정보영상을 생성하는 증강현실 생성부; 및 상기 전술정보영상을 디스플레이하는 디스플레이부를 포함하는 것을 특징으로 한다. The air defense electric field situation providing apparatus using augmented reality according to the present invention for achieving the above object, the image acquisition unit for providing the actual image information by taking a real image from the outside; A position measuring unit measuring position information; An electronic map generator for providing an electronic map corresponding to the position information provided by the position measuring unit; A tactical information processor for providing tactical information about the enemy and allies corresponding to the actual image; An input unit for receiving a user command; An actual image provided by the image acquisition unit, an electronic map provided by the electronic map generation unit, tactical information provided from at least one of the tactical information processing unit and the input unit, and a user for receiving a command from an operator An augmented reality generating unit generating a tactical information image in which interface symbols overlap each other in a hierarchical structure; And a display unit for displaying the tactical information image.

상기 전술정보영상은, 상기 실제 영상이 배열되는 획득영상층과, 상기 전자지도가 배열되는 전자지도층과, 적군 및 아군에 관한 정보가 배열되는 전장상황층과, 현재 위치, 방위, 시각에 관한 정보가 배열되는 상태정보층과, 운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 배열되는 명령도구층이 서로 상하 계층 형태로 중첩되도록 형성될 수 있다.The tactical information image includes an acquired image layer on which the actual image is arranged, an electronic map layer on which the electronic map is arranged, a battlefield situation layer on which information on enemy and subordinates are arranged, and information on the current position, orientation, and time. The state information layer in which is arranged and the command tool layer in which user interface symbols for receiving a command from an operator are arranged may overlap each other in an upper and lower hierarchical form.

또한, 상기 디스플레이부의 상단에는 상기 상태정보층의 상기 현재 위치, 방위, 시각에 관한 정보가 배열되며, 상기 디스플레이부의 하단에는 상기 명령도구층의 상기 사용자 인터페이스 심볼들이 배열되고, 상기 디스플레이부의 중앙부에는 상기 전장상황층의 적군 및 아군에 관한 정보가 배열되도록 형성될 수 있다.Further, information on the current position, orientation, and time of the status information layer is arranged at an upper end of the display unit, and the user interface symbols of the command tool layer are arranged at a lower end of the display unit, and at the center of the display unit. It may be formed so that information about the enemy and allies in the battlefield situation layer is arranged.

또한, 상기 장치는, 상기 영상획득부의 모션 정보를 수신하는 모션 센서부를 더 포함하고, 상기 증강현실생성부는 상기 모션 정보에 따라 상기 영상획득부의 시야(FOV) 영역을 결정하도록 형성될 수 있다.The apparatus may further include a motion sensor unit configured to receive motion information of the image acquisition unit, and the augmented reality generator may be configured to determine a field of view (FOV) area of the image acquisition unit according to the motion information.

또한, 상기 장치는, 전술데이터링크를 통하여 상기 전술정보를 수신하여, 상기 전술정보를 상기 전술정보처리부로 제공하는 데이터링크처리부를 더 포함할 수 있다.The apparatus may further include a data link processing unit which receives the tactical information through the tactical data link and provides the tactical information to the tactical information processing unit.

나아가, 상기 디스플레이부는 적군, 아군 및 미확인 트랙에 대하여 서로 다른 심볼을 이용하여 표시하며, 상기 각각의 심볼에 대한 클릭 횟수 또는 드래그 여부에 따라 서로 다른 기능을 제공할 수 있다.In addition, the display unit may display the enemy, allies, and unidentified tracks using different symbols, and may provide different functions according to the number of clicks or dragging of each symbol.

또한, 상기 목적을 달성하기 위한 본 발명에 따른 증강현실을 이용한 방공 전장상황 제공 방법은, 위치측정부를 이용하여 영상획득부의 위치정보를 측정하는 단계와; 상기 영상획득부를 이용하여 외부의 실제 영상을 촬영하여 실제영상정보를 제공하는 단계와; 상기 위치측정부에 의해 제공되는 위치정보에 대응하는 전자지도를 제공하는 단계와; 상기 실제 영상에 대응하는 적군 및 아군에 관한 전술정보를 제공하는 단계와; 상기 영상획득부에 의해 제공되는 실제 영상과, 상기 전자지도와, 상기 전술정보와, 운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 서로 상하 계층구조 형태로 중첩되는 전술정보영상을 생성하는 단계; 및 상기 전술정보영상을 디스플레이부에 디스플레이하는 단계를 포함하는 것을 특징으로 한다.
In addition, the air defense electric field situation providing method using augmented reality according to the present invention for achieving the above object, the step of measuring the position information of the image acquisition unit using a position measuring unit; Photographing an external real image using the image acquisition unit to provide real image information; Providing an electronic map corresponding to the location information provided by the location measuring unit; Providing tactical information about the enemy and allies corresponding to the actual image; Generating a tactical information image in which an actual image provided by the image acquisition unit, the electronic map, the tactical information, and user interface symbols for receiving a command from an operator are superimposed on each other in a hierarchical structure; And displaying the tactical information image on a display unit.

본 발명에 따르면 카메라를 통해 획득한 실제 영상에 대응하는 전자지도와, 적군/아군/미확인 트랙에 대한 다양한 전술정보뿐만 아니라, 운용자 명령을 입력할 수 있는 객체가 상하 계층구조로 중첩되는 전술정보영상을 제공함으로써, 체계 운용자는 전장상황 에 대한 인식의 속도 및 정확도를 증가시킬 수 있고, 이로 인하여 작전수행능력을 향상시킬 수 있는 이점이 있다. According to the present invention, a tactical information image in which an electronic map corresponding to an actual image acquired through a camera and various tactical information on enemy / ally / unidentified tracks, as well as an object capable of inputting an operator command, are superimposed in an upper and lower hierarchical structure. By providing the system, the system operator can increase the speed and accuracy of the recognition of the battlefield situation, thereby improving the operational capability.

또한, 본 발명에 따르면, 다층 구조의 전술정보영상을 통하여 체계 운용자의 의사결정 및 전투상황정보 입력의 편의성을 향상시킬 수 있는 이점이 있다.In addition, according to the present invention, there is an advantage that it is possible to improve the convenience of decision-making and combat situation information input of the system operator through the tactical information image of the multi-layer structure.

또한, 본 발명의 또 다른 목적은 하나의 디스플레이를 통하여 다층 구조의 전술정보영상의 시현 및 이를 통하여 운용자 명령을 입력받을 수 있도록 함으로써, 종래 다수의 디스플레이장치와 입력장치등을 필요로 하던 장치와 비교하여, 탱크, 장갑차 또는 비행체와 같이 협소한 공간 내에도 용이하게 설치할 수 있는 이점이 있다.
In addition, another object of the present invention is to display the tactical information image of the multi-layer structure through one display and to receive the operator's command through it, compared to the devices that require a plurality of display devices and input devices in the prior art Thus, there is an advantage that can be easily installed in a narrow space, such as tanks, armored vehicles or vehicles.

도 1은 본 발명에 따른 증강현실을 이용한 방공 전장상황 제공 장치의 구성도.
도 2는 본 발명에 따른 증강현실 전술화면의 계층 구조를 나타내는 도면.
도 3은 본 발명에 따라 디스플레이부에 시현되는 증강현실 전술화면의 일 예를 나타내는 도면.
도 4는 본 발명에 따른 운용자 입력처리의 일 예를 나타내는 도면.
도 5는 본 발명에 따른 증강현실 전술화면의 생성과정을 설명하는 도면.
도 6은 본 발명에 따른 증강현실 전술화면의 세부 생성과정을 설명하는 도면.
도 7은 본 발명에 따른 증강현실 전술화면을 생성할 가상의 3차원 공간을 설명하는 도면.
도 8은 본 발명에 따른 증강현실 전술화면의 생성시 시야(FOV)에서 트랙 시현위치를 위한 각 파라미터의 관계를 나타내는 도면.
도 9는 본 발명에 따라 디스플레이장치를 통하여 운용자가 운용자 명령을 입력하는 과정을 나타내는 도면.
도 10은 본 발명에 따른 전술화면에서의 운용자 입력처리 구역에 대한 예를 나타내는 도면.
도 11은 본 발명에 따른 전술화면상의 각 객체 속성별 운용자 입력에 따른 실행기능에 대한 예를 나타내는 도면.
1 is a block diagram of the air defense electric field situation providing apparatus using augmented reality according to the present invention.
2 is a diagram showing a hierarchical structure of the augmented reality tactical screen according to the present invention.
Figure 3 is a view showing an example of the augmented reality tactical screen displayed on the display unit in accordance with the present invention.
4 is a diagram illustrating an example of operator input processing according to the present invention;
5 is a view illustrating a process of generating an augmented reality tactical screen according to the present invention.
6 is a view illustrating a detailed generation process of the augmented reality tactical screen according to the present invention.
7 is a view for explaining a virtual three-dimensional space to create augmented reality tactical screen according to the present invention.
8 is a view showing the relationship of each parameter for the track display position in the field of view (FOV) upon creation of augmented reality tactical screen according to the present invention.
9 is a view illustrating a process of an operator inputting an operator command through a display device according to the present invention.
10 is a diagram showing an example of an operator input processing area in a tactical screen according to the present invention;
11 is a view showing an example of the execution function according to the operator input for each object property on the tactical screen according to the present invention.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the annexed drawings, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

도 1은 본 발명에 따른 증강현실을 이용한 방공 전장상황 제공 장치의 구성도이다.1 is a block diagram of the air defense electric field situation providing apparatus using augmented reality according to the present invention.

도 1을 참조하면, 본 발명에 따른 증강현실을 이용한 방공 전장상황 제공 장치(100)는 영상획득부(101), 모션센서부(102), 위치측정부(103), 통신단말기(104), 전술정보처리부(111), 전자지도생성부(112), 증강현실생성부(113), 데이터링크처리부(114), 디스플레이부(121) 및 입력부(122)를 포함한다. 상기 장치(100)는 예를 들어, 탱크, 장갑차, 비행체 등과 같은 이동체 내에 설치될 수 있으며, 또한 야전부대 및 지휘본부에 고정 설치될 수도 있다.1, the air defense electric field situation providing apparatus 100 using augmented reality according to the present invention is an image acquisition unit 101, a motion sensor unit 102, a position measuring unit 103, a communication terminal 104, It includes a tactical information processing unit 111, electronic map generation unit 112, augmented reality generating unit 113, a data link processing unit 114, a display unit 121 and an input unit 122. The device 100 may be installed in a moving body such as, for example, a tank, an armored vehicle, a vehicle, or the like, and may also be fixedly installed in a field unit and a command center.

영상획득부(101)는 이미지 센서에 의해 얻어지는 외부의 실제 피사체에 대한 정지영상 또는 동영상 등의 실제영상정보를 제공한다. 상기 영상획득부(101)는 CCD(Charged Coupled Device), 전자광학(EO)센서, 적외선(IR)센서, SAR(Synthetic Aperture Rader)와 같은 카메라, 센서, 레이다 등으로 이루어질 수 있다. 이와 같이 영상획득부(101)는 상기 장치(100) 외부의 실제 영상을 촬영하고, 그 촬영된 실제 영상에 대한 실제영상정보를 증강현실생성부(113)로 제공한다.The image acquisition unit 101 provides actual image information such as a still image or a moving image of an external real subject obtained by an image sensor. The image acquisition unit 101 may include a camera such as a charged coupled device (CCD), an electro-optical (EO) sensor, an infrared (IR) sensor, a synthetic aperture radar (SAR), a sensor, a radar, and the like. As such, the image acquisition unit 101 photographs a real image outside the apparatus 100 and provides the augmented reality generator 113 with real image information about the captured real image.

모션센서부(102)는 상기 영상획득부(101)의 모션 정보를 수신한다. 상기 모션센서부(102)는 G-센서, 지자기 센서 등으로 이루어질 수 있다. 상기 모션센서부(102)에 의해 수신된 모션 정보는 증강현실생성부(113)로 제공된다.The motion sensor unit 102 receives the motion information of the image acquisition unit 101. The motion sensor unit 102 may include a G-sensor, a geomagnetic sensor, and the like. The motion information received by the motion sensor unit 102 is provided to the augmented reality generator 113.

위치측정부(103)는 상기 장치(100)의 현재 위치 정보를 측정한다. 예를 들어, 상기 장치(100)가 탱크 내에 설치되는 경우 상기 현재 위치 정보는 상기 탱크의 현재 위치에 관한 정보가 될 수 있다. 상기 위치측정부(103)는 GPS(Global Positioning System), INS(Inertial Navigation System) 등으로 이루어질 수 있다. 상기 위치측정부(103)에 의해 측정된 현재 위치 정보는 전술정보처리부(111), 증강현실생성부(113), 전자지도생성부(112)로 제공된다.The position measuring unit 103 measures current position information of the device 100. For example, when the device 100 is installed in a tank, the current location information may be information about the current location of the tank. The position measuring unit 103 may be formed of a Global Positioning System (GPS), an Inertial Navigation System (INS), or the like. The current position information measured by the position measuring unit 103 is provided to the tactical information processing unit 111, the augmented reality generating unit 113, and the electronic map generating unit 112.

전술정보처리부(111)는 각종 전술정보를 처리 및 저장하고, 체계 관리를 수행한다. 상기 전술정보에는 전술데이터링크를 통하여 송수신되는 정보 및 운용자 입력정보 등이 포함될 수 있다. 상기 전술정보는, 예를 들어, 적군 및 아군 트랙(track)에 관한 정보, 미확인 트랙에 관한 정보, 특정 전술에 관련된 정보, 지휘명령, 모든 전술 데이터 시스템들의 유니트 상태(unit status)에 관한 정보를 포함할 수 있다. 여기서 트랙(track)이란 레이다를 통해 추적된 공중비행체에 관한 정보 및 전술데이터링크를 통해 제공되는 적군 및 아군에 관한 정보 등이 포함될 수 있다. 상기 전술정보는 데이터링크처리부(114)를 통하여 전술데이터링크로부터 송수신되거나, 입력부(122)를 통하여 운영자로부터 입력될 수 있다. 전술정보처리부(111)는 상기 전술정보를 증강현실생성부(113) 및 전자지도생성부(112)로 제공한다.The tactical information processing unit 111 processes and stores various tactical information and performs system management. The tactical information may include information transmitted and received through the tactical data link and operator input information. The tactical information may include, for example, information about enemy and friendly tracks, information about unidentified tracks, information related to a specific tactic, command command, and information about unit status of all tactical data systems. It may include. Here, the track may include information about the air vehicle tracked through the radar and information about enemy and allies provided through the tactical data link. The tactical information may be transmitted and received from the tactical data link through the data link processing unit 114 or may be input from an operator through the input unit 122. The tactical information processing unit 111 provides the tactical information to the augmented reality generating unit 113 and the electronic map generating unit 112.

전자지도생성부(112)는 상기 위치측정부(103)에 의해 측정된 위치에 대응하는 전자지도를 생성하고, 또한 상기 전자지도에 전술정보가 서로 중첩된 시현정보를 생성한다. 상기 전자지도 정보 및 전술정보는 상기 전자지도생성부(112) 내에 미리 저장되거나, 상기 통신단말기(104)를 통하여 제공받을 수 있다. 상기 전자지도생성부(112)에 의해 생성된 시현정보는 증강현실 생성부(112)로 제공된다. 상기 전자지도는 임무계획시 미리 작성된 전장 상황도일 수 있다. 상기 시현정보에는 전장상황 정보가 포함될 수 있다. 상기 전장상황 정보는 적군 및 아군의 위치 및 상기 적군 및 아군을 구분 표시하는 심볼들이 포함될 수 있다. The electronic map generation unit 112 generates an electronic map corresponding to the position measured by the position measuring unit 103, and generates visual information in which the tactic information is superimposed on the electronic map. The electronic map information and the tactical information may be stored in advance in the electronic map generation unit 112 or may be provided through the communication terminal 104. The vision information generated by the electronic map generator 112 is provided to the augmented reality generator 112. The electronic map may be a battlefield situation chart prepared in advance in the mission planning. The vision information may include battlefield information. The battlefield situation information may include symbols indicating positions of the enemy and allies and distinguishing the enemy and allies.

증강현실생성부(113)는 영상획득부(101)로부터 수신한 실제영상정보에 따른 실제 영상(Real Image)과, 상기 전자정보생성부(112)에 의해 제공되는 전자지도 및 상기 전술정보처리부(111)에 의해 제공되는 전술정보를 서로 융합한 융합영상, 즉 가상의 전술정보영상(Virtual Tactical Information Image)을 생성한다. 증강현실생성부(113)는 상기 전자지도생성부(112)로부터 제공되는 시현정보와 전술정보를 서로 상하 계층구조 형태로 중첩(Overlay)시켜 상기 융합영상을 생성할 수 있다. 또한, 증강현실생성부(113)는 영상획득부(110)로부터 실제 영상을 수신하고, 전자지도생성부(112)로부터 지도정보를 수신하며, 전술정보처리부(111)에 의해 제공되는 전술정보를 수신하여, 상기 수신된 실제 영상과 지도정보 및 전술정보를 서로 상하 계층구조 형태로 중첩(Overlay)시켜 상기 융합영상을 생성할 수도 있다. 증강현실생성부(113)에 의해 생성된 융합영상은 디스플레이부(121)로 제공된다. The augmented reality generating unit 113 is a real image according to the real image information received from the image acquisition unit 101, the electronic map provided by the electronic information generation unit 112 and the tactical information processing unit ( 111 generates a fusion image, ie, a virtual tactical information image, in which the tactical information provided by 111 is fused with each other. The augmented reality generator 113 may overlay the vision information and the tactical information provided from the electronic map generator 112 in an upper and lower hierarchical structure to generate the fusion image. In addition, the augmented reality generating unit 113 receives the actual image from the image acquisition unit 110, receives the map information from the electronic map generation unit 112, the tactical information provided by the tactical information processing unit 111 The fusion image may be generated by overlaying the received actual image, map information, and tactical information in the form of a hierarchical structure. The fusion image generated by the augmented reality generator 113 is provided to the display 121.

데이터링크처리부(114)는 전술데이터링크(Tactical data link)를 통하여 타 체계와 송수신되는 전술정보를 처리한다. 상기 데이터링크처리부(114)를 통해 처리되는 전술정보는 상기 전술정보처리부(111)에 제공된다. 상기 전술데이터링크로서는 표준화된 TADIL-A(Link-11), TADIL-B(TActical Digital Information Link-B), JTIDS(Joint Tactical Information Distribution System), ATDL(Army Tactical Data Link) 뿐만 아니라, 그 외 네트워크를 통한 지휘통제체계를 구축하는 데이터링크를 모두 포함한다. The data link processor 114 processes tactical information transmitted and received with other systems through a tactical data link. The tactical information processed through the data link processor 114 is provided to the tactical information processor 111. As the tactical data link, not only standardized TADIL-A (Link-11), TADIL-B (TActical Digital Information Link-B), JTIDS (Joint Tactical Information Distribution System), ATDL (Army Tactical Data Link), but also other networks Includes all datalinks that establish a command control system through

통신단말기(104)는 전술데이터링크를 통하여 타 체계와 전술정보를 송수신한다. 즉, 통신단말기(104)는 전술데이터링크를 통하여 상기 장치(100)가 속해 있는 체계뿐만 아니라 다른 체계와도 전술정보의 송수신이 가능하다. 상기 통신단말기(101)는 무전기, 또는 데이터링크 통신용 전용 단말기로 이루어질 수 있다.The communication terminal 104 transmits and receives tactical information with other systems through the tactical data link. That is, the communication terminal 104 can transmit and receive tactic information not only with the system to which the apparatus 100 belongs, but with other systems through the tactical data link. The communication terminal 101 may be a radio or a dedicated terminal for data link communication.

디스플레이부(121)는 증강현실생성부(113)로부터 본 발명에 따라 실제 영상과 지도정보 및 전술정보를 서로 상하 계층구조 형태로 중첩(Overlay)되어 생성된 융합영상, 즉 가상의 전술정보영상를 수신하여 디스플레이한다. 이에 따라, 디스플레이부(121)는 상기 가상의 전술정보영상을 이용하여 증강현실 영상정보를 시현할 수 있다. 상기 디스플레이부(121)는 모니터, HMD(Helmet Mounted Display), HUD(Head Up Display) 등으로 이루어질 수 있다.The display unit 121 receives from the augmented reality generating unit 113 a fusion image, that is, a virtual tactical information image, generated by overlaying an actual image, map information, and tactical information in the form of an upper and lower hierarchical structure according to the present invention. To display. Accordingly, the display unit 121 may display augmented reality image information using the virtual tactical information image. The display unit 121 may include a monitor, a helmet mounted display (HMD), a head up display (HUD), and the like.

입력장치(122)는 운용자가 운용자 명령을 입력할 수 있으며, 이러한 운용자 명령을 데이터화한다. 상기 입력장치(122)는 키보드, 마우스, 터치스크린, 마이크 등으로 이루어질 수 있다. 상기 입력장치(122)가 터치스크린으로 이루어지는 경우에는 상기 입력장치(122)는 디스플레이부(121) 상에 오버랩(overlap)되어 배열됨으로써, 운용자가 디스플레이부(121)에 시현되는 객체를 터치함으로써 운용자 명령을 입력시킬 수 있다.
The input device 122 may allow an operator to input an operator command and data the operator command. The input device 122 may include a keyboard, a mouse, a touch screen, a microphone, and the like. When the input device 122 is formed of a touch screen, the input device 122 is overlapped and arranged on the display 121, whereby the operator touches an object displayed on the display 121. You can enter a command.

도 2는 본 발명에 따른 증강현실 전술화면의 계층 구조를 나타내는 도면이다. 도 3은 본 발명에 따라 디스플레이부에 시현되는 증강현실 전술화면의 일 예로서, 실제영상(Real image)과 전술정보영상(Virtual image)이 결합되어 형성된 증강현실영상(AR image)을 나타내고 있다. 2 is a diagram illustrating a hierarchical structure of the augmented reality tactical screen according to the present invention. 3 is an example of an augmented reality tactical screen displayed on the display unit according to the present invention, and shows an augmented reality image (AR image) formed by combining a real image and a tactical information image.

도 2 및 도 3을 참조하면, 본 발명에 따른 증강현실 전술화면은 디스플레이부(121)에 시현되는 화면의 구성으로서, 최하부에 영상획득부(101)를 통하여 획득된 실제 영상에 대한 획득영상층(210)이 배열되며, 상기 획득영상층(210)의 상부에는 순차적으로 전장상황층(220), 전자지도층(230), 자기의 상태정보층(240) 및 명령도구층(250)이 배열된다. 상기 계층들(210~250)은 각각 별도의 계층(Layer) 형태로 구성되며, 각 계층에는 각각의 시현목적에 맞는 객체(Object)들이 존재한다. 이와 같이 상기 다층을 갖는 기본 계층구조(210 내지 250)는 전술정보처리부(111)에 의해 형성되며, 상기 기본 다층구조(210 내지 250)에 관한 정보는 증강현실생성부(113)로 제공된다. 그러면, 상기 증강현실생성부(113)는 상기 기본 다층구조(210 내지 250)에서 각 층에 해당하는 전술정보, 전자지도, 사용자 인터페이스 심볼 등을 형성함으로써 최종 전술정보영상을 형성하게 된다. 2 and 3, the augmented reality tactical screen according to the present invention is a configuration of the screen displayed on the display unit 121, the lower image acquisition layer for the actual image obtained through the image acquisition unit 101 at the bottom The 210 is arranged, and the battlefield situation layer 220, the electronic map layer 230, the state information layer 240, and the command tool layer 250 are sequentially arranged on the acquired image layer 210. . Each of the layers 210 to 250 is configured as a separate layer, and each layer includes objects suitable for each visual purpose. As described above, the basic hierarchical structures 210 to 250 having the multi-layer are formed by the tactical information processing unit 111, and the information on the basic multi-layer structures 210 to 250 is provided to the augmented reality generating unit 113. Then, the augmented reality generating unit 113 forms a final tactical information image by forming tactical information, an electronic map, a user interface symbol, etc. corresponding to each layer in the basic multilayer structure 210 to 250.

구체적으로, 영상획득층(210)은 영상획득부(101)에서 획득한 실제 영상(211)으로 이루어진다. 영상획득부(102)의 카메라 특성(예를 들어, 센서면적, 배율, 화각 등)에 따라 시야(FOV:Field of view)가 결정되고, 상기 영상획득부(102)에 의해 촬영되는 실제 영상의 네 모서리 부분의 좌표는 상기 시야(FOV)에 의해 결정될 수 있다.In detail, the image acquisition layer 210 includes an actual image 211 obtained by the image acquisition unit 101. A field of view (FOV) is determined according to camera characteristics (eg, sensor area, magnification, angle of view, etc.) of the image acquisition unit 102 and the actual image captured by the image acquisition unit 102 is determined. The coordinates of the four corner portions may be determined by the field of view (FOV).

전장상황층(220)은 전술정보처리부(111)에서 처리한 전술정보 중 상기 시야(FOV)내에 존재하는 트랙(Track)의 위치에 원형의 심볼 형태(221)로 전시하고, 또한 운용자의 선택에 따라 해당 트랙(Track)의 기본정보(222) 및 세부정보(223)를 전시한다. 상기 기본정보(222)에는 해당 트랙의 고유번호(Track Number), 속도, 방위, 종류, 적군 및 아군의 구분(IFF), 위치 및 고도 등에 관한 정보가 포함될 수 있다. 상기 세부정보(223)에는 소속, 탑승인원, 무기상태, 교전상황 등에 관한 정보가 포함될 수 있다. The battlefield situation layer 220 is displayed in the form of a circular symbol 221 at the position of a track existing in the field of view (FOV) among the tactical information processed by the tactical information processing unit 111, and also selected by the operator. Accordingly, the basic information 222 and the detailed information 223 of the corresponding track are displayed. The basic information 222 may include information on a track number, speed, azimuth, type, classification of enemy and allies (IFF), location, and altitude of a corresponding track. The detailed information 223 may include information regarding affiliation, occupant, weapon status, engagement situation, and the like.

전자지도층(230)에는 전자지도가 포함되며, 상기 전자지도 내에는 상기 상황도(231) 및 전장상황정보(232)가 포함될 수 있다. 상기 상황도(231)에는 임무계획시 작성된 상황도가 전시된다. 상기 전장상황정보(232)에는 적군 및 아군의 위치를 인식하기 위한 심볼이 시현된다. 도 3에서는 상황도(231) 내에 적군에 관한 전장상황정보(232)가 시현된 예를 나타내고 있다.The electronic map layer 230 may include an electronic map, and the electronic map may include the context diagram 231 and the battlefield situation information 232. The situation diagram 231 shows the situation diagram created during the mission planning. The battlefield situation information 232 is a symbol for recognizing the position of the enemy and friendly forces. 3 illustrates an example in which the battlefield situation information 232 about the enemy is displayed in the situation chart 231.

자기의 상태정보층(240)은 상기 장치(100)의 현재 위치(241), LOS 방위(242), 현재시각(243),임무정보 및 기타 상세정보가 포함된다.The self state information layer 240 includes the current location 241, the LOS orientation 242, the current time 243, mission information and other details of the device 100.

상기 현재 위치(241)는 위치측정부(103)에서 측정된 상기 장치(100)의 위치를 측정한 좌표이다. 상기 LOS는 모션센서(102)에서 측정한 카메라의 LOS 방위이다. 상기 현재 시각은 상기 장치(110)의 현재 시스템 시각이다. 상기 임무정보는 상기 장치(100)의 운용자 자신에게 할당된 임무관련 정보(예를 들어, 교전가능범위, 정찰범위 등)이다. 기타 상태정보에는 무장상태 및 체계상태 등에 관한 정보가 포함될 수 있다. The current position 241 is coordinates of measuring the position of the device 100 measured by the position measuring unit 103. The LOS is the LOS orientation of the camera measured by the motion sensor 102. The current time is the current system time of the device 110. The mission information is mission related information (for example, a range of engagement, a reconnaissance range, etc.) assigned to the operator of the apparatus 100. Other status information may include information about armed status and system status.

명령도구층(250)에는 각종 명령 제어를 위한 사용자 인터페이스(UI: User Interface) 심볼들(251)이 형성된다. 상기 명령도구층(250)은 데이터링크를 통해 제공되는 메시지를 시현하도록 구성될 수도 있다.
In the command tool layer 250, user interface (UI) symbols 251 for controlling various commands are formed. The command tool layer 250 may be configured to display a message provided over a datalink.

도 4는 본 발명에 따른 운용자 입력처리의 일 예를 나타낸다.4 shows an example of operator input processing according to the present invention.

도 4의 (a)에 도시된 바와 같이, 본 발명에 따른 디스플레이부(121)는 실제영상(Real image)과 전술정보영상(Virtual image)이 결합되어 형성된 증강현실영상(AR image)을 시현하며, 상기 증강현실영상에는 실제영상 중 영상획득부(101)의 시야(FOV)내에 존재하는 적군, 아군 및 미확인 트랙(Track)의 위치에 다수의 서로 다른 원형 심볼들(221)이 표시하여, 상기 전술정보영상 내에서 적군, 아군 및 미확인 트랙을 서로 구분할 수 있다. As shown in (a) of FIG. 4, the display unit 121 according to the present invention displays an AR image formed by combining a real image and a tactical information image. In the augmented reality image, a plurality of different circular symbols 221 are displayed at positions of enemy, friendly, and unidentified tracks existing in the field of view (FOV) of the image acquisition unit 101 of the real image. Enemy, friendly and unidentified tracks can be distinguished from each other in the tactical information video.

도 4에서 상기 디스플레이부(121)는 터치스크린으로 형성된 경우를 예로 들어 설명하고 있다. 따라서, 운용자는 상기 디스플레이부(121) 상을 터치함으로써 운용자 명령을 입력할 수 있다. In FIG. 4, the case where the display unit 121 is formed of a touch screen is described as an example. Therefore, an operator may input an operator command by touching the display unit 121.

이에 따라, 운용자가 디스플레이부(121) 상에 형성된 다수의 원형 심볼 객체들 중 어느 하나를 터치하면(즉, 하나의 객체를 클릭하면), 상기 터치된 심볼 객체에 대응하는 기능이 수행된다. 도 4의 (b)를 참조하면, 상기 터치된 심볼 객체에 대응하는 정보가 상기 디스플레이(121) 상에 나타난다. 이와 같이, 운용자의 입력이 이루어지면 전시되는 전술정보 객체(Object)의 식별자(ID)에 해당하는 기능이 수행된다.
Accordingly, when the operator touches any one of the plurality of circular symbol objects formed on the display 121 (that is, when one object is clicked), a function corresponding to the touched symbol object is performed. Referring to FIG. 4B, information corresponding to the touched symbol object is displayed on the display 121. As such, when an operator makes an input, a function corresponding to an identifier ID of the displayed tactical information object is performed.

도 5는 본 발명에 따른 증강현실 전술화면의 생성과정을 설명하는 도면이다.5 is a view illustrating a process of generating an augmented reality tactical screen according to the present invention.

도 5를 참조하면, 먼저 본 발명에 따른 증강현실 전술화면을 형성하기 위하여, 증강현실생성부(113)는 영상획득부(101)의 카메라위치를 계산하고(310), 카메라 자세정보에 따른 시야(FOV)를 계산한다(320). 이후, 증강현실생성부(113)는 영상획득부(101)에 의해 촬영된 실제영상 내에 존재하는 트랙(Track)을 필터링하고(330), 상기 FOV에 트랙(Track) 시현 위치를 계산한다(340). 그리고, 매핑된 트랙(Track) 위치에 심볼을 시현한다(350). 상기 310 단계 내지 350 단계는 주기적으로 반복되며, 이하에서 도 6을 참고하여 그 세부과정을 설명한다.
Referring to FIG. 5, first, in order to form an augmented reality tactical screen according to the present invention, the augmented reality generating unit 113 calculates a camera position of the image acquisition unit 101 (310) and a field of view according to the camera posture information. Compute (FOV) (320). After that, the augmented reality generator 113 filters a track existing in the real image captured by the image acquisition unit 101 (330), and calculates a track presentation position in the FOV (340). ). In operation 350, the symbol is displayed at the mapped track position. Steps 310 to 350 are repeated periodically, a detailed process will be described below with reference to FIG.

도 6은 본 발명에 따른 증강현실 전술화면의 세부 생성과정을 설명하는 도면이다.6 is a diagram illustrating a detailed generation process of the augmented reality tactical screen according to the present invention.

도 6을 참조하여 본 발명에 따른 증강현실 전술화면의 생성과정을 더욱 구체적으로 설명하면, 먼저 증강현실생성부(113)는 위치측정부(103)으로부터 위치정보를 수신하고(311), 전자지도생성부(112)로부터 현재 위치의 고도정보(DTED: Digital Terrain Elevation Data)를 수신한 후(312), 영상획득부(101)의 카메라 설치위치좌표를 계산한다(313). 여기서, 상기 311 단계 내지 313 단계는 도 5의 310 단계의 세부 단계에 해당한다. Referring to FIG. 6, the augmented reality tactical screen generating process according to the present invention will be described in more detail. First, the augmented reality generating unit 113 receives position information from the position measuring unit 103 (311), and an electronic map. After receiving the altitude information (DTED: Digital Terrain Elevation Data) of the current position from the generation unit 112 (312), the camera installation position coordinates of the image acquisition unit 101 is calculated (313). Here, steps 311 to 313 correspond to the detailed steps of step 310 of FIG. 5.

이어서, 증강현실생성부(113)는 카메라 특성에 따른 화각, 배율, 센서면적, 초점위치값을 로드(load)하고(321), 모션센서부(102)에서 카메라의 모션정보를 수신한 후(322), 카메라 모션정보에 따른 시선(LOS: Line Of Sight)를 계산한다(323). 그리고, 증강현실생성부(113)는 카메라 초점위치 및 시선(LOS) 정보에 따라 시야(FOV) 경계선의 좌표식을 산출하고(324), 산출된 시야(FOV) 경계선 좌표식에 따라 시야(FOV) 범위를 산출한다(325). 여기서, 상기 321 단계 내지 325 단계는 도 5의 320 단계의 세부 단계에 해당한다. Subsequently, the augmented reality generating unit 113 loads an angle of view, magnification, sensor area, and focus position value according to the camera characteristic (321), and receives the motion information of the camera from the motion sensor unit 102 ( In operation 323, line of sight (LOS) based on camera motion information is calculated (323). In addition, the augmented reality generator 113 calculates a coordinate expression of a field of view (FOV) boundary line according to the camera focus position and line of sight (LOS) information (324), and generates a field of view (FOV) according to the calculated field of view (FOV) boundary line coordinate equation. ) Is calculated (325). Here, steps 321 to 325 correspond to the detailed steps of step 320 of FIG. 5.

이와 같이 시야(FOV) 범위가 산출되면, 영상획득부(101)는 상기 시에(FOV) 범위에 대응되는 외부의 실제 영상을 촬영하여 증강현실생성부(113)로 제공하며, 증강현실생성부(113)는 전술정보처리부(111)에 시야(FOV) 영역을 제공한다(331). When the field of view (FOV) range is calculated as described above, the image acquisition unit 101 photographs an external real image corresponding to the field of view (FOV) and provides the image to the augmented reality generating unit 113, and augmented reality generating unit In operation 331, a field of view (FOV) is provided to the tactical information processing unit 111.

그러면 전술정보처리부(111)는 전술정보처리부(111) 내에 저장하고 있는 적군 및 아군 트랙들을 포함한 모든 트랙(Track)을 로드하고(332), 로드된 트랙 중에서 상기 실제영상 중에서 상기 시야(FOV) 영역에 존재하는 트랙을 추출하여 상기 트랙의 기본정보 및 세부정보를 증강현실생성부(113)로 제공한다(333). 여기서, 상기 331 단계 내지 333 단계는 도 5의 330 단계의 세부 단계에 해당한다. Then, the tactical information processing unit 111 loads all tracks including enemy and friendly tracks stored in the tactical information processing unit 111 (332), and the field of view (FOV) area of the actual image among the loaded tracks. Extracting the track existing in the and provides the basic information and detailed information of the track to the augmented reality generator 113 (333). Here, steps 331 to 333 correspond to the detailed steps of step 330 of FIG. 5.

그러면, 증강현실생성부(113)는 카메라 초점위치와 추출된 트랙 위치간의 직선식을 산출하고(341), 상기 직선식과 카메라 센서와의 교점을 산출하여(342), 상기 트랙에 대한 심볼 객체의 시현위치(X,Y)를 산출한다(333). 여기서, 상기 341 단계 내지 343 단계는 도 5의 340 단계의 세부 단계에 해당한다.Then, the augmented reality generator 113 calculates a linear equation between the camera focus position and the extracted track position (341), calculates an intersection point between the linear equation and the camera sensor (342), and calculates the symbol object for the track. The visual position (X, Y) is calculated (333). Here, steps 341 to 343 correspond to the detailed steps of step 340 of FIG. 5.

그리고 나서, 증강현실생성부(113)는 트랙 기본 정보를 로드하고(351), 그 트랙이 "적군"인지, "아군"인지 혹은 "미확인"된 것인지 여부에 따라 서로 다른 심볼의 객체를 생성한다(352). 상기 352 단계에서 증강현실생성부(113)는 전자지도생성부(112)로부터 상기 위치측정부(103)에 의해 제공되는 위치정보에 대응하는 전자지도를 제공받으며, 상기 전자지도와 상기 적군/아군/미확인 트랙에 대한 심볼 객체, 및 운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 서로 상하 계층구조 형태로 중첩되는 전술정보영상을 생성한다. 이어서, 상기 추출된 트랙에 대응하는 시현 위치(X,Y)에 대응되는 심볼의 객체 및 상기 전술정보영상이 디스플레이부(121) 상에 디스플레이된다(353). 여기서, 상기 351 단계 내지 353 단계는 도 5의 350 단계의 세부 단계에 해당한다.
Then, the augmented reality generating unit 113 loads the track basic information (351) and generates objects of different symbols depending on whether the track is "enemy", "ally" or "unidentified". (352). In step 352, the augmented reality generating unit 113 receives an electronic map corresponding to the location information provided by the location measuring unit 103 from the electronic map generating unit 112, and the electronic map and the enemy group / ally friendly. Creates a tactical information image in which a symbol object for an unidentified track and user interface symbols for receiving a command from an operator are superimposed on each other in a hierarchical structure. Subsequently, the object of the symbol corresponding to the presentation position (X, Y) corresponding to the extracted track and the tactical information image are displayed on the display 121 (353). Here, steps 351 to 353 correspond to the detailed steps of step 350 of FIG. 5.

도 7은 본 발명에 따른 증강현실 전술화면을 생성할 가상의 3차원 공간을 설명하는 도면으로서, 상기 도 5 및 도 6의 330 단계 수행시 활용된다.FIG. 7 is a diagram illustrating a virtual three-dimensional space for generating an augmented reality tactical screen according to the present invention, and is used when performing step 330 of FIGS. 5 and 6.

상기 332 단계에서는 도 7과 같은 가상의 3차원 공간을 생성한 후, 모든 트랙(Track)의 위치를 기준점(○)에 대한 상대좌표로 변환한다. 여기서 기준점(○)은 위치측정부(103)의 설치지점으로 한다. 그리고, Rl,Rh,Rw 및 n,l,m은 체계의 작전범위로서 사전에 정의된 상수값이다. T1,T2,T3은 전술정보처리부(111)에 저장되어 있는 트랙(Track)들의 위치이다. 도 7에서는 3개의 트랙에 대한 위치(T1,T2,T3)만이 표시되어 있으나, 더 많은 수의 트랙 및 위치가 표시될 수 있다.
In step 332, a virtual three-dimensional space as shown in FIG. 7 is generated, and then the positions of all tracks are converted into relative coordinates with respect to the reference point (○). Here, the reference point ○ is an installation point of the position measuring unit 103. And R l , R h , R w and n, l, m are constant values previously defined as the operating range of the system. T1, T2, and T3 are positions of tracks stored in the tactical information processing unit 111. In FIG. 7, only positions T1, T2, and T3 for three tracks are displayed, but a larger number of tracks and positions may be displayed.

도 8은 본 발명에 따른 증강현실 전술화면의 생성시 시야(FOV)에서 트랙 시현위치를 위한 각 파라미터의 관계를 나타내며, 상기 도 5 및 도 6의 340 단계 수행시 활용된다.FIG. 8 illustrates the relationship of each parameter for the track presentation position in the field of view (FOV) during generation of the augmented reality tactical screen according to the present invention, and is used when performing step 340 of FIGS. 5 and 6.

도 8에서, ○(0,0,0)은 기준점으로서, 위치측정부(103)의 좌표를 나타낸다.In FIG. 8, ○ (0, 0, 0) represents a coordinate of the position measuring unit 103 as a reference point.

F(xf,yf,zf)는 영상획득부(101)의 카메라 초점의 위치를 나타낸다.F (x f , y f , z f ) indicates the position of the camera focus of the image acquisition unit 101.

T(xt,yt,zt)는 트랙(Track)의 위치를 나타내며, 지구 곡면을 고려한 3차원 좌표로 나타낸다. T (x t , y t , z t ) represents the position of the track and is expressed in three-dimensional coordinates taking into account the surface of the earth.

S(xs,ys,zs)는 상기 F(xf,yf,zf)와 T(xt,yt,zt)를 잇는 직선과, 영상획득부(101)의 센서 플레인(Sensor Plane)의 교차점을 나타낸다. 상기 교차점을 센서 플레인의 (Xd, Yd) 좌표로 변환한 후, 이를 중심으로 심볼 형상의 객체를 생성하여 심볼을 화면에 표시한다.S (x s , y s , z s ) is a straight line connecting F (x f , y f , z f ) and T (x t , y t , z t ) and the sensor plane of the image acquisition unit 101. It shows the intersection of (Sensor Plane). After converting the intersection point to the (Xd, Yd) coordinates of the sensor plane, a symbol-shaped object is created based on this to display a symbol on the screen.

Rtf는 트랙 플레인(Track Plane)과 F(xf,yf,zf)간의 직선거리이며, 영상획득부(101)의 카메라 모션정보를 이용하여 산출될 수 있다.R tf is a linear distance between the track plane and F (x f , y f , z f ), and may be calculated using camera motion information of the image acquisition unit 101.

Rdf는 센서 플레인(Sensor Plane)과 F(xf,yf,zf)간의 직선거리(즉, 초점거리)이며, 영상획득부(101)의 카메라 특성(LOS, 배율, 화각)을 이용하여 산출될 수 있다.
R df is the linear distance (ie focal length) between the sensor plane and F (x f , y f , z f ) and uses the camera characteristics (LOS, magnification, angle of view) of the image acquisition unit 101. Can be calculated.

도 9는 본 발명에 따라 디스플레이장치를 통하여 운용자가 운용자 명령을 입력하는 과정을 나타내는 도면이다.9 is a diagram illustrating a process of an operator inputting an operator command through a display device according to the present invention.

도 9을 참조하면, 디스플레이부(121)의 화면상에 본 발명에 따라 실제 영상과, 전자지도, 전술정보 및 사용자 인터페이스 심볼들이 서로 상하 계층구조 중첩된 전술정보영상가 디스플레이된 상태에서, 운용자가 상기 디스플레이부(121)의 특정 위치를 터치하는 명령이 입력되면 전술정보처리부(111)는 상기 선택된 위치를 식별한다(410). 여기에서 상기 디스플레이부(121)가 터치스크린으로 형성되는 경우를 예로 들어 운용자 명령을 입력하는 과정을 설명하나, 운용자가 입력부(122)를 이용하여 상기 디스플레이부(121)의 특정 위치를 선택하는 명령이 입력되는 경우에도 상기 전술정보처리부(111)는 운용자 명령을 인식할 수 있다.Referring to FIG. 9, the operator displays the real image, the electronic map, the tactical information, and the tactical information image in which the user interface symbols are superimposed on the screen of the display unit 121 according to the present invention. When a command for touching a specific position of the display unit 121 is input, the tactical information processing unit 111 identifies the selected position (410). Herein, a process of inputting an operator command will be described using an example in which the display unit 121 is formed as a touch screen, but an operator selects a specific position of the display unit 121 using the input unit 122. Even when this is input, the tactical information processing unit 111 may recognize an operator command.

전술정보처리부(111)는 상기 디스플레이부(121) 상에서 운용자에 의해 터치된 위치에 특정 객체가 존재하는지 여부를 판단한다(420). 상기 420단계에서 판단한 결과 터치된 위치에 특정 객체가 존재하는 경우, 상기 특정 객체가 선택된 것으로 판단하고, 상기 특정 객체의 종류를 식별한다. The tactical information processor 111 determines whether a specific object exists at a location touched by the operator on the display 121 (420). As a result of the determination in step 420, if a specific object exists in the touched position, it is determined that the specific object is selected, and the type of the specific object is identified.

이어서, 전술정보처리부(111)는 상기 선택된 특정 객체의 실행기능을 식별한다(430). Subsequently, the tactical information processing unit 111 identifies an execution function of the selected specific object (430).

또한, 전술정보처리부(111)는 상기 선택된 특정 객체에 대하여 운용자의 입력 종류를 식별한다(440). 그러면, 상기 전술정보처리부(111)는 운용자에 의해 선택된 객체 및 운용자입력을 식별하여 해당 객체 및 운용자입력별 기능을 수행한다. 이와 같이 수행된 객체의 기능은 증강현실생성부(113)에 의해 전술정보영상에 반영되어 디스플레이부(121)에 시현될 수 있다. 예를 들어, 상기 객체의 종류, 객체의 실행기능 및 객체에 대한 운용자의 입력 종류는 도 11에 도시되어 있다.In addition, the tactical information processing unit 111 identifies the operator's input type with respect to the selected specific object (440). Then, the tactic information processing unit 111 identifies the object and the operator input selected by the operator to perform a function for each object and operator input. The function of the object performed as described above may be reflected on the tactical information image by the augmented reality generator 113 and displayed on the display 121. For example, the type of the object, the execution function of the object, and the operator's input type to the object are shown in FIG. 11.

이와 같이, 선택된 특정 객체의 종류, 실행기능 및 운용자의 입력 종류가 식별되면, 전술정보처리부(111)는 상기 운용자의 입력에 해당하는 기능을 수행한다(450).
As such, when the type of the selected specific object, the execution function, and the input type of the operator are identified, the tactical information processing unit 111 performs a function corresponding to the input of the operator (450).

도 10은 본 발명에 따른 전술화면에서의 운용자 입력처리 구역에 대한 예를 나타내고 있다. 도 11은 본 발명에 따른 전술화면상의 각 객체 속성별 운용자 입력에 따른 실행기능에 대한 예를 나타내고 있다.10 shows an example of an operator input processing area in the tactical screen according to the present invention. 11 shows an example of an execution function according to operator input for each object property on the tactical screen according to the present invention.

도 10에서는 디스플레이부(121)의 화면 좌측 하단에 운용자 명령 입력을 위한 객체들(A1,A2,A3,A4)이 형성되며, 좌측 중앙부에는 적군의 트랙을 나타내는 객체들(B1,B2,B3,B4)이 형성되고, 우측 중앙부에는 미확인 트랙을 나타내는 객체(C)가 형성되며, 우측 하부에는 아군의 트랙을 나타내는 객체들(D1,D2,D3)이 형성된 예를 도시하고 있다.In FIG. 10, objects A1, A2, A3, and A4 for inputting an operator command are formed at the lower left of the screen of the display unit 121, and objects B1, B2, B3, which represent tracks of enemy forces are formed in the left center. B4) is formed, an object C representing an unidentified track is formed in the right center part, and objects D1, D2, and D3 representing a friendly track are formed in the lower right part.

도 11에 도시된 바와 같이, 객체 A1은 메시지버튼으로서, 운용자가 상기 객체 A1을 한번 클릭하면 데이터링크처리부(114)를 외부 전술데이터링크를 통해 수신된 수신메시지를 열어보는 기능을 수행하고, 두 번 클릭하면 운용자가 상대방에게 메시지를 전송할 수 있는 기능을 부여한다. 여기서, '클릭'이란 용어는 디스플레이부(121) 상에서 특정 위치에 대한 운용자의 명령이 입력되는 동작을 말하며, 상기 디스플레이부(121)가 터치스크린으로 형성되는 경우에는 상기 디스플레이부(121) 상의 특정 위치가 터치되는 동작을 말하며, 이하에서도 동일한 의미로 사용된다.As shown in FIG. 11, the object A1 is a message button, and when an operator clicks on the object A1 once, the object A1 opens the received message received through the external tactical data link. Click once to give the operator the ability to send a message to the other party. Here, the term 'click' refers to an operation in which an operator's command for a specific position is input on the display unit 121. When the display unit 121 is formed as a touch screen, the term 'click' refers to an operation on the display unit 121. It refers to the operation of touching the position, it is used in the same meaning below.

객체 A2는 전자지도버튼으로서, 디스플레이부(121)의 화면상에서 아무런 트랙이 선택되지 않은 상태에서 1번 클릭될 경우 전체 지도보기 기능을 수행하고, 특정 트랙이 선택된 상태에서 1번 클릭될 경우 해당 선택된 트랙을 중심으로 하는 미니맵(mini map)을 디스플레이한다.The object A2 is an electronic map button. When the track A is clicked once when no track is selected on the screen of the display unit 121, the object A2 performs the entire map view function. Displays a mini map centered on the track.

객체 A3은 설정버튼으로서, 1번 클릭할 경우 체계 설정 실행 기능을 제공한다.Object A3 is a setting button that provides a system setting execution function when clicked once.

객체 A4는 자기정보버튼으로서, 1번 클릭할 경우 상기 장치(100)의 자기 세부 상태정보를 보여준다.The object A4 is a magnetic information button. When the object A4 is clicked once, the object A4 shows magnetic detailed state information of the device 100.

객체 B1은 적 트랙 심볼이 있음을 나타내는 객체로서, 1번 클릭할 경우 적 트랙의 기본정보를 보여주며, 2번 클릭할 경우 적 트랙에 대한 소정의 트랙 메뉴를 보여주는 기능을 갖는다.The object B1 is an object indicating that there is an enemy track symbol. When the object is clicked once, the object B1 shows the basic information of the enemy track, and when the object is clicked twice, the object B1 shows a predetermined track menu for the enemy track.

객체 B2는 적 트랙 기본정보 창에 관한 객체로서, 1번 클릭할 경우 기본정보 창을 통하여 적 트랙에 대한 순차적인 다음 기본정보를 보여주며, 2번 클릭할 경우 상기 기본정보 창을 닫는 기능을 제공한다.The object B2 is an object related to the enemy track basic information window. When the user clicks on it once, the object B2 shows the next basic information about the enemy track through the basic information window. do.

객체 B3은 트랙 중심 미니맵 창으로서, 1번 클릭할 경우 해당 지점을 중심으로 사각형의 미니맵을 이동시키며, 2번 클릭할 경우 미니맵을 종료시키고, 상기 미니맵 창 내에서 드래그 입력이 있을 경우 미니맵을 패닝(Panning) 시키며, 상기 사각형 미니맵 창의 모서리부분에서 드래그 입력이 있을 경우 상기 미니맵 창 영역을 확대 또는 축소시키는 기능을 갖는다. Object B3 is a track-centered minimap window, where a single click moves a rectangular minimap around that point, a second click terminates the minimap, and there is a drag input within the minimap window. Panning the minimap, and having a drag input at an edge of the rectangular minimap window, enlarges or reduces the minimap window area.

객체 C1은 미확인 트랙 심볼이 있음을 나타내는 객체로서, 1번 클릭할 경우 상기 미확인 트랙에 대한 기본정보를 보여주며, 2번 클릭할 경우 상기 미확인 트랙에 대한 미리 정해진 메뉴를 전시하는 기능을 제공한다. The object C1 is an object indicating that there is an unidentified track symbol, and when it is clicked once, basic object information about the unidentified track is displayed, and when it is clicked twice, the object C1 displays a predetermined menu for the unidentified track.

객체 D1은 아군 트랙 심볼이 있음을 나타내는 객체로서, 1번 클릭할 경우 아군 트랙의 기본정보를 보여주며, 2번 클릭할 경우 아군 트랙에 대한 소정의 트랙 메뉴를 보여주는 기능을 갖는다.The object D1 is an object indicating that there is a friendly track symbol, and when the first click is clicked, the object D1 shows basic information of the friendly track.

객체 D2는 아군 트랙 기본정보 창에 관한 객체로서, 1번 클릭할 경우 기본정보 창을 통하여 아군 트랙에 대한 순차적인 다음 기본정보를 보여주며, 2번 클릭할 경우 상기 기본정보 창을 닫는 기능을 제공한다.Object D2 is an object related to the friendly track basic information window, and when it is clicked once, the basic information window shows the next basic information about the friendly track, and when clicked twice, the basic information window is closed. do.

객체 D3는 아군 트랙 상세정보 창에 관한 객체로서, 1번 클릭할 경우 상세정보 창을 통하여 아군 트랙에 대한 순차적인 다음 상세정보를 보여주며, 2번 클릭할 경우 상기 상세정보 창을 닫는 기능을 제공한다.
Object D3 is an object related to the friendly track detail window. When the user clicks on it once, the detailed information window of the friendly track is displayed through the detail information window. When the object is clicked twice, the object detail window is closed. do.

본 발명에 따른 증강현실을 이용한 방공 전장상황 제공 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현할 수 있다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송과 같이 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.The anti-aircraft battlefield providing method using augmented reality according to the present invention can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and also include those implemented in the form of carrier waves such as transmission over the Internet. The computer readable recording medium may also be distributed over a networked computer system so that computer readable code is stored and executed in a distributed manner.

본 발명의 기술사상은 상기 바람직한 실시 예에 따라 구체적으로 기술되었으나, 상기한 실시 예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술분야의 통상의 전문가라면 본 발명의 기술사상의 범위에서 다양한 실시 예가 가능함을 이해할 수 있을 것이다.
Although the technical spirit of the present invention has been described in detail according to the above-described preferred embodiment, it should be noted that the above-described embodiment is for the purpose of description and not of limitation. In addition, those skilled in the art will understand that various embodiments are possible within the scope of the technical idea of the present invention.

100: 본 발명의 장치 101: 영상획득부
102: 모션센서부 103: 위치측정부
104: 통신단말기 111: 전술정보처리부
112: 전자지도생성부 113: 증강현실생성부
114: 데이터링크처리부 121: 디스플레이부
122: 입력부(122)
100: device 101 of the present invention: image acquisition unit
102: motion sensor unit 103: position measuring unit
104: communication terminal 111: tactical information processing unit
112: electronic map generation unit 113: augmented reality generation unit
114: data link processing unit 121: display unit
122: input unit 122

Claims (9)

외부의 실제 영상을 촬영하여 실제영상정보를 제공하는 영상획득부;
위치정보를 측정하는 위치측정부;
상기 위치측정부에 의해 제공되는 상기 위치정보에 대응하는 전자지도를 제공하는 전자지도생성부;
상기 실제 영상에 대응하는 적군 및 아군에 관한 전술정보를 제공하는 전술정보처리부;
사용자 명령을 입력받는 입력부;
상기 영상획득부에 의해 제공되는 실제 영상과, 상기 전자지도생성부에 의해 제공되는 전자지도와, 상기 전술정보처리부 및 상기 입력부 중 적어도 하나로부터 제공되는 전술정보와, 운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 서로 상하 계층구조 형태로 중첩되는 전술정보영상을 생성하는 증강현실 생성부; 및
상기 전술정보영상을 디스플레이하는 디스플레이부를 포함하며,
상기 전술정보영상은,
상기 실제 영상이 배열되는 획득영상층과,
적군 및 아군에 관한 정보가 배열되는 전장상황층과,
상기 전자지도가 배열되는 전자지도층과,
현재 위치, 방위, 시각에 관한 정보가 배열되는 상태정보층과,
운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 배열되는 명령도구층 순으로 중첩되는 것을 특징으로 하는 증강현실을 이용한 방공 전장상황 제공 장치.
An image acquisition unit which photographs an external real image and provides real image information;
A position measuring unit measuring position information;
An electronic map generator for providing an electronic map corresponding to the position information provided by the position measuring unit;
A tactical information processor for providing tactical information about the enemy and allies corresponding to the actual image;
An input unit for receiving a user command;
An actual image provided by the image acquisition unit, an electronic map provided by the electronic map generation unit, tactical information provided from at least one of the tactical information processing unit and the input unit, and a user for receiving a command from an operator An augmented reality generating unit generating a tactical information image in which interface symbols overlap each other in a hierarchical structure; And
It includes a display unit for displaying the tactical information image,
The tactical information video,
An acquisition image layer in which the actual image is arranged;
Battlefield situations where information about the enemy and friendly forces is arranged;
An electronic map layer on which the electronic map is arranged;
A status information layer in which information about the current position, azimuth, and time is arranged;
Apparatus for providing an air defense battlefield situation using augmented reality, characterized in that the user interface symbols for receiving a command from the operator is superimposed in the order of the command tool layer arranged.
삭제delete 제1항에 있어서,
상기 디스플레이부의 상단에는 상기 상태정보층의 상기 현재 위치, 방위, 시각에 관한 정보가 배열되며,
상기 디스플레이부의 하단에는 상기 명령도구층의 상기 사용자 인터페이스 심볼들이 배열되고,
상기 디스플레이부의 중앙부에는 상기 전장상황층의 적군 및 아군에 관한 정보가 배열되는 것을 특징으로 하는 증강현실을 이용한 방공 전장상황 제공 장치.
The method of claim 1,
On the upper end of the display unit information about the current position, orientation, time of the status information layer is arranged,
The user interface symbols of the command tool layer are arranged at the bottom of the display unit,
The air defense battlefield situation providing apparatus using augmented reality, characterized in that the central portion of the display unit information on the enemy and allies of the battlefield situation layer is arranged.
제1항에 있어서,
상기 영상획득부의 모션 정보를 수신하는 모션 센서부를 더 포함하고,
상기 증강현실생성부는 상기 모션 정보에 따라 상기 영상획득부의 시야(FOV) 영역을 결정하는 것을 특징으로 하는 증강현실을 이용한 방공 전장상황 제공 장치.
The method of claim 1,
Further comprising a motion sensor unit for receiving the motion information of the image acquisition unit,
The augmented reality generating unit air defense electric field situation providing apparatus using augmented reality, characterized in that for determining the field of view (FOV) region of the image acquisition unit according to the motion information.
제1항에 있어서,
전술데이터링크를 통하여 상기 전술정보를 수신하여, 상기 전술정보를 상기 전술정보처리부로 제공하는 데이터링크처리부를 더 포함하는 것을 특징으로 하는 증강현실을 이용한 방공 전장상황 제공 장치.
The method of claim 1,
Receiving the tactical information through a tactical data link, the air defense electric field situation providing apparatus using augmented reality further comprises a data link processing unit for providing the tactical information to the tactical information processing unit.
제1항에 있어서,
상기 디스플레이부는 적군, 아군 및 미확인 트랙에 대하여 서로 다른 심볼을 이용하여 표시하며, 상기 각각의 심볼에 대한 클릭 횟수 또는 드래그 여부에 따라 서로 다른 기능을 제공하는 것을 특징으로 하는 증강현실을 이용한 방공 전장상황 제공 장치.
The method of claim 1,
The display unit displays an enemy, an ally, and an unidentified track using different symbols, and provides different functions according to the number of clicks or dragging of each symbol. Provision device.
위치측정부를 이용하여 영상획득부의 위치정보를 측정하는 단계;
상기 영상획득부를 이용하여 외부의 실제 영상을 촬영하여 실제영상정보를 제공하는 단계;
상기 위치측정부에 의해 제공되는 위치정보에 대응하는 전자지도를 제공하는 단계;
상기 실제 영상에 대응하는 적군 및 아군에 관한 전술정보를 제공하는 단계;
상기 영상획득부에 의해 제공되는 실제 영상과, 상기 전자지도와, 상기 전술정보와, 운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 서로 상하 계층구조 형태로 중첩되는 전술정보영상을 생성하는 단계; 및
상기 전술정보영상을 디스플레이부에 디스플레이하는 단계를 포함하며,
상기 전술정보영상은,
상기 실제 영상이 배열되는 획득영상층과,
상기 전자지도가 배열되는 전자지도층과,
적군 및 아군에 관한 정보가 배열되는 전장상황층과,
현재 위치, 방위, 시각에 관한 정보가 배열되는 상태정보층과,
운용자로부터 명령을 입력받기 위한 사용자 인터페이스 심볼들이 배열되는 명령도구층 순으로 중첩되는 것을 특징으로 하는 증강현실을 이용한 방공 전장상황 제공 방법.
Measuring position information of the image acquisition unit by using the position measurement unit;
Photographing an external real image using the image acquisition unit to provide real image information;
Providing an electronic map corresponding to the location information provided by the location measuring unit;
Providing tactical information about the enemy and allies corresponding to the actual image;
Generating a tactical information image in which an actual image provided by the image acquisition unit, the electronic map, the tactical information, and user interface symbols for receiving a command from an operator are superimposed on each other in a hierarchical structure; And
Displaying the tactic information image on a display unit;
The tactical information video,
An acquisition image layer in which the actual image is arranged;
An electronic map layer on which the electronic map is arranged;
Battlefield situations where information about the enemy and friendly forces is arranged;
A status information layer in which information about the current position, azimuth, and time is arranged;
Method for providing an air defense battlefield using augmented reality, characterized in that the user interface symbols for receiving a command from the operator is superimposed in the order of the command tool layer arranged.
삭제delete 제7항에 있어서,
상기 디스플레이부의 상단에는 상기 상태정보층의 상기 현재 위치, 방위, 시각에 관한 정보가 배열되며,
상기 디스플레이부의 하단에는 상기 명령도구층의 상기 사용자 인터페이스 심볼들이 배열되고,
상기 디스플레이부의 중앙부에는 상기 전장상황층의 적군 및 아군에 관한 정보가 배열되는 것을 특징으로 하는 증강현실을 이용한 방공 전장상황 제공 방법.
The method of claim 7, wherein
On the upper end of the display unit information about the current position, orientation, time of the status information layer is arranged,
The user interface symbols of the command tool layer are arranged at the bottom of the display unit,
Method of providing an air defense battlefield situation using augmented reality, characterized in that the central portion of the display unit is arranged information on the enemy and allies of the battlefield situation layer.
KR1020110019678A 2011-03-04 2011-03-04 Device and method for an air defense situation awareness using augmented reality KR101076240B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110019678A KR101076240B1 (en) 2011-03-04 2011-03-04 Device and method for an air defense situation awareness using augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110019678A KR101076240B1 (en) 2011-03-04 2011-03-04 Device and method for an air defense situation awareness using augmented reality

Publications (1)

Publication Number Publication Date
KR101076240B1 true KR101076240B1 (en) 2011-10-26

Family

ID=45033284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110019678A KR101076240B1 (en) 2011-03-04 2011-03-04 Device and method for an air defense situation awareness using augmented reality

Country Status (1)

Country Link
KR (1) KR101076240B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101757884B1 (en) * 2016-12-09 2017-07-13 엘아이지넥스원 주식회사 Apparatus for providing circumstance information based on battlefield situation awareness and method thereof
KR101786976B1 (en) * 2016-08-04 2017-10-19 대한민국 Direction Indicating System Using Graphic Information
KR101866131B1 (en) 2017-04-07 2018-06-08 국방과학연구소 Selective 3d tactical situation display system and method
KR102232792B1 (en) * 2020-08-03 2021-03-26 한화시스템 주식회사 Apparatus for providing information and method for providing information
KR102384752B1 (en) * 2021-09-28 2022-04-08 한화시스템(주) Multi-function console device for warship combat and method for controlling thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013751B1 (en) * 2009-07-09 2011-02-14 주식회사 인스프리트 Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013751B1 (en) * 2009-07-09 2011-02-14 주식회사 인스프리트 Server for processing of virtualization and system for providing augmented reality using dynamic contents delivery

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101786976B1 (en) * 2016-08-04 2017-10-19 대한민국 Direction Indicating System Using Graphic Information
KR101757884B1 (en) * 2016-12-09 2017-07-13 엘아이지넥스원 주식회사 Apparatus for providing circumstance information based on battlefield situation awareness and method thereof
KR101866131B1 (en) 2017-04-07 2018-06-08 국방과학연구소 Selective 3d tactical situation display system and method
KR102232792B1 (en) * 2020-08-03 2021-03-26 한화시스템 주식회사 Apparatus for providing information and method for providing information
KR102384752B1 (en) * 2021-09-28 2022-04-08 한화시스템(주) Multi-function console device for warship combat and method for controlling thereof

Similar Documents

Publication Publication Date Title
AU2013234705B2 (en) Method and device for controlling and monitoring the surrounding areas of an unmanned aerial vehicle
US20200264696A1 (en) Electronic Device Displays an Image of an Obstructed Target
US9269239B1 (en) Situational awareness system and method
US20150054826A1 (en) Augmented reality system for identifying force capability and occluded terrain
US9830713B1 (en) Surveillance imaging system and method
US8229163B2 (en) 4D GIS based virtual reality for moving target prediction
US20170184858A1 (en) Personal electronic target vision system, device and method
EP3629309A2 (en) Drone real-time interactive communications system
KR101076240B1 (en) Device and method for an air defense situation awareness using augmented reality
US9658078B2 (en) System and method for processing of tactical information in combat vehicles
CN110389651A (en) Head wearable device, system and method
US20130176192A1 (en) Extra-sensory perception sharing force capability and unknown terrain identification system
CN110119196B (en) Head wearable devices, systems, and methods
KR20210133972A (en) Vehicle-mounted device with networked scopes for simultaneous tracking of targets from multiple different devices
CN112040215B (en) Naked eye stereoscopic display system in electromagnetic environment
CN105116908B (en) The communication means of unmanned plane vision formation collaboration
EP2776786B1 (en) Method and system for determining a relation between a first scene and a second scene
Chae et al. The comparison of the detecting performance between the ground and the aerial visual analytics in the UGV-UAV collaborative system
US10659717B2 (en) Airborne optoelectronic equipment for imaging, monitoring and/or designating targets
US11783547B2 (en) Apparatus and method for displaying an operational area
KR102181809B1 (en) Apparatus and method for checking facility
EP3454015A1 (en) Apparatus and method for displaying an operational area
WO2023178495A1 (en) Drone, control terminal, server and control method therefor
CN117423271B (en) Unmanned aerial vehicle detection and countering method and detection and countering system thereof
EP2854115B1 (en) System and method for graphically entering views of terrain and other features for surveillance

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140929

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150930

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160929

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 9