KR20170046288A - 포격 훈련용 시뮬레이션 시스템 - Google Patents

포격 훈련용 시뮬레이션 시스템 Download PDF

Info

Publication number
KR20170046288A
KR20170046288A KR1020150146409A KR20150146409A KR20170046288A KR 20170046288 A KR20170046288 A KR 20170046288A KR 1020150146409 A KR1020150146409 A KR 1020150146409A KR 20150146409 A KR20150146409 A KR 20150146409A KR 20170046288 A KR20170046288 A KR 20170046288A
Authority
KR
South Korea
Prior art keywords
image
simulation
binoculars
target image
screen
Prior art date
Application number
KR1020150146409A
Other languages
English (en)
Other versions
KR101781471B1 (ko
Inventor
이종필
Original Assignee
주식회사 필텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 필텍 filed Critical 주식회사 필텍
Priority to KR1020150146409A priority Critical patent/KR101781471B1/ko
Publication of KR20170046288A publication Critical patent/KR20170046288A/ko
Application granted granted Critical
Publication of KR101781471B1 publication Critical patent/KR101781471B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/003Simulators for teaching or training purposes for military purposes and tactics
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 포격 훈련용 시뮬레이션 시스템에 관한 것으로, 본 발명은 지형 지물 영상이 투사되는 스크린, 지형 지물 영상을 스크린에 투사하는 영상 투사 장치, 적어도 하나의 지형 지물 영상을 저장하고, 선택된 지형 지물 영상을 영상 투사 장치에 전송하고, 지형 지물 영상의 일정 영역인 표적 영상을 생성하는 시뮬레이션 서버, 스크린 또는 지형 지물 영상에 포함된 표식 및 표식을 인식하여 현재 위치 및 자세 정보를 계산하고, 계산된 현재 위치 및 자세 정보를 시뮬레이션 서버에 전송하며, 표적 영상을 확대하여 표시하는 시뮬레이션 쌍안경을 포함하되, 상기 시뮬레이션 서버는 시뮬레이션 쌍안경에서 전송된 현재 위치 및 자세 정보를 수신하여 시뮬레이션 쌍안경의 위치와 지형 지물 영상 중 상기 위치에서 인식하는 표적 영상을 생성하고, 생성된 표적 영상을 시뮬레이션 쌍안경에 전송하는 포격 훈련용 시뮬레이션 시스템에 관한 것이다.

Description

포격 훈련용 시뮬레이션 시스템{SIMULATION SYSTEM FOR ARTILLERY TRAINING}
본 발명은 포격 훈련용 시뮬레이션 시스템에 관한 것을, 특히 특정 영역의 가상의 영상을 시뮬레이션 쌍안경에 전송할 수 있는 포격 훈련용 시뮬레이션 시스템에 관한 것이다.
교전시 박격포, 야포, 자주포 등의 곡사화기는 관측소, 사격지휘소, 발사병 등의 협업에 의해 표적에 탄을 발사한다.
포격 훈련의 경우 실탄 등의 발사 훈련은 매회마다 막대한 비용이 소요되므로 이를 해결하기 위한 시뮬레이션 기법을 이용한 포격 훈련 시스템의 개발이 요구되고 있다.
포격 훈련 시스템에서 관측소에서는 표적의 위치를 실시간으로 계산하여 사격지휘소와 발사병에 제공해야 한다.
종래의 포격 훈련 시스템은 시뮬레이션 영상에서 육안으로 좌표를 계산하도록 하는 것이 머물러 있다. 특히, 관측소의 관측병은 유사 상황에 따라 긴급하게 표적의 위치를 계산해야하나 시뮬레이션 영상이 단조롭기 때문에 실측 훈련시 오차가 발생되는 문제가 있다.
또한, 대규모로 포병 훈련시 실제 포격 훈련과 시뮬레이션 훈련간에 오차가 많이 발생하여 훈련 효과가 미미한 실정이다.
본 발명이 해결하고자 하는 과제는 스크린에 투사된 표적 영상을 사용자의 위치에 따라 다른 각도로 설정하여 해당하는 영상을 독립적으로 쌍안경에 전송하여 사용자가 표적의 위치를 계산하도록 하는 포격 훈련용 시뮬레이션 시스템에 관한 것이다.
상기 과제를 해결하기 위하여 본 발명은 포격 훈련용 시뮬레이션 시스템에 있어서, 지형 지물 영상이 투사되는 스크린; 상기 지형 지물 영상을 상기 스크린에 투사하는 영상 투사 장치; 상기 적어도 하나의 지형 지물 영상을 저장하고, 선택된 지형 지물 영상을 상기 영상 투사 장치에 전송하고, 상기 지형 지물 영상의 일정 영역인 표적 영상을 생성하는 시뮬레이션 서버; 상기 스크린 또는 상기 지형 지물 영상에 포함된 표식 및 상기 표식을 인식하여 현재 위치 및 자세 정보를 계산하고, 상기 계산된 현재 위치 및 자세 정보를 상기 시뮬레이션 서버에 전송하며, 상기 표적 영상을 확대하여 표시하는 시뮬레이션 쌍안경을 포함하되, 상기 시뮬레이션 서버는 상기 시뮬레이션 쌍안경에서 전송된 상기 현재 위치 및 자세 정보를 수신하여 상기 시뮬레이션 쌍안경의 위치와 상기 지형 지물 영상 중 상기 위치에서 인식하는 상기 표적 영상을 생성하고, 생성된 상기 표적 영상을 상기 시뮬레이션 쌍안경에 전송하는 포격 훈련용 시뮬레이션 시스템을 제공할 수 있다.
상기 시뮬레이션 쌍안경은 사용자의 좌안과 우안 각각에 인접하는 접안부가 구비된 본체 케이스; 상기 본체 케이스 내에 삽입되며, 상기 표적 영상을 표시하는 표시부; 상기 표시부에서 표시되는 표적 영상을 확대하여 상기 사용자가 식별가능 하도록 설치되는 렌즈부; 상기 본체 케이스 끝단 외부에 상기 표식을 인식하도록 하는 가늠쇠; 및 상기 본체 케이스 외부에 상기 가늠쇠와 상기 표식의 일치 시 사용자가 누르도록 외부에 형성되는 버튼; 및 상기 버튼 동작을 감지하여 상기 현재 위치 및 자세 정보를 생성하는 센서부를 포함할 수 있다.
상기 센서부는 자이로 센서, 가속도 센서 및 지자기 센서 중 적어도 하나를 포함하며, 상기 센서부에서 사각형을 이루는 4개의 표식을 인식하여 평면 좌표를 생성하고, 상기 평면 좌표 사이의 각도를 계산하여 상기 시뮬레이션 서버에 전송할 수 있다.
상기 시뮬레이션 서버는 상기 평면 좌표를 통해 상기 표적 영상의 영역을 설정하고, 상기 각도를 통해 상기 자세 정보를 계산하여, 상기 시뮬레이션 쌍안경의 위치를 역산하여 해당하는 표적 영상을 생성하고, 생성된 표적 영상을 상기 시뮬레이션 쌍안경에 제공할 수 있다.
상기 렌즈부는 상기 표시부와 인접하여 복수의 렌즈가 배열되며, 상기 표시부의 영상의 확대하는 릴레이 렌즈 어셈블리; 및 상기 접안부와 상기 릴레이 렌즈 어셈블리 사이에 설치되어 상기 릴레이 렌즈 어셈블리를 통한 영상의 거리를 조절하도록 복수의 렌즈가 배열된 접안렌즈 어셈블리를 포함할 수 있다.
상기 표시부는 LCD 또는 OLED 중 적어도 하나를 포함할 수 있다.
상기 표시부는 상기 사용자의 좌안 및 우안 각각에 영상을 표시하도록 두 개의 표시 소자가 구비될 수 있다.
상기 두 개의 표시소자 중 적어도 하나는 상기 좌안 또는 우안을 기준으로 전송되는 영상을 쉬프트하여 표시할 수 있다.
상기 두 개의 표시소자 중 적어도 하나는 상기 좌안 또는 우안을 기준으로 쉬프트되어 설치될 수 있다.
상기 두 개의 표시 소자는 단일 채널 HDMI를 통해 동일한 영상을 상기 시뮬레이션 서버로부터 수신할 수 있다.
본 발명의 실시 예에 따른 포격 훈련용 시뮬레이션 시스템은 지형 지물 영사에서 시뮬레이션 쌍안경이 설정한 위치에 대한 표적 영상을 제공할 수 있다. 표정 영상은 해당 시뮬레이션 쌍안경의 위치에 상응하는 영상이 제공됨으로써 훈련 효과를 높일 수 있다.
또한, 본 발명의 실시 예에 따른 포격 훈련용 시뮬레이션 시스템은 시뮬레이션 쌍안경을 통해 사용자(훈련병)에게 3차원 영상을 제공하여 현실감 있는 환경을 제공할 수 있다.
도 1은 본 발명의 실시 예에 따른 포격 훈련용 시뮬레이션 시스템을 도시한 시스템도.
도 2는 도 1에 도시된 시뮬레이션 쌍안경의 구조를 도시한 분해도.
도 3은 도 2의 시뮬레이션 쌍안경을 절단하여 도시한 단면도.
도 4 및 도 5는 센서부에서 현재 위치 및 자세 정보를 측정하는 것을 설명하기 위한 도면들.
이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하의 설명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다.
본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명의 실시 예를 첨부한 도 1 내지 도 5를 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 포격 훈련용 시뮬레이션 시스템을 도시한 시스템도이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 포격 훈련용 시뮬레이션 시스템은 스크린(10), 시뮬레이션 서버(100), 영상 투사 장치(50) 및 시뮬레이션 쌍안경(200)을 포함할 수 있다.
구체적으로, 스크린(10)은 시뮬레이션 서버(100)에서 전송되는 지형 지물 영상을 표시할 수 있다. 이때, 지형 지물 영상에는 사용자(또는 훈련병)이 포격할 위치 등의 지형과 관련된 영상을 포함할 수 있다. 지형 지물 영상은 실제 촬영된 영상 또는 가상의 영상일 수 있다.
스크린(10)은 적어도 4개의 표식(20) 이 구비될 수 있다. 본 발명의 실시 예에서는 스크린(10)을 3개의 영역으로 구분할 수 있도록 상부에 5개, 중앙부에 5개 및 하부에 5개가 구비될 수 있다. 표식(20)은 사용자가 쉽게 인식할 수 있도록 특정 색상의 띄는 격자형 표식이 사용될 수 있다.
본 발명의 실시 예에서는 스크린(10)에 표식이 구비된 것을 도시하고 있으나, 이에 한정되지 않으며, 지형 지물 영상에 표식이 표시될 수도 있다.
영상 투사 장치(50)는 스크린(10)에 시뮬레이션 서버(100)로부터 수신된 지형 지물 영상을 투사한다. 영상 투사 장치(50)는 통상의 프로젝터 등이 사용될 수 있다.
시뮬레이션 서버(100)는 복수의 지형 지물 영상을 저장하고, 관리자의 선택에 따라 선택된 지형 지물 영상을 영상 투사 장치(50)에 전송한다. 시뮬레이션 서버(100)는 영상 투사 장치(50)에 공급된 지형 지물 영상과 동일한 지형 지물 영상에서 표적 영상을 선택하여 시뮬레이션 쌍안경(200)으로 전송할 수 있다. 표적 영상의 선택에 대해서는 추후 다시 설명하기로 한다.
시뮬레이션 서버(100)는 시뮬레이션 쌍안경(200)의 현재 위치 및 자세 정보를 수신하여 표적 영상을 생성할 수 있다. 즉, 시뮬레이션 서버(100)는 시뮬레이션 쌍안경(200)에 표시될 표적 영상을 추출하여 전송할 수 있다.
이를 위하여, 시뮬레이션 서버(100)는 내부에 저장부(미도시), 영상 추출부(미도시) 등의 기능 구성부를 구비할 수 있다.
이때, 시뮬레이션 쌍안경(200)은 스크린(10)의 전면에 여러 위치에서 각각 다른 표적 영상이 표시될 수 있다. 즉, 동일한 영역에 대하여 각각 다른 위치의 사용자 관점에서는 다르게 관측된다. 이러한 점을 시뮬레이션 쌍안경(200)의 표적 영상으로 전송하기 위하여, 시뮬레이션 서버(100)는 시뮬레이션 쌍안경(200)의 위치와 자세 정보를 통해 선택된 영역의 관점별로 다른 표적 영상을 전송해야 한다.
예를 들면, 시뮬레이션 서버(100)는 도 4에 도시된 영역 A를 위치 1에서 관측할 경우와 위치 2에서 관측할 경우 관점이 다른 표적 영상을 각각 시뮬레이션 쌍안경(200)에 전송할 수 있다.
시뮬레이션 쌍안경(200)은 표적 영상을 디스플레이 하고, 이를 확대하여 사용자(훈련병)이 인식할 수 있도록 한다. 또한, 시뮬레이션 쌍안경(200)은 현재 위치 및 자세 정보를 시뮬레이션 서버(100)에 전송한다.
즉, 본 발명에서는 스크린(10)에 투사되는 지형 지물 영상은 육안으로 시인할 수 있는 영상이며, 시뮬레이션 쌍안경(200)은 상기 지형 지물 영상의 일정 영역을 확대하여 사용자에게 표시할 수 있다.
특히, 시뮬레이션 쌍안경(200)과 시뮬레이션 서버(100)는 표적 영상을 생성하고 이를 표시하기 위하여, 실시간으로 통신을 수행한다. 이때, 시뮬레이션 서버(100)와 시뮬레이션 쌍안경(200)은 1채널 HDMI 영상 전송 방식을 사용한다.
시뮬레이션 쌍안경(200)은 현재 위치 및 자세를 측정할 수 있는 센싱 수단이 구비되며, 표적 영상을 표시할 수 있는 표시 수단이 구비되고, 표적 영상을 확대할 수 있는 렌즈 등이 구비될 수 있다. 시뮬레이션 쌍안경(200)에 대한 구체적인 설명은 도 2 내지 도 4을 참조하여 다시 설명하기로 한다.
도 2는 도 1에 도시된 시뮬레이션 쌍안경을 도시한 분해 사시도이고 도 3은 도 2에 도시된 시뮬레이션 쌍안경의 단면을 도시한 단면도이다.
도 2 및 도 3에 도시된 바와 같이, 시뮬레이션 쌍안경(200)은 본체 케이스(210), 표시부(240), 렌즈부(250), 가늠쇠(220), 신호처리부(270), 버튼(280) 및 센서부(230)를 포함할 수 있다.
구체적으로, 본체 케이스(210)는 사용자의 눈과 밀착되는 접안부(260)가 구비된 시뮬레이션 쌍안경(200)의 외형이며, 실제 사용되는 군사용 쌍안경과 동일한 모양 및 무게를 가지도록 형성된다. 본체 케이스(210)는 내부에 표시부(240),렌즈부(250) 및 센서부(230)가 설치되도록 공간이 마련된다.
렌즈부(250)는 표시부(240)에서 표시되는 표적 영상을 확대하여 사용자가 인지하도록 한다. 이를 위하여, 렌즈부(250)는 릴레이 렌즈 어셈블리(255)와 접안렌즈 어셈블리(257)가 직렬로 배치된다. 이때, 렌즈부(250)는 좌안과 우안 각각에 한쌍이 설치된다.
릴레이 렌즈 어셈블리(255)는 표시부(240)에 근접하여 설치된다. 릴레이 렌즈 어셈블리(255)는 볼록렌즈, 오목렌즈, 텔레센트릭 렌즈, 아크로메틱 더블릿 렌즈 등이 조합되어 사용될 수 있다.
접안렌즈 어셈블리(257)는 접안부(260)와 릴레이 렌즈 어셈블리(255) 사이에 형성된다. 접안렌즈 어셈블리(257)는 릴레이 렌즈 어셈블리(255)를 통한 영상이 거리를 조절하도록 복수의 렌즈가 배열된다.
접안렌즈 어셈블리(257)는 볼록렌즈, 평볼록렌즈, 오목렌즈 등이 조합되어 구성될 수 있다. 예를 들면, 접안렌즈 어셈블리(257)는 2개의 평볼록렌즈로 구성된 람스덴 접안렌즈가 사용되거나, 켈너 접안렌즈, 보상 접안렌즈 등이 사용될 수 있다.
신호처리부(270)는 시뮬레이션 서버(100)에서 제공된 영상을 표시부(240)에 제공하며, 센서부(230)에서 측정된 현재 위치 및 자세 정보를 시뮬레이션 서버(100)에 제공할 수 있다. 신호처리부(270)는 통신모듈이 구비되며, 시뮬레이션 서버(100)와 TCP/IP 통신 방식을 통해 신호를 전송할 수 있다.
표시부(240)는 접안부(260) 반대측에 설치된다. 표시부(240)는 본체 케이스(210) 내부에 장착되어, 외부 충격으로부터 보호될 수 있다. 표시부(240)는 좌안 및 우안과 상응하도록 2개의 표시 소자(242, 244)가 구비될 수 있다. 표시부(240)는 시뮬레이션 서버(100)에서 제공된 표적 영상을 표시하도록 LCD 또는 OLED 등의 표시 장치가 사용될 수 있다. 이때, 표시부(240)는 렌즈부(250)의 끝단측에 설치되므로 렌즈부(250)에서 영상을 시인할 수 있는 작은 크기로 형성되는 것이 바람직하다.
표시부(240)의 두 표시 소자(242, 244) 중 적어도 하나는 중앙보다 쉬프트되어 설치될 수 있다. 예를 들면, 좌안측에 설치되는 제1 표시 소자(242)는 좌안측의 렌즈부(250)의 정중앙에 위치하도록 설치되며, 우안측에 설치되는 제2 표시 소자(244)는 우안측의 렌즈부(250)의 정중앙에서 우측 또는 좌측으로 쉬프트되어 설치될 수 있다. 이에 따라, 표시부(240)에 전송된 표적 영상이 3차원으로 인식되도록 할 수 있다.
이때, 제2 표시 소자(244)는 우안측의 렌즈부(250)의 정중앙에 위치하고, 제1 표시 소자(242)가 좌안측의 렌즈부(250)의 정중앙에서 좌측 또는 우측으로 쉬프트되어 설치될 수도 있다.
한편, 본 발명의 실시 예에 따르면, 표적 영상이 사용자에게 3차원으로 인식되도록 하기 위하여, 제1 및 제2 표시 소자(242, 244) 중 어느 하나의 표시 소자에 쉬프트된 표적 영상을 제공할 수 있다. 예를 들면, 제1 표시 소자(242)에는 표적 영상을 제공하고, 제2 표시 소자(244)에는 쉬프트된 표적 영상을 제공한다. 이에 따라, 표적 영상이 3차원으로 인식될 수 있도록 한다. 상기의 설명과 반대로 제1 표시 소자(242)에만 쉬프트된 표적 영상이 제공되어 표적 영상이 3차원으로 인식될 수 있도록 할 수 있다.
여기서, 제1 및 제2 표시 소자(242, 244)는 단일 채널 HDMI를 통해 동일한 표적 영상을 시뮬레이션 서버(100)로부터 수신할 수 있다.
센서부(230)는 시뮬레이션 쌍안경(200)의 위치를 시뮬레이션 서버(100)에 제공할 수 있다. 센서부(230)는 스크린(10)에 표식들중 적어도 4개의 표식을 인식하여 현재 위치 및 자세 정보를 시뮬레이션 서버(100)에 전송한다.
이를 위하여, 센서부(230)는 자이로 센서, 가속도 센서 및 지자기 센서 중 적어도 하나로 구성된다.
이하, 도 4 및 도 5를 참조하여 센서부(230)의 동작을 설명하기로 한다.
도 4 및 도 5는 센서부에서 현재 위치 및 자세 정보를 측정하는 것을 설명하기 위한 도면이다.
도 4 및 도 5에 도시된 바와 같이, 센서부(230)는 시뮬레이션 쌍안경(200)의 현재 위치 및 자세 정보를 측정하기 위하여 스크린(10)에 구비된 4개의 표식을 인식한다. 이때, 4개의 표식은 사각형을 이룬다.
먼저, 제1 표식(20a)에 가늠쇠가 맞춰지고 시뮬레이션 쌍안경(200)에 구비된 버튼(280)이 눌려지면, 이를 제1 좌표(0,0)로 인식한다. 이후, 제2 표식(20b)에 가늠쇠가 맞춰지고 버튼(280)이 눌려지면, 제1 표식(20a)과 제2 표식(20b) 사이의 이동거리를 계산하여 제2 좌표(0,x)로 인식한다. 제3 표식(20c)도 제2 표식(20b)으로부터 이동거리를 계산하여 제3 좌표(y,0)로 인식하며, 제4 표식(20d)도 제3 표식(20c)으로부터 이동거리를 계산하여 제4 좌표(y,x)로 인식한다.
이때, 좌표 인식은 자이로 센서 또는 가속도 센서에서 각도와 가속도를 이용할 수 있다. 즉, 제1 표식(20a)과 제2 표식(20b) 사이를 이동하는 가속도를 측정하여 두 표식(20a, 20b) 사이의 거리를 계산하고, 제1 표식(20a)을 기준으로 이동거리에 따른 평면 좌표로 인식한다. 예를 들면, 제1 표식(20a)의 좌표를 (0,0)으로 세팅하고, 제2 표식(20b)의 좌표를 (0, x) 로 설정한다.
이어서, 제2 표식(20b)과 제3 표식(20c) 사이를 이동하는 가속도를 측정하여 두 표식 사이의 거리를 계산한 후, 제3 표식(20c)의 좌표를 (x, y)로 설정한다. 이어서, 제3 표식(20c)과 제4 표식(20d) 사이를 이동하는 가속도를 측정하여 두 표식 사이의 거리를 계산한 후, 제4 표식(20d)의 좌표를 (y, 0)으로 설정한다.
이때, 제1 표식(20a)에서 제2 표식(20b)으로 이동하는 제1 각도(α)와 제2 표식(20b)에서 제3 표식(20c)으로 이동하는 제2 각도(β)를 측정하여 자세 정보를 설정할 수 있다.
4개의 좌표 정보와 제1 및 제2 각도는 시뮬레이션 서버(100)에 전송된다.
시뮬레이션 서버(100)는 수신된 4개의 좌표 정보를 통해 표적 영상의 영역을 설정한다. 또한, 시뮬레이션 서버(100)는 제1 및 제2 각도(α, β)를 통해 자세 정보를 설정한다.
도 5에 도시된 바와 같이, 시뮬레이션 서버(100)는 위치 1의 시뮬레이션 쌍안경(200a)에서 영역 1의 좌표 정보와 제1 및 제2 각도(α1, β1)를 수신하면, 이를 통해 시뮬레이션 쌍안경(200)의 위치를 역산한다.
시뮬레이션 서버(100)는 위치 2의 시뮬레이션 쌍안경(200b)에서 제1 영역의 좌표 정보와 제1 및 제2 각도(α2, β2)를 수신하면, 이를 통해 위치 2의 시뮬레이션 쌍안경(200)의 위치를 역산한다.
이때, 위치 1과 위치 2의 표적 영상의 영역은 동일하나 관측된 위치가 달라 위치 1과 위치 2의 표적 영상은 각각 다르게 생성되는 것이 바람직하다.
즉, 시뮬레이션 서버(100)는 위치 1의 시뮬레이션 쌍안경(200a)으로 관측하는 방향에서 장애물 또는 시설물의 정면이 설정된 표적 영상을 제공하며, 위치 2의 시뮬레이션 쌍안경(200b)으로 상기 장애물 또는 시설물의 측면이 설정된 표적 영상을 제공한다. 이에 따라, 시뮬레이션 서버(100)는 시뮬레이션 쌍안경(200)의 위치에 따라 표적 영상을 다르게 생성하여 전송함으로써 훈련이 실제 상황처럼 인식되도록 할 수 있다.
즉, 시뮬레이션 쌍안경 각각의 위치 별로 동일한 대상에 대한 포격 좌표가 달라지므로 이러한 환경을 제공하여 포격 훈련의 정확도를 높일 수 있다.
한편, 센서부(230)는 시뮬레이션 쌍안경(200)의 현재 위치 및 자세 정보를 측정하기 위하여 스크린(10)에 구비된 4개의 표식을 인식할 때, 스크린(10)의 모서리에 위치한 4개의 표식을 인식할 수 있다.
이 경우, 앞서 설명한 메커니즘에 의해 쌍안경(200)의 현재 위치 및 자세 정보를 측정할 수 있을 뿐만 아니라 스크린(10)의 가장자리를 시뮬레이션 서버(100)가 인식할 수 있다.
이 경우, 시뮬레이션 서버(100)는 쌍안경(200)의 자세 정보를 통해 쌍안경(200)이 스크린(10)을 벗어난 방향을 향하고 있다고 판단되면 쌍안경(200)에 알람을 줄 수 있고, 알람을 통해 사용자는 쌍안경(200)이 스크린(10)을 향하도록 자세 조정할 수 있다.
이상으로 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.
10: 스크린
20: 표식
50: 영상 투사 장치
100: 시뮬레이션 서버
200: 시뮬레이션 쌍안경
210: 본체 케이스
220: 가늠쇠
230: 센서부
240: 표시부
242: 제1 표시 소자
244: 제2 표시 소자
250: 렌즈부
255: 릴레이 렌즈 어셈블리
257: 접안렌즈 어셈블리
260: 접안부
270: 신호처리부
280: 버튼

Claims (10)

  1. 포격 훈련용 시뮬레이션 시스템에 있어서,
    지형 지물 영상이 투사되는 스크린;
    상기 지형 지물 영상을 상기 스크린에 투사하는 영상 투사 장치;
    상기 적어도 하나의 지형 지물 영상을 저장하고, 선택된 지형 지물 영상을 상기 영상 투사 장치에 전송하고, 상기 지형 지물 영상의 일정 영역인 표적 영상을 생성하는 시뮬레이션 서버;
    상기 스크린 또는 상기 지형 지물 영상에 포함된 표식 및
    상기 표식을 인식하여 현재 위치 및 자세 정보를 계산하고, 상기 계산된 현재 위치 및 자세 정보를 상기 시뮬레이션 서버에 전송하며, 상기 표적 영상을 확대하여 표시하는 시뮬레이션 쌍안경을 포함하되,
    상기 시뮬레이션 서버는
    상기 시뮬레이션 쌍안경에서 전송된 상기 현재 위치 및 자세 정보를 수신하여 상기 시뮬레이션 쌍안경의 위치와 상기 지형 지물 영상 중 상기 위치에서 인식하는 상기 표적 영상을 생성하고, 생성된 상기 표적 영상을 상기 시뮬레이션 쌍안경에 전송하는 포격 훈련용 시뮬레이션 시스템.
  2. 제 1 항에 있어서,
    상기 시뮬레이션 쌍안경은
    사용자의 좌안과 우안 각각에 인접하는 접안부가 구비된 본체 케이스;
    상기 본체 케이스 내에 삽입되며, 상기 표적 영상을 표시하는 표시부;
    상기 표시부에서 표시되는 표적 영상을 확대하여 상기 사용자가 식별가능 하도록 설치되는 렌즈부;
    상기 본체 케이스 끝단 외부에 상기 표식을 인식하도록 하는 가늠쇠; 및
    상기 본체 케이스 외부에 상기 가늠쇠와 상기 표식의 일치 시 사용자가 누르도록 외부에 형성되는 버튼; 및
    상기 버튼 동작을 감지하여 상기 현재 위치 및 자세 정보를 생성하는 센서부를 포함하는 포격 훈련용 시뮬레이션 시스템.
  3. 제 2 항에 있어서,
    상기 센서부는 자이로 센서, 가속도 센서 및 지자기 센서 중 적어도 하나를 포함하며,
    상기 센서부에서 사각형을 이루는 4개의 표식을 인식하여 평면 좌표를 생성하고, 상기 평면 좌표 사이의 각도를 계산하여 상기 시뮬레이션 서버에 전송하는 것을 특징으로 하는 포격 훈련용 시뮬레이션 시스템.
  4. 제 3 항에 있어서,
    상기 시뮬레이션 서버는
    상기 평면 좌표를 통해 상기 표적 영상의 영역을 설정하고, 상기 각도를 통해 상기 자세 정보를 계산하여, 상기 시뮬레이션 쌍안경의 위치를 역산하여 해당하는 표적 영상을 생성하고, 생성된 표적 영상을 상기 시뮬레이션 쌍안경에 제공하는 것을 특징으로 하는 포격 훈련용 시뮬레이션 시스템.
  5. 제 2 항에 있어서,
    상기 렌즈부는
    상기 표시부와 인접하여 복수의 렌즈가 배열되며, 상기 표시부의 영상의 확대하는 릴레이 렌즈 어셈블리; 및
    상기 접안부와 상기 릴레이 렌즈 어셈블리 사이에 설치되어 상기 릴레이 렌즈 어셈블리를 통한 영상의 거리를 조절하도록 복수의 렌즈가 배열된 접안렌즈 어셈블리를 포함하는 포격 훈련용 시뮬레이션 시스템.
  6. 제 2 항에 있어서,
    상기 표시부는 LCD 또는 OLED 인 것을 특징으로 하는 포격 훈련용 시뮬레이션 시스템.
  7. 제 2 항에 있어서,
    상기 표시부는 상기 사용자의 좌안 및 우안 각각에 영상을 표시하도록 두 개의 표시 소자가 구비되는 것을 특징으로 하는 포격 훈련용 시뮬레이션 시스템.
  8. 제 7 항에 있어서,
    상기 두 개의 표시소자 중 적어도 하나는 상기 좌안 또는 우안을 기준으로 전송되는 영상을 쉬프트하여 표시하는 것을 것을 특징으로 하는 포격 훈련용 시뮬레이션 시스템.
  9. 제 7 항에 있어서,
    상기 두 개의 표시소자 중 적어도 하나는 상기 좌안 또는 우안을 기준으로 쉬프트되어 설치되는 것을 특징으로 하는 포격 훈련용 시뮬레이션 시스템.
  10. 제 7 항에 있어서,
    상기 두 개의 표시 소자는 단일 채널 HDMI를 통해 동일한 영상을 상기 시뮬레이션 서버로부터 수신하는 것을 특징으로 하는 포격 훈련용 시뮬레이션 시스템.
KR1020150146409A 2015-10-21 2015-10-21 포격 훈련용 시뮬레이션 시스템 KR101781471B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150146409A KR101781471B1 (ko) 2015-10-21 2015-10-21 포격 훈련용 시뮬레이션 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150146409A KR101781471B1 (ko) 2015-10-21 2015-10-21 포격 훈련용 시뮬레이션 시스템

Publications (2)

Publication Number Publication Date
KR20170046288A true KR20170046288A (ko) 2017-05-02
KR101781471B1 KR101781471B1 (ko) 2017-09-25

Family

ID=58742747

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150146409A KR101781471B1 (ko) 2015-10-21 2015-10-21 포격 훈련용 시뮬레이션 시스템

Country Status (1)

Country Link
KR (1) KR101781471B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114327066A (zh) * 2021-12-30 2022-04-12 上海曼恒数字技术股份有限公司 虚拟现实屏幕的立体显示方法、装置、设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101877215B1 (ko) * 2017-11-10 2018-07-12 엘아이지넥스원 주식회사 영상센서에 기인한 노이즈를 반영하는 시뮬레이션 영상 생성장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114327066A (zh) * 2021-12-30 2022-04-12 上海曼恒数字技术股份有限公司 虚拟现实屏幕的立体显示方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR101781471B1 (ko) 2017-09-25

Similar Documents

Publication Publication Date Title
US11423586B2 (en) Augmented reality vision system for tracking and geolocating objects of interest
US20220366598A1 (en) Calibration system and method to align a 3d virtual scene and a 3d real world for a stereoscopic head-mounted display
US9892563B2 (en) System and method for generating a mixed reality environment
US10071306B2 (en) System and method for determining orientation using tracking cameras and inertial measurements
ES2935124T3 (es) Sistema de visualización de imágenes, procedimiento de control del sistema de visualización de imágenes, sistema de distribución de imágenes y dispositivo de visualización montado en la cabeza
US20160292924A1 (en) System and method for augmented reality and virtual reality applications
EP2579128B1 (en) Portable device, virtual reality system and method
US10030931B1 (en) Head mounted display-based training tool
US20060061571A1 (en) Image display control method
US20100315414A1 (en) Display of 3-dimensional objects
US20120178054A1 (en) Method and arrangement of a flight simulator system
CN112525185B (zh) 基于定位的ar导览方法及ar头戴式显示装置
US11269400B2 (en) Positioning system
EP1152279B1 (en) Immersive display system
Zhu et al. AR-Weapon: live augmented reality based first-person shooting system
KR101781471B1 (ko) 포격 훈련용 시뮬레이션 시스템
KR20160090042A (ko) 3d hmd를 활용한 아케이드 게임시스템
KR101696243B1 (ko) 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법
US11902499B2 (en) Simulation sighting binoculars, and simulation system and methods
EP3132279B1 (en) A target determining method and system
JP7018443B2 (ja) ターゲットの定位を支援する方法およびこの方法の実行可能な観察装置
WO2011075061A1 (en) Device for measuring distance to real and virtual objects
Brookshire et al. Military vehicle training with augmented reality
JP6896670B2 (ja) 放射線量分布表示装置及び放射線量分布表示方法
KR20220067061A (ko) 홀로렌즈의 절대위치 인식 보조장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant