KR101522208B1 - 증강현실기반의 자동 표적생성 시스템 및 방법 - Google Patents

증강현실기반의 자동 표적생성 시스템 및 방법 Download PDF

Info

Publication number
KR101522208B1
KR101522208B1 KR1020140011709A KR20140011709A KR101522208B1 KR 101522208 B1 KR101522208 B1 KR 101522208B1 KR 1020140011709 A KR1020140011709 A KR 1020140011709A KR 20140011709 A KR20140011709 A KR 20140011709A KR 101522208 B1 KR101522208 B1 KR 101522208B1
Authority
KR
South Korea
Prior art keywords
information
tracking
terminal
mobile terminal
target
Prior art date
Application number
KR1020140011709A
Other languages
English (en)
Inventor
김동현
이장훈
김성용
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020140011709A priority Critical patent/KR101522208B1/ko
Application granted granted Critical
Publication of KR101522208B1 publication Critical patent/KR101522208B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J9/00Moving targets, i.e. moving when fired at
    • F41J9/14Cinematographic targets, e.g. moving-picture targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/02Processing of mobility data, e.g. registration information at HLR [Home Location Register] or VLR [Visitor Location Register]; Transfer of mobility data, e.g. between HLR, VLR or external networks
    • H04W8/08Mobility data transfer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 본 발명은 증강 현실에 기반한 이동 단말기와 그와 연동된 원격 서버간의 정보 융합에 의해 증강현실기반의 자동 표적을 생성할 수 있는 시스템 및 방법으로, 현실 화면을 획득 및 표시하기 위한 영상 입력부 및 디스플레이장치를 구비하여, 사용자가 화면을 통해 바라보고 있는 표적의 위치, 지향각 및 고각을 측정하는 복수의 이동 단말기; 및 복수의 이동 단말기 중에서 특정 단말기로부터 항적 추적이 요청되면, 해당 단말기를 제외하고 현재 동일한 표적을 지향하는 연동 단말기로부터 추적 정보를 수신하여, 적어도 2대 이상의 연동 단말기의 추적 정보를 융합하여 3차원 표적 정보를 생성 및 관리하는 원격 서버;로 구성되어, 상기 특정 단말기 및 연동 단말기는 사용자의 방향 정보 및 위치 정보와 원격 서버로부터 수신한 3차원 표적 정보 및 전술 정보를 부가 데이타로 가시화한 후 현실 화면과 융합하여 표시한다.

Description

증강현실기반의 자동 표적생성 시스템 및 방법{AUGMENTED-REALITY BASED AUTONOMOUS TARGET GENERATING SYSTEM AND METHOD THEROF}
본 발명은 이동 단말기와 그와 연동된 원격 서버간의 정보 융합에 의해 증강현실기반의 자동 표적을 생성할 수 있는 자동 표적생성 시스템 및 방법에 관한 것이다.
군사 작전에 있어서 적군이나 아군의 위치를 파악하고 이를 추적하는 일은 중요하다. 이를 위해 현재까지 다양한 장비가 개발되었는데 그 중에서 대표적인 것으로 망원경과 레이저 거리 측정기(Laser Range Finder)등이 있다. 망원경과 레이저 거리 측정기는 병사가 휴대할 수 있으며 나침반과 지도 등의 조합으로 원거리에 있는 물체의 위치를 추정할 수 있다. 하지만, 일반적인 레이저 거리 측정기의 측정 거리로는 공중 항적의 위치 추정에는 어려움이 있어 육안 관측에 의한 공중 항적의 위치 추정은 주변 지형 관측에 의한 추정에 기반하여 이루어져 왔다.
공중 항적을 탐지/추적하는데 있어서 현재 가장 대중적으로 사용되고 있는 장비는 레이더이다. 레이더는 펄스 전파의 직진성을 이용하여 표적을 탐지하고 그 위치를 알려주는 장치이다. 레이더는 원거리에서 오는 표적도 비교적 정확하게 탐지하여 위치를 알려줄 수 있는 장점이 있으나, 그 크기가 상대적으로 크고, 전력 소모가 많을 뿐 아니라 가격이 비싸 병사 휴대용 장비로는 적절하지 않다.
증강현실 기술은 현실 화면에 가상의 정보를 덧대어 표현하는 기술로, 사용자가 좀 더 직관적인 정보 획득을 할 수 있도록 도와주는 기술이다. 최근 정보기술의 발달로 증강현실은 두부장착형 디스플레이(HMD : Head Mounted Display)와 휴대형 컴퓨터 또는 스마트폰 등으로 손쉽게 구현할 수 있는 상황에 이르렀다. 증강현실은 일상 생활 뿐만 아니라, 의료, 군사, 교육 등의 전 분야에서 활용될 수 있을 것으로 전망되고 있고, 프로토타입 구현 이상의 개발이 진행되어 왔다.
본 발명의 목적은 증강 현실에 기반한 이동 단말기와 그와 연동된 원격 서버간의 정보 융합에 의해 증강현실기반의 자동 표적을 생성할 수 있는 자동 표적생성 시스템 및 방법을 제공하는데 있다.
본 발명의 다른 목적은 증강현실에 기반하여 표적의 상대 위치 정보를 네트워크를 이용한 정보 융합을 통하여 절대 위치 정보로 자동 생성할 수 있는 자동 표적생성 시스템 및 방법을 제공하는데 있다.
상기와 같은 목적을 달성하기 위하여 본 발명의 실시예에 따른 증강현실 기반의 자동표적 생성 시스템은, 현실 화면을 획득 및 표시하기 위한 영상 입력부 및 디스플레이장치를 구비하여, 사용자가 화면을 통해 바라보고 있는 표적의 위치, 지향각 및 고각을 측정하는 복수의 이동 단말기; 및 복수의 이동 단말기 중에서 특정 단말기로부터 항적 추적이 요청되면, 해당 단말기를 제외하고 현재 동일한 표적을 지향하는 단말기로부터 추적 정보를 수신하여, 적어도 2대 이상의 단말기의 추적 정보를 융합하여 3차원 표적 정보를 생성하는 원격 서버;로 구성되어, 상기 항적 추적을 요청한 이동 단말기는 사용자의 방향 정보 및 위치 정보와 원격 서버로부터 수신한 3차원 표적 정보 및 전술 정보를 부가 데이타로 가시화한 후 현실 화면과 융합하여 표시한다.
상기 항적 추적을 요청한 이동 단말기는 부가 데이타를 현실 화면과 융합하여 디스플레이장치와 두부장착형 디스플레이 중 적어도 하나로 출력한다.
상기 이동 단말기는 사용자의 항적 추적 요청 및 추적/비추적 모드를 설정하기 위한 입력부; 사용자의 방향정보, 위치정보 및 자세정보를 감지하는 센서부;
상기 센서부에서 감지된 정보를 원격 서버로 송신하고, 원격 서버로부터 3차원 표적 정보 및 전술 정보를 수신하는 데이터 통신부; 상기 감지된 사용자의 방향 정보, 위치 정보 및 3차원 표적 정보에 기초하여 사용자의 지향 방향을 계산한 후 전술정보와 함께 가시화하는 제어부; 및 상기 제어부의 명령에 따라 현실 화면과 가시화된 부가 데이터를 융합하여 디스플레이장치와 두부장착형 디스플레이 중 적어도 하나로 출력하는 증강 현실부;를 포함한다.
상기 입력부는 가상 또는 물리 버튼으로 구성되어, 이동 단말기 사용자의 표적 추적/비추적 상태 정보를 입력받아 제어부로 전달한다.
상기 원격 서버는 이동 단말기와 연동되어 이동 단말기의 위치, 지향각, 고각 및 추적/비추적 상태와 같은 정보를 전송 시간 기준으로 관리하며, 연동 단말기로부터 수신한 추적 정보의 유효성 확인을 통해 2대 이상의 관측정보로 위/경도, 고도 정보를 갖는 항적정보를 생성 및 관리한다.
상기 원격 서버는 각 이동 단말기의 추적/비추적 모드를 근거로 추적 모드로 설정된 이동 단말기의 추적 정보를 구분하고, 이동 단말기의 위치 및 방위각을 근거로 추적 요청 단말기의 위치로부터 지향 방향으로 뻗어나가는 벡터 선과 교점을 가지는 이동 단말기의 추적 정보만을 선택하여 추적 정보의 유효성을 판단한다.
상기와 같은 목적을 달성하기 위하여 본 발명의 실시예에 따른 증강현실 기반의 자동표적 생성방법은, 특정 단말기로부터 항적 추적 요청이 수신되면 해당 단말기를 제외한 복수의 연동 단말기들로 항적 추적을 요청하는 단계; 상기 연동 단말기로부터 추적/비추적 여부와 함께 각 단말기가 표적을 지향하는 지향각 및 고각의 추적 정보를 수신하는 단계; 수신된 복수의 단말기의 추적 정보에 대하여 유효성을 확인하는 단계; 유효성이 확인된 2대 이상의 연동 단말기의 정보를 융합하여 3차원 표적 좌표를 생성하여 기 저장된 전술정보와 함께 특정 단말기로 전송하는 단계; 및 특정 단말기에서 사용자의 방향 정보 및 위치 정보와 상기 수신한 3차원 표적 정보 및 전술 정보를 부가 데이타로 가시화한 후 현실 화면과 융합하여 표시하는 단계;를 포함한다.
상기 현실 화면과 융합된 부가 데이터는 디스플레이장치와 두부장착형 디스플레이 중 적어도 하나로 출력된다.
상기 추적 정보의 유효성을 판단하는 단계는 각 이동 단말기의 추적/비추적 모드를 근거로 추적 모드로 설정된 이동 단말기의 추적 정보를 구분하는 단계; 및 각 이동 단말기의 위치 및 방위각을 근거로 추적 요청 단말기의 위치로부터 지향 방향으로 뻗어나가는 벡터 선과 교점을 가지는 이동 단말기의 추적 정보만을 선택하는 단계;를 포함한다.
본 발명은 2대 이상의 단말기의 위치, 지향각, 고각등의 정보를 네트워크를 통해 융합하여 레이더나 레이저거리측정기, 전자/광학 장비 등의 사용 없이, 표적의 3차원 위치정보를 빠른 시간에 획득 및 관리할 수 있는 방법으로서 정찰/경계 시스템에 적용될 수 있다. 더욱이 본 발명은 기존의 야시경, 망원경등의 장비에 쉽게 접목될 있고, 이를 통해 기능/성능상의 향상을 얻을 수 있다.
도 1은 본 발명의 실시예에 따른 증강현실 기반의 자동표적 생성 시스템의 구성도.
도 2는 본 발명의 실시예에 따른 증강현실 기반의 자동표적 생성 시스템의 동작을 나타낸 순서도.
도 3은 원격 서버에서 자동표적을 생성하는 실시예.
본 발명은 레이더 등의 복잡한 장비를 사용하지 않고도 3차원 표적의 위치를 근 실시간 정보 융합을 통해 추정하고 이를 네트워크를 통해 공유하기 위해 제안되었다. 본 발명은 증강현실에 기반하여 2대 이상의 이동 단말기 사용자가 단말기를 통해 바라보고 있는 표적의 상대 위치 정보를 네트워크를 이용한 정보 융합을 통해 절대 위치 정보로 자동 생성한다.
도 1은 본 발명의 실시예에 따른 증강현실 기반의 자동표적 생성 시스템의 구성도이다.
도 1을 참조하면, 본 발명의 실시예에 따른 증강현실 기반의 자동표적 생성 시스템은 크게 사용자가 화면을 통해 바라보고 있는 표적의 위치, 지향각 및 고각을 측정하는 복수의 이동 단말기(100~100N); 및 복수의 이동 단말기 (100~100N) 중에서 특정 단말기로부터 항적 추적이 요청되면, 해당 단말기를 제외하고 현재 동일한 표적을 지향하는 단말기로부터 추적 정보를 수신하여, 적어도 2대 이상의 단말기의 추적 정보를 융합하여 3차원 표적 정보를 생성하는 원격 서버(200)로 구성된다.
본 발명의 제1측면은 이동 단말기에 관한 것이다.
복수의 이동 단말기(100~100N)는 사용자의 항적 추정 요청 및 추적 참여 여부 등의 정보를 가상 또는 물리 버튼 입력으로 받을 수 있는 입력부 (101), 사용자의 방향정보, 위치정보 및 자세정보를 감지하는 센서부(105), 상기 센서부(105)에서 감지된 정보를 원격 서버(200)로 송신하고, 원격 서버(200)로부터 3차원 표적 정보 및 전술 정보를 수신하는 데이터 통신부(102), 상기 감지된 사용자의 방향 정보, 위치 정보 및 3차원 표적 정보에 기초하여 사용자의 지향 방향을 계산한 후 전술정보와 함께 가시화하는 제어부(103); 및 상기 제어부(103)의 명령에 따라 현실 화면과 가시화된 부가 데이터를 융합하여 디스플레이장치(미도시)와 두부장착형 디스플레이(HMD)(106) 중 적어도 하나로 출력하는 증강 현실부(104);를 포함한다.
상기 센서부(105)는 사용자의 현재 방향 정보를 감지하는 방향 감지 센서인 나침반, 사용자의 현재 위치 정보를 감지하는 위치 감지 센서인 GPS, 사용자의 현재 자세 정보를 감지하는 자세 감지 센서인 가속도계로 구성된다.
또한, 상기 복수의 이동 단말기(100~100N)는 현실 화면을 획득하기 위한 영상 입력부(e.g., 카메라) 및 상기 획득된 현실 화면을 표시하는 디스플레이장치를 구비한다.
상기 원격 서버(200)는 이동 단말기(100~100N)와 연동되어 이동 단말기의 위치, 지향각, 고각, 추적/비추적 상태등의 정보를 전송 시간 기준으로 관리하며, 수신된 정보의 유효성 확인을 통해 2대 이상의 관측 정보로 위/경도, 고도 정보를 가진 항적정보(3차원 좌표 정보)를 생성 및 관리한다.
상기 원격 서버(200)는 이동 단말기의 추적/비추적 모드와 이동 단말기 (100~100N)의 위치 및 방위각을 이용하여 유효성 확인을 수행한다.
따라서, 사용자가 입력부(101)를 통해 입력한 추적 요청, 추적/비 추적 상태정보 등은 제어부(103)로 전달된다. 또한, 센서부(105)의 나침반, GPS 및 가속도계 를 통해 감지된 이동 단말기의 방향, 위치 및 자세정보도 제어부 (103)로 전달된다.
제어부(103)에서 취합된 사용자의 입력정보 및 감지정보는 데이터 통신부 (102)에서 유/무선통신망을 통해 원격 서버(200)로 전달된다. 증강 현실부(104)에는 이동 단말기(100)가 지향하고 있는 현실 화면에 제어부(103)에서 전달된 위치정보 및 연동정보 등이 시현된다. 상기 연동정보는 사용자의 방향 정보, 위치 정보뿐만 아니라 서버에서 생성된 3차원 표적 정보 및 전술정보를 포함한다. 상기 증강 현실부(104)에서 시현되는 정보는 별도의 두부장착형 디스플레이(HMD)(106)에서도 연동되어 시현될 수 있다. 이때 HMD(106)는 자체의 나침반, GPS 및 가속도계 정보를 가지고 있으며, 이동 단말기에 그 정보를 전달할 수 있어야 한다.
본 발명의 제2측면은 이동 단말기와 연동된 원격 서버에 관한 것이다.
원격 서버는 이동 단말기로부터 전송된 시간정보, 위치정보, 자세정보 및 추적/비추적 모드 정보 등을 종합하여 항적을 생성하고 관리한다. 이는 생성된 항적을 타 서버와 연동하기 위함이다.
원격 서버의 특징 중 하나는 이동 단말기들에 항적 추적 요청을 보내고, 수신된 항적 추적 정보들의 유효성을 판단하는 것이다. 그 이유는 다수의 이동 단말기가 추적에 참여할 경우 원격 서버의 계산 복잡도가 상승하고, 잘못된 추적 정보가 유입될 경우 정확도가 떨어지기 때문이다.
따라서, 원격 서버는 추적/비추적 여부를 정보를 통해 먼저 현재 표적을 추적하고 있는 이동 단말기의 추적 정보들을 선택하고, 선택된 이동 단말기의 추적 정보등 중에서 추적 요청 단말기의 위치로부터 지향 방향으로 뻗어나가는 벡터 선과 교점(추적 방향이 교차하는)을 가지는 이동 단말기의 정보만을 선택하여 사용하여, 현재 추적 요청 단말기와 동일한 표적을 지향하는 이동 단말기의 추적 정보만을 이용한다.
본 발명의 제3측면은 이동 단말기에서 전송된 정보를 연동 서버에서 처리하는 방법에 관한 것이다.
도 2는 본 발명의 실시예에 따른 증강현실 기반의 자동표적 생성 시스템의 동작을 나타낸 순서도이다.
도 2를 참조하면, 먼저 이동 단말기 1(특정 이동 단말기)이 원격 서버(200)로 항적 추적을 요청하면 (S100), 원격 서버(200)는 이동 단말기 1을 제외하고 현재 원격 서버에 접속된 나머지 이동 단말기들로 항적 추적을 요청을 한다(S110). 이때, 항적 추적을 요청받은 단말기를 연동 단말기라고 칭한다.
원격 서버(200)로부터 항적 추적 요청을 받은 연동 단말기들은 표적 추적/비추적 여부를 나타내는 정보(추적/비추적 모드정보)와 함께 단말기가 표적을 지향하는 추적 정보(지향각, 고각, 위치정보 등)를 측정하여 원격 서버로 전송한다.
연동 단말기들로부터 추적/비추적 모드정보 및 추적 정보가 수신되면(S120), 원격 서버(200)는 해당 정보를 근거로 각 연동 단말기에서 전송한 추적 정보에 대한 유효성을 판단한다(S130). 상기 유효성 판단은 먼저 추적 모드로 설정된 연동 단말기를 먼저 선별하고, 추적모드로 설정된 연동 단말기 중에서 추적 요청 단말기와 동일한 표적을 지향하는 연동 단말기를 최종 선별하여 그 최종 선별된 연동 단말기의 추적 정보를 유효한 정보로 판단한다.
이후 원격 서버(200)는 유효성이 확인된 연동 단말기 중에서 적어도 2대 이상의 연동 단말기의 항적추적 정보를 융합하여 삼각측량법에 의해 표적의 3차원 좌표를 생성한다(S140). 상기 처리는 추적에 참여하는 연동 단말기가 2대 이상인 경우 주기적으로 지속된다.
상기 생성된 표적의 3차원 좌표는 기저장된 전술정보와 함께 항적 추적을 요청한 이동 단말기 1뿐만 아니라 다른 연동 단말기들로 전송된다. 따라서, 데이타 통신부(102)를 통해 표적의 3차원 좌표와 전술정보를 수신한 이동 단말기 1 및 연동 단말기들의 제어부(103)는 감지된 사용자의 방향 정보 및 위치 정보와 원격 서버로부터 수신한 3차원 표적 정보 및 전술 정보를 부가 데이타로 가시화하고, 증강 현실부(104)는 상기 가시화된 부가 데이타와 현실 화면을 융합하여 디스플레이장치와 두부장착형 디스플레이(HMD)(106) 중 적어도 하나로 출력한다(S150).
도 3은 원격 서버에서 자동표적을 생성하는 실시예이다.
도 3은 이동 단말기 1에서 N까지 총 N대의 이동 단말기가 원격 서버(200)에 접속되었고, 이동 단말기 1(301)과 N(302)이 항공기(300)를 추적하는 예이다.
원격 서버(200)가 2대 이동 단말기(301, 302)의 위치 정보를 알고, 이동 단말기(301, 302)들이 동일한 물체(e.g., 항공기)를 지향하고 있다고 가정한다면, 간단한 삼각 측량을 통해 2차원 좌표에서 한 지점(표적 위치)을 특정할 수 있다.
또한, 각 이동 단말기(301, 302)들이 지향하고 있는 고각 정보를 이용하면 항공기(300)의 고도 정보도 특정할 수 있다. 추가적으로 여러 대의 이동 단말기가 추적에 참여하면, 추적 정보의 융합을 통해 표적의 정확도가 향상될 수 있다. 본 발명은 더 나아가 칼만 필터 등의 사용을 통해 오차 값이 보정된 데이터를 획득할 수 있을 것이다.
그리고, 본 발명은 원격 서버에서 3차원 표적정보를 생성하는 동작을 예로들어 설명하였지만, 이에 한정되지 않고, 복수의 이동 단말기중에서 기준 이동 단말기를 선정한 후 상기 기준 이동 단말기에서 나머지 이동 단말기로부터 추적정보를 수신하여 3차원 표적정보를 생성한 후 기저장된 전술정보를 상술한 동작에 따라 표시할 수도 있다.
상술한 바와같이, 본 발명은 2대 이상의 이동 단말기의 위치, 지향각 및 고각등의 정보를 네트워크를 통해 융합하여 레이더나 레이저거리측정기, 전자/광학 장비등의 사용 없이, 표적의 3차원 위치정보를 빠른 시간에 획득, 관리할 수 있는 효과가 있다. 따라서, 본 발명은 정찰/경계 시스템에 적용될 수 있을 뿐만 아니라 기존의 야시경 및 망원경등의 장비에 쉽게 접목될 있고, 이를 통해 기능/성능상의 향상을 얻을 수 있다.
상기와 같이 설명된 본 발명에 따른 증강현실 기반의 자동표적 생성 시스템 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 상술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다.
이동 단말기 : 100, 301, 302 101 : 입력부
102 : 데이타 통신부 103 : 제어부
104 : 증강 현실부 105 : 센서부
106 : HMD

Claims (9)

  1. 현실 화면을 획득 및 표시하기 위한 영상 입력부 및 디스플레이장치를 구비하여, 사용자가 화면을 통해 바라보고 있는 표적의 위치, 지향각 및 고각을 측정하는 복수의 이동 단말기; 및
    복수의 이동 단말기 중에서 특정 단말기로부터 항적 추적이 요청되면, 해당 단말기를 제외하고 현재 동일한 표적을 지향하는 연동 단말기로부터 추적 정보를 수신하여, 적어도 2대 이상의 연동 단말기의 추적 정보를 융합하여 3차원 표적 정보를 생성하는 원격 서버;로 구성되어,
    상기 항적 추적을 요청한 이동 단말기 및 연동 단말기는 사용자의 방향 정보 및 위치 정보와 원격 서버로부터 수신한 3차원 표적 정보 및 전술 정보를 부가 데이타로 가시화한 후 현실 화면과 융합하여 표시하는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 시스템.
  2. 제1항에 있어서, 상기 항적 추적을 요청한 이동 단말기 및 연동 단말기는
    부가 데이타를 현실 화면과 융합하여 디스플레이장치와 두부장착형 디스플레이 중 적어도 하나로 출력하는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 시스템.
  3. 제1항에 있어서, 상기 이동 단말기는
    항적 추적 요청 및 추적/비추적 모드를 설정하기 위한 입력부;
    사용자의 방향정보, 위치정보 및 자세정보를 감지하는 센서부;
    상기 센서부에서 감지된 정보를 원격 서버로 송신하고, 원격 서버로부터 3차원 표적 정보 및 전술 정보를 수신하는 데이터 통신부;
    상기 감지된 사용자의 방향 정보, 위치 정보 및 3차원 표적 정보에 기초하여 사용자의 지향 방향을 계산한 후 전술정보와 함께 가시화하는 제어부; 및
    상기 제어부의 명령에 따라 현실 화면과 가시화된 부가 데이터를 융합하여 디스플레이장치와 두부장착형 디스플레이 중 적어도 하나로 출력하는 증강 현실부;를 포함하는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 시스템.
  4. 제1항에 있어서, 상기 입력부는
    가상 또는 물리 버튼으로 구성되어, 이동 단말기 사용자의 표적 추적/비추적 상태 정보를 입력받아 제어부로 전달하는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 시스템.
  5. 제1항에 있어서, 상기 원격 서버는
    이동 단말기와 연동되어 이동 단말기의 위치, 지향각, 고각 및 추적/비추적 상태와 같은 정보를 전송 시간 기준으로 관리하며, 연동 단말기로부터 수신한 추적 정보의 유효성 확인을 통해 2대 이상의 관측정보로 위/경도, 고도 정보를 갖는 항적정보를 생성 및 관리하는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 시스템.
  6. 제3항에 있어서, 상기 원격 서버는
    각 이동 단말기의 추적/비추적 모드를 근거로 추적 모드로 설정된 이동 단말기의 추적 정보를 구분하고, 이동 단말기의 위치 및 방위각을 근거로 추적 요청 단말기의 위치로부터 지향 방향으로 뻗어나가는 벡터 선과 교점을 가지는 이동 단말기의 추적 정보만을 선택하여 추적 정보의 유효성을 판단하는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 시스템.
  7. 특정 단말기로부터 항적 추적 요청이 수신되면 해당 단말기를 제외한 복수의 연동 단말기들로 항적 추적을 요청하는 단계;
    상기 연동 단말기로부터 추적/비추적 여부와 함께 각 단말기가 표적을 지향하는 지향각 및 고각의 추적 정보를 수신하는 단계;
    수신된 복수의 단말기의 추적 정보에 대하여 유효성을 확인하는 단계;
    유효성이 확인된 2대 이상의 연동 단말기의 정보를 융합하여 3차원 표적 좌표를 생성하여 기 저장된 전술정보와 함께 상기 특정 단말기 및 연동 단말기로 전송하는 단계; 및
    상기 특정 단말기 및 연동 단말기에서 사용자의 방향 정보 및 위치 정보와 상기 수신한 3차원 표적 정보 및 전술 정보를 부가 데이타로 가시화한 후 현실 화면과 융합하여 표시하는 단계;를 포함하는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 방법.
  8. 제7항에 있어서, 상기 현실 화면과 융합된 부가 데이터는 디스플레이장치와 두부장착형 디스플레이 중 적어도 하나로 출력되는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 방법.
  9. 제7항에 있어서, 상기 추적 정보의 유효성을 판단하는 단계는
    각 이동 단말기의 추적/비추적 모드를 근거로 추적 모드로 설정된 이동 단말기의 추적 정보를 구분하는 단계; 및
    각 이동 단말기의 위치 및 방위각을 근거로 추적 요청 단말기의 위치로부터 지향 방향으로 뻗어나가는 벡터 선과 교점을 가지는 이동 단말기의 추적 정보만을 선택하는 단계;를 포함하는 것을 특징으로 하는 증강현실 기반의 자동표적 생성 방법.
KR1020140011709A 2014-01-29 2014-01-29 증강현실기반의 자동 표적생성 시스템 및 방법 KR101522208B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140011709A KR101522208B1 (ko) 2014-01-29 2014-01-29 증강현실기반의 자동 표적생성 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140011709A KR101522208B1 (ko) 2014-01-29 2014-01-29 증강현실기반의 자동 표적생성 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR101522208B1 true KR101522208B1 (ko) 2015-05-21

Family

ID=53395244

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140011709A KR101522208B1 (ko) 2014-01-29 2014-01-29 증강현실기반의 자동 표적생성 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101522208B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10142325A (ja) * 1996-11-07 1998-05-29 Mitsubishi Electric Corp 多目標追尾方法及び多目標追尾装置
KR100418345B1 (ko) * 2001-10-16 2004-02-11 박상래 3차원 목표영상 위치추적 방식의 지역방어 시스템 및 그 방법
KR101058451B1 (ko) * 2010-07-27 2011-08-24 국방과학연구소 스마트 폰을 이용하는 웨어러블 전술 상황 공유 장치 및 이를 포함하는 지상 네트워크 시스템
KR101271235B1 (ko) * 2011-12-12 2013-06-10 자동차부품연구원 주행정보 제공장치 및 제공방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10142325A (ja) * 1996-11-07 1998-05-29 Mitsubishi Electric Corp 多目標追尾方法及び多目標追尾装置
KR100418345B1 (ko) * 2001-10-16 2004-02-11 박상래 3차원 목표영상 위치추적 방식의 지역방어 시스템 및 그 방법
KR101058451B1 (ko) * 2010-07-27 2011-08-24 국방과학연구소 스마트 폰을 이용하는 웨어러블 전술 상황 공유 장치 및 이를 포함하는 지상 네트워크 시스템
KR101271235B1 (ko) * 2011-12-12 2013-06-10 자동차부품연구원 주행정보 제공장치 및 제공방법

Similar Documents

Publication Publication Date Title
US11789523B2 (en) Electronic device displays an image of an obstructed target
US9494686B2 (en) Hand-held target locator
US9749809B2 (en) Method and system for determining the location and position of a smartphone based on image matching
KR20180064253A (ko) 비행 제어 방법 및 이를 지원하는 전자 장치
KR20210136043A (ko) 포인팅 제어기를 사용하는 스마트 디바이스와의 상호작용
JP2016122277A (ja) コンテンツ提供サーバ、コンテンツ表示端末、コンテンツ提供システム、コンテンツ提供方法、および、コンテンツ表示プログラム
EP3132279B1 (en) A target determining method and system
KR101522208B1 (ko) 증강현실기반의 자동 표적생성 시스템 및 방법
US20190228583A1 (en) Systems and methods for tracking object location and orientation in virtual reality environments using ultra-wideband signals, inertia measurement units, and reflective markers
EP3416027B1 (en) Augmented-reality device and system with seamless bridging
KR20150107970A (ko) 복수의 영상 획득 장치를 포함하는 모바일 단말기의 위치 및 자세 결정 방법 및 시스템
CN112154389A (zh) 终端设备及其数据处理方法、无人机及其控制方法
Neuhöfer et al. Adaptive information design for outdoor augmented reality
CN112799418B (zh) 控制方法、装置、遥控设备及可读存储介质
Scheibert Overcoming the problem of uncertain tracking errors in an AR navigation application
KR102641659B1 (ko) 정렬된 기준 프레임들을 사용하여 물리적 공간에서 오브젝트를 추적하기 위한 시스템
JP6523362B2 (ja) サーバ装置、端末装置及びプログラム
JP2020098635A (ja) コンテンツ表示端末、コンテンツ提供方法、および、コンテンツ表示プログラム
KR20220090375A (ko) 전통시장 전력설비 관리시스템
JP2013142637A (ja) 方向計測装置、情報処理装置および方向計測方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190502

Year of fee payment: 5