KR20160015143A - 포탄방향인식시스템, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램 - Google Patents

포탄방향인식시스템, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램 Download PDF

Info

Publication number
KR20160015143A
KR20160015143A KR1020150042943A KR20150042943A KR20160015143A KR 20160015143 A KR20160015143 A KR 20160015143A KR 1020150042943 A KR1020150042943 A KR 1020150042943A KR 20150042943 A KR20150042943 A KR 20150042943A KR 20160015143 A KR20160015143 A KR 20160015143A
Authority
KR
South Korea
Prior art keywords
information
wearable device
unit
sensor
glass
Prior art date
Application number
KR1020150042943A
Other languages
English (en)
Inventor
한성철
엄정한
김진영
이경현
김대중
김석기
유철현
Original Assignee
넥시스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥시스 주식회사 filed Critical 넥시스 주식회사
Priority to PCT/KR2015/007914 priority Critical patent/WO2016018063A2/ko
Publication of KR20160015143A publication Critical patent/KR20160015143A/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • F41J5/14Apparatus for signalling hits or scores to the shooter, e.g. manually operated, or for communication between target and shooter; Apparatus for recording hits or scores
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2694Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating a target
    • G06F19/00
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Navigation (AREA)

Abstract

본 발명은 포탄방향인식시스템, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램 에 관한 것이다.
본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법은, 현재 위치정보를 수신하는 단계(S100); 실시간 사격제원정보를 포탄방향인식시스템으로부터 수신하는 단계(S200); 사격제원정보 및 사거리정보를 바탕으로 예상탄착지를 계산하는 단계(S300); 및 예상탄착지를 지도상에 표시하여 사용자에게 제공하는 단계(S400);를 포함한다.
본 발명에 따르면, 포탄의 예상탄착지를 실시간으로 계산하여 글라스형 웨어러블 디바이스의 사용자에게 표시해주어, 전투 시 포탄을 정확하게 원하는 위치로 발사할 수 있다. 또한, 방위각 및 고각의 조절을 시각적으로 구현하여, 포의 사격제원 설정을 간편하게 하는 효과가 있다.

Description

포탄방향인식시스템, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램 {SYSTEM FOR THE RECOGNITION OF CANNONBALL DIRECTION, METHOD AND PROGRAM FOR THE PREDICTION OF IMPACTING POINT BY WEARABLE GLASS DEVICE}
본 발명은 포탄방향인식시스템과 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램에 관한 것으로, 보다 자세하게는 포에 구비되어 사격제원정보를 획득하여 제공하는 시스템과, 획득된 실시간 사격제원 및 해당 포의 사거리를 바탕으로 예상탄착지를 계산하여 글라스형 웨어러블 디바이스의 사용자에게 표시하는 방법 및 프로그램에 관한 것이다.
최근 웨어러블 디바이스들이 등장하고 있다. 스마트폰과 연동되는 안경(Glass) 형태로 등장하고 있으며, 스마트폰 없이도 독립적으로 작동할 수 있는 형태도 등장하고 있다. 또한, 최근 들어 다양한 웨어러블 디바이스를 국방기술에도 적용하려는 시도가 이루어지고 있다.
박격포, 견인포, 자주포 등의 곡사화기는 포수들이 고각과 방위각을 조절하여 포탄을 발사하는데, 포수들은 조절한 고각과 방위각이 원하는 탄착지에 포탄이 떨어지기에 적절한지 인식하기 쉽지 않다. 이를 위해 포수들이 예상탄착지를 인식할 수 있는 시스템이 필요하다.
포에 구비 또는 부착되어 해당 포의 사격제원정보를 획득하여 다른 디바이스로 제공해주어, 사용자가 포의 사격제원을 간편하게 확인할 수 있도록 하는, 포탄방향인식시스템을 제공함에 있다.
포탄방향인식시스템에 의해 획득된 사격제원 및 포의 사거리를 바탕으로 예상탄착지를 계산하여 글라스형 웨어러블 디바이스의 사용자에게 표시하여 포탄을 원하는 위치로 정확하게 발사할 수 있도록 하는, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램을 제공함에 있다.
상기 언급된 목적을 달성하기 위한, 본 발명의 일 실시예에 따른 포탄방향인식시스템은, 포의 사격제원정보를 측정하는 사격제원측정부; 상기 포의 현재 위치를 인식하는 GPS모듈; 글라스형 웨어러블 디바이스와 데이터 송수신을 수행하는 무선통신부; 및 상기 사격제원정보를 전송하기 위해 데이터 처리하는 제어부;를 포함한다.
또한, 가속도센서, 진동센서, 음향센서, 스모크센서 중 적어도 하나 이상을 포함하는 포격인식부;를 더 포함할 수 있다.
또한, 상기 사격제원측정부는, 상기 포의 방위각을 측정하는 방위각센서; 및 상기 포의 고각을 측정하는 고각측정센서;를 포함할 수 있다.
본 발명의 또 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법은, 현재 위치정보를 수신하는 단계; 실시간 사격제원정보를 포탄방향인식시스템으로부터 수신하는 단계; 상기 사격제원정보 및 사거리정보를 바탕으로 예상탄착지를 계산하는 단계; 및 상기 예상탄착지를 지도상에 표시하여 사용자에게 제공하는 단계;를 포함한다.
또한, 상기 현재 위치정보 수신단계는, 상기 글라스형 웨어러블 디바이스가 상기 포탄방향 인식시스템으로부터 상기 현재 위치정보를 수신하거나, 상기 글라스형 웨어러블 디바이스가 상기 현재 위치정보를 측정하는 것을 특징으로 할 수 있다.
또한, 상기 예상탄착지 계산단계는, 상기 사격제원정보 및 사거리정보를 바탕으로 제1예상탄착지를 계산하는 단계; 상기 현재위치와 상기 제1예상탄착지를 포함하는 지형정보를 수신하는 단계; 및 상기 지형정보를 반영하여 제2예상탄착지를 계산하는 단계;를 포함하고, 상기 예상탄착지 제공단계는, 상기 제2예상탄착지를 상기 지도상에 상기 예상탄착지로 표시할 수 있다.
또한, 상기 글라스형 웨어러블 디바이스가 포격지위치정보를 획득하는 단계;를 더 포함할 수 있다.
또한, 상기 포격지위치정보 획득단계는, 무선통신으로 외부서버로부터 상기 포격지위치정보를 수신하는 방식, 제1카메라에 의해 획득된 이미지에서 상기 포격지위치정보에 상응하는 문자를 인식하는 방식, 사용자의 음성데이터에서 상기 포격지위치정보를 인식하는 방식 중 적어도 하나 이상에 의해 수행되는 것을 특징으로 할 수 있다.
또한, 상기 포격지위치정보를 지도상에 표시하여 디스플레이하는 단계; 및
상기 포격지위치정보와 상기 예상탄착지정보가 일치하는 경우, 사용자에게 알림을 수행하는 단계;를 더 포함할 수 있다.
본 발명의 또 다른 일실시예에 따른 글라스형 웨어러블 디바이스용 포탄 예상 탄착지 제공프로그램은, 하드웨어와 결합되어 상기 언급된 포탄 예상 탄착지 제공방법을 실행하며, 매체에 저장된다.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.
첫째, 포탄의 예상탄착지를 실시간으로 계산하여 글라스형 웨어러블 디바이스의 사용자에게 표시해주어, 전투 시 포탄을 정확하게 원하는 위치로 발사할 수 있다.
둘째, 방위각 및 고각 변경에 따른 예상탄착지를 알려줌으로써 방위각 및 고각의 조절을 시각적으로 구현하여, 포의 사격제원 설정을 간편하게 하는 효과가 있다.
셋째, 포탄을 정확하게 원하는 위치로 발사할 수 있어서, 포의 살상력을 높일 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 포탄방향인식시스템의 내부구성도이다.
도 2는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스 시스템의 내부 구성도이다.
도 3은 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스의 사시도이다.
도 4는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스의 디스플레이부 상에 예상탄착지를 표시한 예시도면이다.
도 5는 본 발명의 일실시예에 따른 포탄방향인식시스템과 글라스형 웨어러블 디바이스간의 연결관계를 도시한 도면이다.
도 6는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법의 순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
도 1은 본 발명의 일 실시예에 따른 포탄방향인식시스템의 내부구성도이다. 도 2는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스 시스템의 내부 구성도이다. 도 3은 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스의 사시도이다. 도 4는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스의 디스플레이부 상에 예상탄착지를 표시한 예시도면이다. 도 5는 본 발명의 일실시예에 따른 포탄방향인식시스템과 글라스형 웨어러블 디바이스간의 연결관계를 도시한 도면이다. 도 6는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법의 순서도이다.
도 1 내지 도 6에는 글라스형 웨어러블 디바이스 시스템(100), 사용자입력부(110), 어플리케이션(111), 키보드(112), 음성입력부(113), 터치패드(114), GPS신호부(115), 근거리통신(116), 카메라부(120), 제1카메라(121), 제2카메라(122), 제3카메라(123), 센싱부(130), 자이로센서(131), 가속도센서(132), 압력센서(133), 홍체인식센서(134), 심박검출센서(135), 근전도센서(136), 정보처리모듈(210), 음성인식부(220), 상황평가모듈(230), 음성-텍스트변환모듈(240), 무선통신부(250), 메모리(260), 인터페이스부(270), 출력부(300), 디스플레이부(310), 음향출력부(320), 알람부(330), 햅틱모듈(340), 포탄방향 인식시스템(400), 사격제원측정부(410), 고각측정센서(411), 방위각센서(412), GPS모듈(420), 무선통신부(430), 제2제어부(440), 전원공급부(450), 포격인식부(460)가 도시된다.
도 1은 본 발명의 일실시예에 따른 포탄방향인식시스템(400)의 내부구성도이다.
도 1에 따르면, 본 발명의 일실시예에 따른 포탄방향인식시스템(400)은, 사격제원측정부(410); GPS모듈(420); 무선통신부(430); 및 제2제어부(440);를 포함한다.
사격제원측정부(410)는 포의 사격제원을 측정하는 기능을 수행한다. 사격제원측정부(410)는, 방위각센서(412); 및 고각측정센서(411);를 포함할 수 있다. 고각측정센서(411)는 상기 포의 고각을 인식하는 기능을 수행한다. 고각측정센서(411)는 중력측정방식을 활용하는데, 상기 중력측정은 미세전자기계시스템(Micro Electro Mechanical Systems; MEMS)소자 등을 통해 지구중력을 측정하여 중력 대비 기울어짐을 측정하는 방식과 도전 액체를 이용하여 도통단계에 따른 기울어짐을 측정하는 방식이 적용될 수 있다. 다만, 고각을 측정하는 기술은 이에 한정되지 아니하고, 고각을 측정하는 다양한 기술이 모두 적용될 수 있다. 상기 방위각센서(412)는 상기 포의 방위각을 인식하는 기능을 수행한다.
방위각센서(412)는 자이로 컴파스(Gyrocompass)로 이루어질 수 있다. 상기 자이로 컴파스는 고속 회전하는 자이로스코프의 축에 추를 달아 지구 자전의 영향으로 지구의 자전축(진북방향)을 지시하여 방향을 획득한다.
또한, 상기 방위각센서(412)는 전자나침반으로 이루어질 수도 있다. 상기 전자나침반은 미세전자기계시스템(Micro Electro Mechanical Systems; MEMS)기술을 활용한 소형소자 등을 이용해서 지구 자기장을 측정하여 자북방향을 획득하는 장치이다.
또한, 방위각센서(412)는 복수 개의 GPS모듈로 이루어질 수도 있다. 2개의 GPS값을 획득하여 각각의 위치정보를 서로 비교하여 도북방향(지향방향)을 측정하는 방식이다. 다만, 방위각을 측정하는 기술은 이에 한정되지 아니하고, 방위각을 측정하는 다양한 기술이 모두 적용될 수 있다.
GPS모듈(420)은 상기 포의 위치를 인식하는 기능을 수행한다. 포탄이 발사되는 위치가 파악되어야 측정된 사격제원과 포의 사거리를 바탕으로 탄착지를 계산할 수 있으므로, GPS모듈(420)은 포의 위치를 인식하여 포탄이 발사되는 위치를 파악한다.
제2제어부(440)는 사격제원측정부(410)로부터 측정된 사격제원을 상기 무선통신부(430)를 통해 전송하기 위해 데이터를 처리하는 기능을 수행한다.
무선통신부(430)는 글라스형 웨어러블 디바이스와 정보교환을 행하는 기능을 수행한다. 즉, 무선통신부(430)는 사격제원측정부(410)에서 측정한 사격제원정보를 무선통신을 통해 글라스형 웨어러블 디바이스 등의 외부디바이스로 전송한다.
또한, 전원공급부(450);를 더 포함할 수 있다. 전원공급부(450)는 시스템 구동을 위해 전원을 공급하는 기능을 수행한다. 전원공급부(450)는 무선 또는 유선으로 충전이 이루어질 수도 있으며, 전원 교체식으로 이루어질 수도 있다.
또한, 포격인식부(460);를 더 포함할 수 있다. 포격인식부(460)는 포탄 발사 여부를 인식하는 기능을 수행한다. 포격인식부(460)는 가속도센서, 진동센서, 음향센서, 스모크센서 등을 포함할 수 있다. 상기 가속도센서는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로, 포탄 격발 시 반동에 의한 가속도를 측정하여 격발여부를 인식한다. 상기 음향센서는 포탄 격발 시 발생하는 폭음을 인식하여 격발여부를 인식한다. 상기 스모크센서는 포탄 격발 시에 화약이 폭발하면서 발생하는 연기를 인식하여 격발여부를 파악한다. 포격을 인식하는 방법은 이에 한정되지 아니하고, 포탄 격발시의 특징을 파악할 수 있는 다양한 센서에 의해 구현될 수 있다.
상기 포탄방향인식시스템(400)은 사격제원측정부(410)가 사격제원인 고각과 방위각을 측정하고, GPS모듈(420)이 포의 현재 위치를 측정한다. 제2제어부(440)는 측정된 상기 정보를 무선통신으로 전송하기 위한 정보 처리를 하여 무선통신부(430)로 전달하고, 무선통신부(430)가 글라스형 웨어러블 디바이스로 전송한다. 제2제어부(440)는 무선통신부(430)를 통해 지형정보 및 사거리 정보를 전송받아서 예상탄착지 계산을 수행할 수도 있다.도 2는 글라스형 웨어러블 디바이스 시스템(100)의 내부 구성도이다.
도2를 참조하면, 본 발명의 글라스형 웨어러블 디바이스 시스템(100)은 카메라부(120), 음성입력부(113), 사용자입력부(110), 센싱부(130), 출력부(300), 무선통신부(250), 메모리(260), 인터페이스부(270), 제1제어부(210), 상황평가부(230), 전원공급부, 및 음성인식부(220)를 포함할 수 있다. 본 발명의 시스템은 상기 구성요소를 모두 포함할 필요는 없으며 일부 구성요소로만 구성될 수 있다. 또한, 이외의 추가적인 구성요소를 더 포함할 수도 있다.
카메라(120)는 비디오 신호 또는 이미지 신호 입력을 위한 것으로, 디바이스의 구성 태양에 따라 2개 이상이 구비될 수도 있다. 카메라(120)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 디스플레이부(310)에 표시될 수 있다. 또한, 카메라(120)에서 처리된 화상 프레임은 메모리(260)에 저장되거나 무선통신부(250)를 통하여 외부로 전송될 수 있다. 또한, 이미지 신호 또는 비디오 신호가 정보처리를 위한 입력으로 쓰이는 경우, 제1제어부(210)로 이미지 신호 및 비디오 신호를 전달한다.
카메라부(120)는 촬영하는 영상의 방향 또는 목적에 따라 하나 이상의 카메라를 포함할 수 있다. 제1카메라(121)는, 도 3에서와 같이, 글라스형 웨어러블 디바이스의 일측에 구비되어 전방의 영상을 촬영할 수 있다. 제2카메라(122)는 글라스형 웨어러블 디바이스의 일측에 구비되어 안구 방향의 영상 또는 이미지를 획득할 수 있다. 제3카메라(123)는 상기 글라스형 웨어러블 디바이스의 후방 또는 측방에 구비되어, 후방 또는 측방의 영상 또는 이미지를 획득할 수 있다.
음성입력부(113)는 음성신호의 입력을 위한 것으로 마이크 등이 포함될 수 있다. 마이크는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고 처리된 음성 데이터는 통화 모드인 경우 이동통신부를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크 는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 사용될 수 있다.
사용자입력부(110)는 사용자가 디바이스의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자입력부(110)는 키패드(key pad), 키보드, 돔 스위치(dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치, 핑거 마우스 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(310)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.
센싱부(130)는 디바이스의 개폐 상태, 디바이스의 위치, 사용자 접촉 유무 등과 같이 디바이스의 현 상태를 감지하여 디바이스의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 또한, 센싱부(130)는 디바이스의 정보처리를 위한 입력신호를 받는 입력부의 기능을 담당할 수 있으며, 외부 기기 연결 여부 인식 등의 다양한 센싱 기능을 담당할 수 있다.
센싱부(130)는 근접센서(Proximity Sensor), 압력센서(133), 모션 센서, 지문인식센서, 홍채인식센서(134), 심박검출센서(135), 피부온도센서, 피부저항센서 및 심전도센서 등을 포함할 수 있다.
근접센서는 접근하는 물체나, 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있도록 한다. 근접센서는 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. 근접센서는 구성 태양에 따라 2개 이상이 구비될 수 있다.
압력센서(133)는 디바이스에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. 압력센서(133)는 사용환경에 따라 디바이스에서 압력의 검출이 필요한 부위에 설치될 수 있다. 만일, 압력센서(133)가 디스플레이부(310)에 설치되는 경우, 압력센서(133)에서 출력되는 신호에 따라, 디스플레이부(310)를 통한 터치 입력과, 터치 입력보다 더 큰 압력이 가해지는 압력터치 입력을 식별할 수 있다. 또한, 압력센서(133)에서 출력되는 신호에 따라, 압력터치 입력 시에 디스플레이부(310)에 가해지는 압력의 크기도 알 수 있다.
모션 센서는 가속도센서(132), 자이로센서(131), 지자기센서 등의 센서 중에서 하나 이상을 포함하며, 이를 이용하여 디바이스의 위치나 움직임 등을 감지한다. 모션 센서에 사용될 수 있는 가속도센서(132)는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로서, MEMS(micro-electromechanical systems) 기술의 발달과 더불어 널리 사용되고 있다. 또한, 자이로센서(131)는 각속도를 측정하는 센서로서, 기준 방향에 대해 돌아간 방향을 감지할 수 있다.
심박검출센서(135)는 심장 박동에 의한 혈관 굵기의 변화에 따른 광혈류량의 변화를 측정한다. 피부 온도 센서는 온도 변화에 반응하여 저항값이 변화하는 것에 따라 피부 온도를 측정한다. 피부 저항 센서는 피부의 전기 저항을 측정한다.
홍채인식센서(134)는 사람마다 고유한 특성을 가진 안구의 홍채 정보를 이용해 사람을 인식하는 기능을 수행한다. 사람의 홍채는 생후 18개월 이후 완성된 뒤, 홍채의 내측연 가까이에 융기되어 있는 원형의 홍채 패턴은 한번 정해지면 거의 변하지 않고, 또 사람마다 모양이 모두 다르다. 따라서 홍채인식은 사람마다 각기 다른 홍채의 특성을 정보화해 이를 보안용 인증기술로 응용한 것이다. 즉, 홍채의 모양과 색깔, 망막 모세혈관의 형태소 등을 분석해 사람을 식별하기 위한 수단으로 개발한 인증방식이다.
홍채인식센서(134)는 홍채의 패턴을 코드화해 이를 영상신호로 바꾸어 비교ㅇ판단하는데, 일반적인 작동 원리는 다음과 같다. 먼저 일정한 거리에서 홍채인식기 중앙에 있는 거울에 사용자의 눈이 맞춰지면, 적외선을 이용한 카메라가 줌렌즈를 통해 초점을 조절한다. 이어 홍채 카메라가 사용자의 홍채를 사진으로 이미지화한 뒤, 홍채 인식 알고리즘이 홍채의 명암 패턴을 영역별로 분석해 개인 고유의 홍채 코드를 생성한다. 마지막으로 홍채 코드가 데이터베이스에 등록되는 것과 동시에 비교 검색이 이루어진다.
거리센서는 2점간 거리 측정방식, 3각 측량방식(적외선 이용식, 자연광 이용식), 초음파 방식 등이 있다. 종래의 3각측량의 원리와 같이, 2개의 경로에서 온 피측정물을 직각 프리즘으로 반사시켜 2개의 이미지 센서에 입사시켜 상대적 위치가 합치했을 때, 2점간의 거리가 표시된다. 이 경우, 자연광으로 하는 방법(수동식)과 적외선을 발사하여 행하는 방법이 있다. 초음파방식은 피측정물에 지향성이 날카로운 초음파를 송신하여 피측정물로부터의 반사파를 수신하기까지의 시간을 측정하여 거리를 아는 방식인데, 수신센서는 압전소자가 사용된다.
상기 도플러레이더는 레이더의 한 방식으로, 반사파의 위상변화 즉, 파의 도플러 효과를 이용한 레이더이다. 상기 도플러레이더는 펄스 변조되지 않는 사인파를 송ㆍ수신하는 연속파 레이더와 전자파 신호파형으로서 방형파에 펄스 변조된 전파를 사용하는 펄스 레이더가 있다.
연속파 레이더에서는 도플러 주파수 필터의 성능을 얻기 쉽게 하기 위해서 변조주파수를 비교적 높게 취하기 때문에 원거리를 대상으로 한 레이더에는 부적당하나, 도플러 주파수를 가청주파수대로 택함으로써 인체나 차량 등의 움직임을 안정감 있는 소리로서 재생할 수 있는 특징이 있다. 펄스 레이더는 펄스 송신에서 반사 에코 수신까지의 시간에 의해 목표까지의 거리를 계측한다. 송신 펄스폭 내에서 주파수 변조나 위상 변조를 가하는 펄스 압축 레이더라 일컬어지는 방식이 있다.
출력부(300)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것이다. 출력부(300)에는 디스플레이부(310), 음향출력 모듈, 알람부(330), 및 햅틱 모듈(340) 등이 포함될 수 있다.
디스플레이부(310)는 디바이스에서 처리되는 정보를 표시 출력한다. 예를 들어 디바이스가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 디바이스가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다.
한편, 전술한 바와 같이, 디스플레이부(310)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이부(310)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 만일, 디스플레이부(310)가 터치스크린으로 구성되는 경우, 터치스크린 패널, 터치스크린 패널 제어기 등을 포함할 수 있다.
이외에도 디스플레이부(310)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수도 있다. 그리고, 디바이스의 구현 형태에 따라 디스플레이부(310)가 2개 이상 존재할 수도 있다. 예를 들어, 디바이스에 외부 디스플레이부(310)와 내부 디스플레이부(310)가 동시에 구비될 수 있다.
디스플레이부(310)는 HUD(Head up Display), HMD(Head mounted Display) 등으로 구현될 수 있다. HMD(Head mounted Display)란 안경처럼 머리에 쓰고 대형 영상을 즐길 수 있는 영상표시장치다. HUD(Head up Display)는 사용자의 가시영역 내의 유리에 가상 화상(virtual image)을 투영시키는 영상표시장치이다.
음향출력부(320)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부로부터 수신되거나 메모리(260)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(320)은 디바이스에서 수행되는 기능, 예를 들어, 호신호 수신음, 메시지 수신음 등과 관련된 음향 신호를 출력한다. 이러한 음향출력 모듈(320)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(330)는 디바이스의 이벤트 발생을 알리기 위한 신호를 출력한다. 디바이스에서 발생하는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(330)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 알람부(330)는 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 신호를 출력할 수 있다. 또한. 알람부(330)는 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 신호를 출력할 수 있다. 이러한 알람부(330)가 출력하는 신호를 통해 사용자는 이벤트 발생을 인지할 수 있다. 디바이스에서 이벤트 발생 알림을 위한 신호는 디스플레이부(310)나 음향출력부를 통해서도 출력될 수 있다.
햅틱 모듈(haptic module)(340)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(340)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. 햅틱 모듈(340)이 촉각 효과로 진동을 발생시키는 경우, 햅택 모듈(340)이 발생하는 진동의 세기와 패턴 등은 변환가능하며, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
무선통신부(250)는 방송수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 및 GPS 모듈 등을 포함할 수 있다.
방송수신 모듈은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신한다. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 방송관리 서버는, 방송신호 및 방송 관련 정보 중 적어도 하나를 생성하여 송신하는 서버나, 기 생성된 방송 신호 및 방송관련 정보 중 적어도 하나를 제공받아 단말기에 송신하는 서버를 의미할 수 있다.
방송관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이 경우에는 이동통신 모듈에 의해 수신될 수 있다. 방송관련 정보는 다양한 형태로 존재할 수 있다.
방송수신 모듈은, 각종 방송 시스템을 이용하여 방송 신호를 수신하며, 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 또한, 방송수신 모듈은, 이와 같은 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수 있다. 방송수신 모듈을 통해 수신된 방송신호 및/또는 방송 관련 정보는 메모리(260)에 저장될 수 있다.
이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈은 디바이스에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(long term evolution), LTE-A(Long Term Evolution-Advanced) 등이 이용될 수 있다.
근거리 통신 모듈(116)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 비콘(Beacon), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다.
GPS(Global Position System) 모듈(115)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다.
메모리(260)는 제1제어부(210)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.
메모리(260)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스는 인터넷(internet) 상에서 메모리의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.
메모리(260)는 이하 저장부(260)로 표현될 수 있다.
인터페이스부(270)는 디바이스에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 디바이스에 연결되는 외부기기의 예로는, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 메모리 카드(Memory card), SIM(Subscriber Identification Module)이나 UIM(User Identity Module) 카드 등과 같은 카드 소켓, 오디오 I/O(Input/Output) 단자, 비디오 I/O(Input/Output) 단자, 이어폰 등이 있다. 인터페이스부(270)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 디바이스 내부의 각 구성 요소에 전달할 수 있고, 디바이스 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.
제1제어부(210)는 통상적으로 상기 각부의 동작을 제어하여 디바이스의 전반적인 동작을 제어하는 기능을 수행한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제1제어부(210)는 멀티미디어 재생을 위해 데이터를 처리하는 기능을 수행한다. 또한, 입력부 또는 센싱부(130)로부터 입력받은 데이터를 처리하는 기능을 수행한다.
또한, 제1제어부(210)는 얼굴인식을 위한 얼굴 검출 및 얼굴 인식을 수행한다. 즉, 제1제어부(210)는 얼굴인식을 위한 얼굴검출모듈 및 얼굴인식모듈을 포함할 수 있다. 얼굴검출모듈은 카메라부(120)에 의해 획득된 카메라 영상에서 얼굴영역만을 추출할 수 있다. 예를 들어, 얼굴검출모듈은 눈, 코, 입 등의 얼굴 내 특징요소를 인식하여 얼굴영역을 추출할 수 있다. 얼굴인식모듈은 추출된 얼굴영역에서 특징정보를 추출하여 템플릿을 생성하고, 얼굴데이터베이스 내의 얼굴정보 데이터와 탬플릿 비교를 수행하여 얼굴을 인식할 수 있다.
또한, 제1제어부(210)는 카메라부(120)에 의해 획득된 영상 또는 이미지 내에서 문자를 추출하여 인식하는 기능을 수행할 수 있다. 즉, 제1제어부(210)는 문자인식을 위한 문자인식모듈을 포함할 수 있다. 상기 문자인식모듈의 문자 인식 방법으로 광학문자인식(Optical Character Recognition; OCR)방식을 적용할 수 있다. 상기 OCR방식은 이미지 스캔으로 얻을 수 있는 사람이 쓰거나 기계로 인쇄한 문서의 활자 영상을 컴퓨터가 편집 가능한 문자코드 등의 형식으로 변환하는 것으로, 소프트웨어로 구현이 가능한 방식이다. 예를 들어, 상기 OCR방식은 미리 준비된 몇 개의 표준 패턴문자와 입력문자를 비교하여 표준 패턴문자와 가장 유사한 것을 해당 문자로 선정할 수 있다. 상기 문자인식모듈이 다양한 언어의 표준 패턴문자를 구비하면, 다양한 언어의 인쇄된 활자를 판독할 수 있다. 이러한 방식을 OCR방식 중 Pattern matching기법이라고 하며, 상기 OCR방식은 이에 한정되지 아니하고 다양한 방법이 적용될 수 있다. 또한, 문자인식모듈의 문자인식 방식은 OCR방식에 한정되지 아니하고, 이미 인쇄되어 있는 오프라인상의 문자를 인식할 수 있는 다양한 방식이 적용될 수 있다.
또한, 제1제어부(210)는 제2카메라(122)가 획득한 안구방향 영상 또는 이미지를 바탕으로 시선방향을 인식하는 기능을 수행할 수 있다. 즉, 제1제어부(210)는 시선방향 인식을 수행하는 시선분석모듈을 포함할 수 있다. 사용자의 주시방향과 시선방향을 측정한 후 합성에 의해 계산하여 사용자가 바라보는 방향을 파악할 수 있다. 상기 주시방향은, 사용자의 얼굴 방향을 의미하여, 센싱부(130)의 자이로센서(131) 또는 가속도센서(132)에 의해 측정될 수 있다. 상기 시선방향은, 사용자의 동공이 바라보는 방향으로, 시선분석모듈에 의해 파악될 수 있다. 시선분석모듈은, 실시간 카메라 이미지의 분석을 통해 동공의 움직임을 검출하고, 각막에 반사된 고정 위치를 기준으로 시선의 방향을 계산하는 방식 등을 적용할 수 있다. 예를 들어, 영상처리 방법을 통해 동공의 중심 및 조명에 의한 각막 반사광의 위치를 추출하여 이들의 위치 관계를 통해 시선 위치를 계산할 수 있다.
제1제어부(210)는 이하 정보처리부(210)로 표현될 수 있다.
전원 공급부는 제1제어부(210)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
음성인식부(220)는 자동적 수단에 의하여 음성으로부터 언어적 의미 내용을 식별하는 기능을 수행한다. 구체적으로 음성파형을 입력하여 단어나 단어열을 식별하고 의미를 추출하는 처리 과정이며, 크게 음성 분석, 음소 인식, 단어 인식, 문장 해석, 의미 추출의 5가지로 분류된다. 음성인식부(220)는 저장된 음성과 입력된 음성이 동일한지 비교하는 음성평가모듈을 더 포함할 수 있다. 또한, 음성인식부(220)는 입력된 음성을 텍스트로 변환하거나, 텍스트를 음성으로 변환하는 음성-텍스트변환모듈(240)도 더 포함할 수 있다.
뇌파동조신호발생부는 인간의 뇌파를 동조시키기 위한 주파수와 파형을 갖는 뇌파동조신호를 발생시킨다. 즉, 뇌파동조신호발생부는 뇌파 주파수의 진동을 두개골에 전달하여 뇌파를 동조하는 기능을 수행한다. 뇌파란 뇌신경 신호가 전달될 때 생기는 전기의 흐름을 말한다. 이러한 뇌파는 잠잘 때 아주 느린 뇌파인 델타파가, 활동할 때는 빠른 뇌파인 베타파가, 명상을 할 때는 중간 정도 속도의 알파파 등이 증가된다. 따라서 뇌파동조신호발생부는 알파파와 세타파를 유도함으로써 학습보조 및 정신집중의 효과를 발휘하도록 할 수 있다.
이하, 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공시스템, 제공방법 및 제공프로그램에 대해 설명하기로 한다.
본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 예상포격위치 표시시스템은, 무선통신부(250); 메모리(260); 제1제어부(210); 및 디스플레이부(310)를 포함한다.
무선통신부(250)는 상기 포탄방향인식시스템(400)으로부터 사격제원정보를 수신하는 기능을 수행한다. 또한, 무선통신부(250)는 외부서버로부터 지형정보를 수신하는 기능을 수행할 수 있다. 또한, 무선통신부(250)는 상기 포탄방향인식시스템(400)으로부터 포의 현재위치 정보를 수신하는 기능을 수행할 수 있다. 글라스형 웨어러블 디바이스(100)의 포탄방향인식시스템(400)로부터 데이터 수신은 도 5에 도시되어 있다.
상기 제1제어부(210)는 상기 무선통신부(250)가 수신한 상기 사격제원정보 및 상기 메모리(260)에 저장된 사거리정보를 바탕으로, 예상탄착지를 계산하는 기능을 수행한다. 상기 사거리는 포 발사 시에 포탄이 날아가는 거리이다. 즉, 상기 사거리정보는 고각에 따른 포탄의 도달거리 계산 시에 필요한 포탄의 발사속도 등의 여러 가지 정보를 말한다. 또한, 제1제어부(210)는 상기 포탄방향 인식시스템(400)의 GPS모듈(420) 또는 상기 포격위치 표시시스템의 GPS모듈(115)에 의해 현재위치를 파악하고, 상기 수신한 사격제원정보 중 고각을 바탕으로 상기 고각에서의 포탄이 도달하는 사거리를 계산한다. 또한, 제1제어부(210)는 상기 수신한 사격제원정보 중 방위각을 적용하여 현재위치에서 어느 방향으로 상기 사거리만큼 포탄이 날아갈지 계산한다.
또한, 상기 제1제어부(210)는, 상기 지형정보(예를 들어, 등고선 지도 또는 건물 높이 등의 정보가 포함된 지도)를 반영하여 예상탄착지를 계산할 수 있다. 즉, 산의 높이 등의 지형 특성에 따라서 포탄이 도달할 수 있는 위치가 달라질 수 있으므로, 상기 제1제어부(210)는 상기 지형정보를 고려하여 예상탄착지를 계산할 수 있다.
상기 지형정보는, 외부서버로부터 상기 무선통신부(250)에 의해 수신하거나 상기 글라스형 웨어러블 디바이스의 메모리(260)에 저장할 수 있다. 또한, 상기 지형정보는, 상기 무선통신부(250)에 의해 수신되는 실시간 획득 정보;를 더 포함할 수 있다. 예를 들어, 상기 실시간 획득 정보는 정찰기 등에 의해 획득되는 현재 작전지역의 이미지를 포함할 수 있다. 따라서, 상기 제1제어부(210)는 실시간으로 전송된 이미지를 통해 건물, 숲, 적의 진지상황 등을 파악하고, 이를 고려하여 탄착지를 계산할 수 있다. 다만, 상기 실시간 획득 정보는 이에 한정되지 아니하고, 실시간으로 전장상황과 관련하여 획득되는 다양한 정보를 포함할 수 있다.
상기 메모리(260)는 포의 종류별 사거리정보를 저장하는 기능을 수행한다. 또한, 상기 메모리(260)는 지형정도(예를 들어, 등고선 지도 또는 건물 높이 등의 정보가 포함된 지도)를 저장하는 기능을 수행할 수 있다.
상기 디스플레이부(310)는, 도 4에서와 같이, 지도에 예상탄착지를 표시하여 사용자에게 디스플레이하는 기능을 수행한다.
또한, 본 발명의 일실시예는 사용자입력부(110);를 포함할 수 있다. 상기 사용자입력부(110)는 사용자가 원하는 포격지위치정보를 입력하는 기능을 수행한다. 상기 포격지위치정보는 사용자가 원하는 포탄의 명중지점의 위치정보로, 예를 들어, 상기 위치의 위도 및 경도가 해당될 수 있다.
상기 사용자입력부(110)는 음성입력부(113) 및 음성인식부(220)를 포함할 수 있다. 상기 음성입력부(113)는 상기 포격지위치정보를 사용자의 음성명령으로 입력받는 기능을 수행하고, 상기 음성인식부(220)는 상기 입력된 음성명령에서 상기 포격지위치정보를 파악하는 기능을 수행한다.
또한, 본 발명의 일실시예는 제1카메라(121);를 포함할 수 있다. 상기 제1카메라(121)는 상기 글라스형 웨어러블 디바이스의 전면부 일측에 구비되어 사용자의 정면의 영상 또는 이미지를 획득하는 카메라이다. 상기 제1카메라(121)는, 도 4에서와 같이, 상기 포격지위치정보를 입력받기 위해 영상 또는 이미지를 획득하는 기능을 수행한다. 상기 제1카메라(121)는 포격지위치정보가 포함된 이미지를 획득하여 상기 제1제어부(210)로 전송하고, 상기 제1제어부(210)는 상기 이미지 내의 포격지위치정보에 해당하는 문자를 추출하고, 추출한 문자의 위치정보(위도 및 경도)를 인식할 수 있다.
또한, GPS모듈(115);을 더 포함할 수 있다. GPS모듈(115)은 현재 사용자의 위치를 파악하는 기능을 수행한다. 포를 발사하는 사용자의 위치는 포의 위치와 오차범위 내에 있다. 그러므로 무선통신부(250)에 의해서 상기 포탄방향인식시스템(400)으로부터 포의 현재 위치정보를 수신하지 않고, GPS모듈(115)이 사용자의 현재 위치를 측정하여 상기 예상탄착지 계산을 위해 제1제어부(210)로 전달할 수 있다.
또한, 알람부(330);를 더 포함할 수 있다. 알람부(330)는 사용자입력부(110) 또는 제1카메라(121)에 의해 입력받은 포격지위치정보와 제1제어부(210)에 의해 계산된 예상탄착지 위치정보가 일치하는 경우, 사용자에게 알리는 기능을 수행한다. 알람부(330)는 진동에 의해 사용자에게 알리는 진동알람부(330) 또는 음향 출력으로 사용자에게 알리는 음향출력부(320)를 포함할 수 있다.
도 6은 본 발명의 바람직한 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 탄착지 예상방법에 대한 순서도이다.
도 6을 참조하면, 본 발명의 또 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법은, 현재 위치정보를 수신하는 단계(S100); 실시간 사격제원정보를 포탄방향인식시스템으로부터 수신하는 단계(S200); 상기 사격제원정보 및 사거리정보를 바탕으로 예상탄착지를 계산하는 단계(S300); 및 상기 예상탄착지를 지도상에 표시하여 사용자에게 제공하는 단계(S400);를 포함한다. 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법을 순서대로 설명한다.
현재 위치정보를 수신한다(S100). 상기 현재 위치정보는, 상기 글라스형 웨어러블 디바이스가 상기 포탄방향 인식시스템으로부터 상기 현재 위치정보를 수신하거나, 상기 글라스형 웨어러블 디바이스가 상기 현재 위치정보를 측정 할 수 있다. 예를 들어, 상기 글라스형 웨어러블 디바이스(100)는, 상기 포탄방향 인식시스템의 GPS모듈(420)이 측정한 위치정보를 수신하거나 상기 글라스형 웨어러블 디바이스(100)의 GPS모듈(115)이 현재 위치를 측정할 수 있다.
실시간 사격제원정보를 포탄방향인식시스템으로부터 수신한다(S200). 글라스형 웨어러블 디바이스(100)가 상기 포탄방향인식시스템(400)로부터 사격제원측정부(410)에 의해 측정된 사격제원정보를 무선통신을 통해 수신한다. 상기 사격제원정보는 포의 고각정보 및 방위각정보가 포함될 수 있다.
상기 사격제원정보 및 사거리정보를 바탕으로 예상탄착지를 계산한다(S300). 예를 들어, 글라스형 웨어러블 디바이스(100)는 상기 현재위치를 기준으로, 상기 수신한 사격제원정보 중 고각을 바탕으로 상기 고각에서의 포탄이 도달하는 사거리를 계산할 수 있다. 글라스형 웨어러블 디바이스(100)는 상기 수신한 사격제원정보 중 방위각을 적용하여 현재위치에서 어느 방향으로 상기 계산된 사거리만큼 포탄이 날아갈지 계산한다. 이를 통해서 상기 예상탄착지를 산출할 수 있다.
상기 예상탄착지 계산은, 상기 예상포격위치 표시시스템(100)의 제1제어부(210)에서뿐만 아니라, 포탄방향 인식시스템(400)의 제2제어부(440)에 의해서 수행될 수 있고, 글라스형 웨어러블 디바이스(100)가 계산된 예상탄착지 정보를 포탄방향 인식시스템(400)으로부터 수신할 수 있다.
또한, 상기 예상탄착지 계산은, 외부 서버로 상기 사격제원정보 및 상기 현재 위치정보를 전송하여, 상기 외부서버가 수행할 수도 있다. 글라스형 웨어러블 디바이스는 외부서버에서 계산된 예상탄착지 정보를 무선통신부(250)를 통해 수신할 수 있다.
또한, 상기 예상탄착지 계산은, 글라스형 웨어러블 디바이스(100)가 수신한 지형정보를 반영하여 탄착지를 계산할 수 있다. 상기 지형정보는, 특정지역의 지형상의 특징 또는 특정지역에 위치한 지물에 대한 정보를 의미할 수 있다. 글라스형 웨어러블 디바이스(100)는 무선통신을 통해 외부서버로부터 등고선 지도 또는 건물 높이 등의 정보가 포함된 지도와 같은 지형정보 데이터를 수신할 수 있다. 또한, 글라스형 웨어러블 디바이스(100)는 정찰기(예를 들어, UAV) 등에 의해 실시간으로 획득된 지형정보를 무선통신을 통해 실시간으로 획득할 수 있다.
상기 예상탄착지를 지도상에 표시하여 사용자에게 제공한다(S400). 즉, 예상탄착지를 지도(예를 들어, 등고선이 표시된 지도)상에 표시하여 상기 디스플레이부(310)를 통해 사용자에게 시각적으로 제공한다.
또한, 상기 예상탄착지 계산단계(S300)는, 상기 사격제원정보 및 사거리정보를 바탕으로 제1예상탄착지를 계산하는 단계; 상기 현재위치와 상기 제1예상탄착지를 포함하는 지형정보를 수신하는 단계; 및 상기 지형정보를 반영하여 제2예상탄착지를 계산하는 단계;를 포함할 수 있다. 지형정보 데이터는 실시간으로 변경될 수 있으며 데이터의 크기가 매우 크므로, 필요한 지역에 대한 지형정보만을 제공받는 것이 효율적이다. 따라서, 글라스형 웨어러블 디바이스는 대략적인 예상탄착지를 계산하여 해당 영역의 지형정보를 요청하여 수신할 필요가 있다.
먼저, 글라스형 웨어러블 디바이스(100)는 상기 사격제원정보 및 사거리정보를 바탕으로 제1예상탄착지를 계산할 수 있다. 즉, 글라스형 웨어러블 디바이스(100)는 지형정보를 고려하지 않은 평지일 경우의 예상 탄착 지점인 제1예상탄착지를 산출할 수 있다. 그 후, 글라스형 웨어러블 디바이스(100)는 상기 현재위치와 상기 제1예상탄착지를 포함하는 지형정보를 요청하여 수신할 수 있다. 그 후, 글라스형 웨어러블 디바이스는 상기 지형정보를 반영하여 제2예상탄착지를 계산할 수 있다. 상기 예상탄착지 제공단계(S400)는, 상기 제2예상탄착지를 상기 지도상에 상기 예상탄착지로 표시할 수 있다.
또한, 외부서버로부터 상기 현재 위치 또는 상기 예상탄착지를 포함하는 상기 지도 데이터를 수신하는 단계;를 더 포함할 수 있다.
또한, 상기 글라스형 웨어러블 디바이스가 포격지위치정보를 획득하는 단계;를 더 포함할 수 있다. 글라스형 웨어러블 디바이스(100)는, 무선통신으로 외부서버로부터 상기 포격지위치정보를 수신하는 방식, 제1카메라에 의해 획득된 이미지에서 상기 포격지위치정보에 상응하는 문자를 인식하는 방식, 사용자의 음성데이터에서 상기 포격지위치정보를 인식하는 방식 등을 통해서 포격지위치정보를 획득할 수 있다.
또한, 상기 포격지위치정보를 지도상에 표시하여 디스플레이하는 단계;를 더 포함할 수 있다. 즉, 글라스형 웨어러블 디바이스(100)는 예상탄착지정보와 함께 포격지위치정보를 지도상에 시각적으로 표시할 수 있다.
또한, 상기 포격지위치정보와 상기 예상탄착지정보가 일치하는 경우, 사용자에게 알림을 수행하는 단계;를 더 포함할 수 있다. 글라스형 웨어러블 디바이스는 실시간 사격제원정보를 바탕으로 실시간 계산되는 예상탄착지정보와 사용자가 원하는 포격지위치정보가 일치하는지 여부를 실시간으로 판단할 수 있다. 글라스형 웨어러블 디바이스(100)는 포격지위치정보와 예상탄착지정보가 일치함을 사용자에게 알려줄 수 있다. 이를 통해, 사용자가 원하는 탄착지로 포탄을 정확하게 발사할 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법은, 하드웨어인 글라스형 웨어러블 디바이스(100)와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 글라스형 웨어러블 디바이스(100)가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 글라스형 웨어러블 디바이스(100)의 프로세서(CPU)가 상기 글라스형 웨어러블 디바이스(100)의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 글라스형 웨어러블 디바이스(100)의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 글라스형 웨어러블 디바이스(100)의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 글라스형 웨어러블 디바이스(100)의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 글라스형 웨어러블 디바이스(100)의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 글라스형 웨어러블 디바이스(100)의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 글라스형 웨어러블 디바이스(100)가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 글라스형 웨어러블 디바이스(100)상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.
첫째, 포탄의 예상탄착지를 실시간으로 계산하여 글라스형 웨어러블 디바이스의 사용자에게 표시해주어, 전투 시 포탄을 정확하게 원하는 위치로 발사할 수 있다.
둘째, 방위각 및 고각 변경에 따른 예상탄착지를 알려줌으로써 방위각 및 고각의 조절을 시각적으로 구현하여, 포의 사격제원 설정을 간편하게 하는 효과가 있다.
셋째, 포탄을 정확하게 원하는 위치로 발사할 수 있어서, 포의 살상력을 높일 수 있는 효과가 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100 : 글라스형 웨어러블 디바이스 시스템
110 : 사용자입력부
111 : 어플리케이션 112 : 키보드
113 : 음성입력부 114 : 터치패드
115 : GPS신호부 116 : 근거리통신
120 : 카메라부 121 : 제1카메라
122 : 제2카메라 123 : 제3카메라
130 : 센싱부 131 : 자이로센서
132 : 가속도센서 133 : 압력센서
134 : 홍체인식센서 135 : 심박검출센서
136 : 근전도센서
210 : 제1제어부 220 : 음성인식부
230 : 상황평가모듈 240 : 음성-텍스트변환모듈
250 : 무선통신부 260 : 메모리
270 : 인터페이스부
300 : 출력부 310 : 디스플레이부
320 : 음향출력부 330 : 알람부
340 : 햅틱모듈
400 : 포탄방향 인식시스템
410 : 사격제원측정부 411 : 고각측정센서
412 : 방위각센서 420 : GPS모듈
430 : 무선통신부 440 : 제2제어부
450 : 전원공급부 460 : 포격인식부

Claims (10)

  1. 포의 사격제원정보를 측정하는 사격제원측정부;
    상기 포의 현재 위치를 인식하는 GPS모듈;
    글라스형 웨어러블 디바이스와 데이터 송수신을 수행하는 무선통신부; 및
    상기 사격제원정보를 전송하기 위해 데이터 처리하는 제어부;를 포함하는, 포탄방향인식시스템.
  2. 제1항에 있어서,
    가속도센서, 진동센서, 음향센서, 스모크센서 중 적어도 하나 이상을 포함하는 포격인식부;를 더 포함하는, 포탄방향인식시스템.
  3. 제1항에 있어서,
    상기 사격제원측정부는,
    상기 포의 방위각을 측정하는 방위각센서; 및
    상기 포의 고각을 측정하는 고각측정센서;를 포함하는, 포탄방향인식시스템.
  4. 글라스형 웨어러블 디바이스를 이용하여 실시간 사격제원정보에 따른 예상탄착지를 제공하는 방법에 있어서,
    현재 위치정보를 수신하는 단계;
    실시간 사격제원정보를 포탄방향인식시스템으로부터 수신하는 단계;
    상기 사격제원정보 및 사거리정보를 바탕으로 예상탄착지를 계산하는 단계; 및
    상기 예상탄착지를 지도상에 표시하여 사용자에게 제공하는 단계;를 포함하는 글라스형 웨어러블 디바이스를 이용한 포탄 예상탄착지 제공방법.
  5. 제4항에 있어서,
    상기 현재 위치정보 수신단계는,
    상기 글라스형 웨어러블 디바이스가 상기 포탄방향 인식시스템으로부터 상기 현재 위치정보를 수신하거나, 상기 글라스형 웨어러블 디바이스가 상기 현재 위치정보를 측정하는 것을 특징으로 하는, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법.
  6. 제4항에 있어서,
    상기 예상탄착지 계산단계는,
    상기 사격제원정보 및 사거리정보를 바탕으로 제1예상탄착지를 계산하는 단계;
    상기 현재위치와 상기 제1예상탄착지를 포함하는 지형정보를 수신하는 단계; 및
    상기 지형정보를 반영하여 제2예상탄착지를 계산하는 단계;를 포함하고,
    상기 예상탄착지 제공단계는,
    상기 제2예상탄착지를 상기 지도상에 상기 예상탄착지로 표시하는, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법.
  7. 제4항에 있어서,
    상기 글라스형 웨어러블 디바이스가 포격지위치정보를 획득하는 단계;를 더 포함하는, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법.
  8. 제7항에 있어서,
    상기 포격지위치정보 획득단계는,
    무선통신으로 외부서버로부터 상기 포격지위치정보를 수신하는 방식, 제1카메라에 의해 획득된 이미지에서 상기 포격지위치정보에 상응하는 문자를 인식하는 방식, 사용자의 음성데이터에서 상기 포격지위치정보를 인식하는 방식 중 적어도 하나 이상에 의해 수행되는 것을 특징으로 하는, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법.
  9. 제7항 또는 제8항에 있어서,
    상기 포격지위치정보를 지도상에 표시하는 단계; 및
    상기 포격지위치정보와 상기 예상탄착지정보가 일치하는 경우, 사용자에게 알림을 수행하는 단계;를 더 포함하는, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법.
  10. 하드웨어인 글라스형 웨어러블 디바이스와 결합되어, 제4항 내지 제9항의 방법을 실행시키기 위하여 매체에 저장된, 글라스형 웨어러블 디바이스용 포탄 탄착지 예상 프로그램.

KR1020150042943A 2014-07-30 2015-03-27 포탄방향인식시스템, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램 KR20160015143A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/007914 WO2016018063A2 (ko) 2014-07-30 2015-07-29 웨어러블 디바이스를 이용한 정보처리 시스템 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140097132 2014-07-30
KR20140097132 2014-07-30

Publications (1)

Publication Number Publication Date
KR20160015143A true KR20160015143A (ko) 2016-02-12

Family

ID=55355082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150042943A KR20160015143A (ko) 2014-07-30 2015-03-27 포탄방향인식시스템, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램

Country Status (1)

Country Link
KR (1) KR20160015143A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131791A1 (ko) * 2017-01-16 2018-07-19 주식회사 네비웍스 지능형 포병사격지원장치 및 그 동작 방법
KR102119252B1 (ko) 2019-01-08 2020-06-04 국방과학연구소 웨어러블 사격 장치 및 이의 운용 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131791A1 (ko) * 2017-01-16 2018-07-19 주식회사 네비웍스 지능형 포병사격지원장치 및 그 동작 방법
US11002515B2 (en) 2017-01-16 2021-05-11 Naviworks Co., Ltd. Intelligent artillery fire supporting device and operation method thereof
KR102119252B1 (ko) 2019-01-08 2020-06-04 국방과학연구소 웨어러블 사격 장치 및 이의 운용 방법

Similar Documents

Publication Publication Date Title
EP2891954B1 (en) User-directed personal information assistant
US20230195102A1 (en) Systems and methods for adjusting flight control of an unmanned aerial vehicle
WO2018103689A1 (zh) 无人机相对方位控制方法及装置
JPWO2017170148A1 (ja) 飛行装置、電子機器およびプログラム
US20160054795A1 (en) Information display device
KR101684264B1 (ko) 글라스형 웨어러블 디바이스의 버스도착 알림방법 및 이를 이용한 글라스형 웨어러블 디바이스용 프로그램
KR101661555B1 (ko) 비콘을 이용한 글라스형 웨어러블 디바이스의 카메라 기능 제한방법 및 프로그램
KR20160017593A (ko) 글라스형 웨어러블 디바이스를 이용한 탈출경로 제공방법 및 프로그램
KR20160026310A (ko) 글라스형 웨어러블 디바이스를 이용한 컬링코칭 시스템 및 방법
US9640199B2 (en) Location tracking from natural speech
JP6266675B2 (ja) 捜索支援装置、捜索支援方法及び捜索支援プログラム
KR20160015142A (ko) 글라스형 웨어러블 디바이스를 이용한 긴급시 비상연락방법 및 프로그램
KR101728707B1 (ko) 글라스형 웨어러블 디바이스를 이용한 실내 전자기기 제어방법 및 제어프로그램
KR102251710B1 (ko) 글라스형 웨어러블 디바이스를 이용한 외부디바이스 내 콘텐츠 관리 시스템, 방법 및 컴퓨터로 독출 가능한 기록매체
KR20160015143A (ko) 포탄방향인식시스템, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램
WO2016018063A2 (ko) 웨어러블 디바이스를 이용한 정보처리 시스템 및 방법
KR101629758B1 (ko) 글라스형 웨어러블 디바이스의 잠금해제 방법 및 프로그램
KR20160024140A (ko) 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 매장정보 제공서비스 시스템 및 방법
KR20160016216A (ko) 글라스형 웨어러블 디바이스를 이용한 실시간 전방주시시스템 및 전방주시방법
KR20160053472A (ko) 글라스형 웨어러블 디바이스를 이용한 이벤트정보 제공서비스 시스템, 방법 및 글라스형 웨어러블 디바이스용 어플리케이션
KR20160029575A (ko) 글라스형 웨어러블 디바이스를 이용한 사용자의 실시간 경기기록 제공시스템 및 제공방법
KR20160023226A (ko) 글라스형 웨어러블 디바이스를 이용한 글라스형 웨어러블 디바이스와 연동된 외부단말기 위치 탐색 시스템 및 탐색 방법
KR20160025150A (ko) 글라스형 웨어러블 디바이스를 이용한 소셜데이팅 서비스 시스템 및 방법
KR20160025203A (ko) 글라스형 웨어러블 디바이스를 이용한 당구코칭 시스템 및 방법
KR102308970B1 (ko) 글라스형 웨어러블 디바이스를 이용한 외부기기의 입력신호 제공시스템 및 입력신호 제공방법

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application