KR101768972B1 - 수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법 - Google Patents

수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법 Download PDF

Info

Publication number
KR101768972B1
KR101768972B1 KR1020150166755A KR20150166755A KR101768972B1 KR 101768972 B1 KR101768972 B1 KR 101768972B1 KR 1020150166755 A KR1020150166755 A KR 1020150166755A KR 20150166755 A KR20150166755 A KR 20150166755A KR 101768972 B1 KR101768972 B1 KR 101768972B1
Authority
KR
South Korea
Prior art keywords
user
unit
helmet
sensor unit
reference point
Prior art date
Application number
KR1020150166755A
Other languages
English (en)
Other versions
KR20170061547A (ko
Inventor
권성근
김해수
Original Assignee
경일대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경일대학교산학협력단 filed Critical 경일대학교산학협력단
Priority to KR1020150166755A priority Critical patent/KR101768972B1/ko
Publication of KR20170061547A publication Critical patent/KR20170061547A/ko
Application granted granted Critical
Publication of KR101768972B1 publication Critical patent/KR101768972B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52001Auxiliary means for detecting or identifying sonar signals or the like, e.g. sonar jamming signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/521Constructional features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

본 발명은 수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법에 관한 것으로, 이러한 본 발명은 사용자의 손에 착용되는 수중용 장감의 내피에 장착되어 어느 하나의 기준점을 기준으로 상기 기준점으로부터 변화되는 상기 사용자의 손동작을 감지하는 손동작센서부와, 상기 사용자의 두부에 착용할 수 있는 헬멧에 내장되어 상기 기준점을 기준으로 상기 헬멧의 움직임을 감지하는 센서부와, 상기 사용자의 두부에 상기 사용자의 시야를 유지한 채로 착용할 수 있는 글라스를 포함하는 수중고글과, 상기 헬멧의 일측에 부착되어 초음파를 방사하고 방사된 초음파에 대한 반향음을 수신하는 초음파부와, 상기 헬멧의 일측에 부착되어 상기 글라스에 상기 초음파 영상을 포함하는 영상을 영사하기 위한 영사부와, 상기 감지된 헬멧의 움직임에 따라 상기 사용자의 시선의 방향에 제어 범위를 설정하며, 상기 손동작센서부를 통해 감지된 손동작이 상기 제어 범위 내에서 이루어지면, 상기 영사부가 상기 손동작에 상응하는 상기 영상을 상기 글라스에 영사하도록 제어하는 제어부를 포함하는 웨어러블 장치를 제공한다.

Description

수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법{A wearable apparatus for detecting an object under water and a method for controlling thereof}
본 발명은 수중 객체 탐지를 위한 웨어러블 장치에 관한 것으로, 보다 상세하게는, 수중 객체 탐지를 위한 웨어러블 장치 및 이 웨어러블 장치의 제어 방법에 관한 것이다.
소나(sonar: sound navigation and ranging)는 초음파를 짧은 단속음으로서 발사하고 이것이 객체에 부딪쳐 반사하여 되돌아오는 데 걸리는 시간을 재어 객체까지의 거리를 측정한다. 또 송파기를 회전시켜 그 방향을 탐지한다. 실제로는 레이더의 PPI 스코프 방식과 같으며, 브라운관 위에 거리, 주위에 방위를 눈금으로 새겨 주사선이 송파기의 회전과 함께 회전하도록 되어 있으며, 반향음이 되돌아오면 브라운관 위에 광점으로서 객체가 나타나 거리 및 방위를 탐지하게 된다. 음향측탐기, 어군탐지기, 잠수함 및 지뢰탐지용 소나, 해저의 구조를 탐측하는 사이드루킹(side looking) 소나 등은 이와 같은 본체가 음파를 내는 소나의 일종이다.
한국등록특허 제10-1050709호 2011년 07월 14일 등록 (명칭: 수중 작업자를 위한 스마트 웨어)
본 발명의 목적은 수중에서 잠수부가 수중 객체를 탐지하고, 이를 대한 각 종 정보를 시각적으로 제공하기 위한 웨어러블 장치와, 이 웨어러블 장치를 제어하기 위한 방법을 제공함에 있다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 수중의 객체를 탐지하기 위한 웨어러블 장치는 사용자의 손에 착용되는 수중용 장감의 내피에 장착되어 어느 하나의 기준점을 기준으로 상기 기준점으로부터 변화되는 상기 사용자의 손동작을 감지하는 손동작센서부와, 상기 사용자의 두부에 착용할 수 있는 헬멧에 내장되어 상기 기준점을 기준으로 상기 헬멧의 움직임을 감지하는 센서부와, 상기 사용자의 두부에 상기 사용자의 시야를 유지한 채로 착용할 수 있는 글라스를 포함하는 수중고글와, 상기 헬멧의 일측에 부착되어 초음파를 방사하고 방사된 초음파에 대한 반향음을 수신하는 초음파부와, 상기 헬멧의 일측에 부착되어 상기 글라스에 상기 초음파 영상을 포함하는 영상을 영사하기 위한 영사부와, 상기 감지된 헬멧의 움직임에 따라 상기 사용자의 시선의 방향에 제어 범위를 설정하며, 상기 손동작센서부를 통해 감지된 손동작이 상기 제어 범위 내에서 이루어지면, 상기 영사부가 상기 손동작에 상응하는 상기 영상을 상기 글라스에 영사하도록 제어하는 제어부를 포함한다.
상기 웨어러블 장치는 상기 헬멧의 일측에 형성되는 접촉센서부와, 상기 수중용 장갑의 일단의 외피 내에 형성되는 접촉부를 더 포함하며, 상기 제어부는 상기 접촉센서부를 통해 상기 접촉부가 상기 접촉센서부에 접촉된 것을 감지하면, 수중용 장갑의 위치 및 헬멧의 위치 양자 모두에 대해 상기 접촉센서부의 위치를 상기 기준점으로 초기화시키는 것을 특징으로 한다.
상기 제어부는 상기 기준점을 기준으로 제어 범위를 도출하고, 도출된 제어 범위 내에서 미리 정해진 손동작을 감지하면, 감지된 손동작에 따라 복수의 메뉴를 포함하는 영상이 글라스에 영사되도록 상기 영사부를 제어하는 것을 특징으로 한다.
상기 제어부는 상기 제어 범위 내의 손동작을 감지하여, 복수의 메뉴 중 어느 하나의 메뉴가 차지하는 영역에 손가락 끝이 포함되어 있는 것을 감지하면, 상기 하나의 메뉴를 선택하는 것으로 판단하고, 상기 선택된 메뉴에 따른 영상을 영사하도록 상기 영사부를 제어하는 것을 특징으로 하는 웨어러블 장치.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 수중의 객체를 탐지하기 위한 웨어러블 장치의 제어 방법은 상기 사용자의 두부에 착용할 수 있는 헬멧에 내장된 센서부를 통해 어느 하나의 기준점을 기준으로 상기 헬멧의 움직임을 감지하면, 감지된 헬멧의 움직임에 따라 상기 사용자의 시선의 방향에 제어 범위를 설정하는 단계와, 상기 사용자의 손에 착용되는 수중용 장감의 내피에 장착된 손동작센서부를 통해 상기 기준점을 기준으로 상기 기준점으로부터 변화되는 상기 사용자의 손동작을 감지하는 단계와, 상기 감지된 손동작이 상기 제어 범위 내에서 이루어지면, 상기 손동작에 상응하는 상기 영상을 상기 사용자의 두부에 상기 사용자의 시야를 유지한 채로 착용할 수 있는 글라스에 영사하는 단계를 포함한다.
상기 기준점은 상기 헬멧의 일측에 형성되는 접촉센서부를 통해 상기 수중용 장갑의 일단의 외피 내에 형성되는 접촉부가 상기 접촉센서부에 접촉된 것을 감지할 때, 상기 접촉센서부의 위치인 것을 특징으로 하는 웨어러블 장치의 제어 방법.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 수중 객체 탐지를 위한 헬멧 장치는 사용자의 두부에 착용할 수 있는 헬멧과, 사용자의 두부에 사용자의 시야를 유지한 채로 착용할 수 있는 글라스를 포함하는 수중고글과, 헬멧의 일측에 부착되어 음파를 방사하고 방사된 음파에 대한 반향음을 수신하는 음파탐지부와, 헬멧의 일측에 부착되어 글라스에 영상을 영사하기 위한 영사부와, 반향음을 기초로 수중의 객체에 대한 와이어 이미지를 구성하고, 영사부를 통해 구성된 와이어 이미지가 글라스에 영사되도록 제어하는 제어부를 포함한다.
본 발명의 헬멧 장치는 헬멧의 움직임을 감지하는 센서부를 더 포함하며, 제어부는 감지된 헬멧의 움직임에 따라 사용자의 시선의 방향을 도출하고, 시선의 방향에 존재하는 객체에 대한 와이어 이미지가 사용자가 바라보는 시선에 따라 보여지는 객체의 실물에 겹쳐지게 보이도록 와이어 이미지를 영사부를 통해 영사하는 것을 특징으로 한다.
또한, 제어부는 객체와 미리 저장된 대상 객체와의 유사도를 영사부를 통해 글라스에 영사하는 것을 특징으로 한다.
제어부는 센서부를 통해 감지된 헬멧의 움직임에 따라 사용자의 시선이 미리 설정된 시간 동안 객체를 응시하는 것으로 판단되면, 유사도를 영사부를 통해 글라스에 영사하는 것을 특징으로 한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 헬멧 장치의 수중 객체 탐지를 위한 방법은 수중에서, 음파를 방사하고 방사된 음파에 대한 반향음을 수신하는 단계와, 반향음을 기초로 수중의 객체에 대한 와이어 이미지를 구성하는 단계와, 구성된 와이어 이미지를 글라스에 영사하는 단계;를 포함하는 것을 특징으로 한다.
본 발명에 따르면 수중에서 초음파 탐지를 통해 획득한 각 종 정보를 손동작을 통해 다양하게 시각적으로 제공할 수 있다. 더욱이, 사용자의 시각과 손동작을 매핑시켜 제어할 수 있기 때문에 육상이 아닌 수중의 잠수부들이 겪게 되는 다양한 자세에서도 원활하게 글라스에 영사되는 영상을 제어할 수 있다.
도 1은 본 발명의 실시예에 따른 수중 객체 탐지를 위한 웨어러블 장치를 설명하기 위한 사시도이다.
도 2는 본 발명의 실시예에 따른 수중 객체 탐지를 위한 웨어러블 장치를 설명하기 위한 블록도이다.
도 3은 도 2의 영사부를 이용하여 수중고글의 글라스에 영상을 영사하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 수중용 장갑의 구성을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 웨어러블 장치의 위치 정보를 수집하는 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시예에 따른 웨어러블 장치의 수중의 지형 혹은 객체를 탐지하기 위한 방법에 대해서 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따라 음파를 이용하여 객체를 탐지하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 객체 정보를 가공한 이미지를 설명하기 위한 화면 예이다.
도 9는 본 발명의 실시예에 따른 웨어러블 장치의 탐지된 객체에 대한 정보를 영상으로 제공하는 방법을 설명하기 위한 도면이다.
도 10a 내지 도 10c는 본 발명의 일 실시예에 따른 시선에 따라 영사되는 영상을 설명하기 위한 화면 예이다.
도 11은 본 발명의 다른 실시예에 따른 시선에 따라 영사되는 영상을 설명하기 위한 화면 예이다.
도 12는 본 발명의 실시예에 따른 수중용 장갑의 초기화를 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 웨어러블 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 14 내지 도 18은 본 발명의 실시예에 따른 웨어러블 장치의 제어 방법을 설명하기 위한 도면이다.
하기의 설명에서는 본 발명의 실시예를 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
한편, 상세한 설명에 앞서 본 발명의 실시예에 따른 '위치 정보'는 GPS 위성으로부터 수신되는 GPS 신호로부터 얻어지는 값이며, 위도, 경도, 고도 등의 좌표로 제공될 수 있다. 또한, 본 발명의 실시예에 따른 '위치 보정 정보'는 DGPS(Differential GPS) 기술에 따른 GPS 신호의 오차의 범위를 값으로 제공하는 정보이며, 이를 통해 위치 정보를 보정할 수 있다. 보다 상세하게 설명하면, GPS 위성으로부터 지상의 GPS 수신기로 송신되는 정보는 오차를 가지게 마련인데, 서로 가까운 거리에 위치한 두 수신기가 있을 경우에는 두 수신기는 비슷한 오차를 갖게 된다. DGPS 기술은 두 수신기가 가지는 공통의 오차를 서로 상쇄시킴으로써 보다 정밀한 데이터를 얻기 위한 것이다. 본 발명의 실시예에 따른 위치 보정 정보는 이러한 오차를 상쇄시키기 위한 정보를 포함한다. 이러한 정보는 대표적으로, 의사거리 보정치(PRC, Pseudo Range Correction)가 될 수 있다. DGPS 신호를 생성하는 기준국은 각 GPS 위성과의 기하학적 거리와 C/A 코드데이터로 기록된 의사거리와의 차이를 산출하며, 이 차이가 의사거리 보정치(PRC)가 된다. 또한, 위치 보정 정보는 거리 변화율 보정치(RRC, Range Rate Corrections)를 더 포함할 수 있다. RRC는 PRC의 예측률에 기초한 의사거리 보정치의 조절값이며, 시간이 지남에 따라 변한다, RRC는 어떤 특정 시간에 PRC에 반영되어야 하는 계산 값으로써 이로 인해 시간이 지남에 따라 PRC의 유효성을 증가 시키려는 것이다. 기타 다양한 팩터 및 파라미터가 위치 보정 정보에 포함될 수 있으며, 기본적으로, RTCM(Radio Technical Committee for Maritime Service) 규격에 따른 팩터 및 파라미터를 모두 포함할 수 있다.
그러면, 먼저, 본 발명의 실시예에 따른 수중 객체 탐지를 위한 웨어러블 장치(10)에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 수중 객체 탐지를 위한 웨어러블 장치를 설명하기 위한 사시도이다. 도 2는 본 발명의 실시예에 따른 수중 객체 탐지를 위한 웨어러블 장치를 설명하기 위한 블록도이다. 또한, 도 3은 도 2의 영사부를 이용하여 수중고글의 글라스에 영상을 영사하는 방법을 설명하기 위한 도면이다.
도 1 내지 도 3을 참조하면, 수중 객체 탐지를 위한 웨어러블 장치(10)는 헬멧(100), 복수의 기능 모듈(200) 및 수중고글(300)을 포함한다. 사용자는 수중고글(300) 및 헬멧(10)을 착용하고, 복수의 기능 모듈(200)의 기능적인 도움을 통해 수중에서 탐사 활동을 할 수 있다. 헬멧(100)은 사용자의 두부에 착용되는 것이다. 또한, 수중 고글(300)은 수중에서 사용자의 눈에 물이 들어가지 않도록 하여 눈을 뜨고 수중을 탐지할 수 있도록 하기 위한 것으로, 사용자에게 수중 시야를 제공하는 투명한 글라스(310)와 글라스의 테두리로부터 연장되어 형성되며, 글라스가 사용자의 눈과 소정 간격 이격되도록 지지하고 사용자의 눈을 방수하기 위한 방수테두리 및 수중 고글(300)이 사용자의 두부에 고정되도록 지지하는 밴드를 포함한다.
복수의 기능 모듈(200)은 헬멧(100)의 외측 혹은 내측에 형성되거나, 헬멧(100)에 내장된다. 이러한 복수의 기능 모듈(200)은 초음파부(210), GPS수신부(220), 통신부(230), 센서부(240), 영사부(250), 조명부(260), 저장부(270) 및 제어부(280)을 포함한다.
초음파부(210)는 2가지 모드로 동작한다. 먼저, 탐지 모드에서 초음파부(210)는 초음파 탐지기로 동작할 수 있다. 즉, 초음파부(210)는 탐지 모드에서 수중에서 음파를 방사하고, 방사한 음파가 수중의 객체 혹은 지형에 반사되어 돌아오는 반향음을 수신한 후, 수신된 반향음을 제어부(280)에 전달한다. 이와 같이, 탐지 모드에서, 초음파부(210)는 예컨대, 소나(sonar) 탐지기가 될 수 있다. 다음으로, 통신 모드에서 초음파부(210)는 초음파 통신 장치로 동작할 수 있다. 통신 모드에서, 초음파부(210)는 초음파에 정보 혹은 데이터를 실어서 전송하거나, 초음파를 수신하여 수신된 초음파로부터 정보 혹은 데이터를 추출할 수 있다. 이러한 초음파부(210)는 도시된 바와 같이, 헬멧(100)의 적어도 일측에 설치될 수 있으며, 전방향을 동시에 탐지하기 위하여 사방을 배향하도록 헬멧(100)의 외측 사방에 복수개가 설치될 수도 있다.
GPS수신부(220)는 GPS 위성으로부터 위치 정보를 포함하는 GPS 신호를 수신하기 위한 것이다. 예컨대, GPS수신부(220)는 지속적으로 GPS 위성 등으로부터 수신되는 GPS 신호를 통해 위치 정보를 수신할 수 있다. 특히, 본 발명의 실시예에 따른 GPS수신부(220)은 제어부(280)로부터 위치 보정 정보를 입력 받고, 입력된 위치 보정 정보를 이용하여 위치 정보를 보정한 후, 보정된 위치 보정 정보를 제어부(680)로 다시 전달할 수 있다. 혹은 GPS수신부(220)는 위치 정보를 수신하면, 제어부(280)로 전달하여, 제어부(280)가 위치 보정 정보를 이용하여 위치 정보를 보정하도록 할 수 있다. 이러한 위치 정보는 위도, 경도, 고도 등의 좌표가 될 수 있다.
통신부(230)는 웨어러블 장치(10) 외부로 데이터를 전송하고, 그 외부로부터 데이터를 수신하는 통신을 위한 것이다. 통신부(110)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기와, 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기 등으로 구성될 수 있다. 이러한 통신부(110)는 BS(Base Station), NodeB, eNodeB 등과 같은 기지국을 통해 통신하거나, AP(Access Point) 등을 이용하여 통신할 수 있다. 특히, 통신부(230)은 네트워크를 통해 기준국으로부터 DGPS 신호를 수신한 후, 수신된 DGPS 신호를 제공하기 위한 서버(미도시) 혹은 기준국(미도시)에 직접 접속하여, DGPS 신호를 수신할 수 있다. 이러한 DGPS 신호는 위치 보정 정보를 포함한다. 이러한 DGPS 신호가 수신되면, 통신부(230)은 수신된 DGPS 신호를 제어부(280)로 전달한다.
센서부(240)는 적어도 하나의 센서로 이루어진다. 이러한 센서를 통해 센서부(240)은 헬멧 본체(100)의 움직임을 감지할 수 있다. 헬멧 본체(100)는 사용자의 두부에 착용하는 것이기 때문에, 헬멧 본체(100)의 움직임을 감지하는 것을 통해 사용자의 시선의 방향을 특정할 수 있다. 또한, 센서부(240)는 헬멧 본체(100)의 움직임을 감지하는 것을 통해 특정 기준 위치로부터 헬멧 본체(100)의 이동 방향 및 이동 거리 등을 감지할 수 있다. 따라서 제어부(280)는 센서부(240)를 통해 감지되는 특정 기준 위치로부터의 변위를 통해 현재 위치를 산출할 수 있다. 이러한 센서부(240)는 가속도 센서, 자이로 센서, 지자기 센서, 디지털 나침반, 고도계, 심도계 등을 포함할 수 있다. 센서부(240)는 이러한 헬멧 본체(100)의 움직임을 감지하면, 그 움직임에 대한 정보, 예컨대, 기준으로부터 이동거리, 이동방향, 회전인 경우에는 회전각 등을 제어부(280)에 제공한다.
영사부(250)는 본 발명의 실시예에 따른 수중의 객체에 대한 정보를 이미지 혹은 텍스트를 포함하는 영상으로 제공하기 위한 것이다. 이러한 영상은 수중의 객체의 외형에 대한 이미지와, 외형의 크기, 웨어러블 장치(10)와의 거리, 크기 및 유사도 등의 텍스트를 포함할 수 있다. 영사부(250)는 도 3에 도시된 바와 같이, 제어부(280)의 제어에 따라 이러한 영상을 수중고글(300)의 글라스(310)에 영사한다. 수중고글(300)을 착용한 사용자는 수중고글(300)의 글라스(310)를 통한 시야와 함께 겹쳐지게 영사부(250)가 영사한 영상을 볼 수 있다.
조명부(260)는 조명이 전방을 배향하도록 헬멧 본체(100)의 일측에 설치된다. 조명부(260)는 수중의 부유물질 등으로 인한 물의 혼탁한 정도, 즉, 탁도를 감지하는 센서를 포함할 수 있으며, 이러한 수중의 탁도가 기 설정된 기준치 이상인 경우 자동으로 조명을 켜서 사용자의 시야를 확보할 수 있도록 한다.
저장부(270)는 웨어러블 장치(10)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행하며, 프로그램 영역과 데이터 영역으로 구분될 수 있다. 프로그램 영역은 웨어러블 장치(10)의 전반적인 동작을 제어하는 프로그램 및 웨어러블 장치(10)를 부팅시키는 운영체제(OS, Operating System), 어플리케이션 등을 저장할 수 있다. 데이터 영역은 웨어러블 장치(10)의 사용에 따라 발생하는 사용자 데이터가 저장되는 영역이다. 이러한 데이터는 본 발명의 실시예에 따른 객체에 대한 각 종 정보를 포함할 수 있다. 저장부(270)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다.
제어부(280)는 웨어러블 장치(10)의 전반적인 동작 및 웨어러블 장치(10)의 내부 블록들(110 내지 170)간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(280)는 중앙 처리 장치(Central Processing Unit : CPU), 어플리케이션 프로세서(Application Processor) 등이 될 수 있다.
제어부(280)는 GPS수신부(220)를 통해 위치 정보를 얻고, 통신부(230)를 통해 위치 보정 정보를 얻을 수 있다. 그러면 제어부(280)는 위치 정보를 위치 보정 정보로 보정한 위치 정보를 얻을 수 있다. 이하 설명의 편의를 위하여, 위치 보정정보로 보정된 위치 정보를 '고정밀 위치 정보'라고 칭하기로 한다. 또한, 제어부(280)는 고정밀 위치 정보를 얻을 수 없는 경우, 센서부(240)를 통해 마지막으로 획득한 고정밀 위치 정보가 지시하는 위치로부터 웨어러블 장치(10)의 변위를 측정하여, 현재의 위치 정보를 얻을 수 있다. 제어부(280)는 초음파부(210)를 통해 지속적으로 수중의 객체에 대한 정보를 얻을 수 있다. 이러한 정보는 객체의 외형, 크기, 웨어러블 장치(10)로부터 객체까지의 거리, 수색하고자 하는 객체와 탐지된 객체의 유사도, 등을 포함한다. 또한, 제어부(280)는 전술한 정보를 가지는 영상을 생성하고, 영사부(250)를 제어하여 생성된 영상을 글라스(310)에 영사한다. 전술한 제어부(280)의 동작은 아래에서 보다 상세하게 설명될 것이다.
도 4는 본 발명의 실시예에 따른 수중용 장갑(400)을 설명하기 위한 도면이다. 도 4를 참조하면, 수중용 장갑(400)은 그 내피에 잠수부의 손동작을 감지할 수 있는 손동작센서부(410) 및 접촉부(420)를 포함한다. 손동작센서부(410)는 복수의 센서들을 포함한다. 이러한 센서는 지자기 센서, 자이로센서, 가속도 센서, 속도 센서 등이 될 수 있다. 접촉부(420)는 손동작센서부(410)가 기준점으로부터 변위를 감지하기 위한 기준점을 설정하기 위한 것이다. 접촉부(420)는 수중용 장갑(400) 손가락 끝에 해당하는 위치의 외피 내에 포함될 수 있다. 이러한 접촉부(420)는 자성체가 될 수 있다. 기준점은 접촉센서부(290)의 위치가 될 수 있다. 접촉센서부(290)는 사용자가 수중용 장갑(400)의 접촉부(420)를 접촉센서부(290)에 접촉시키면, 접촉센서부(290)는 이를 감지하여 제어부(280)에 전달한다. 그러면, 제어부(280)는 수중용 장갑(400)의 위치를 초기화시킨다. 즉, 웨어러블 장치(10)의 제어부(280)는 접촉센서부(290)를 통해 접촉센서부(290)에 접촉부(420)가 접촉했음을 감지하면, 수중용 장갑(400)의 접촉부(420)의 위치가 접촉센서부(290)의 위치이기 때문에, 이를 기준점으로 손동작센서부(410)로부터 수신되는 변위를 통해 손동작을 판별한다. 더욱이, 제어부(280)는 접촉센서부(290)를 통해 접촉센서부(290)에 접촉부(420)가 접촉했음을 감지하면, 영사되는 영상을 제어하기 위한 헬멧(100)의 위치 또한 초기화시킬 수 있다. 여기서, GPS 신호를 기초로 연산되는 웨어러블 장치(10)의 위치 정보와 영상을 제어하기 위한 헬멧(100)의 위치는 다른 프로세스로 동작한다는 것을 유의하여야 한다. 잠수복 내피에는 와이어가 포함되며, 손동작센서부(410)와 제어부(280)는 와이어를 통해 상호 연결된다. 복수의 센서들을 포함하는 손동작센서부(410)는 기준점으로부터 장갑(400) 각 부위의 변위를 측정하여 제어부(280)로 전달한다. 그러면, 제어부(280)는 이러한 기준점으로부터 장갑(400) 각 부위의 변위를 통해 손동작을 도출할 수 있다.
웨어러블 장치(10)는 지속적으로 현재의 위치 정보를 획득하고, 획득된 위치 정보를 기초로 하여 바다, 강, 호수 등의 수중의 지형 혹은 객체를 탐지한다. 그러면, 먼저, 웨어러블 장치(10)의 위치 정보 수집 방법에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 웨어러블 장치의 위치 정보를 수집하는 방법을 설명하기 위한 흐름도이다.
웨어러블 장치(10)의 제어부(280)는 S110 단계에서 위치 정보 수집 프로세스가 시작된 후, S150 단계에서 위치 정보 수집을 종료할 것으로 판단하여, S160 단계에서 위치 수집 프로세스가 종료될 때까지 지속적으로, S120 단계 내지 S150 단계를 반복할 수 있다.
웨어러블 장치(10)의 제어부(280)는 2 가지 방식으로 위치 정보를 얻을 수 있으며, 그 2 가지 방식은 GPS를 이용하는 방식과 센서를 이용하는 방식이다. 이러한 위치 정보는 위도, 경도 및 고도(혹은 수심)으로 표현될 수 있다. 먼저, GPS를 이용하는 방식은 다음과 같다. 첫째로, 제어부(280)는 GPS수신부(220)을 통해 수신되는 GPS 신호로부터 위치 정보를 추출하고, 통신부(230)을 통해 수신되는 DGPS 신호로부터 위치 보정 정보를 추출한다. 그런 다음, 제어부(280)는 위치 보정 정보를 이용하여 위치 정보를 보정한 고정밀 위치 정보를 얻을 수 있다. 둘째로, 제어부(280)는 센서부(240)를 통해 기준 위치로부터 변경되는 웨어러블 장치(10)의 변위를 측정하여, 현재 위치를 획득할 수 있다. 이러한 기준 위치는 고정밀 위치 정보가 될 수 있다.
도 5에서 사용자, 즉, 잠수부는 웨어러블 장치(10)를 착용한 후, 수중에서 특정 객체를 찾기 위해 잠수하는 상황을 가정한다. GPS 신호 혹은 DGPS 신호는 물속에서는 수신되지 않기 때문에, 웨어러블 장치(10)의 제어부(280)는 S120 단계에서 GPS 신호 및 DGPS 신호 모두가 수신되는지 여부를 판단한다.
S120 단계의 판단 결과, GPS 신호 및 DGPS 신호 모두가 수신되는 경우, 제어부(280)는 S130 단계로 진행하여, 앞서 설명된 바와 같은 고정밀 위치 정보를 통해 현재 위치 정보를 얻을 수 있다. 반면, S120 단계의 판단 결과, GPS 신호 및 DGPS 신호 중 어느 하나라도 수신되지 않으면, 제어부(280)는 S140 단계에서 센서부(240)를 통해 마지막 획득한 고정밀 위치 정보로부터 웨어러블 장치(10)가 이동한 거리, 방향 등의 변위를 감지하여, 현재 위치 정보를 얻을 수 있다.
이와 같이, 본 발명의 실시예에 따르면, DGPS 방식의 위치 보정 정보를 이용하여 GPS 방식의 위치 정보를 보정하여, 보다 정밀한 고정밀 위치 정보를 얻을 수 있다. 또한, 고정밀 위치 정보를 기준으로 감지된 변위를 통해 수중에서도 정밀한 위치 정보를 얻을 수 있다.
한편, 웨어러블 장치(10)는 획득된 위치 정보를 기초로 하여 바다, 강, 호수 등의 수중의 지형 혹은 객체를 탐지한다. 웨어러블 장치(10)는 전술한 방법을 통해 지속적으로 위치 정보를 획득하고, 획득한 위치 정보를 기준으로 수중의 지형 혹은 지물을 탐지하는 방법에 대해서 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 웨어러블 장치의 수중의 지형 혹은 객체를 탐지하기 위한 방법에 대해서 설명하기 위한 도면이다. 도 7은 본 발명의 실시예에 따라 음파를 이용하여 객체를 탐지하는 방법을 설명하기 위한 도면이다. 그리고 도 8은 본 발명의 실시예에 따른 객체 정보를 가공한 이미지를 설명하기 위한 화면 예이다.
도 6을 참조하면, 사용자의 잠수 전, 웨어러블 장치(10)의 제어부(280)는 S210 단계에서 통신부(230)을 통해 임의의 서버 혹은 컴퓨터로부터 수중에서 찾고자하는 대상인 대상 객체에 대한 정보(이하, '대상 객체 정보'로 축약함)를 수신한 후, S220 단계에서 저장부(270)에 저장한다. 대상 객체 정보는 대상 객체의 기본적인 자세에서의 외형에 대한 정보인 기본 정보와 대상 객체의 변경된 자세에서의 외형에 대한 정보인 변형 정보를 포함한다. 기본 정보는 대상 객체가 기본적인 자세에서 측정될 수 있는 대상 객체의 높이, 폭 등의 크기에 대한 정보를 포함한다. 수중에서 생물이든 무생물이든 물의 부력에 의해 자세가 변경될 수 있으며, 해당 객체가 관절을 가지는 경우 더더욱 관절에 의해 자세가 변경될 수 있다. 변형 정보는 변경되는 자세를 예측하고, 복수의 예측된 변경된 자세 각각에서 측정될 수 있는 외형의 높이, 폭 등의 크기에 대한 정보를 포함한다. 본 실시예에서는 통신부(230)을 통해 대상 객체 정보를 수신하여 저장하는 것으로 설명하였지만, 이러한 대상 객체 정보는 다른 수단을 통해 웨어러블 장치(10)에 입력되어 저장부(270)에 저장될 수도 있다. 예컨대, 웨어러블 장치(10)는 입력 장치 혹은 직접 통신을 위한 인터페이스를 구비할 수도 있으며, 이러한 입력 장치 혹은 인터페이스를 통해 웨어러블 장치(10)에 입력되어 저장부(270)에 저장될 수도 있다.
도 7에 보인 바와 같이, 웨어러블 장치(10)의 제어부(280)는 S230 단계에서 객체(30)에 대해 초음파부(210)을 통해 음파를 방사하고, 방사된 음파가 객체(30)로부터 반사된 반향음을 수신한다. 즉, 제어부(280)의 제어에 따라 초음파부(210)은 음파를 방사하고, 그 반향음을 포착하여, 포착된 반향음을 제어부(280)로 전달한다. 그러면, 제어부(280)는 S240 단계에서 현재 위치 정보를 기초로 반향음을 이용하여 수중의 객체(30)의 위치, 형상 및 크기를 특정하기 위한 정보인 객체 정보를 얻는다. 음파는 객체(30)의 표면으로부터 반사되어 반향음으로 되돌아오기 때문에, 제어부(280)는 현재 위치 정보를 기준으로 음파가 객체(30)로부터 반향음으로 되돌아오는 RTT(Round Trip Time)을 통해 현재 웨어러블 장치(10)의 위치를 기준으로 객체(30)의 표면과의 거리를 산출할 수 있다. 앞서 설명된 바와 같이, 제어부(280)는 웨어러블 장치(10)의 현재 위치는 지속적으로 획득할 수 있고, RTT를 통해 모든 표면에 대한 거리를 알 수 있기 때문에, 그 거리를 통해 객체(30)의 위치, 형상 및 크기를 도출할 수 있다.
또한, 제어부(280)는 S250 단계에서 앞서(S220) 저장된 대상 객체 정보와 탐지된 객체 정보를 비교하여 해당 객체(30)가 찾고자 하는 대상 객체와의 형상 및 크기의 유사도를 도출할 수 있다. 여기서, 유사도는 기본자세 및 복수의 변형자세 각각과 객체를 비교하여, 유사도 중 가장 큰 값 혹은 평균값 등을 사용할 수 있다.
전술한 객체 정보 및 유사도는 S260 단계에서 제어부(280)에 의해 이미지 혹은 텍스트로 가공된다. 예컨대, 제어부(280)는 객체 정보를 토대로 객체(30)의 외형을 나타내는 와이어 이미지(초음파 영상)(41)를 구성할 수 있다. 이러한 예를 도 8에 도시하였다. 도시된 바와 같이, 제어부(280)는 임의의 객체(30)를 객체(30)에 대한 반향음에 따라 얻어지는 객체 정보를 기초로 와이어 이미지(초음파 영상)(41)를 구성할 수 있다. 그 밖에, 유사도, 웨어러블 장치(10)와의 거리, 객체(30)의 높이, 폭, 등의 객체 정보는 텍스트로 가공될 수 있다.
수중에서 전술한 바와 같은 웨어러블 장치(10)의 음향을 이용한 탐지는 지속적으로 이루어지며, 본 발명은 수중에서 사용자, 즉, 잠수부의 탐지를 돕기 위해 음향으로 탐지된 객체의 정보를 영상으로 제공한다. 이러한 방법에 대해서 설명하기로 한다. 도 9는 본 발명의 실시예에 따른 웨어러블 장치의 탐지된 객체에 대한 정보를 영상으로 제공하는 방법을 설명하기 위한 도면이다. 도 10a 내지 도 10c는 본 발명의 일 실시예에 따른 시선에 따라 영사되는 영상을 설명하기 위한 화면 예이다. 그리고 도 11은 본 발명의 다른 실시예에 따른 시선에 따라 영사되는 영상을 설명하기 위한 화면 예이다.
도 9를 참조하면, 앞서 설명된 바와 같이, 객체에 대한 정보는 지속적으로 탐지되며, 이미지 및 텍스트로 가공되어 저장된다. 이에 따라, 제어부(280)는 S310 단계에서 센서부(240)를 통해 헬멧(100)의 움직임을 감지하고, S320 단계에서 감지된 헬멧(100)의 움직임에 따라 사용자의 시선을 도출한다. 그런 다음, 제어부(280)는 S330 단계에서 도출된 사용자의 시선에 따라 영사부(250)를 통해 가공된 이미지 및 텍스트 중 적어도 하나를 포함하는 영상을 글라스(300)에 영사한다.
일예로, 영상을 글라스(310)에 영사할 때, 제어부(280)는 센서부(240)를 통해 헬멧(100)의 움직임을 감지하고, 감지된 헬멧(100)의 움직임에 따라 사용자의 시선을 도출하고, 와이어 이미지(초음파 영상)(41)가 앞서 도출된 사용자의 시선에 따라 보여지는 객체의 실물(30)에 겹쳐지게 보이도록 와이어 이미지(초음파 영상)(41)를 영사부(250)를 통해 영사한다. 이러한 화면 예를 도 10a 내지 도 10c에 도시하였다. 도 10a는 객체(30)를 기준으로 사용자의 시선이 객체의 왼쪽에 있는 경우의 영사된 와이어 이미지(초음파 영상)를 보인다. 또한, 도 10b는 객체(30)를 기준으로 사용자의 시선이 객체의 정면을 응시하고 있는 경우의 영사된 와이어 이미지(초음파 영상)를 보인다. 도 10c는 객체(30)를 기준으로 사용자의 시선이 객체의 오른쪽에 있는 경우의 영사된 와이어 이미지(초음파 영상)를 보인다. 수중에서는 시야가 지상과 같지 않으며, 매우 탁한 수중의 경우 사용자이 시선 확보가 어려울 수 있다. 따라서 본 발명의 실시예에 따르면, 와이어 이미지(초음파 영상)(41)를 통해 객체의 외형을 사용자의 시선과 겹쳐지게 표시하여, 사용자의 객체 식별을 돕는다. 이에 따라, 사용자가 보다 원활하게 탐사할 수 있도록 할 수 있다.
다른 예로, 영상을 글라스(310)에 영사할 때, 제어부(280)는 센서부(240)를 통해 헬멧(100)의 움직임을 감지하고, 감지된 헬멧(100)의 움직임에 따라 사용자의 시선이 미리 설정된 시간 이상 특정 객체(예컨대, 객체(30))에 고정되어 있으면, 와이어 이미지(초음파 영상)(41)가 앞서 도출된 사용자의 시선에 따라 보여지는 객체의 실물(30)에 겹쳐지게 보이도록 와이어 이미지(초음파 영상)(41)를 영사부(250)를 통해 영사하고, 이와 동시에, 해당 객체에 대한 정보를 추가로 더 영사할 수 있다. 이러한 화면 예를 도 10에 도시하였다. 제어부(280)는 기본적으로 특정 영역(46)을 설정하고, 센서부(240)를 통해 헬멧(100)의 움직임을 감지하고, 감지된 헬멧(100)의 움직임에 따라 사용자의 시선이 미리 설정된 시간 이상 한 곳을 응시하고 있는 경우, 특정 영역(46)을 통해 보여지는 객체(30)를 응시하고 있는 것으로 판단한다. 이에 따라, 제어부(280)는 글라스를 통해 보여지는 객체의 실물(30)에 겹쳐지게 보이도록 와이어 이미지(초음파 영상)(41)를 영사하는 동시에 해당 객체(30)에 대한 정보를 추가로 더 영사할 수 있다. 이러한 추가 정보는 객체(30)의 높이, 폭 등의 크기 정보(42), 객체(30)와 대상 객체와의 유사도(43), 웨어러블 장치(10)로부터 객체(30)까지의 거리(44) 및 객체(30)의 위치(위도, 경도, 심도(고도), 45) 등을 포함할 수 있다. 사용자는 글라스를 통해 실물을 봐야하기 때문에, 지속적으로 다수의 텍스트를 영상으로 표시하는 경우, 사용자의 시선이 혼란스러울 수 있다. 따라서 본 발명의 실시예에 따르면, 제어부(280)는 시선이 고정되는 것을 감지할 때에만 시선이 고정된 객체에 대한 추가 정보(42 내지 44)를 영상으로 영사하여 제공한다. 이에 따라, 사용자는 단지 시선을 통해 영상을 제어할 수 있어, 수중에서 탐사 작업 시 두 손을 자유롭게 할 수 있다.
또 다른 예로, 영상을 글라스(310)에 영사할 때, 제어부(280)는 센서부(240)를 통해 헬멧(100)의 이동 방향 및 사용자의 시선(시선의 방향)을 감지한다. 여기서, 이동 방향은 기 설정된 시간 헬멧(100)이 이동하는 방향이며, 시선은 헬멧(100)의 정면이 배향하는 방향이다. 이때, 헬멧(100)의 이동 방향 및 시선의 방향이 일치하고, 객체(30)를 기 설정된 시간 이상 응시하였을 경우, 도 11에 도시된 바와 같이 와이어 이미지(초음파 영상)(41)와 함께 유사도(43)를 포함하는 객체에 대한 정보(42, 43, 44)를 텍스트로 영사할 수 있다. 사용자는 북쪽으로 이동하면서 좌우를 살필 수 있으며, 이때마다 계속해서 전술한 정보들을 영사하면 오히려 사용자의 시야에 혼란을 가져올 수 있다. 따라서 이동 방향과 시선의 방향이 일치하고, 특정 객체를 기 설정된 시간 이상 응시하는 경우에만 해당 객체에 대한 추가 정보를 제공하는 것이 바람직하다.
한편, 또 다른 예로, 영상을 글라스(310)에 영사할 때, 제어부(280)는 센서부(240)를 통해 헬멧(100)의 이동 방향 및 사용자의 시선(시선의 방향)을 감지한다. 여기서, 이동 방향은 기 설정된 시간 헬멧(100)이 이동하는 방향이며, 시선은 헬멧(100)의 정면이 배향하는 방향이다. 이때, 헬멧(100)의 이동 방향 및 시선의 방향이 일치하지 않지만, 객체(30)를 기 설정된 시간 이상 응시하고, 해당 객체(30)와 대상 객체 간의 유사도가 미리 설정된 값 이상인 경우, 도 10에 도시된 바와 같이 와이어 이미지(초음파 영상)(41)와 함께 유사도(43)를 포함하는 객체에 대한 정보(42, 43, 44)를 텍스트로 영사할 수 있다. 사용자는 북쪽으로 이동하면서 좌우를 살필 수 있으며, 이때마다 계속해서 전술한 정보들을 영사하면 오히려 사용자의 시야에 혼란을 가져올 수 있다. 하지만, 응시하고 있는 객체(30)와 찾고자 하는 대상 객체와의 유사도가 기 설정된 기준치 보다 높다면, 해당 객체(30)에 대해 추가로 정보를 제공하는 것이 바람직하다. 따라서 이동 방향과 시선의 방향이 일치하지 않는 경우에도, 유사도가 기 설정된 값 이상이면, 추가 정보를 제공할 수 있다.
한편, 단순히 시선만으로는 다양한 기능에 대한 제어를 수행하기에는 한계가 있다. 따라서 본 발명의 실시예에 따르면 손동작을 통해 웨어러블 장치를 제어하도록 할 수 있다.
먼저, 손동작을 통해 웨어러블 장치(10)를 제어하기 위해서는 수중용 장갑의 초기화, 즉, 위치 초기화 절차가 필요하다. 이러한 본 발명의 실시예에 따른 수중용 장갑(400)의 초기화에 대해서 설명하기로 한다. 도 12는 본 발명의 실시예에 따른 수중용 장갑의 초기화를 설명하기 위한 도면이다.
본 발명의 실시예에 따르면, 수중용 장갑(400)의 손동작센서부(410)는 사용자의 손동작을 감지한다. 이러한 손동작의 감지는 손의 각 부위별 위치 및 방향을 통해 감지한다. 손의 각 부위별 위치 및 방향은 어느 하나의 기준점으로부터 위치 및 방향이다. 즉, 손동작센서부(410)는 기준점을 기준으로 손의 각 부위별 변위를 제어부(280)로 전달하며, 기준점으로부터 변위를 통해 제어부(280)는 손동작을 판별할 수 있다. 이러한 기준점은 접촉센서부(290)의 위치가 될 수 있다. 즉, 사용자가 수중용 장갑(400)의 접촉부(420)를 접촉센서부(290)에 접촉시키면, 수중용 장갑(400)의 위치가 초기화된다. 웨어러블 장치(10)의 제어부(280)는 접촉센서부(290)에 접촉부(420)가 접촉했음을 감지하면, 수중용 장갑(400)의 접촉부(420)의 위치가 접촉센서부(290)의 위치이기 때문에, 이를 기준점으로 손동작센서부(410)로부터 수신되는 변위를 통해 손동작을 판별한다.
그러면 본 발명의 실시예에 따른 웨어러블 장치의 제어 방법에 대해서 설명하기로 한다. 도 13은 본 발명의 실시예에 따른 웨어러블 장치의 제어 방법을 설명하기 위한 흐름도이며, 도 14 내지 도 17은 본 발명의 실시예에 따른 웨어러블 장치의 제어 방법을 설명하기 위한 도면이다. 도 13 내지 도 17의 실시예는 전술한 도 12에서 설명된 바와 같이 초기화된 상태를 가정한다.
도 13을 참조하면, 제어부(280)는 S410 단계에서 수중용 장갑(400)의 위치가 미리 설정된 범위인 제어 범위(60) 내에 있는지 여부를 감지한다. 도 14 및 도 15에 제어 범위(60)의 예를 도시하였다. 제어 범위(60)는 수중용 장갑(400)의 위치가 사용자 시선 내에 있는지 여부를 판정하기 위해 미리 설정된다. 이러한 제어 범위(60)의 위치는 사용자의 시선에 따라 변경될 수 있다. 헬멧 본체(100)는 사용자의 두부에 착용하는 것이기 때문에, 헬멧 본체(100)의 움직임을 감지하는 것을 통해 사용자의 시선의 방향을 특정할 수 있다. 제어부(280)는 센서부(240)를 통해 헬멧 본체(100)의 움직임을 감지하는 것을 통해 기준점으로부터 헬멧 본체(100)의 변위를 감지할 수 있으며, 이를 통해 시선의 방향을 변하는 것을 알 수 있고, 이러한 시선의 방향이 변함에 따라 제어 범위(60) 또한 이동된다. 수중용 장갑(400)의 위치가 미리 설정된 범위인 제어 범위(60) 내에 있을 때, 제어부(280)는 S420 단계에서 손동작센서부(410)를 통해 제어 범위(60)에 내에서 손동작을 감지한다. 그런 다음, 제어부(280)는 S430 단계에서 손동작에 따라 영사부(250)를 통해 글라스(310)에 영사되는 영상을 제어할 수 있다.
정리하면, 전술한 바와 같이, 사용자의 시선의 방향이 변함에 따라 제어 범위(60) 또한 이동한다. 또한, 손동작은 제어 범위(60) 내에서 감지되는 경우에만 영사되는 영상을 제어한다. 즉, 따라서, 제어부(280)는 기준점, 즉, 접촉센서부(290)에 접촉부(420)가 접촉될 때의 위치로부터 센서부(240)를 통해 얻어지는 헬멧의 변위로 제어 범위(60)를 도출할 수 있다. 그리고 제어부(280)는 그 기준점으로부터 손동작센서부(410)를 통해 얻어지는 손동작(장갑 혹은 손의 각 부위의 기준점으로부터 위치)을 얻을 수 있다. 이에 따라, 제어부(280)는 제어 범위(60)에 내에 장갑(400)이 위치하며 그 제어 범위(60) 내의 손동작을 얻을 수 있다. 따라서 제어부(280)는 그 손동작에 따라 영사부(250)를 통해 글라스(310)에 영사되는 영상을 제어할 수 있다.
일례로, 도 16에 보인 바와 같이, 사용자는 자신의 시선에서 자신의 손가락을 모두 펴고 기 설정된 시간 이상 그 상태를 유지할 수 있다. 그러면, 제어부(280)는 손동작센서부(410)를 통해 제어 범위(60) 내의 손동작을 감지할 수 있다. 그러면, 제어부(280)는 도 17에 보인 바와 같이, 복수의 메뉴(61)를 영사부(250)를 통해 글라스(310)에 영사할 수 있다. 여기서, 손동작은 손가락을 모두 편 상태이며, 이 손동작에 대응하는 동작은 복수의 메뉴(61)로 예시하였다. 추가적인 예시로, 가위 모양의 손동작을 한 경우, 주변의 수중 지도가 표시되도록 할 수 있고, 주먹 모양의 손동작을 한 경우, 전술한 와이어 이미지(초음파 영상)을 영사하도록 할 수도 있다. 즉, 제어부(280)는 기준점을 기준으로 도출되는 제어 범위(60) 내에서 손동작을 감지하면, 감지된 손동작에 미리 매핑된 영상이 글라스(300)에 영사되도록 할 수 있다.
다른 예로, 도 18에 보인 바와 같이, 제어부(280)는 영사부(250)를 통해 글라스(310)에 복수의 메뉴(61)를 영사한 상태이고, 사용자는 자신의 손을 통해 복수의 메뉴(61) 중 어느 하나를 선택하는 동작을 할 수 있다. 그러면, 제어부(280)는 제어 범위(60) 내의 손동작을 감지하여, 복수의 메뉴(61) 중 어느 하나를 선택한 것을 판단할 수 있다. 이러한 판단에 따라 제어부(280)는 선택된 메뉴에 대응하는 영상을 영사부(250)를 통해 글라스(310)에 영사할 수 있다.
이러한 복수의 메뉴(61) 각각(예컨대, 도 18의 메뉴 1 내지 메뉴 4)이 차지하는 영역 또한 기준점을 기준으로 도출될 수 있다. 즉, 제어부(280)는 기준점을 기준으로 화면에 영사되는 복수의 메뉴(61) 각각이 차지하는 영역을 알 수 있으며, 영사부(250)를 제어하여 그 영역 또한 조절할 수 있다.
이에 따라, 제어부(280)는 제어 범위(60) 내의 손동작을 감지하여, 복수의 메뉴(61) 중 어느 하나의 메뉴가 차지하는 영역에 손가락 끝이 포함되어 있는 것을 감지하면, 해당 메뉴를 선택하는 것으로 판단하고, 해당 메뉴에 따른 영상을 영사하도록 영사부(250)를 제어할 수 있다.
본 발명에 따른 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Versatile Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리, SSD(Solid State Disk), HDD(Hard Disk Drive) 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.
10: 웨어러블 장치 100: 헬멧
200: 기능 모듈 210: 초음파부
220: GPS수신부 230: 통신부
240: 센서부 250: 영사부
260: 조명부 270: 저장부
280: 제어부 290: 접촉센서부
300: 수중고글 400: 수중용 장갑
410: 손동작센서부 420: 접촉부

Claims (6)

  1. 수중의 객체를 탐지하기 위한 웨어러블 장치에 있어서,
    사용자의 손에 착용되는 수중용 장갑의 내피에 장착되며, 어느 하나의 기준점을 기준으로 하여 상기 기준점으로부터의 변위를 상기 사용자의 손동작으로 감지하는 손동작센서부;
    상기 사용자의 두부에 착용할 수 있는 헬멧에 내장되며, 상기 기준점을 기준으로 하여 상기 기준점으로터 변위를 상기 헬멧의 움직임으로 감지하는 센서부;
    상기 사용자의 두부에 상기 사용자의 시야를 유지한 채로 착용할 수 있는 글라스를 포함하는 수중고글;
    상기 헬멧의 일측에 부착되어 초음파를 방사하고 방사된 초음파에 대한 반향음을 수신하는 초음파부;
    상기 헬멧의 일측에 부착되어 상기 글라스에 상기 반향음에 따라 구성된 초음파 영상을 포함하는 영상을 영사하기 위한 영사부; 및
    상기 센서부를 통해 감지된 헬멧의 움직임에 따라 사용자의 시선의 방향을 특정하고, 특정된 사용자의 시선의 방향에 따라 변경되는 제어 범위를 설정하며, 상기 손동작센서부를 통해 감지된 손동작이 상기 제어 범위 내에서 이루어지면, 상기 영사부가 상기 손동작에 상응하는 상기 영상을 상기 글라스에 영사하도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 웨어러블 장치.
  2. 제1항에 있어서,
    상기 웨어러블 장치는
    상기 헬멧의 일측에 형성되는 접촉센서부; 및
    상기 수중용 장갑의 일단의 외피 내에 형성되는 접촉부;를 더 포함하며,
    상기 제어부는
    상기 접촉센서부를 통해 상기 접촉부가 상기 접촉센서부에 접촉된 것을 감지하면, 수중용 장갑의 위치 및 헬멧의 위치 양자 모두에 대해 상기 접촉센서부의 위치를 상기 기준점으로 초기화시키는 것을 특징으로 하는 웨어러블 장치.
  3. 제2항에 있어서,
    상기 제어부는
    상기 기준점을 기준으로 제어 범위를 도출하고, 도출된 제어 범위 내에서 미리 정해진 손동작을 감지하면, 감지된 손동작에 따라 복수의 메뉴를 포함하는 영상이 글라스에 영사되도록 상기 영사부를 제어하는 것을 특징으로 하는 웨어러블 장치.
  4. 제3항에 있어서,
    상기 제어부는
    상기 제어 범위 내의 손동작을 감지하여, 복수의 메뉴 중 어느 하나의 메뉴가 차지하는 영역에 손가락 끝이 포함되어 있는 것을 감지하면, 상기 하나의 메뉴를 선택하는 것으로 판단하고, 상기 선택된 메뉴에 따른 영상을 영사하도록 상기 영사부를 제어하는 것을 특징으로 하는 웨어러블 장치.
  5. 수중의 객체를 탐지하기 위한 웨어러블 장치의 제어 방법에 있어서,
    사용자의 두부에 착용할 수 있는 헬멧에 내장된 센서부를 통해 어느 하나의 기준점을 기준으로 하여 상기 기준점으로부터의 변위를 상기 헬멧의 움직임으로 감지하면, 감지된 헬멧의 움직임에 따라 사용자의 시선의 방향을 특정하고, 특정된 사용자의 시선의 방향에 제어 범위를 설정하는 단계;
    상기 사용자의 손에 착용되는 수중용 장갑의 내피에 장착된 손동작센서부를 통해 상기 기준점을 기준으로 하여 상기 기준점으로터 변위를 상기 사용자의 손동작으로 감지하는 단계; 및
    상기 감지된 손동작이 상기 제어 범위 내에서 이루어지면, 상기 손동작에 상응하는 영상을 상기 사용자의 두부에 상기 사용자의 시야를 유지한 채로 착용할 수 있는 글라스에 영사하는 단계;를 포함하는 것을 특징으로 하는 웨어러블 장치의 제어 방법.
  6. 제5항에 있어서,
    상기 기준점은
    상기 헬멧의 일측에 형성되는 접촉센서부를 통해 상기 수중용 장갑의 일단의 외피 내에 형성되는 접촉부가 상기 접촉센서부에 접촉된 것을 감지할 때, 상기 접촉센서부의 위치인 것을 특징으로 하는 웨어러블 장치의 제어 방법.
KR1020150166755A 2015-11-26 2015-11-26 수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법 KR101768972B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150166755A KR101768972B1 (ko) 2015-11-26 2015-11-26 수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150166755A KR101768972B1 (ko) 2015-11-26 2015-11-26 수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법

Publications (2)

Publication Number Publication Date
KR20170061547A KR20170061547A (ko) 2017-06-05
KR101768972B1 true KR101768972B1 (ko) 2017-08-30

Family

ID=59223187

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150166755A KR101768972B1 (ko) 2015-11-26 2015-11-26 수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법

Country Status (1)

Country Link
KR (1) KR101768972B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109064541A (zh) * 2018-09-12 2018-12-21 汕头市超声检测科技有限公司 一种基于超声波的水下虚拟现实成像系统及其应用方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3080088B2 (ja) 1999-02-01 2000-08-21 ミノルタ株式会社 電子写真感光体
JP3080088U (ja) 2001-03-07 2001-09-14 株式会社ケーカンパニー 潜水用ヘルメット
JP2005246578A (ja) * 2004-03-08 2005-09-15 Mitsui Eng & Shipbuild Co Ltd 水中ロボット操縦方法及び水中ロボット操縦システム
KR101050709B1 (ko) * 2010-11-03 2011-07-20 (주)텔레콤랜드 수중 작업자를 위한 스마트 웨어

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3080088B2 (ja) 1999-02-01 2000-08-21 ミノルタ株式会社 電子写真感光体
JP3080088U (ja) 2001-03-07 2001-09-14 株式会社ケーカンパニー 潜水用ヘルメット
JP2005246578A (ja) * 2004-03-08 2005-09-15 Mitsui Eng & Shipbuild Co Ltd 水中ロボット操縦方法及び水中ロボット操縦システム
KR101050709B1 (ko) * 2010-11-03 2011-07-20 (주)텔레콤랜드 수중 작업자를 위한 스마트 웨어

Also Published As

Publication number Publication date
KR20170061547A (ko) 2017-06-05

Similar Documents

Publication Publication Date Title
AU2022263451B2 (en) Systems and methods for controlling operations of marine vessels
JP7182869B2 (ja) 物標検出装置
US20170273665A1 (en) Pose Recovery of an Ultrasound Transducer
EP2458406A1 (en) Satellite signal multipath mitigation in GNSS devices
US8655022B2 (en) System and method for detecting position of underwater vehicle
KR101714868B1 (ko) 3d 어군 탐지기
US20190219693A1 (en) 3-D US Volume From 2-D Images From Freehand Rotation and/or Translation of Ultrasound Probe
US10114470B2 (en) Using motion sensing for controlling a display
CN110727282B (zh) Auv的对接方法、装置及水下对接系统
JP6295345B2 (ja) Tdoa、fdoa、及びaglからの直接ジオロケーション
CN110133667A (zh) 基于移动前视声呐的水下三维检测系统
JP2018119852A (ja) 位置特定装置、位置特定方法、位置特定システム、位置特定用プログラム、無人航空機および無人航空機識別用ターゲット
US20060224352A1 (en) Portable unit for determining the position with respect to a reference, particularly for substantially shielded environments
US10473781B2 (en) Determining a boundary enclosing a region of interest for a body of water
KR101763911B1 (ko) 자기장 외란이 심한 환경에서 수중체의 선수각 추정 장치 및 그 방법
KR101643195B1 (ko) 수중 객체를 탐지하기 위한 헬멧 장치 및 이를 위한 방법
KR101768972B1 (ko) 수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 제어 방법
US9100317B1 (en) Self surveying portable sensor nodes
KR101788105B1 (ko) 수중 객체를 탐지하기 위한 웨어러블 장치 및 이의 통신 방법
CN105974419B (zh) 一种面向水下移动目标精确定位的区域最优解算法
US9832609B2 (en) Sensor remote control system, remote control device, sensor device and method of remotely controlling sensor
US20190209130A1 (en) Real-Time Sagittal Plane Navigation in Ultrasound Imaging
KR101286060B1 (ko) 적응형 신호 처리 방법 및 그 장치
JP2009098126A (ja) 自動追尾スキャニングソナー
JP7275472B2 (ja) 速度計測システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant