KR101643195B1 - Helmet apparatus for detecting object under water and method thereof - Google Patents

Helmet apparatus for detecting object under water and method thereof Download PDF

Info

Publication number
KR101643195B1
KR101643195B1 KR1020140134279A KR20140134279A KR101643195B1 KR 101643195 B1 KR101643195 B1 KR 101643195B1 KR 1020140134279 A KR1020140134279 A KR 1020140134279A KR 20140134279 A KR20140134279 A KR 20140134279A KR 101643195 B1 KR101643195 B1 KR 101643195B1
Authority
KR
South Korea
Prior art keywords
helmet
user
information
glass
image
Prior art date
Application number
KR1020140134279A
Other languages
Korean (ko)
Other versions
KR20160040850A (en
Inventor
권성근
김해수
Original Assignee
경일대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경일대학교산학협력단 filed Critical 경일대학교산학협력단
Priority to KR1020140134279A priority Critical patent/KR101643195B1/en
Publication of KR20160040850A publication Critical patent/KR20160040850A/en
Application granted granted Critical
Publication of KR101643195B1 publication Critical patent/KR101643195B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C11/00Equipment for dwelling or working underwater; Means for searching for underwater objects
    • B63C11/02Divers' equipment

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

본 발명은 수중 객체를 탐지하기 위한 헬멧 장치 및 이를 위한 방법에 관한 것으로, 이러한 본 발명은 사용자의 두부에 착용할 수 있는 헬멧과, 상기 사용자의 두부에 상기 사용자의 시야를 유지한 채로 착용할 수 있는 글라스를 포함하는 수중고글과, 상기 헬멧의 일측에 부착되어 음파를 방사하고 방사된 음파에 대한 반향음을 수신하는 음파탐지부와, 상기 헬멧의 일측에 부착되어 상기 글라스에 영상을 영사하기 위한 영사부와, 상기 반향음을 기초로 수중의 객체에 대한 와이어 이미지를 구성하고, 상기 영사부를 통해 상기 구성된 와이어 이미지가 상기 글라스에 영사되도록 제어하는 제어부를 포함한다. The present invention relates to a helmet device for detecting an underwater object and a method for the same. The present invention relates to a helmet which can be worn on the head of a user, and a helmet which can be worn while keeping the field of view of the user A headphone attached to one side of the helmet for projecting an image on the glass, and a head mounted on the side of the helmet for receiving an echo of sound waves radiated from the headphone, And a control unit configured to form a wire image for an object in the water based on the echo and to control the wire image to be projected on the glass through the projection unit.

Description

수중 객체를 탐지하기 위한 헬멧 장치 및 이를 위한 방법{Helmet apparatus for detecting object under water and method thereof}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a helmet apparatus for detecting an underwater object,

본 발명은 수중 객체 탐지 기술에 관한 것으로, 보다 상세하게는, 구조 요원 등의 잠수부가 직접 착용하여 위치 보정 정보, 즉, DGPS(Differential Global Positioning System)의 위치 보정 정보를 이용하여 수중 객체의 정밀한 위치를 탐지할 수 있는 장치 및 이를 위한 방법에 관한 것이다. The present invention relates to a technique for detecting an object underwater, and more particularly, to a method for detecting an object underwater using a position information of a DGPS (Differential Global Positioning System) And a method for the same.

소나(sonar: sound navigation and ranging)는 초음파를 짧은 단속음으로서 발사하고 이것이 객체에 부딪쳐 반사하여 되돌아오는 데 걸리는 시간을 재어 객체까지의 거리를 측정한다. 또 송파기를 회전시켜 그 방향을 탐지한다. 실제로는 레이더의 PPI 스코프 방식과 같으며, 브라운관 위에 거리, 주위에 방위를 눈금으로 새겨 주사선이 송파기의 회전과 함께 회전하도록 되어 있으며, 반향음이 되돌아오면 브라운관 위에 광점으로서 객체가 나타나 거리 및 방위를 탐지하게 된다. 음향측탐기, 어군탐지기, 잠수함 및 지뢰탐지용 소나, 해저의 구조를 탐측하는 사이드루킹(side looking) 소나 등은 이와 같은 본체가 음파를 내는 소나의 일종이다. Sonar (sound navigation and ranging) measures the distance to an object by launching ultrasonic waves as short intermittent sounds and taking the time it takes to reflect and return to the object. It also detects the direction by rotating the feeder. In reality, it is the same as the PPI scope method of the radar. On the cathode ray tube, the distance is set on the periphery and the azimuth is scaled so that the scanning line is rotated together with the rotation of the projector. When the reflection sound returns, the object appears as a light spot on the cathode ray tube. . Sound side probes, fish finders, submarines and mine detection sonar, and side looking sonar probing the structure of the seabed are some of the sonar's that emit sound waves.

한국등록특허 제10-1050709호 2011년 07월 14일 등록 (명칭: 수중 작업자를 위한 스마트 웨어)Korean Registered Patent No. 10-1050709 Registered July 14, 2011 (Name: SmartWare for underwater workers)

본 발명의 목적은 수중에서 잠수부가 수중 객체를 탐지하는 데에 도움이 되는 각 종 정보를 시각적으로 제공하기 위한 헬멧 장치 및 이를 위한 방법을 제공함에 있다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a helmet apparatus and method for visually providing various kinds of information that help a diver to detect an underwater object in water.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 수중 객체 탐지를 위한 헬멧 장치는 사용자의 두부에 착용할 수 있는 헬멧과, 사용자의 두부에 사용자의 시야를 유지한 채로 착용할 수 있는 글라스를 포함하는 수중고글과, 헬멧의 일측에 부착되어 음파를 방사하고 방사된 음파에 대한 반향음을 수신하는 음파탐지부와, 헬멧의 일측에 부착되어 글라스에 영상을 영사하기 위한 영사부와, 반향음을 기초로 수중의 객체에 대한 와이어 이미지를 구성하고, 영사부를 통해 구성된 와이어 이미지가 글라스에 영사되도록 제어하는 제어부를 포함한다. According to another aspect of the present invention, there is provided a helmet apparatus for detecting an underwater object, the helmet apparatus comprising: a helmet which can be worn on a user's head; A projection part attached to one side of the helmet and projecting an image on a glass, a projection part attached to one side of the helmet and projecting an image on a glass, And a control unit configured to construct a wire image for an object in the water based on the reflected sound and to control the wire image formed through the projection unit to be projected onto the glass.

본 발명의 헬멧 장치는 헬멧의 움직임을 감지하는 센서부를 더 포함하며, 제어부는 감지된 헬멧의 움직임에 따라 사용자의 시선의 방향을 도출하고, 시선의 방향에 존재하는 객체에 대한 와이어 이미지가 사용자가 바라보는 시선에 따라 보여지는 객체의 실물에 겹쳐지게 보이도록 와이어 이미지를 영사부를 통해 영사하는 것을 특징으로 한다. The helmet apparatus according to the present invention further includes a sensor unit for sensing the motion of the helmet, and the controller derives the direction of the user's eyes according to the motion of the detected helmet, And the wire image is projected through the projection unit so as to be superimposed on the object of the object viewed according to the line of sight.

또한, 제어부는 객체와 미리 저장된 대상 객체와의 유사도를 영사부를 통해 글라스에 영사하는 것을 특징으로 한다. In addition, the control unit is characterized by projecting the degree of similarity between the object and the pre-stored object to the glass through the projection unit.

제어부는 센서부를 통해 감지된 헬멧의 움직임에 따라 사용자의 시선이 미리 설정된 시간 동안 객체를 응시하는 것으로 판단되면, 유사도를 영사부를 통해 글라스에 영사하는 것을 특징으로 한다. The control unit projects the degree of similarity to the glass through the projection unit when it is determined that the user's gaze is gazing at the object for a preset time according to the movement of the helmet sensed through the sensor unit.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 헬멧 장치의 수중 객체 탐지를 위한 방법은 수중에서, 음파를 방사하고 방사된 음파에 대한 반향음을 수신하는 단계와, 반향음을 기초로 수중의 객체에 대한 와이어 이미지를 구성하는 단계와, 구성된 와이어 이미지를 글라스에 영사하는 단계;를 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method for detecting an object in water of a helmet apparatus, the method comprising: receiving a reflections of a sound wave emitted from a sound wave in water; Constructing a wire image for an object in the water as a basis; and projecting the constructed wire image onto a glass.

본 발명에 따르면 이미지를 통해 객체의 외형을 제공하기 때문에 탁한 환경을 가지는 수중에서도 객체를 원활하게 식별할 수 있다. 또한, 현재 주시중인 객체와 찾고자 하는 대상과의 유사도를 제공하여 탁한 환경을 가지는 수중에서도 객체를 원활하게 탐지할 수 있다. According to the present invention, since the appearance of the object is provided through the image, the object can be smoothly identified in the underwater environment. Also, by providing the similarity between the current object and the object to be searched, it is possible to smoothly detect the object in the underwater environment.

도 1은 본 발명의 실시예에 따른 수중 객체 탐지를 위한 헬멧 장치를 설명하기 위한 사시도이다.
도 2는 본 발명의 실시예에 따른 수중 객체 탐지를 위한 헬멧 장치를 설명하기 위한 블록도이다.
도 3은 도 2의 영사부를 이용하여 수중고글의 글라스에 영상을 영사하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 헬멧 장치의 위치 정보를 수집하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시예에 따른 헬멧 장치의 수중의 지형 혹은 객체를 탐지하기 위한 방법에 대해서 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따라 음파를 이용하여 객체를 탐지하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 객체 정보를 가공한 이미지를 설명하기 위한 화면 예이다.
도 8은 본 발명의 실시예에 따른 헬멧 장치의 탐지된 객체에 대한 정보를 영상으로 제공하는 방법을 설명하기 위한 도면이다.
도 9a 내지 도 9c는 본 발명의 일 실시예에 따른 시선에 따라 영사되는 영상을 설명하기 위한 화면 예이다.
도 10은 본 발명의 다른 실시예에 따른 시선에 따라 영사되는 영상을 설명하기 위한 화면 예이다.
1 is a perspective view for explaining a helmet apparatus for underwater object detection according to an embodiment of the present invention.
2 is a block diagram for explaining a helmet apparatus for underwater object detection according to an embodiment of the present invention.
FIG. 3 is a view for explaining a method of projecting an image on a glass of underwater goggles using the projection unit of FIG. 2. FIG.
4 is a flowchart illustrating a method of collecting position information of a helmet according to an embodiment of the present invention.
5 is a view for explaining a method for detecting a terrain or an object in the water of a helmet according to an embodiment of the present invention.
6 is a diagram for explaining a method of detecting an object using a sound wave according to an embodiment of the present invention.
FIG. 7 is an example of a screen for explaining an image obtained by processing object information according to an embodiment of the present invention.
8 is a view for explaining a method of providing information on detected objects of an image of a helmet according to an embodiment of the present invention.
9A to 9C are views illustrating an image projected according to a line of sight according to an exemplary embodiment of the present invention.
FIG. 10 is an exemplary screen for explaining an image projected according to a line of sight according to another embodiment of the present invention.

하기의 설명에서는 본 발명의 실시예를 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다. In the following description, only parts necessary for understanding the embodiments of the present invention will be described, and the description of other parts will be omitted so as not to obscure the gist of the present invention.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. The terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary meanings and the inventor is not limited to the meaning of the terms in order to describe his invention in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely preferred embodiments of the present invention, and are not intended to represent all of the technical ideas of the present invention, so that various equivalents And variations are possible.

한편, 상세한 설명에 앞서 본 발명의 실시예에 따른 '위치 정보'는 GPS 위성으로부터 수신되는 GPS 신호로부터 얻어지는 값이며, 위도, 경도, 고도 등의 좌표로 제공될 수 있다. 또한, 본 발명의 실시예에 따른 '위치 보정 정보'는 DGPS(Differential GPS) 기술에 따른 GPS 신호의 오차의 범위를 값으로 제공하는 정보이며, 이를 통해 위치 정보를 보정할 수 있다. 보다 상세하게 설명하면, GPS 위성으로부터 지상의 GPS 수신기로 송신되는 정보는 오차를 가지게 마련인데, 서로 가까운 거리에 위치한 두 수신기가 있을 경우에는 두 수신기는 비슷한 오차를 갖게 된다. DGPS 기술은 두 수신기가 가지는 공통의 오차를 서로 상쇄시킴으로써 보다 정밀한 데이터를 얻기 위한 것이다. 본 발명의 실시예에 따른 위치 보정 정보는 이러한 오차를 상쇄시키기 위한 정보를 포함한다. 이러한 정보는 대표적으로, 의사거리 보정치(PRC, Pseudo Range Correction)가 될 수 있다. DGPS 신호를 생성하는 기준국은 각 GPS 위성과의 기하학적 거리와 C/A 코드데이터로 기록된 의사거리와의 차이를 산출하며, 이 차이가 의사거리 보정치(PRC)가 된다. 또한, 위치 보정 정보는 거리 변화율 보정치(RRC, Range Rate Corrections)를 더 포함할 수 있다. RRC는 PRC의 예측률에 기초한 의사거리 보정치의 조절값이며, 시간이 지남에 따라 변한다, RRC는 어떤 특정 시간에 PRC에 반영되어야 하는 계산 값으로써 이로 인해 시간이 지남에 따라 PRC의 유효성을 증가 시키려는 것이다. 기타 다양한 팩터 및 파라미터가 위치 보정 정보에 포함될 수 있으며, 기본적으로, RTCM(Radio Technical Committee for Maritime Service) 규격에 따른 팩터 및 파라미터를 모두 포함할 수 있다. In the meantime, prior to the detailed description, the 'location information' according to the embodiment of the present invention is a value obtained from a GPS signal received from a GPS satellite, and may be provided in coordinates such as latitude, longitude and altitude. Also, the 'position correction information' according to the embodiment of the present invention is information providing a range of error of the GPS signal according to the DGPS (Differential GPS) technique as a value, thereby enabling correction of the position information. More specifically, information transmitted from GPS satellites to terrestrial GPS receivers has an error. When there are two receivers located close to each other, the two receivers have a similar error. The DGPS technique is to obtain more precise data by canceling the common errors of the two receivers. The position correction information according to an embodiment of the present invention includes information for canceling the error. This information may be typically a pseudo range correction (PRC). The reference station that generates the DGPS signal calculates the difference between the geometric distance from each GPS satellite and the pseudo distance recorded with the C / A code data, and this difference becomes the pseudorange correction value (PRC). Further, the position correction information may further include a distance rate correction value (RRC). The RRC is the adjustment value of the pseudorange correction based on the PRC's predicted rate and varies over time. The RRC is a calculated value that should be reflected in the PRC at a certain time, thereby increasing the effectiveness of the PRC over time . Various other factors and parameters may be included in the position correction information, and basically all factors and parameters according to the Radio Technical Committee for Maritime Service (RTCM) standard may be included.

그러면, 먼저, 본 발명의 실시예에 따른 수중 객체 탐지를 위한 헬멧 장치(10)에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 수중 객체 탐지를 위한 헬멧 장치를 설명하기 위한 사시도이다. 도 2는 본 발명의 실시예에 따른 수중 객체 탐지를 위한 헬멧 장치를 설명하기 위한 블록도이다. 또한, 도 3은 도 2의 영사부를 이용하여 수중고글의 글라스에 영상을 영사하는 방법을 설명하기 위한 도면이다. First, a helmet apparatus 10 for detecting an underwater object according to an embodiment of the present invention will be described. 1 is a perspective view for explaining a helmet apparatus for underwater object detection according to an embodiment of the present invention. 2 is a block diagram for explaining a helmet apparatus for underwater object detection according to an embodiment of the present invention. 3 is a view for explaining a method of projecting an image on a glass of underwater goggles using the projection unit of FIG. 2. FIG.

도 1 내지 도 3을 참조하면, 수중 객체 탐지를 위한 헬멧 장치(10)는 헬멧(100), 복수의 기능 모듈(200) 및 수중고글(300)을 포함한다. 사용자는 수중고글(300) 및 헬멧(10)을 착용하고, 복수의 기능 모듈(200)의 기능적인 도움을 통해 수중에서 탐사 활동을 할 수 있다. 헬멧(100)은 사용자의 두부에 착용되는 것이다. 또한, 수중 고글(300)은 수중에서 사용자의 눈에 물이 들어가지 않도록 하여 눈을 뜨고 수중을 탐지할 수 있도록 하기 위한 것으로, 사용자에게 수중 시야를 제공하는 투명한 글라스(310)와 글라스의 테두리로부터 연장되어 형성되며, 글라스가 사용자의 눈과 소정 간격 이격되도록 지지하고 사용자의 눈을 방수하기 위한 방수테두리 및 수중 고글(300)이 사용자의 두부에 고정되도록 지지하는 밴드를 포함한다. 1 to 3, a helmet apparatus 10 for detecting underwater objects includes a helmet 100, a plurality of function modules 200, and an underwater goggles 300. The user wears the underwater goggles 300 and the helmet 10 and can perform exploration activities in water through the functional assistance of the plurality of function modules 200. [ The helmet 100 is worn on the head of the user. In addition, the underwater goggles 300 are provided to allow the user to open the eyes and detect the underwater by preventing water from entering the user's eyes underwater. The underwater goggles 300 include a transparent glass 310 that provides the user with an underwater field of view, And includes a waterproof frame for supporting the glass so as to be spaced apart from the user's eyes by a predetermined distance and for waterproofing the user's eyes and a band for supporting the underwater goggles 300 to be fixed to the user's head.

복수의 기능 모듈(200)은 헬멧(100)의 외측 혹은 내측에 형성되거나, 헬멧(100)에 내장된다. 이러한 복수의 기능 모듈(200)은 음파탐지부(210), GPS수신부(220), 통신부(230), 센서부(240), 영사부(250), 조명부(260), 저장부(270) 및 제어부(280)을 포함한다. The plurality of function modules 200 are formed on the outside or inside of the helmet 100 or are embedded in the helmet 100. The plurality of function modules 200 includes a sound wave detection unit 210, a GPS reception unit 220, a communication unit 230, a sensor unit 240, a projection unit 250, an illumination unit 260, a storage unit 270, (Not shown).

음파탐지부(210)는 수중에서 음파를 방사하고, 방사한 음파가 수중의 객체 혹은 지형에 반사되어 돌아오는 반향음을 수신한 후, 수신된 반향음을 제어부(280)에 전달한다. 이러한 음파탐지부(210)는 예컨대, 소나(sonar) 탐지기가 될 수 있다. 이러한 음파탐지부(210)는 도시된 바와 같이, 헬멧(100)의 적어도 일측에 설치될 수 있으며, 전방향을 동시에 탐지하기 위하여 사방을 배향하도록 헬멧(100)의 외측 사방에 복수개가 설치될 수도 있다. The sound wave detector 210 emits a sound wave in the water, receives the reflected sound wave reflected by the object or the terrain in the water, and transmits the received reflection sound to the controller 280. The sonar detector 210 may be, for example, a sonar detector. As shown in the drawings, the sound wave detecting unit 210 may be installed on at least one side of the helmet 100, and a plurality of sound wave detecting units 210 may be installed on the outer sides of the helmet 100 to orient all directions have.

GPS수신부(220)는 GPS 위성으로부터 위치 정보를 포함하는 GPS 신호를 수신하기 위한 것이다. 예컨대, GPS수신부(220)는 지속적으로 GPS 위성 등으로부터 수신되는 GPS 신호를 통해 위치 정보를 수신할 수 있다. 특히, 본 발명의 실시예에 따른 GPS수신부(220)은 제어부(280)로부터 위치 보정 정보를 입력 받고, 입력된 위치 보정 정보를 이용하여 위치 정보를 보정한 후, 보정된 위치 보정 정보를 제어부(680)로 다시 전달할 수 있다. 혹은 GPS수신부(220)는 위치 정보를 수신하면, 제어부(280)로 전달하여, 제어부(280)가 위치 보정 정보를 이용하여 위치 정보를 보정하도록 할 수 있다. 이러한 위치 정보는 위도, 경도, 고도 등의 좌표가 될 수 있다. The GPS receiving unit 220 is for receiving a GPS signal including position information from a GPS satellite. For example, the GPS receiving unit 220 can continuously receive position information through a GPS signal received from a GPS satellite or the like. Particularly, the GPS receiver 220 according to the embodiment of the present invention receives the position correction information from the controller 280, corrects the position information using the input position correction information, and then transmits the corrected position correction information to the controller 680). ≪ / RTI > Alternatively, when the GPS receiver 220 receives the position information, the GPS receiver 220 transmits the position information to the controller 280 so that the controller 280 can correct the position information using the position correction information. Such location information may be coordinates such as latitude, longitude, and altitude.

통신부(230)는 헬멧 장치(10) 외부로 데이터를 전송하고, 그 외부로부터 데이터를 수신하는 통신을 위한 것이다. 통신부(110)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기와, 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기 등으로 구성될 수 있다. 이러한 통신부(110)는 BS(Base Station), NodeB, eNodeB 등과 같은 기지국을 통해 통신하거나, AP(Access Point) 등을 이용하여 통신할 수 있다. 특히, 통신부(230)은 네트워크를 통해 기준국으로부터 DGPS 신호를 수신한 후, 수신된 DGPS 신호를 제공하기 위한 서버(미도시) 혹은 기준국(미도시)에 직접 접속하여, DGPS 신호를 수신할 수 있다. 이러한 DGPS 신호는 위치 보정 정보를 포함한다. 이러한 DGPS 신호가 수신되면, 통신부(230)은 수신된 DGPS 신호를 제어부(280)로 전달한다. The communication unit 230 is for communicating data to the outside of the helmet apparatus 10 and receiving data from the outside. The communication unit 110 may include a radio frequency (RF) transmitter for up-converting and amplifying a frequency of a transmitted signal, an RF receiver for low-noise amplifying a received signal, and down-converting the frequency of the received signal. The communication unit 110 may communicate with a base station such as a base station (BS), a NodeB, an eNodeB, or the like using an AP (Access Point). In particular, after receiving the DGPS signal from the reference station through the network, the communication unit 230 directly connects to a server (not shown) or a reference station (not shown) for providing the received DGPS signal and receives the DGPS signal . This DGPS signal includes position correction information. When the DGPS signal is received, the communication unit 230 transmits the received DGPS signal to the control unit 280.

센서부(240)은 적어도 하나의 센서로 이루어진다. 이러한 센서를 통해 센서부(240)은 헬멧 본체(100)의 움직임을 감지할 수 있다. 헬멧 본체(100)는 사용자의 두부에 착용하는 것이기 때문에, 헬멧 본체(100)의 움직임을 감지하는 것을 통해 사용자의 시선의 방향을 특정할 수 있다. 또한, 센서부(240)는 헬멧 본체(100)의 움직임을 감지하는 것을 통해 특정 기준 위치로부터 헬멧 본체(100)의 이동 방향 및 이동 거리 등을 감지할 수 있다. 따라서 제어부(280)는 센서부(240)를 통해 감지되는 특정 기준 위치로부터의 변위를 통해 현재 위치를 산출할 수 있다. 이러한 센서부(240)는 가속도 센서, 자이로 센서, 지자기 센서, 디지털 나침반, 고도계, 심도계 등을 포함할 수 있다. 센서부(240)는 이러한 헬멧 본체(100)의 움직임을 감지하면, 그 움직임에 대한 정보, 예컨대, 기준으로부터 이동거리, 이동방향, 회전인 경우에는 회전각 등을 제어부(280)에 제공한다. The sensor unit 240 includes at least one sensor. The sensor unit 240 can sense movement of the helmet body 100 through the sensor. Since the helmet body 100 is worn on the head of the user, the direction of the user's gaze can be specified through sensing the movement of the helmet body 100. In addition, the sensor unit 240 can sense the moving direction and the moving distance of the helmet body 100 from a specific reference position by sensing movement of the helmet body 100. Accordingly, the control unit 280 can calculate the current position based on the displacement from the specific reference position sensed through the sensor unit 240. The sensor unit 240 may include an acceleration sensor, a gyro sensor, a geomagnetic sensor, a digital compass, an altimeter, a depth meter, and the like. When the sensor unit 240 senses the movement of the helmet body 100, the sensor unit 240 provides the control unit 280 with information on the movement of the helmet body 100, for example, a moving distance from the reference, a moving direction,

영사부(250)는 본 발명의 실시예에 따른 수중의 객체에 대한 정보를 이미지 혹은 텍스트를 포함하는 영상으로 제공하기 위한 것이다. 이러한 영상은 수중의 객체의 외형에 대한 이미지와, 외형의 크기, 헬멧 장치(10)와의 거리, 크기 및 유사도 등의 텍스트를 포함할 수 있다. 영사부(250)는 도 3에 도시된 바와 같이, 제어부(280)의 제어에 따라 이러한 영상을 수중고글(300)의 글라스(310)에 영사한다. 수중고글(300)을 착용한 사용자는 수중고글(300)의 글라스(310)를 통한 시야와 함께 겹쳐지게 영사부(250)가 영사한 영상을 볼 수 있다. The projection unit 250 is for providing information on an object underwater according to an embodiment of the present invention as an image or an image including text. Such an image may include an image of the appearance of the object in the water, the size of the appearance, distance between the helmet device 10, size and similarity. As shown in FIG. 3, the projection unit 250 projects such an image onto the glass 310 of the underwater goggles 300 under the control of the control unit 280. The user wearing the underwater goggles 300 can view the projected image of the projection unit 250 so as to overlap with the view through the glass 310 of the underwater goggles 300.

조명부(260)는 조명이 전방을 배향하도록 헬멧 본체(100)의 일측에 설치된다. 조명부(260)는 수중의 부유물질 등으로 인한 물의 혼탁한 정도, 즉, 탁도를 감지하는 센서를 포함할 수 있으며, 이러한 수중의 탁도가 기 설정된 기준치 이상인 경우 자동으로 조명을 켜서 사용자의 시야를 확보할 수 있도록 한다. The illumination unit 260 is installed on one side of the helmet body 100 so that the illumination is directed at the front. The illumination unit 260 may include a sensor for detecting the degree of turbidity of water due to suspended substances in the water, that is, turbidity. When the turbidity of the water is higher than a predetermined reference value, .

저장부(270)는 헬멧 장치(10)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행하며, 프로그램 영역과 데이터 영역으로 구분될 수 있다. 프로그램 영역은 헬멧 장치(10)의 전반적인 동작을 제어하는 프로그램 및 헬멧 장치(10)를 부팅시키는 운영체제(OS, Operating System), 어플리케이션 등을 저장할 수 있다. 데이터 영역은 헬멧 장치(10)의 사용에 따라 발생하는 사용자 데이터가 저장되는 영역이다. 이러한 데이터는 본 발명의 실시예에 따른 객체에 대한 각 종 정보를 포함할 수 있다. 저장부(270)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The storage unit 270 stores programs and data necessary for the operation of the helmet apparatus 10, and can be divided into a program area and a data area. The program area may store a program for controlling the overall operation of the helmet device 10 and an operating system (OS) for booting the helmet device 10, applications, and the like. The data area is an area where user data generated according to use of the helmet device 10 is stored. Such data may include various kinds of information about an object according to an embodiment of the present invention. Each kind of data stored in the storage unit 270 can be deleted, changed, or added according to a user's operation.

제어부(280)는 헬멧 장치(10)의 전반적인 동작 및 헬멧 장치(10)의 내부 블록들(110 내지 170)간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(280)는 중앙 처리 장치(Central Processing Unit : CPU), 어플리케이션 프로세서(Application Processor) 등이 될 수 있다. The control unit 280 may control the overall operation of the helmet apparatus 10 and the signal flow between the internal blocks 110 to 170 of the helmet apparatus 10 and may perform a data processing function of processing the data. The controller 280 may be a central processing unit (CPU), an application processor, or the like.

제어부(280)는 GPS수신부(220)를 통해 위치 정보를 얻고, 통신부(230)를 통해 위치 보정 정보를 얻을 수 있다. 그러면 제어부(280)는 위치 정보를 위치 보정 정보로 보정한 위치 정보를 얻을 수 있다. 이하 설명의 편의를 위하여, 위치 보정정보로 보정된 위치 정보를 '고정밀 위치 정보'라고 칭하기로 한다. 또한, 제어부(280)는 고정밀 위치 정보를 얻을 수 없는 경우, 센서부(240)를 통해 마지막으로 획득한 고정밀 위치 정보가 지시하는 위치로부터 헬멧 장치(10)의 변위를 측정하여, 현재의 위치 정보를 얻을 수 있다. 제어부(280)는 음파탐지부(210)를 통해 지속적으로 수중의 객체에 대한 정보를 얻을 수 있다. 이러한 정보는 객체의 외형, 크기, 헬멧 장치(10)로부터 객체까지의 거리, 수색하고자 하는 객체와 탐지된 객체의 유사도, 등을 포함한다. 또한, 제어부(280)는 전술한 정보를 가지는 영상을 생성하고, 영사부(250)를 제어하여 생성된 영상을 글라스(310)에 영사한다. 전술한 제어부(280)의 동작은 아래에서 보다 상세하게 설명될 것이다. The control unit 280 obtains the positional information through the GPS receiving unit 220 and obtains the positional correction information through the communication unit 230. [ Then, the controller 280 can obtain the positional information corrected with the positional correction information. For convenience of explanation, the position information corrected by the position correction information will be referred to as 'high precision position information'. When the high precision position information can not be obtained, the controller 280 measures the displacement of the helmet device 10 from the position indicated by the highly precise position information obtained last through the sensor unit 240, Can be obtained. The control unit 280 can continuously acquire information about an object underwater through the sonar detecting unit 210. This information includes the appearance and size of the object, the distance from the helmet device 10 to the object, the similarity of the object to be searched and the detected object, and the like. In addition, the control unit 280 generates an image having the above-described information, and controls the projection unit 250 to project the generated image onto the glass 310. The operation of the control unit 280 described above will be described in more detail below.

헬멧 장치(10)는 지속적으로 현재의 위치 정보를 획득하고, 획득된 위치 정보를 기초로 하여 바다, 강, 호수 등의 수중의 지형 혹은 객체를 탐지한다. 그러면, 먼저, 헬멧 장치(10)의 위치 정보 수집 방법에 대해서 설명하기로 한다. 도 4는 본 발명의 실시예에 따른 헬멧 장치의 위치 정보를 수집하는 방법을 설명하기 위한 흐름도이다. The helmet apparatus 10 continuously acquires current position information and detects an underwater terrain or object such as a sea, river, lake, or the like based on the obtained position information. First, a method of collecting position information of the helmet apparatus 10 will be described. 4 is a flowchart illustrating a method of collecting position information of a helmet according to an embodiment of the present invention.

헬멧 장치(10)의 제어부(280)는 S110 단계에서 위치 정보 수집 프로세스가 시작된 후, S150 단계에서 위치 정보 수집을 종료할 것으로 판단하여, S160 단계에서 위치 수집 프로세스가 종료될 때까지 지속적으로, S120 단계 내지 S150 단계를 반복할 수 있다. The control unit 280 of the helmet apparatus 10 determines that the position information collection is to be terminated in step S150 after the position information collection process is started in step S110 and continues until the position collection process is terminated in step S160 Step S150 may be repeated.

헬멧 장치(10)의 제어부(280)는 2 가지 방식으로 위치 정보를 얻을 수 있으며, 그 2 가지 방식은 GPS를 이용하는 방식과 센서를 이용하는 방식이다. 이러한 위치 정보는 위도, 경도 및 고도(혹은 수심)으로 표현될 수 있다. 먼저, GPS를 이용하는 방식은 다음과 같다. 첫째로, 제어부(280)는 GPS수신부(220)을 통해 수신되는 GPS 신호로부터 위치 정보를 추출하고, 통신부(230)을 통해 수신되는 DGPS 신호로부터 위치 보정 정보를 추출한다. 그런 다음, 제어부(280)는 위치 보정 정보를 이용하여 위치 정보를 보정한 고정밀 위치 정보를 얻을 수 있다. 둘째로, 제어부(280)는 센서부(240)를 통해 기준 위치로부터 변경되는 헬멧 장치(10)의 변위를 측정하여, 현재 위치를 획득할 수 있다. 이러한 기준 위치는 고정밀 위치 정보가 될 수 있다. The control unit 280 of the helmet apparatus 10 can obtain position information in two ways. The two methods are a method using a GPS and a method using a sensor. This location information can be expressed as latitude, longitude and altitude (or depth). First, the method of using GPS is as follows. First, the controller 280 extracts the position information from the GPS signal received through the GPS receiver 220, and extracts the position correction information from the DGPS signal received through the communication unit 230. Then, the control unit 280 can obtain the high-precision position information corrected position information by using the position correction information. Secondly, the control unit 280 can measure the displacement of the helmet device 10, which is changed from the reference position, through the sensor unit 240 to obtain the current position. Such a reference position can be high precision position information.

도 4에서 사용자, 즉, 잠수부는 헬멧 장치(10)를 착용한 후, 수중에서 특정 객체를 찾기 위해 잠수하는 상황을 가정한다. GPS 신호 혹은 DGPS 신호는 물속에서는 수신되지 않기 때문에, 헬멧 장치(10)의 제어부(280)는 S120 단계에서 GPS 신호 및 DGPS 신호 모두가 수신되는지 여부를 판단한다. In FIG. 4, the user, that is, the diver, assumes a situation in which the user wears the helmet device 10 and then submits to find a specific object in the water. Since the GPS signal or the DGPS signal is not received in the water, the controller 280 of the helmet apparatus 10 determines whether both the GPS signal and the DGPS signal are received in step S120.

S120 단계의 판단 결과, GPS 신호 및 DGPS 신호 모두가 수신되는 경우, 제어부(280)는 S130 단계로 진행하여, 앞서 설명된 바와 같은 고정밀 위치 정보를 통해 현재 위치 정보를 얻을 수 있다. 반면, S120 단계의 판단 결과, GPS 신호 및 DGPS 신호 중 어느 하나라도 수신되지 않으면, 제어부(280)는 S140 단계에서 센서부(240)를 통해 마지막 획득한 고정밀 위치 정보로부터 헬멧 장치(10)가 이동한 거리, 방향 등의 변위를 감지하여, 현재 위치 정보를 얻을 수 있다. As a result of the determination in step S120, if both the GPS signal and the DGPS signal are received, the controller 280 proceeds to step S130 and obtains current position information through the high-precision position information as described above. On the other hand, if it is determined in step S120 that the GPS signal and the DGPS signal are not received, the control unit 280 determines whether the helmet apparatus 10 is moved from the highly precise position information acquired last through the sensor unit 240 in step S140 It is possible to obtain the current position information by detecting a displacement of a distance, a direction, and the like.

이와 같이, 본 발명의 실시예에 따르면, DGPS 방식의 위치 보정 정보를 이용하여 GPS 방식의 위치 정보를 보정하여, 보다 정밀한 고정밀 위치 정보를 얻을 수 있다. 또한, 고정밀 위치 정보를 기준으로 감지된 변위를 통해 수중에서도 정밀한 위치 정보를 얻을 수 있다. As described above, according to the embodiment of the present invention, the position information of the GPS system is corrected using the DGPS position correction information, thereby obtaining more precise high-precision position information. In addition, precise position information can be obtained in the water through the sensed displacement based on high precision position information.

한편, 헬멧 장치(10)는 획득된 위치 정보를 기초로 하여 바다, 강, 호수 등의 수중의 지형 혹은 객체를 탐지한다. 헬멧 장치(10)는 전술한 방법을 통해 지속적으로 위치 정보를 획득하고, 획득한 위치 정보를 기준으로 수중의 지형 혹은 지물을 탐지하는 방법에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 헬멧 장치의 수중의 지형 혹은 객체를 탐지하기 위한 방법에 대해서 설명하기 위한 도면이다. 도 6은 본 발명의 실시예에 따라 음파를 이용하여 객체를 탐지하는 방법을 설명하기 위한 도면이다. 그리고 도 7은 본 발명의 실시예에 따른 객체 정보를 가공한 이미지를 설명하기 위한 화면 예이다. On the other hand, the helmet apparatus 10 detects an underwater terrain or an object such as a sea, a river, and a lake based on the obtained position information. The helmet apparatus 10 will continuously acquire position information through the above-described method, and a method of detecting a terrain or an object in the water based on the obtained position information will be described. 5 is a view for explaining a method for detecting a terrain or an object in the water of a helmet according to an embodiment of the present invention. 6 is a diagram for explaining a method of detecting an object using a sound wave according to an embodiment of the present invention. And FIG. 7 is an example of a screen for explaining an image obtained by processing object information according to an embodiment of the present invention.

도 5를 참조하면, 사용자의 잠수 전, 헬멧 장치(10)의 제어부(280)는 S210 단계에서 통신부(230)을 통해 임의의 서버 혹은 컴퓨터로부터 수중에서 찾고자하는 대상인 대상 객체에 대한 정보(이하, '대상 객체 정보'로 축약함)를 수신한 후, S220 단계에서 저장부(270)에 저장한다. 대상 객체 정보는 대상 객체의 기본적인 자세에서의 외형에 대한 정보인 기본 정보와 대상 객체의 변경된 자세에서의 외형에 대한 정보인 변형 정보를 포함한다. 기본 정보는 대상 객체가 기본적인 자세에서 측정될 수 있는 대상 객체의 높이, 폭 등의 크기에 대한 정보를 포함한다. 수중에서 생물이든 무생물이든 물의 부력에 의해 자세가 변경될 수 있으며, 해당 객체가 관절을 가지는 경우 더더욱 관절에 의해 자세가 변경될 수 있다. 변형 정보는 변경되는 자세를 예측하고, 복수의 예측된 변경된 자세 각각에서 측정될 수 있는 외형의 높이, 폭 등의 크기에 대한 정보를 포함한다. 본 실시예에서는 통신부(230)을 통해 대상 객체 정보를 수신하여 저장하는 것으로 설명하였지만, 이러한 대상 객체 정보는 다른 수단을 통해 헬멧 장치(10)에 입력되어 저장부(270)에 저장될 수도 있다. 예컨대, 헬멧 장치(10)는 입력 장치 혹은 직접 통신을 위한 인터페이스를 구비할 수도 있으며, 이러한 입력 장치 혹은 인터페이스를 통해 헬멧 장치(10)에 입력되어 저장부(270)에 저장될 수도 있다. 5, before the user dives, the controller 280 of the helmet apparatus 10 receives information (hereinafter, referred to as " information about a target object " to be searched in the water from an arbitrary server or a computer through the communication unit 230 in step S210) Object object information '), and then stores the object information in the storage unit 270 in step S220. The target object information includes basic information which is information on the appearance of the target object in the basic posture and deformation information which is information on the appearance of the target object in the changed posture. The basic information includes information about the height, width, and the like of a target object whose target object can be measured in a basic posture. The attitude can be changed by the buoyancy of water whether it is living creature or inanimate object in water, and if the object has a joint, the attitude can be further changed by the joint. The deformation information predicts the posture to be changed, and includes information on the height, width, and the like of the contour that can be measured in each of the plurality of predicted changed postures. In the present exemplary embodiment, the target object information is received and stored through the communication unit 230. However, the target object information may be input to the helmet apparatus 10 through other means and stored in the storage unit 270. [ For example, the helmet apparatus 10 may include an input device or an interface for direct communication, and may be input to the helmet apparatus 10 through the input device or interface and stored in the storage unit 270.

도 6에 보인 바와 같이, 헬멧 장치(10)의 제어부(280)는 S230 단계에서 객체(30)에 대해 음파탐지부(210)을 통해 음파를 방사하고, 방사된 음파가 객체(30)로부터 반사된 반향음을 수신한다. 즉, 제어부(280)의 제어에 따라 음파탐지부(210)은 음파를 방사하고, 그 반향음을 포착하여, 포착된 반향음을 제어부(280)로 전달한다. 그러면, 제어부(280)는 S240 단계에서 현재 위치 정보를 기초로 반향음을 이용하여 수중의 객체(30)의 위치, 형상 및 크기를 특정하기 위한 정보인 객체 정보를 얻는다. 음파는 객체(30)의 표면으로부터 반사되어 반향음으로 되돌아오기 때문에, 제어부(280)는 현재 위치 정보를 기준으로 음파가 객체(30)로부터 반향음으로 되돌아오는 RTT(Round Trip Time)을 통해 현재 헬멧 장치(10)의 위치를 기준으로 객체(30)의 표면과의 거리를 산출할 수 있다. 앞서 설명된 바와 같이, 제어부(280)는 헬멧 장치(10)의 현재 위치는 지속적으로 획득할 수 있고, RTT를 통해 모든 표면에 대한 거리를 알 수 있기 때문에, 그 거리를 통해 객체(30)의 위치, 형상 및 크기를 도출할 수 있다. 6, the control unit 280 of the helmet apparatus 10 emits a sound wave through the sound wave detection unit 210 with respect to the object 30 in step S230, and the emitted sound wave is reflected from the object 30 Lt; / RTI > That is, under the control of the control unit 280, the sound wave detector 210 emits a sound wave, captures the sound, and transmits the sensed sound to the controller 280. Then, in step S240, the control unit 280 obtains object information, which is information for specifying the position, shape, and size of the object 30 in the hand using the reverberation based on the current position information. Since the sound wave is reflected from the surface of the object 30 and returns to the sound of the echo, the controller 280 determines whether or not the sound wave is returned from the object 30 to the echo sound based on the current position information, The distance from the surface of the object 30 can be calculated based on the position of the helmet apparatus 10. [ As described above, since the current position of the helmet apparatus 10 can be continuously acquired and the distance to all the surfaces can be known through the RTT, the control unit 280 can control the position of the object 30 Position, shape, and size can be derived.

또한, 제어부(280)는 S250 단계에서 앞서(S220) 저장된 대상 객체 정보와 탐지된 객체 정보를 비교하여 해당 객체(30)가 찾고자 하는 대상 객체와의 형상 및 크기의 유사도를 도출할 수 있다. 여기서, 유사도는 기본자세 및 복수의 변형자세 각각과 객체를 비교하여, 유사도 중 가장 큰 값 혹은 평균값 등을 사용할 수 있다. In step S250, the control unit 280 may compare the stored object information with the detected object information to derive the similarity between the object and the target object to be searched by the object 30 in step S220. Here, the similarity may be determined by comparing the basic posture and the plurality of deformed postures with the object, and using the largest or average value of the similarities.

전술한 객체 정보 및 유사도는 S260 단계에서 제어부(280)에 의해 이미지 혹은 텍스트로 가공된다. 예컨대, 제어부(280)는 객체 정보를 토대로 객체(30)의 외형을 나타내는 와이어 이미지(41)를 구성할 수 있다. 이러한 예를 도 7에 도시하였다. 도시된 바와 같이, 제어부(280)는 임의의 객체(30)를 객체(30)에 대한 반향음에 따라 얻어지는 객체 정보를 기초로 와이어 이미지(41)를 구성할 수 있다. 그 밖에, 유사도, 헬멧 장치(10)와의 거리, 객체(30)의 높이, 폭, 등의 객체 정보는 텍스트로 가공될 수 있다. The object information and the similarity are processed into an image or text by the control unit 280 in step S260. For example, the control unit 280 may configure the wire image 41 representing the outline of the object 30 based on the object information. An example of this is shown in Fig. The control unit 280 may configure the wire image 41 based on the object information obtained according to the reflections of the object 30 with respect to the object 30. In addition, the object information such as the similarity, the distance from the helmet apparatus 10, the height, width, and the like of the object 30 can be processed into text.

수중에서 전술한 바와 같은 헬멧 장치(10)의 음향을 이용한 탐지는 지속적으로 이루어지며, 본 발명은 수중에서 사용자, 즉, 잠수부의 탐지를 돕기 위해 음향으로 탐지된 객체의 정보를 영상으로 제공한다. 이러한 방법에 대해서 설명하기로 한다. 도 8은 본 발명의 실시예에 따른 헬멧 장치의 탐지된 객체에 대한 정보를 영상으로 제공하는 방법을 설명하기 위한 도면이다. 도 9a 내지 도 9c는 본 발명의 일 실시예에 따른 시선에 따라 영사되는 영상을 설명하기 위한 화면 예이다. 그리고 도 10은 본 발명의 다른 실시예에 따른 시선에 따라 영사되는 영상을 설명하기 위한 화면 예이다. Detection using the sound of the helmet apparatus 10 as described above is continuously performed in water, and the present invention provides information of an object detected acoustically as an image to help a user in the water, that is, a diver. Such a method will be described. 8 is a view for explaining a method of providing information on detected objects of an image of a helmet according to an embodiment of the present invention. 9A to 9C are views illustrating an image projected according to a line of sight according to an exemplary embodiment of the present invention. And FIG. 10 is an example of a screen for explaining an image projected according to a line of sight according to another embodiment of the present invention.

도 8을 참조하면, 앞서 설명된 바와 같이, 객체에 대한 정보는 지속적으로 탐지되며, 이미지 및 텍스트로 가공되어 저장된다. 이에 따라, 제어부(280)는 S310 단계에서 센서부(240)를 통해 헬멧(100)의 움직임을 감지하고, S320 단계에서 감지된 헬멧(100)의 움직임에 따라 사용자의 시선을 도출한다. 그런 다음, 제어부(280)는 S330 단계에서 도출된 사용자의 시선에 따라 영사부(250)를 통해 가공된 이미지 및 텍스트 중 적어도 하나를 포함하는 영상을 글라스(300)에 영사한다. Referring to FIG. 8, as described above, information about an object is continuously detected, and the processed image and text are stored. The control unit 280 senses the movement of the helmet 100 through the sensor unit 240 in step S310 and derives the user's gaze according to the movement of the helmet 100 sensed in step S320. Then, the control unit 280 projects an image including at least one of the processed image and text through the projection unit 250 onto the glass 300 according to the user's gaze derived in step S330.

일예로, 영상을 글라스(310)에 영사할 때, 제어부(280)는 센서부(240)를 통해 헬멧(100)의 움직임을 감지하고, 감지된 헬멧(100)의 움직임에 따라 사용자의 시선을 도출하고, 와이어 이미지(41)가 앞서 도출된 사용자의 시선에 따라 보여지는 객체의 실물(30)에 겹쳐지게 보이도록 와이어 이미지(41)를 영사부(250)를 통해 영사한다. 이러한 화면 예를 도 9a 내지 도 9c에 도시하였다. 도 9a는 객체(30)를 기준으로 사용자의 시선이 객체의 왼쪽에 있는 경우의 영사된 와이어 이미지를 보인다. 또한, 도 9b는 객체(30)를 기준으로 사용자의 시선이 객체의 정면을 응시하고 있는 경우의 영사된 와이어 이미지를 보인다. 도 9c는 객체(30)를 기준으로 사용자의 시선이 객체의 오른쪽에 있는 경우의 영사된 와이어 이미지를 보인다. 수중에서는 시야가 지상과 같지 않으며, 매우 탁한 수중의 경우 사용자이 시선 확보가 어려울 수 있다. 따라서 본 발명의 실시예에 따르면, 와이어 이미지(41)를 통해 객체의 외형을 사용자의 시선과 겹쳐지게 표시하여, 사용자의 객체 식별을 돕는다. 이에 따라, 사용자가 보다 원활하게 탐사할 수 있도록 할 수 있다. For example, when projecting an image on the glass 310, the controller 280 senses the movement of the helmet 100 through the sensor unit 240 and displays the user's gaze according to the movement of the helmet 100 And the wire image 41 is projected through the projection unit 250 so that the wire image 41 appears to overlap the object 30 of the object viewed according to the previously drawn line of the user. Examples of such screens are shown in Figs. 9A to 9C. FIG. 9A shows a projected wire image when the user's line of sight is on the left side of the object with respect to the object 30. FIG. 9B shows a projected wire image when the user's gaze is staring at the front of the object with respect to the object 30. [ FIG. 9C shows a projected wire image when the user's line of sight is on the right side of the object with respect to the object 30. FIG. Visibility in the water is not the same as the ground, and in the case of very damp water, it may be difficult for the user to obtain sight. Therefore, according to the embodiment of the present invention, the appearance of the object is superimposed on the line of sight of the user through the wire image 41, thereby assisting the identification of the object of the user. This makes it possible for the user to search more smoothly.

다른 예로, 영상을 글라스(310)에 영사할 때, 제어부(280)는 센서부(240)를 통해 헬멧(100)의 움직임을 감지하고, 감지된 헬멧(100)의 움직임에 따라 사용자의 시선이 미리 설정된 시간 이상 특정 객체(예컨대, 객체(30))에 고정되어 있으면, 와이어 이미지(41)가 앞서 도출된 사용자의 시선에 따라 보여지는 객체의 실물(30)에 겹쳐지게 보이도록 와이어 이미지(41)를 영사부(250)를 통해 영사하고, 이와 동시에, 해당 객체에 대한 정보를 추가로 더 영사할 수 있다. 이러한 화면 예를 도 10에 도시하였다. 제어부(280)는 기본적으로 특정 영역(46)을 설정하고, 센서부(240)를 통해 헬멧(100)의 움직임을 감지하고, 감지된 헬멧(100)의 움직임에 따라 사용자의 시선이 미리 설정된 시간 이상 한 곳을 응시하고 있는 경우, 특정 영역(46)을 통해 보여지는 객체(30)를 응시하고 있는 것으로 판단한다. 이에 따라, 제어부(280)는 글라스를 통해 보여지는 객체의 실물(30)에 겹쳐지게 보이도록 와이어 이미지(41)를 영사하는 동시에 해당 객체(30)에 대한 정보를 추가로 더 영사할 수 있다. 이러한 추가 정보는 객체(30)의 높이, 폭 등의 크기 정보(42), 객체(30)와 대상 객체와의 유사도(43), 헬멧 장치(10)로부터 객체(30)까지의 거리(44) 및 객체(30)의 위치(위도, 경도, 심도(고도), 45) 등을 포함할 수 있다. 사용자는 글라스를 통해 실물을 봐야하기 때문에, 지속적으로 다수의 텍스트를 영상으로 표시하는 경우, 사용자의 시선이 혼란스러울 수 있다. 따라서 본 발명의 실시예에 따르면, 제어부(280)는 시선이 고정되는 것을 감지할 때에만 시선이 고정된 객체에 대한 추가 정보(42 내지 44)를 영상으로 영사하여 제공한다. 이에 따라, 사용자는 단지 시선을 통해 영상을 제어할 수 있어, 수중에서 탐사 작업 시 두 손을 자유롭게 할 수 있다. The control unit 280 detects the motion of the helmet 100 through the sensor unit 240 and detects the movement of the helmet 100 according to the movement of the helmet 100. In other words, If the wire image 41 is fixed to a specific object (for example, the object 30) for a predetermined time or more, the wire image 41 is displayed so as to overlap the object 30 of the object shown according to the gaze of the user, May be projected through the projection unit 250 and, at the same time, further information about the object may be further projected. An example of such a screen is shown in Fig. The control unit 280 basically sets the specific region 46 and senses the movement of the helmet 100 through the sensor unit 240. When the user's gaze reaches a predetermined time It is judged that the object 30 viewed through the specific area 46 is staring. Accordingly, the control unit 280 can further project information on the object 30 while projecting the wire image 41 so as to overlap the object 30 of the object seen through the glass. The additional information includes size information 42 such as height and width of the object 30, similarity 43 between the object 30 and the object 30, distance 44 from the helmet apparatus 10 to the object 30, (Latitude, longitude, depth (altitude), 45) of the object 30 and the like. Since the user has to look at the real thing through the glass, when the user continuously displays a large number of text images, the user's gaze may be confused. Therefore, according to the embodiment of the present invention, the control unit 280 projects and provides the additional information 42 to 44 about the object whose gaze is fixed only when the sight line is fixed, as an image. Accordingly, the user can control the image through the sight line only, so that the two hands can be freely operated in the underwater exploration operation.

또 다른 예로, 영상을 글라스(310)에 영사할 때, 제어부(280)는 센서부(240)를 통해 헬멧(100)의 이동 방향 및 사용자의 시선(시선의 방향)을 감지한다. 여기서, 이동 방향은 기 설정된 시간 헬멧(100)이 이동하는 방향이며, 시선은 헬멧(100)의 정면이 배향하는 방향이다. 이때, 헬멧(100)의 이동 방향 및 시선의 방향이 일치하고, 객체(30)를 기 설정된 시간 이상 응시하였을 경우, 도 10에 도시된 바와 같이 와이어 이미지(41)와 함께 유사도(43)를 포함하는 객체에 대한 정보(42, 43, 44)를 텍스트로 영사할 수 있다. 사용자는 북쪽으로 이동하면서 좌우를 살필 수 있으며, 이때마다 계속해서 전술한 정보들을 영사하면 오히려 사용자의 시야에 혼란을 가져올 수 있다. 따라서 이동 방향과 시선의 방향이 일치하고, 특정 객체를 기 설정된 시간 이상 응시하는 경우에만 해당 객체에 대한 추가 정보를 제공하는 것이 바람직하다. As another example, when projecting an image on the glass 310, the control unit 280 senses the moving direction of the helmet 100 and the direction of the user's gaze (direction of the gaze) through the sensor unit 240. Here, the moving direction is a direction in which the helmet 100 moves for a predetermined time, and the line of sight is a direction in which the front surface of the helmet 100 is oriented. At this time, when the moving direction of the helmet 100 and the direction of the line of sight coincide with each other and the object 30 is looked at for more than a predetermined time, the similarity 43 is included together with the wire image 41 as shown in FIG. 43, and 44 can be projected as text. The user can look at the left and right while moving to the north, and if the above-described information is continuously projected every time, the user's view may be confused. Therefore, it is desirable to provide additional information about the object only when the direction of the movement coincides with the direction of the line of sight and the specific object strikes for a predetermined time or more.

한편, 또 다른 예로, 영상을 글라스(310)에 영사할 때, 제어부(280)는 센서부(240)를 통해 헬멧(100)의 이동 방향 및 사용자의 시선(시선의 방향)을 감지한다. 여기서, 이동 방향은 기 설정된 시간 헬멧(100)이 이동하는 방향이며, 시선은 헬멧(100)의 정면이 배향하는 방향이다. 이때, 헬멧(100)의 이동 방향 및 시선의 방향이 일치하지 않지만, 객체(30)를 기 설정된 시간 이상 응시하고, 해당 객체(30)와 대상 객체 간의 유사도가 미리 설정된 값 이상인 경우, 도 10에 도시된 바와 같이 와이어 이미지(41)와 함께 유사도(43)를 포함하는 객체에 대한 정보(42, 43, 44)를 텍스트로 영사할 수 있다. 사용자는 북쪽으로 이동하면서 좌우를 살필 수 있으며, 이때마다 계속해서 전술한 정보들을 영사하면 오히려 사용자의 시야에 혼란을 가져올 수 있다. 하지만, 응시하고 있는 객체(30)와 찾고자 하는 대상 객체와의 유사도가 기 설정된 기준치 보다 높다면, 해당 객체(30)에 대해 추가로 정보를 제공하는 것이 바람직하다. 따라서 이동 방향과 시선의 방향이 일치하지 않는 경우에도, 유사도가 기 설정된 값 이상이면, 추가 정보를 제공할 수 있다. The control unit 280 senses the moving direction of the helmet 100 and the direction of the user's gaze through the sensor unit 240. In addition, Here, the moving direction is a direction in which the helmet 100 moves for a predetermined time, and the line of sight is a direction in which the front surface of the helmet 100 is oriented. At this time, although the moving direction of the helmet 100 and the direction of the line of sight do not coincide with each other, when the object 30 is gazed for a predetermined time or longer and the similarity degree between the object 30 and the target object is equal to or larger than a predetermined value, As shown in the figure, the information 42, 43, 44 about the object including the similarity 43 together with the wire image 41 can be projected as text. The user can look at the left and right while moving to the north, and if the above-described information is continuously projected every time, the user's view may be confused. However, if the degree of similarity between the object 30 to be examined and the target object to be searched is higher than a preset reference value, it is desirable to provide additional information to the object 30. Therefore, even when the direction of movement and the direction of the line of sight do not coincide, additional information can be provided if the similarity is not less than a predetermined value.

본 발명에 따른 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Versatile Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리, SSD(Solid State Disk), HDD(Hard Disk Drive) 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The method according to the present invention may be implemented in the form of software readable by various computer means and recorded in a computer-readable recording medium. Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. For example, the recording medium may be an optical recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a compact disk read only memory (CD-ROM), a digital versatile disk (DVD) A magneto-optical medium such as a floppy disk and a ROM, a random access memory (RAM), a flash memory, a solid state disk (SSD), a hard disk drive (HDD) And hardware devices specifically configured to store and perform the same program instructions. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. While the present invention has been described with reference to several preferred embodiments, these embodiments are illustrative and not restrictive. It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit of the invention and the scope of the appended claims.

10: 헬멧 장치 100: 헬멧
200: 기능 모듈 210: 음파탐지부
220: GPS수신부 230: 통신부
240: 센서부 250: 영사부
260: 조명부 270: 저장부
280: 제어부 300: 수중고글
10: helmet device 100: helmet
200: function module 210: sound wave detection unit
220: GPS receiving unit 230:
240: Sensor part 250: Projection part
260: illumination unit 270: storage unit
280: control unit 300: underwater goggles

Claims (5)

사용자의 두부에 착용할 수 있는 헬멧;
상기 헬멧의 움직임을 감지하는 센서부;
상기 사용자의 두부에 상기 사용자의 시야를 유지한 채로 착용할 수 있는 글라스를 포함하는 수중고글;
상기 헬멧의 일측에 부착되어 음파를 방사하고 방사된 음파에 대한 반향음을 수신하는 음파탐지부;
상기 헬멧의 일측에 부착되어 상기 글라스에 영상을 영사하기 위한 영사부; 및
상기 반향음을 기초로 수중의 객체에 대한 와이어 이미지를 구성하고, 상기 감지된 헬멧의 움직임에 따라 상기 사용자의 시선의 방향을 도출한 후, 도출된 시선의 방향에 존재하는 객체에 대한 와이어 이미지와 상기 사용자의 시선에 따라 보여지는 상기 객체의 실물이 겹쳐지게 보이도록 상기 도출된 시선의 방향에 존재하는 객체에 대한 와이어 이미지를 상기 영사부를 통해 상기 글라스에 영사하도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 수중 객체 탐지를 위한 헬멧 장치.
A helmet which can be worn on the user's head;
A sensor unit for sensing movement of the helmet;
An underwater goggle including a glass that can be worn while keeping the sight of the user at a head portion of the user;
A sonic detection unit attached to one side of the helmet to emit a sound wave and receive a reflection sound of the emitted sound wave;
A projection unit attached to one side of the helmet to project an image on the glass; And
A wire image for an object in the water is formed on the basis of the reflections, a direction of the user's gaze is derived according to the movement of the detected helmet, and a wire image for an object existing in the direction of the derived gaze And a control unit for controlling the projector to project a wire image for an object existing in the direction of the derived sight line on the glass so that the real objects of the object appear to overlap according to the user's gaze, A helmet device for underwater object detection.
삭제delete 제1항에 있어서,
상기 제어부는
상기 객체와 미리 저장된 대상 객체와의 유사도를 상기 영사부를 통해 상기 글라스에 영사하는 것을 특징으로 하는 수중 객체 탐지를 위한 헬멧 장치.
The method according to claim 1,
The control unit
And projecting the degree of similarity between the object and a previously stored object on the glass through the projection unit.
제3항에 있어서,
상기 제어부는
상기 센서부를 통해 감지된 헬멧의 움직임에 따라 상기 사용자의 시선이 미리 설정된 시간 동안 상기 객체를 응시하는 것으로 판단되면, 상기 유사도를 상기 영사부를 통해 상기 글라스에 영사하는 것을 특징으로 하는 수중 객체 탐지를 위한 헬멧 장치.
The method of claim 3,
The control unit
And projecting the degree of similarity to the glass through the projection unit when it is determined that the user's gaze is gazing at the object for a preset time according to the movement of the helmet sensed through the sensor unit Helmet device.
수중에서, 음파를 방사하고 방사된 음파에 대한 반향음을 수신하는 단계;
상기 반향음을 기초로 수중의 객체에 대한 와이어 이미지를 구성하는 단계;
사용자의 두부에 착용된 헬멧의 움직임에 따라 상기 사용자의 시선의 방향을 도출하는 단계; 및
상기 사용자의 두부에 상기 사용자의 시야를 유지한 채로 착용된 글라스에 상기 도출된 시선의 방향에 존재하는 객체에 대한 와이어 이미지와 상기 사용자의 시선에 따라 보여지는 상기 객체의 실물이 겹쳐지게 보이도록 상기 도출된 시선의 방향에 존재하는 객체에 대한 와이어 이미지를 영사하는 단계;를 포함하는 것을 특징으로 하는 헬멧 장치의 수중 객체 탐지를 위한 방법.
Radiating sound waves in water and receiving reflections for the emitted sound waves;
Constructing a wire image for an object in the water based on the reflections;
Deriving the direction of the user's gaze according to the movement of the helmet worn on the head of the user; And
A wire image for an object existing in a direction of the derived line of sight and a real object of the object viewed according to a user's gaze are superimposed on a glass worn while maintaining the view of the user on the head of the user, And projecting a wire image for an object in the direction of the derived line of sight.
KR1020140134279A 2014-10-06 2014-10-06 Helmet apparatus for detecting object under water and method thereof KR101643195B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140134279A KR101643195B1 (en) 2014-10-06 2014-10-06 Helmet apparatus for detecting object under water and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140134279A KR101643195B1 (en) 2014-10-06 2014-10-06 Helmet apparatus for detecting object under water and method thereof

Publications (2)

Publication Number Publication Date
KR20160040850A KR20160040850A (en) 2016-04-15
KR101643195B1 true KR101643195B1 (en) 2016-07-27

Family

ID=55801695

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140134279A KR101643195B1 (en) 2014-10-06 2014-10-06 Helmet apparatus for detecting object under water and method thereof

Country Status (1)

Country Link
KR (1) KR101643195B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220076556A (en) * 2020-11-30 2022-06-08 주식회사 파노비젼 Image display Mask for marine leisure

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102315942B1 (en) * 2020-02-11 2021-10-21 (주)인터오션 Diving helmet with Information and Communication Technologies

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3080088B2 (en) * 1999-02-01 2000-08-21 ミノルタ株式会社 Electrophotographic photoreceptor
JP2005246578A (en) * 2004-03-08 2005-09-15 Mitsui Eng & Shipbuild Co Ltd Underwater robot steering method and underwater robot steering system
JP2014032600A (en) * 2012-08-06 2014-02-20 Nitto Denko Corp Display input device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3926076A1 (en) * 1989-04-21 1990-10-25 Boehringer Mannheim Gmbh RECOMBINANT DNA AND EXPRESSION VECTOR
KR101050709B1 (en) 2010-11-03 2011-07-20 (주)텔레콤랜드 Smart helmet for diver
KR20120025571A (en) * 2012-02-06 2012-03-15 석상호 Wearable robot in the underwater

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3080088B2 (en) * 1999-02-01 2000-08-21 ミノルタ株式会社 Electrophotographic photoreceptor
JP2005246578A (en) * 2004-03-08 2005-09-15 Mitsui Eng & Shipbuild Co Ltd Underwater robot steering method and underwater robot steering system
JP2014032600A (en) * 2012-08-06 2014-02-20 Nitto Denko Corp Display input device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220076556A (en) * 2020-11-30 2022-06-08 주식회사 파노비젼 Image display Mask for marine leisure
KR102442429B1 (en) * 2020-11-30 2022-09-14 주식회사 파노비젼 Image display Mask for marine leisure

Also Published As

Publication number Publication date
KR20160040850A (en) 2016-04-15

Similar Documents

Publication Publication Date Title
JP6656302B2 (en) System and method for navigating an autonomous underwater vehicle
JP6297768B2 (en) Satellite signal multipath mitigation in GNSS devices
US9945956B2 (en) GNSS positioning using three-dimensional building models
EP3329301B1 (en) Visual inertial odometry attitude drift calibration
US9372255B2 (en) Determining a position of a submersible vehicle within a body of water
US10078138B2 (en) Doppler shift correction using three-dimensional building models
US10746896B2 (en) Positioning survey sensors using an airborne vehicle
JP2011149720A (en) Surveying system
US10317537B2 (en) Recovery assistance device, method and system
KR101015039B1 (en) Underwater position finding system and method
CN110727282B (en) AUV docking method and device and underwater docking system
CN115343745A (en) Three-dimensional laser radar assisted high-precision satellite positioning method
US20180074596A1 (en) Using motion sensing for controlling a display
CN110133667A (en) Underwater 3 D detection system based on mobile Forward-Looking Sonar
JP2018119852A (en) Position specification device, position specification method, position specification system, program for position specification, unmanned aircraft, and target for identifying unmanned aircraft
KR101763911B1 (en) Heading estimation apparatus of auv in severe magnetic disturbance environment and the method thereof
KR101643195B1 (en) Helmet apparatus for detecting object under water and method thereof
JP2012159347A (en) Mobile positioning apparatus
KR101768972B1 (en) A wearable apparatus for detecting an object under water and a method for controlling thereof
KR20150122446A (en) Coastal seafloor topography surveying apparatus using the jet ski
RU2529207C1 (en) Navigation system for towed underwater vehicle
KR101788105B1 (en) A wearable apparatus for detecting an object under water and a method for communicating thereof
KR101779929B1 (en) Measurement method Based on Global Navigation Satellite System
JP2009098126A (en) Automatic tracking scanning sonar
Viswanathan et al. Blind navigation proposal using SONAR

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190624

Year of fee payment: 4