KR102249156B1 - Sailing assistance device using augmented reality image - Google Patents
Sailing assistance device using augmented reality image Download PDFInfo
- Publication number
- KR102249156B1 KR102249156B1 KR1020200083338A KR20200083338A KR102249156B1 KR 102249156 B1 KR102249156 B1 KR 102249156B1 KR 1020200083338 A KR1020200083338 A KR 1020200083338A KR 20200083338 A KR20200083338 A KR 20200083338A KR 102249156 B1 KR102249156 B1 KR 102249156B1
- Authority
- KR
- South Korea
- Prior art keywords
- ship
- augmented reality
- image
- navigation
- gps coordinates
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B49/00—Arrangements of nautical instruments or navigational aids
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B43/00—Improving safety of vessels, e.g. damage control, not otherwise provided for
- B63B43/18—Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
- B63B43/20—Feelers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G3/00—Traffic control systems for marine craft
- G08G3/02—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B2213/00—Navigational aids and use thereof, not otherwise provided for in this class
- B63B2213/02—Navigational aids and use thereof, not otherwise provided for in this class using satellite radio beacon positioning systems, e.g. the Global Positioning System GPS
Abstract
Description
본 발명은 증강현실 이미지를 이용한 항해 보조장치에 관한 것이다.The present invention relates to a navigation aid device using an augmented reality image.
국내·외 해운학술논문에 따르면 해양사고의 원인 중 운항과실이 전체의 82.8%를 차지하며, 그 중 충돌사고의 경우 96.9%가 경계 소홀이나 조선 부적절 등의 인적 운항과실이 차지하는 것으로 나타난다. 특히 JNPR 논문에 따르면 2D 화면에 표시된 첨단항해장비들의 수많은 정보가 항해사의 의사결정에 어려움을 초래하고 있는 것으로 판단된다. 예컨대, 싱가포르 해협에서는 한 번에 수백 척의 배와 육상물표가 탐지되며, 항해사는 2D 레이더 화면을 확인한 후 전방주시를 하기 때문에 선박과 주변환경을 비교분석하는데 시간이 많이 소요된다.According to domestic and foreign shipping academic papers, operation errors accounted for 82.8% of the total causes of maritime accidents, and 96.9% of them were due to negligence of vigilance or inadequacy of shipbuilding. In particular, according to the JNPR paper, it is judged that a lot of information on advanced navigation equipment displayed on the 2D screen is causing difficulty in decision-making by navigators. For example, in the Singapore Strait, hundreds of ships and land targets are detected at a time, and since the navigator checks the 2D radar screen and then looks forward, it takes a lot of time to compare and analyze the ship and the surrounding environment.
선박은 자동차나 항공기와는 달리, 1~2km로 정선(停船)거리가 길어 직관적이고 빠른 의사결정이 매우 중요하다. 한 척당 수백억을 호가하는 선박의 경우, 한 번의 사고가 조단위를 넘기는 배상문제로 직결되는데, 이를 방지하고자 선박회사에서는 수십억 원의 항해장비들을 사용하고 있다. 항해 장비에서 추출된 모든 데이터들은 VDR(선박데이터기록장치)와 AIS(선박식별장치)로 모이는데, 여기에 유입되는 데이터는 2D 데이터라는 한계가 있어, 다수의 선박이 밀집된 좁은 해협과 같이 빠른 판단이 필요한 상황에도 항해사는 데이터를 분석하는데 많은 시간을 소요하고 있다.Unlike automobiles and aircraft, ships have a long pick-up distance of 1 to 2 km, so intuitive and quick decision-making is very important. In the case of ships that cost tens of billions of dollars per ship, one accident is directly connected to the problem of compensation exceeding trillions. To prevent this, shipping companies are using billions of won of navigational equipment. All the data extracted from the navigation equipment are collected in VDR (Ship Data Recorder) and AIS (Ship Identification Device), and the data that flows into it has a limitation of 2D data, so it makes quick judgments like a narrow strait where a large number of ships are concentrated. Even in this necessary situation, the navigator spends a lot of time analyzing the data.
또한, 야간 운행을 하거나 폭우, 해무 등 악조건의 기상 상태에서는 선박을 운행하는 항해사의 가시거리가 급격하게 작아지지만, 이러한 경우에도 항해사는 2D 데이터만을 분석하여 운행을 해야하는 어려움이 있다.In addition, in bad weather conditions such as nighttime operation, heavy rain, sea, etc., the visibility distance of a sailor who operates a ship decreases rapidly, but even in this case, there is a difficulty in that the sailor must analyze only 2D data to operate.
본 발명이 이루고자하는 기술적인 과제는, 운행 중인 선박과 인접한 다른 선박들 및 주변환경을 증강현실 이미지로 표시하는 항해 보조장치를 제공하는데 있다.A technical problem to be achieved by the present invention is to provide a navigation aid device that displays an augmented reality image of other ships and surrounding environments adjacent to a running ship.
본 발명의 실시 예에 따른 증강현실 이미지를 이용한 항해 보조장치는, 선박자동식별시스템(Automatic Identification System)로부터 AIS 데이터를 수신하는 통신부와, 상기 AIS 데이터를 기초로 사용자가 탑승한 제1 선박의 제1 선박정보, 상기 제1 선박과 인접한 위치에 배치된 제2 선박의 제2 선박정보를 판단하고, 카메라 모듈로부터 상기 제1 선박의 외부를 촬영한 항해 영상을 수신하여 증강현실 항해영상을 생성하는 제어부와, 상기 제1 선박정보 및 상기 제2 선박정보를 기초로 상기 제2 선박을 제1 증강현실 이미지로 생성하는 증강현실 영상 생성부와, 상기 증강현실 항해영상을 표시하는 영상 표시부를 포함하고, 상기 제1 선박정보는 상기 제1 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제2 선박정보는 상기 제2 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 제2 선박의 위치에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성할 수 있다.A navigation aid device using an augmented reality image according to an embodiment of the present invention includes a communication unit that receives AIS data from an automatic identification system, and a first ship on which a user is boarded based on the AIS data. 1 It determines the ship information, the second ship information of the second ship disposed in a position adjacent to the first ship, and generates an augmented reality voyage image by receiving a voyage image photographing the outside of the first ship from a camera module. A control unit, an augmented reality image generation unit that generates the second ship as a first augmented reality image based on the first ship information and the second ship information, and an image display unit that displays the augmented reality navigation image, , The first ship information includes GPS coordinates, speed, and moving direction of the first ship, and the second ship information includes GPS coordinates, speed, and moving direction of the second ship, and the control unit The augmented reality navigation image may be generated by analyzing the navigation image and superimposing the first augmented reality image on the position of the second ship in the navigation image.
실시 예에 따라, 상기 제어부는 상기 카메라 모듈로부터 촬영방위를 수신하여 상기 항해영상의 방위를 판단하고, 상기 제1 선박정보를 기초로 상기 제1 선박의 GPS 좌표를 판단하여, 상기 제1 선박의 GPS 좌표를 기준으로 상기 항해영상에 GPS 좌표를 설정할 수 있다.According to an embodiment, the controller receives the photographing orientation from the camera module to determine the orientation of the navigation image, determines the GPS coordinates of the first ship based on the first ship information, and GPS coordinates may be set in the navigation image based on GPS coordinates.
실시 예에 따라, 상기 제어부는 상기 항해영상을 복수의 영역들로 분할하고, 각 영역이 상기 카메라 모듈 및 해수면과 이루는 각도에 대응하여 각 영역의 떨어진 거리를 판단하고, 판단된 거리 및 상기 방위에 대응하여 상기 각 영역에 GPS 좌표를 설정할 수 있다.According to an embodiment, the control unit divides the navigation image into a plurality of areas, determines a distance between each area corresponding to an angle formed by the camera module and the sea level, and determines the distance between the areas and the determined distance and the direction. Correspondingly, GPS coordinates may be set in each of the areas.
실시 예에 따라, 상기 제어부는 상기 영역들 중 상기 제2 선박의 GPS 좌표와 매칭되는 GPS 좌표를 갖는 제1 영역을 선별하고, 상기 제1 영역 상에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성할 수 있다.According to an embodiment, the control unit selects a first area having GPS coordinates matching the GPS coordinates of the second ship among the areas, and superimposes the first augmented reality image on the first area to perform the augmentation. Real voyage images can be created.
실시 예에 따라, 상기 통신부는 전자해도정보시스템(Electronic Chart Display and Information System)로부터 ECDIS 데이터를 수신하고, 상기 제어부는 상기 ECDIS 데이터를 기초로 상기 주변환경의 환경정보를 판단하며, 상기 증강현실 영상 생성부는 상기 환경정보를 기초로 상기 주변환경을 제2 증강현실 이미지로 생성하고, 상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 주변환경의 위치에 상기 제2 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성할 수 있다.According to an embodiment, the communication unit receives ECDIS data from an electronic chart display and information system, and the control unit determines environmental information of the surrounding environment based on the ECDIS data, and the augmented reality image The generation unit generates the surrounding environment as a second augmented reality image based on the environment information, and the controller analyzes the navigation image and superimposes the second augmented reality image on the location of the surrounding environment in the navigation image. Augmented reality navigation images can be created.
실시 예에 따라, 상기 제어부는 제1 시점에서 상기 제1 및 제2 선박정보들을 분석하여, 각 선박의 이동경로 및 속도를 유지할 경우에 상기 제1 시점 이후 상기 제1 선박에 제1 기준 거리 미만으로 인접하게될 제2 선박을 선별하고, 선별된 제2 선박을 충돌위험선박으로 결정할 수 있다.According to an embodiment, the control unit analyzes the first and second ship information at a first time point, and when maintaining the movement path and speed of each ship, the control unit is less than a first reference distance to the first ship after the first time point. As a result, the second ship to be adjacent may be selected, and the selected second ship may be determined as a collision risk ship.
실시 예에 따라, 상기 제어부는 다수의 제2 선박들 중 충돌위험선박으로 선정된 제2 선박의 제1 증강현실 이미지만을 상기 항해 영상에 중첩하여 표시할 수 있다.According to an embodiment, the control unit may display only the first augmented reality image of a second ship selected as a collision risk ship among the plurality of second ships by superimposing on the navigation image.
실시 예에 따라, 상기 제어부는 다수의 제2 선박들 중 나머지를 식별기호로 구현하여 상기 증강현실 항해영상에 표시할 수 있다.According to an embodiment, the control unit may implement the rest of the plurality of second ships as identification symbols and display them on the augmented reality navigation image.
본 발명의 다른 실시 예에 따른 증강현실 이미지를 이용한 항해 보조장치는, 선박용 레이더로부터 레이더 데이터를 수신하는 통신부와, 상기 레이더 데이터를 기초로 사용자가 탑승한 제1 선박의 제1 선박정보, 상기 제1 선박과 인접한 위치에 배치된 제2 선박의 제2 선박정보를 판단하고, 카메라 모듈로부터 상기 제1 선박의 외부를 촬영한 항해 영상을 수신하여 증강현실 항해영상을 생성하는 제어부와, 상기 제1 선박정보 및 상기 제2 선박정보를 기초로 상기 제2 선박을 제1 증강현실 이미지로 생성하는 증강현실 영상 생성부와, 상기 증강현실 항해영상을 표시하는 영상 표시부를 포함하고, 상기 제1 선박정보는 상기 제1 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제2 선박정보는 상기 제2 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 제2 선박의 위치에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성할 수 있다.A navigation aid device using an augmented reality image according to another embodiment of the present invention includes a communication unit receiving radar data from a ship radar, and first ship information of a first ship on which a user is boarded, and the first ship based on the radar data. 1 A control unit that determines second ship information of a second ship disposed in a position adjacent to the ship, receives a voyage image photographed outside of the first ship from a camera module, and generates an augmented reality voyage image, and the first An augmented reality image generation unit for generating the second ship as a first augmented reality image based on ship information and the second ship information, and an image display unit for displaying the augmented reality navigation image, wherein the first ship information Includes the GPS coordinates, speed, and movement direction of the first ship, the second ship information includes the GPS coordinates, speed, and movement direction of the second ship, and the control unit analyzes the navigation image The augmented reality navigation image may be generated by superimposing the first augmented reality image on the position of the second ship in the navigation image.
본 발명의 실시 예에 따른 항해 보조장치에 따르면, 해양을 촬영한 영상의 화질이 좋지않아 대상을 식별하기 어려운 경우에도 선박자동식별시스템과 전자해도정보시스템로부터 제공된 데이터를 이용하여 증강현실 이미지를 생성하고, 증강현실 이미지를 인식시킴으로써 항해자의 안전 운항을 효과적으로 도울 수 있다.According to the navigation assistance device according to an embodiment of the present invention, even when it is difficult to identify a target due to poor quality of an image photographed at sea, an augmented reality image is generated using data provided from the automatic ship identification system and the electronic chart information system. And, by recognizing the augmented reality image, it can effectively help the safe navigation of the navigator.
도 1은 본 발명의 실시 예에 따른 항해 보조시스템의 도면이다.
도 2는 본 발명의 실시 예에 따른 항해 보조장치의 개략적인 블록도이다.
도 3a 내지 도 3c는 본 발명의 실시 예에 따른 항해 보조장치에서 표시되는 증강현실 항해영상을 나타낸 도면이다.
도 4는 본 발명의 다른 실시 예에 따른 항해 보조장치의 동작을 설명하기 위한 개념도이다.
도 5는 본 발명의 또 다른 실시 예에 따른 항해 보조장치의 동작을 설명하기 위한 개념도이다.
도 6는 본 발명의 또 다른 실시 예에 따른 항해 보조시스템의 도면이다.1 is a diagram of a navigation assistance system according to an embodiment of the present invention.
2 is a schematic block diagram of a navigation aid according to an embodiment of the present invention.
3A to 3C are views showing an augmented reality navigation image displayed by a navigation aid device according to an embodiment of the present invention.
4 is a conceptual diagram illustrating an operation of a navigation aid device according to another embodiment of the present invention.
5 is a conceptual diagram illustrating an operation of a navigation aid device according to another embodiment of the present invention.
6 is a view of a navigation assistance system according to another embodiment of the present invention.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다. 본 명세서에 기재된 실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in the present specification are exemplified only for the purpose of describing the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein. In the embodiments described herein, a'module' or'unit' means a functional part that performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software.
도 1은 본 발명의 실시 예에 따른 항해 보조시스템의 도면이고, 도 2는 본 발명의 실시 예에 따른 항해 보조장치의 개략적인 블록도이다.1 is a diagram of a navigational assistance system according to an embodiment of the present invention, and FIG. 2 is a schematic block diagram of a navigational assistance device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 항해 보조시스템(10)은 선박자동식별시스템(100), 전자해도정보시스템(200), 및 항해 보조장치(300)를 포함한다.Referring to FIG. 1, a
선박자동식별시스템(Automatic Identification System, AIS; 100)는 선박의 위치, 속도, 및 이동 방향을 주변에 자동적으로 알려주는 장치로서, AIS 데이터를 항해 보조장치(300)에 제공할 수 있다. AIS 데이터는 사용자가 탑승한 제1 선박(SH1)의 제1 선박정보와 제1 선박(SH1)과 인접한 위치에 배치된 제 선박(SH2)의 제2 선박정보를 포함한다. 제1 선박정보는 제1 선박(SH1)의 GPS 좌표, 속도, 및 이동방향을 포함하고, 제2 선박정보는 제2 선박(SH2)의 GPS 좌표, 속도, 및 이동방향을 포함한다. 제1 선박(SH1)과 인접한 위치에는 다수의 제2 선박(SH2)들이 위치할 수도 있으며, 이 경우 AIS 데이터에는 다수의 제2 선박(SH2)들의 제2 선박정보들이 모두 포함될 수 있다.The automatic identification system (AIS) 100 is a device that automatically informs the surroundings of the position, speed, and movement direction of the ship, and may provide AIS data to the
전자해도정보시스템(Electronic Chart Display and Information System, ECDIS; 200)은 선박의 실시간 위치정보를 표시하여, 항해사로 하여금 항로를 계획하고, 감시하며, 항해와 관련한 부가 정보를 활용할 수 있도록 항해를 지원하는 항해정보시스템이다. 전자해도정보시스템(200)은 해안선, 등심선, 수심, 항로표지(등대, 등부표), 위험물, 항로 등 제1 선박(SH1)의 항해와 관련된 모든 해도정보를 포함하는 ECDIS 데이터를 항해 보조장치(300)에 제공할 수 있다. 예컨대, ECDIS 데이터에는 제1 선박(SH1)을 둘러싼 지역의 해안선 정보, 해저 지형, 수심 등이 포함될 수 있다.The Electronic Chart Display and Information System (ECDIS; 200) displays real-time location information of ships and supports navigation so that navigators can plan and monitor routes and utilize additional information related to navigation. It is a navigational information system. The electronic
항해 보조장치(300)는 제1 선박(SH1)의 외부를 촬영한 항해영상을 기초로 증강현실 항해영상(IM)을 생성할 수 있는데, 먼저 항해 보조장치(300)는 선박자동식별시스템(100)으로부터 AIS 데이터를 수신하고, ECDIS 데이터를 수신하여 제2 선박(SH2) 및 주변환경(EN)을 증강현실 이미지로 구현할 수 있다. 그리고, 항해 보조장치(300)는 항해영상을 분석하여 항해영상 내 제2 선박(SH2)의 위치와 주변환경(EN)의 위치 각각에 증강현실 이미지를 중첩한 증강현실 항해영상(IM)을 생성할 수 있다. The
실시 예에 따라, 항해 보조장치(300)는 제2 선박(SH2)만을 증강현실 이미지로 구현하여 증강현실 항해영상을 생성할 수도 있다.According to an embodiment, the
항해 보조장치(300)에서 표시되는 증강현실 항해영상은 제1 선박(SH1)의 외부를 촬영한 실제 촬영 화면에 선박, 암초, 해안선, 위험물 등을 증강현실 이미지로 표시한 것이기 때문에, 폭우, 해무 등에 의해 항해영상 내 대상을 분간하기 어렵더라도 항해사는 증강현실 이미지를 통해 대상을 인식할 수 있다.Since the augmented reality navigation image displayed by the
실시 예에 따라, 항해 보조장치(300)는 PC(personal computer), 스마트 폰(smart phone), 태블릿 (tablet) PC, 모바일 인터넷 장치(mobile internet device(MID)), 인터넷 태블릿, IoT(internet of things) 장치, IoE(internet of everything) 장치, 데스크 탑 컴퓨터(desktop computer), 랩탑(laptop) 컴퓨터, 워크스테이션 컴퓨터, Wibro(Wireless Broadband Internet) 단말, 및 PDA (Personal Digital Assistant) 중 어느 하나일 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the
도 2를 참조하면, 본 발명의 실시 예에 따른 항해 보조장치(300)는 카메라 모듈(310), 통신부(320), 제어부(330), 증강현실 영상 생성부(340), 및 영상 표시부(350)를 포함할 수 있다.Referring to FIG. 2, the
카메라 모듈(310)은 제1 선박(SH1)의 외부를 촬영하여 항해영상을 생성할 수 있는데, 항해영상 촬영시 촬영방위를 항해영상에 포함시킬 수 있다. 예컨대, 카메라 모듈(310)이 정남쪽 방향을 바라보며 촬영할 경우, 촬영방위는 정남쪽으로 기록되어 항해영상에 포함될 수 있다.The
또한, 카메라 모듈(310)은 해수면과 이루는 각도를 판단하여 항해영상에 포함시킬 수 있다. 예컨대, 카메라 모듈(310)이 해수면과 30°로 기울여진 상태로 촬영될 경우, 항해영상에는 30°의 각도값이 포함될 수 있다.In addition, the
한편, 도 2에서는 카메라 모듈(310)이 항해 보조장치(300)의 내부 구성으로 도시되어 있지만, 카메라 모듈(310)은 항해 보조장치(300)와의 별도의 장치로 구현되어 항해 보조장치(300)에 항해영상을 제공하는 구성일 수도 있다. 예컨대, 카메라 모듈(310)은 제1 선박(SH1)에 설치된 카메라 장치일 수 있다.Meanwhile, in FIG. 2, the
통신부(320)는 선박자동식별시스템(100) 및 전자해도정보시스템(200)과 유선 또는 무선 통신을 통해 연결되어 AIS 데이터 및 ECDIS 데이터를 수신할 수 있다.The
실시 예에 따라, 통신부(320)는 WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), WiFi 등의 무선 인터넷 통신 뿐만 아니라, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 근거리 통신 기술을 사용할 수도 있어, 어느 하나의 통신 방식에 한정되지 아니한다. According to an embodiment, the
제어부(330)는 AIS 데이터를 분석하여, 제1 선박(SH1)의 GPS 좌표, 위치, 이동방향(침로), 속도, 선박의 길이, 폭, 형상, 선박이 물에 잠긴 깊이 등에 관한 제1 선박정보와, 제2 선박(SH2)의 GPS 좌표, 위치, 이동방향, 속도, 선박의 길이, 폭, 형상 등에 관한 제2 선박정보를 판단하고, ECDIS 데이터를 분석하여 해안선, 수심, 해저지형, 풍향, 풍속, 조류 속도, 파고 등에 관한 주변환경(EN)의 환경정보를 판단할 수 있다. The
제어부(330)는 카메라 모듈(310)로부터 제1 선박(SH1)의 외부를 촬영한 항해영상을 수신하고, 증강현실 영상 생성부(340)에서 생성된 증강현실 이미지를 항해 영상에 중첩하여 증강현실 항해영상(IM)을 생성할 수 있다.The
제어부(330)는 제1 선박정보를 기초로 제1 선박(SH1)의 GPS 좌표를 판단할 수 있는데, 카메라 모듈(310)로부터 수신된 촬영방위에 기초하여 항해영상에 GPS 좌표를 설정할 수 있다. The
예컨대, 제1 선박(SH1)의 GPS 좌표가 35.092539, 130.379864이고, 촬영방위가 정남쪽으로 판단된 경우, 항해영상의 GPS 좌표 중 경도는 35.092539보다 작은 값을 포함하게 된다.For example, when the GPS coordinates of the first ship SH1 are 35.092539 and 130.379864, and the photographing direction is determined to be south, the longitude of the GPS coordinates of the navigation image includes a value less than 35.092539.
또한, 제어부(330)는 항해영상을 복수의 영역들로 분할하고, 각 영역이 카메라 모듈 및 해수면과 이루는 각도에 대응하여 각 영역이 떨어진 거리를 개별적으로 판단할 수 있다. 그리고, 제어부(330)는 각 영역이 제1 선박(SH1)으로부터 떨어진 거리와 촬영 방위를 기초로 각 영역에 GPS 좌표를 설정할 수 있다. 여기서, 하나의 영역에 복수의 GPS 좌표들이 포함된 경우, GPS 좌표들 중 중간값의 GPS 좌표를 해당 영역의 대표 GPS 좌표로 설정할 수 있다.In addition, the
제어부(330)는 제2 선박정보를 기초로 분할된 영역들 중 제2 선박(SH2)의 GPS 좌표와 매칭되는 GPS 좌표를 갖는 제1 영역을 선별할 수 있고, 항해영상 내 제1 영역 상에 제2 선박(SH2)의 증강현실 이미지를 중첩하여 증강현실 항해영상을 생성할 수 있다.The
또한, 제어부(330)는 환경정보를 기초로 분할된 영역들 중 주변환경의 GPS 좌표와 매칭되는 GPS 좌표를 갖는 제2 영역을 선별할 수 있고, 항해영상 내 제2 영역 상에 주변환경의 증강현실 이미지를 중첩하여 증강현실 항해영상을 생성할 수 있다.In addition, the
실시 예에 따라, 제어부(330)는 제1 및 제2 선박정보들을 기초로 제1 선박(SH1)과 제2 선박(SH2)의 충돌가능성을 판단할 수 있는데, 충돌가능성 분석시점(이후 '제1 시점'이라 함)의 충돌 가능성뿐만 아니라, 제1 및 제2 선박들(SH1 및 SH2)의 움직임에 따른 향후 충돌가능성까지 판단할 수 있다.Depending on the embodiment, the
즉, 제어부(330)는 제1 시점 이후 제1 및 제2 선박들(SH1 및 SH2) 각각이 현재 속도와 이동경로를 유지할 경우, 제1 및 제2 선박들(SH1 및 SH2) 사이의 충돌 가능성을 예측할 수 있다. 여기서, 충돌 가능성이 있다함은 직접 충돌하는 경우뿐만 아니라, 제2 선박(SH2)이 제1 선박(SH1)에 제1 기준 거리 미만으로 인접하는 경우를 포함한다.That is, when the first and second ships SH1 and SH2 each maintain the current speed and movement path after the first point in time, the
제어부(330)는 제1 시점 이후 제1 선박(SH1)에 제1 기준 거리 미만으로 인접하게될 제2 선박(SH2)을 선별하여, 이를 충돌위험선박으로 결정할 수 있다.The
예컨대, 2020년 6월 15일 14시(제1 시점)에 10노트의 속도로 제1 방향을 따라 운행 중인 제1 선박(SH1)과, 5노트의 속도로 제2 방향을 따라 운행 중인 제2 선박(SH2) 사이의 충돌 가능성을 판단하는 경우, 제어부(330)는 제1 시점(SH1)에서의 충돌 가능성뿐만 아니라 제1 시점 이후의 충돌가능성도 판단할 수 있다. 즉, 제어부(330)는 제1 시점 이후 제1 선박(SH1)이 10노트의 속도로 제1 방향을 따라 운행하고, 제2 선박(SH2)이 5노트의 속도로 제2 방향을 따라 운행하는 것을 가정하여, 제1 시점 이후의 충돌 가능성을 판단할 수 있다.For example, on June 15, 2020, at 14:00 (the first time point), the first ship SH1 running along the first direction at a speed of 10 knots, and the second ship SH1 running along the second direction at a speed of 5 knots. When determining the possibility of a collision between the ships SH2, the
만약, 제1 기준 거리가 3M이고, 제어부(330)가 제1 시점 이후에 제1 선박(SH1)과 제2 선박(SH2)의 거리가 3M 이내로 가까워질 것으로 예측하는 경우, 제1 및 제2 선박들(SH1 및 SH2)이 서로 충돌할 것으로 예측하여, 상기 제2 선박(SH2)을 충돌위험선박으로 결정할 수 있다.If the first reference distance is 3M and the
제어부(330)는 기준 주기마다 제1 선박(SH1)과 제2 선박(SH2)의 충돌가능성을 판단할 수 있으나, 제1 선박(SH1)과 제2 선박(SH2)의 거리에 대응하여 기준 주기보다 더 짧은 주기로 충돌가능성을 판단할 수도 있다.The
실시 예에 따라, 제어부(330)는 제1 시점에서 다수의 제2 선박(SH2)들 중 제1 선박(SH1)과 가장 인접한 선박과, 제1 선박(SH1) 사이의 제1 거리가 제2 기준 거리 이상인 경우, 기준 주기마다 제1 및 제2 선박정보들을 분석하여 충돌위험선박을 결정할 수 있다.According to an embodiment, the
반면, 제어부(330)는 제1 시점에서 제1 선박(SH1)과 가장 인접한 선박과, 제1 선박(SH1) 사이의 제1 거리가 제2 기준 거리 미만인 경우, 제1 거리가 제2 기준 거리보다 작아질수록 기준 주기보다 더 짧은 주기로 제1 및 제2 선박정보들을 분석하여 충돌위험선박을 결정할 수 있다.On the other hand, when the first distance between the ship closest to the first ship SH1 and the first ship SH1 at a first time point is less than the second reference distance, the first distance is the second reference distance. As it becomes smaller, the collision risk ship may be determined by analyzing the first and second ship information at a shorter period than the reference period.
예컨대, 제2 기준 거리가 1km이고 기준 주기가 5초 경우, 제1 시점에서 가장 가까운 제2 선박(SH2)이 3km 떨어진 거리에 위치하는 경우, 제어부(330)는 5초마다 충돌가능성을 검토하여 충돌위험선박을 결정할 수 있다.For example, when the second reference distance is 1 km and the reference period is 5 seconds, when the second ship SH2 closest to the first time point is located at a distance of 3 km, the
반면, 제2 기준 거리가 1km이고 기준 주기가 5초 경우, 제1 시점에서 가장 가까운 제2 선박(SH2)이 800m 떨어진 거리에 위치하는 경우, 제어부(330)는 3초마다 충돌가능성을 검토하여 충돌위험선박을 결정할 수 있다.On the other hand, if the second reference distance is 1km and the reference period is 5 seconds, and the second ship SH2 closest to the first time point is located at a distance of 800m, the
제어부는 다수의 제2 선박(SH2)들 중 충돌위험선박으로 선정된 제2 선박의 증강현실 이미지만을 항해영상에 중첩표시하여 표시하고, 나머지 제2 선박들은 식별기호로 구현하여 증강현실 항해영상에 표시할 수 있다.The control unit displays only the augmented reality image of the second ship selected as a collision risk ship among the plurality of second ships (SH2) by superimposing and displaying the second ship on the voyage image, and the remaining second ships are implemented as identification symbols to display the augmented reality voyage image. Can be displayed.
증강현실 영상 생성부(340)는 제1 선박정보, 제2 선박정보, 및 환경 정보를 기초로 제2 선박(SH2) 및 주변환경(EN)을 증강현실 이미지로 구현한 증강현실 항해영상을 생성할 수 있다.The augmented reality
제1 및 제2 선박정보들에는 제1 및 제2 선박들(SH1 및 SH2) 각각의 종류, 길이, 폭에 대한 정보가 포함되어 있기 때문에, 증강현실 영상 생성부(340)는 제1 및 제2 선박정보들을 이용하여 제2 선박(SH2)을 증강현실 이미지로 구현할 수 있다. 또한, 환경 정보에는 해안선, 주변 지형에 대한 정보가 포함되어 있기 때문에, 증강현실 영상 생성부(340)는 환경 정보를 이용하여 주변 환경(EN)을 증강현실 이미지로 구현할 수 있다.Since the first and second ship information includes information on the type, length, and width of each of the first and second ships SH1 and SH2, the augmented
실시 예에 따라, 증강현실 영상 생성부(340)는 다수의 제2 선박(SH2)들 중 충돌위험선박만을 증강현실 이미지로 구현할 수 있다. 즉, 제1 선박(SH1)과 인접한 제2 선박(SH2)들이 다수 존재하는 경우, 증강현실 영상 생성부(340)는 모든 제2 선박(SH2)들을 증강현실 이미지로 구현하는 것이 아니라, 제1 선박(SH1)과 충돌 가능성이 존재하는 충돌위험선박만을 증강현실 이미지로 구현할 수 있다.According to an embodiment, the augmented
그리고, 증강현실 영상 생성부(340)는 다수의 제2 선박(SH2)들 중 충돌위험선박이 아닌 나머지 선박을 식별기호로 구현할 수 있으나, 사용자가 식별기호로 표기된 제2 선박(SH2)의 표시를 원하는 경우, 증강현실 영상 생성부(340)는 사용자의 제어에 대응하여 해당 제2 선박(SH2)을 증강현실 이미지로 구현할 수 있다.In addition, the augmented reality
영상 표시부(350)는 항해자에게 증강현실 항해영상(IM)을 표시할 수 있는데, 영상 표시부(350)는 유기전계발광 표시 패널(Organic Light Emitting Display Panel), 액정 표시 패널(Liquid Crystal Display Panel), 플라즈마 표시 패널(Plasma Display Panel) 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다.The
또한, 영상 표시부(350)는 터치 스크린을 포함할 수 있으며, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수도 있다.In addition, the
도 3a 내지 도 3c는 본 발명의 실시 예에 따른 항해 보조장치에서 표시되는 증강현실 항해영상을 나타낸 도면이다.3A to 3C are views showing an augmented reality navigation image displayed by a navigation aid device according to an embodiment of the present invention.
도 3a를 참조하면, 항해 보조장치(300)의 사용자가 탑승한 제1 선박(SH1)과, 제1 선박(SH1)의 인접한 위치에서 항해중인 제2 선박들(SH2a 및 SH2b)을 포함하는 항해영상(IMa)이 도시되어 있다. Referring to FIG. 3A, sailing including a first ship SH1 on which a user of the
여기서, 항해영상(IMa)은 항해 보조장치(300)에 내장된 카메라 모듈(310)에 의해 촬영된 영상을 의미하지만, 이에 한정되지 않으며, 제1 선박(SH1)에 고정되어 설치된 카메라 장치에 의해 촬영된 영상일 수도 있다. 또한, 도 3a에서는 제1 선박(SH1)이 항해영상(IMa) 내에 포함된 것으로 표시되었으나, 이는 항해 보조장치(300)의 촬영방향에 따라 항해영상(IMa) 내에 포함되거나 포함되지 않을 수 있다.Here, the navigation image (IMa) refers to an image captured by the
항해 보조장치(300)는 촬영시 촬영방위를 판단하여 항해영상(IMa)의 방위를 결정하고, 항해 보조장치(300)의 카메라 모듈이 해수면과 이루는 각도를 판단할 수 있다. 예컨대, 항해 보조장치(300)는 카메라 모듈(310)의 렌즈면과 수직을 이루는 선이 해수면과 이루는 각도를 판단할 수 있다.The
도 3b를 참조하면, 항해 보조장치(300)가 야간운행, 해무가 가득낀 상태, 폭우 등에 의해 가시거리가 매우 짧은 상황에서 제1 선박(SH1)의 외부를 촬영한 항해영상(IMb)이 도시되어 있다. Referring to FIG. 3B, a navigation image IMb photographing the outside of the first ship SH1 in a situation where the visibility distance is very short due to night operation, a state full of sea traffic, heavy rain, etc. of the
가시거리가 긴 맑은 날씨에서는 항해 보조장치(300)가 선명한 화질로 외부 환경에 대한 항해영상을 촬영할 수 있지만, 야간운행, 해무가 가득낀 상태, 폭우 등에 의해 가시거리가 매우 짧은 상황에서는 항해 보조장치(300)가 외부 환경을 제대로 촬영할 수 없다. 따라서, 실제로 제1 선박(SH1)의 주변에 제2 선박(SH2)이 위치하고 있고, 암초 등이 존재하더라도, 항해영상(IMb)에는 제2 선박(SH2)과 주변환경(EN)이 포함되지 않을 수 있다.In clear weather with a long line of sight, the
도 3c를 참조하면, 항해 보조장치(300)는 항해영상에 증강현실 이미지를 중첩하여 증강현실 항해영상(IMc)를 표시할 수 있다. 증강현실 항해영상(IMc)에는 제2 선박들(SH2a 및 sh2b)이 각 선박 위치에 대응하여 중첩하여 표시될 수 있다. Referring to FIG. 3C, the
따라서, 촬영된 항해영상의 화질이 좋지 않아, 제2 선박들(SH2a 및 sh2b)과 주변환경(EN)이 표시되지 않더라도, 항해 보조장치(300)는 증가연실 이미지를 항해영상에 중첩하여 표시함으로써 사용자에게 제2 선박들(SH2a 및 sh2b)과 주변환경(EN)의 위치를 인식시킬 수 있다.Therefore, even if the image quality of the captured sailing image is not good, and the second ships SH2a and sh2b and the surrounding environment EN are not displayed, the
도 4는 본 발명의 다른 실시 예에 따른 항해 보조장치의 동작을 설명하기 위한 개념도이다.4 is a conceptual diagram illustrating an operation of a navigation aid device according to another embodiment of the present invention.
도 4를 참조하면, 본 발명의 다른 실시 예에 따른 드론(DR)은 카메라 모듈(310')을 구비한 상태로 제1 선박(SH1) 상공을 비행할 수 있다. 카메라 모듈(310')은 제1 선박(SH1)의 상공에서 제2 선박(SH2), 주변환경(EN), 등 제1 선박(SH1)의 외부를 촬영하여 항해영상을 생성할 수 있다.Referring to FIG. 4, the drone DR according to another embodiment of the present invention may fly over the first ship SH1 with the
드론(DR)은 제1 선박(SH1)에 위치한 항해 보조장치(300)와 무선통신을 수행하여 카메라 모듈(310')에 의해 촬영된 항해영상을 전송할 수 있으나, 이에 한정되지 않으며 카메라 모듈(310')이 항해 보조장치(300)와 무선통신을 수행하여 직접 촬영한 항해영상을 전송할 수도 있다.The drone DR may perform wireless communication with the
드론(DR)은 무선통신을 통해 항해 보조장치(300)로부터 수신된 제어신호에 대응하여 비행동작을 수행할 수 있다. 즉, 드론(DR)은 상기 제어신호에 대응하여 비행고도, 비행속력, 비행방향, 수평회전 움직임 등을 제어할 수 있으며, 드론(DR)에 구비된 카메라 모듈(310')은 드론(DR)의 움직임에 대응하여 촬영방향 및 촬영범위가 변경될 수 있다.The drone DR may perform a flight operation in response to a control signal received from the
실시 예에 따라, 드론(DR)은 별도의 GPS 모듈을 포함하고 있으며, 실시간으로 드론(DR)의 GPS 좌표를 측정하여 항해 보조장치(300)에 제공할 수 있고, 항해 보조장치(300)는 드론(DR)의 GPS 좌표와 제1 선박(SH1)의 GPS 좌표를 고려하여, 제1 선박(SH1)의 GPS 좌표를 기준으로 항해영상에 GPS 좌표를 설정할 수 있다.Depending on the embodiment, the drone DR includes a separate GPS module, and the GPS coordinates of the drone DR can be measured in real time and provided to the
도 5는 본 발명의 또 다른 실시 예에 따른 항해 보조장치의 동작을 설명하기 위한 개념도이다.5 is a conceptual diagram illustrating an operation of a navigation aid device according to another embodiment of the present invention.
도 5를 참조하면, 항해 보조장치(300)는 항해영상을 촬영하면서 항해영상 내 각 영역이 제1 선박(SH1)으로부터 떨어진 거리 및 방위를 판단할 수 있다.Referring to FIG. 5, while photographing a navigation image, the
만약, 항해 보조장치(300)의 카메라 모듈(310)이 제1 지점(PO1)과 제2 지점(PO2) 사이의 해상을 촬영한 경우, 항해영상(IMb)의 최상단은 제1 지점(PO1)에 대한 영상을 포함하고 있고, 최하단은 제2 지점(PO2)에 대한 영상을 포함할 수 있다. If the
항해 보조장치(300)는 별도로 자이로 센서, 가속도 센서 등을 포함할 수 있어, 카메라 모듈(310)의 렌즈면에 수직한 선이 해수면과 만나는 제3 지점(POX)에서의 각도(θ)를 계산할 수 있다. 또한, 항해 보조장치(300)는 제1 선박정보를 기초로 해수면으로부터 높이(l)를 계산할 수 있기 때문에, 하기의 수학식1에 의해 제3 지점(POX)까지 거리(x)를 계산할 수 있다.The
그리고, 항해 보조장치(300)는 제3 지점(POX)까지 거리(x)를 기초로 나머지 지점들까지의 거리를 계산할 수 있다. 이때, 항해 보조장치(300)는 카메라 모듈(300)의 광각에 대응하여 제1 및 제2 지점들(PO1 및 PO2)까지의 거리를 계산할 수 있다. In addition, the
만약, 해양영상(IMb)이 복수의 영역들로 구분된 경우, 항해 보조장치(300)는 각 영역들의 중심거리를 영상 비율에 대응하여 계산하고, 각 영역의 대표 거리를 설정할 수 있다.If the marine image IMb is divided into a plurality of regions, the
도 6은 본 발명의 또 다른 실시 예에 따른 항해 보조시스템의 도면이다.6 is a view of a navigation assistance system according to another embodiment of the present invention.
도 6을 참조하면, 본 발명의 또 다른 실시 예에 따른 항해 보조시스템(10')은 선박자동식별시스템(100), 전자해도정보시스템(200), 선박용 레이더(400), 및 항해 보조장치(300)를 포함한다.6, the navigation assistance system 10' according to another embodiment of the present invention includes an automatic
선박자동식별시스템(100)는 AIS 데이터를 항해 보조장치(300)에 제공할 수 있다. AIS 데이터는 사용자가 탑승한 제1 선박(SH1)의 제1 선박정보와 제1 선박(SH1)과 인접한 위치에 배치된 제 선박(SH2)의 제2 선박정보를 포함한다. 제1 선박정보는 제1 선박(SH1)의 속도와 이동방향을 포함하고, 제2 선박정보는 제2 선박(SH2)의 속도와 이동방향을 포함한다. The ship
전자해도정보시스템(200)은 해안선, 등심선, 수심, 항로표지(등대, 등부표), 위험물, 항로 등 제1 선박(SH1)의 항해와 관련된 모든 해도정보를 포함하는 ECDIS 데이터를 항해 보조장치(300)에 제공할 수 있다. 예컨대, ECDIS 데이터에는 제1 선박(SH1)을 둘러싼 지역의 해안선 정보, 해저 지형, 수심 등이 포함될 수 있다.The electronic
선박용 레이더(400)는 레이더 데이터를 생성하여 항해 보조장치(300)에 제공할 수 있는데, 레이더 데이터에는 사용자가 탑승한 제1 선박(SH1)의 제1 선박정보와 제1 선박(SH1)과 인접한 위치에 배치된 제 선박(SH2)의 제2 선박정보를 포함할 수 있다. 제1 선박정보는 제1 선박(SH1)의 속도와 이동방향을 포함하고, 제2 선박정보는 제2 선박(SH2)의 속도와 이동방향을 포함한다The
항해 보조장치(300)는 AIS 데이터와 레이더 데이터를 이용하여 제2 선박(SH2)을 증강현실 이미지로 구현하고, 및 ECDIS 데이터를 이용하여 주변환경(EN)을 증강현실 이미지로 구현한 증강현실 항해영상(IM)을 생성할 수 있다.The
이상에서 본 발명의 실시 예에 관하여 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 특허청구범위를 벗어남이 없이 다양하게 변형 실시할 수 있을 것으로 이해된다.Although the embodiments of the present invention have been described above, it is understood that those of ordinary skill in the art to which the present invention pertains can perform various modifications without departing from the scope of the claims of the present invention.
100: 선박자동식별시스템
200: 전자해도정보시스템
300: 사용자 단말기
400: 선박용 레이더100: ship automatic identification system
200: electronic chart information system
300: user terminal
400: marine radar
Claims (9)
상기 AIS 데이터를 기초로 사용자가 탑승한 제1 선박의 제1 선박정보, 상기 제1 선박과 인접한 위치에 배치된 제2 선박의 제2 선박정보를 판단하고, 카메라 모듈로부터 상기 제1 선박의 외부를 촬영한 항해 영상을 수신하여 증강현실 항해영상을 생성하는 제어부;
상기 제1 선박정보 및 상기 제2 선박정보를 기초로 상기 제2 선박을 제1 증강현실 이미지로 생성하는 증강현실 영상 생성부; 및
상기 증강현실 항해영상을 표시하는 영상 표시부를 포함하고,
상기 제1 선박정보는 상기 제1 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제2 선박정보는 상기 제2 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고,
상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 제2 선박의 위치에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성하고,
상기 제어부는 상기 카메라 모듈로부터 촬영방위를 수신하여 상기 항해영상의 방위를 판단하고, 상기 제1 선박정보를 기초로 상기 제1 선박의 GPS 좌표를 판단하여, 상기 제1 선박의 GPS 좌표를 기준으로 상기 항해영상에 GPS 좌표를 설정하고,
상기 제어부는 상기 항해영상을 복수의 영역들로 분할하고, 각 영역이 상기 카메라 모듈 및 해수면과 이루는 각도에 대응하여 각 영역의 떨어진 거리를 판단하고, 판단된 거리 및 상기 방위에 대응하여 상기 각 영역에 GPS 좌표를 설정하는 증강현실 이미지를 이용한 항해 보조장치.A communication unit for receiving AIS data from an automatic identification system;
Based on the AIS data, the first ship information of the first ship on which the user is boarded, the second ship information of the second ship disposed in a position adjacent to the first ship is determined, and the outside of the first ship from the camera module A control unit for receiving a navigation image photographed and generating an augmented reality navigation image;
An augmented reality image generator for generating the second ship as a first augmented reality image based on the first ship information and the second ship information; And
Including an image display for displaying the augmented reality navigation image,
The first ship information includes GPS coordinates, speed, and movement direction of the first ship, and the second ship information includes GPS coordinates, speed, and movement direction of the second ship,
The control unit analyzes the navigation image and superimposes the first augmented reality image on the position of the second ship in the navigation image to generate the augmented reality navigation image,
The control unit receives the photographing orientation from the camera module, determines the orientation of the navigation image, determines the GPS coordinates of the first ship based on the first ship information, and determines the GPS coordinates of the first ship based on the GPS coordinates of the first ship. Set GPS coordinates in the navigation image,
The control unit divides the navigation image into a plurality of areas, determines a distance of each area corresponding to an angle formed by each area with the camera module and sea level, and determines the distance of each area in response to the determined distance and the direction. Navigation aids using augmented reality images to set GPS coordinates in.
상기 제어부는 상기 영역들 중 상기 제2 선박의 GPS 좌표와 매칭되는 GPS 좌표를 갖는 제1 영역을 선별하고, 상기 제1 영역 상에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성하는 증강현실 이미지를 이용한 항해 보조장치.The method of claim 1,
The control unit selects a first area having GPS coordinates matching the GPS coordinates of the second ship among the areas, and generates the augmented reality navigation image by superimposing the first augmented reality image on the first area. Navigation aids using an augmented reality image.
상기 통신부는 전자해도정보시스템(Electronic Chart Display and Information System)로부터 ECDIS 데이터를 수신하고,
상기 제어부는 상기 ECDIS 데이터를 기초로 주변환경의 환경정보를 판단하며,
상기 증강현실 영상 생성부는 상기 환경정보를 기초로 상기 주변환경을 제2 증강현실 이미지로 생성하고,
상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 주변환경의 위치에 상기 제2 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성하는 증강현실 이미지를 이용한 항해 보조장치.The method of claim 1,
The communication unit receives ECDIS data from an Electronic Chart Display and Information System,
The control unit determines environmental information of the surrounding environment based on the ECDIS data,
The augmented reality image generation unit generates the surrounding environment as a second augmented reality image based on the environment information,
The control unit analyzes the navigation image and superimposes the second augmented reality image on the location of the surrounding environment in the navigation image to generate the augmented reality navigation image.
상기 제어부는 제1 시점에서 상기 제1 및 제2 선박정보들을 분석하여, 각 선박의 이동경로 및 속도를 유지할 경우에 상기 제1 시점 이후 상기 제1 선박에 제1 기준 거리 미만으로 인접하게될 제2 선박을 선별하고, 선별된 제2 선박을 충돌위험선박으로 결정하는 증강현실 이미지를 이용한 항해 보조장치.The method of claim 1,
The control unit analyzes the first and second ship information at a first time point, and when maintaining the movement path and speed of each ship, the control unit is configured to be adjacent to the first ship by less than a first reference distance after the first time point. 2 Navigation aids using an augmented reality image that selects a ship and determines the selected second ship as a collision risk ship.
상기 제어부는 다수의 제2 선박들 중 충돌위험선박으로 선정된 제2 선박의 제1 증강현실 이미지만을 상기 항해 영상에 중첩하여 표시하는 증강현실 이미지를 이용한 항해 보조장치.The method of claim 6,
The control unit is a navigation aid using an augmented reality image that displays only the first augmented reality image of a second ship selected as a collision risk ship among the plurality of second ships by superimposing on the sailing image.
상기 제어부는 다수의 제2 선박들 중 나머지를 식별기호로 구현하여 상기 증강현실 항해영상에 표시하는 증강현실 이미지를 이용한 항해 보조장치.The method of claim 7,
The control unit is a navigation assistance device using an augmented reality image that is displayed on the augmented reality navigation image by implementing the rest of the plurality of second ships as identification symbols.
상기 레이더 데이터를 기초로 사용자가 탑승한 제1 선박의 제1 선박정보, 상기 제1 선박과 인접한 위치에 배치된 제2 선박의 제2 선박정보를 판단하고, 카메라 모듈로부터 상기 제1 선박의 외부를 촬영한 항해 영상을 수신하여 증강현실 항해영상을 생성하는 제어부;
상기 제1 선박정보 및 상기 제2 선박정보를 기초로 상기 제2 선박을 제1 증강현실 이미지로 생성하는 증강현실 영상 생성부; 및
상기 증강현실 항해영상을 표시하는 영상 표시부를 포함하고,
상기 제1 선박정보는 상기 제1 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제2 선박정보는 상기 제2 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고,
상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 제2 선박의 위치에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성하고,
상기 제어부는 상기 카메라 모듈로부터 촬영방위를 수신하여 상기 항해영상의 방위를 판단하고, 상기 제1 선박정보를 기초로 상기 제1 선박의 GPS 좌표를 판단하여, 상기 제1 선박의 GPS 좌표를 기준으로 상기 항해영상에 GPS 좌표를 설정하고,
상기 제어부는 상기 항해영상을 복수의 영역들로 분할하고, 각 영역이 상기 카메라 모듈 및 해수면과 이루는 각도에 대응하여 각 영역의 떨어진 거리를 판단하고, 판단된 거리 및 상기 방위에 대응하여 상기 각 영역에 GPS 좌표를 설정하는 증강현실 이미지를 이용한 항해 보조장치.A communication unit for receiving radar data from a ship radar;
Based on the radar data, the first ship information of the first ship on which the user is boarded, the second ship information of the second ship disposed in a position adjacent to the first ship is determined, and the outside of the first ship from the camera module A control unit for receiving a navigation image photographed and generating an augmented reality navigation image;
An augmented reality image generator for generating the second ship as a first augmented reality image based on the first ship information and the second ship information; And
Including an image display for displaying the augmented reality navigation image,
The first ship information includes GPS coordinates, speed, and movement direction of the first ship, and the second ship information includes GPS coordinates, speed, and movement direction of the second ship,
The control unit analyzes the navigation image and superimposes the first augmented reality image on the position of the second ship in the navigation image to generate the augmented reality navigation image,
The control unit receives the photographing orientation from the camera module, determines the orientation of the navigation image, determines the GPS coordinates of the first ship based on the first ship information, and determines the GPS coordinates of the first ship based on the GPS coordinates of the first ship. Set GPS coordinates in the navigation image,
The control unit divides the navigation image into a plurality of areas, determines a distance of each area corresponding to an angle formed by each area with the camera module and sea level, and determines the distance of each area in response to the determined distance and the direction. Navigation aids using augmented reality images to set GPS coordinates in.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200083338A KR102249156B1 (en) | 2020-07-07 | 2020-07-07 | Sailing assistance device using augmented reality image |
EP21829226.6A EP4173942A1 (en) | 2020-06-24 | 2021-06-08 | Navigation assistance device using augmented reality and 3d images |
PCT/KR2021/007157 WO2021261810A1 (en) | 2020-06-24 | 2021-06-08 | Navigation assistance device using augmented reality and 3d images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200083338A KR102249156B1 (en) | 2020-07-07 | 2020-07-07 | Sailing assistance device using augmented reality image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102249156B1 true KR102249156B1 (en) | 2021-05-07 |
Family
ID=75916847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200083338A KR102249156B1 (en) | 2020-06-24 | 2020-07-07 | Sailing assistance device using augmented reality image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102249156B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2795847C1 (en) * | 2021-12-13 | 2023-05-12 | Общество с ограниченной ответственностью "РобБотКрафт" | Method and system for detecting objects in water for small boats |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101539061B1 (en) * | 2014-06-11 | 2015-07-23 | 한국해양과학기술원 | Measuring devices for back light of beacon using camera and management method of the same |
KR101549513B1 (en) * | 2015-04-08 | 2015-09-03 | 이병걸 | System and Method for Preventing Collision of Vessel and Recording using Augmented Reality |
KR20200050808A (en) * | 2018-11-02 | 2020-05-12 | 대우조선해양 주식회사 | System for predicting degree of collision risk and guiding safe voyage route through fusing navigation sensor inside ship and image information |
-
2020
- 2020-07-07 KR KR1020200083338A patent/KR102249156B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101539061B1 (en) * | 2014-06-11 | 2015-07-23 | 한국해양과학기술원 | Measuring devices for back light of beacon using camera and management method of the same |
KR101549513B1 (en) * | 2015-04-08 | 2015-09-03 | 이병걸 | System and Method for Preventing Collision of Vessel and Recording using Augmented Reality |
KR20200050808A (en) * | 2018-11-02 | 2020-05-12 | 대우조선해양 주식회사 | System for predicting degree of collision risk and guiding safe voyage route through fusing navigation sensor inside ship and image information |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2795847C1 (en) * | 2021-12-13 | 2023-05-12 | Общество с ограниченной ответственностью "РобБотКрафт" | Method and system for detecting objects in water for small boats |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200278433A1 (en) | Real-time monitoring of surroundings of marine vessel | |
US11328155B2 (en) | Augmented reality labels systems and methods | |
US10942027B2 (en) | Video sensor fusion and model based virtual and augmented reality systems and methods | |
US9401049B2 (en) | Augmented reality system using moving ceiling transparent display for ship and method for enabling same | |
KR20200027871A (en) | Path planning method using obstacle map | |
US20210206459A1 (en) | Video sensor fusion and model based virtual and augmented reality systems and methods | |
US11892298B2 (en) | Navigational danger identification and feedback systems and methods | |
US20230038494A1 (en) | Administrative server in ship navigation assistance system, ship navigation assistance method, and ship navigation assistance program | |
US20220172464A1 (en) | Water non-water segmentation systems and methods | |
US20220392211A1 (en) | Water non-water segmentation systems and methods | |
CN109911140A (en) | A kind of water-area navigation information enhancement device, system and method | |
US20220268580A1 (en) | Tidal current information display apparatus and method | |
JP2011225208A (en) | Image display system, image display method and program | |
KR102283968B1 (en) | System and method for generating and sharing visibility observation information based on image learning | |
KR102249156B1 (en) | Sailing assistance device using augmented reality image | |
KR102464207B1 (en) | Ship safety management system using augmented reality | |
WO2023064384A1 (en) | Context-dependent generation of navigational chart comprising hazards | |
CN113450598B (en) | Ship auxiliary navigation method and system based on infrared video | |
CN115311900A (en) | Inland waterway ship auxiliary target identification system and method based on visual enhancement | |
CN111241948B (en) | Method and system for all-weather ship identification | |
KR20230123504A (en) | Navigational Beacon Identification Device, Autonomous Navigation System, Navigational Beacon Identification Method, and Program | |
EP4173942A1 (en) | Navigation assistance device using augmented reality and 3d images | |
KR102428886B1 (en) | support system for vessel operation and ship having the same | |
CN209641094U (en) | Water-area navigation information enhancement glasses | |
EP4047313A1 (en) | Tidal current information display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |