KR102249156B1 - Sailing assistance device using augmented reality image - Google Patents

Sailing assistance device using augmented reality image Download PDF

Info

Publication number
KR102249156B1
KR102249156B1 KR1020200083338A KR20200083338A KR102249156B1 KR 102249156 B1 KR102249156 B1 KR 102249156B1 KR 1020200083338 A KR1020200083338 A KR 1020200083338A KR 20200083338 A KR20200083338 A KR 20200083338A KR 102249156 B1 KR102249156 B1 KR 102249156B1
Authority
KR
South Korea
Prior art keywords
ship
augmented reality
image
navigation
gps coordinates
Prior art date
Application number
KR1020200083338A
Other languages
Korean (ko)
Inventor
김지수
Original Assignee
(주)맵시
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)맵시 filed Critical (주)맵시
Priority to KR1020200083338A priority Critical patent/KR102249156B1/en
Application granted granted Critical
Publication of KR102249156B1 publication Critical patent/KR102249156B1/en
Priority to EP21829226.6A priority patent/EP4173942A1/en
Priority to PCT/KR2021/007157 priority patent/WO2021261810A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B49/00Arrangements of nautical instruments or navigational aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B43/00Improving safety of vessels, e.g. damage control, not otherwise provided for
    • B63B43/18Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
    • B63B43/20Feelers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B2213/00Navigational aids and use thereof, not otherwise provided for in this class
    • B63B2213/02Navigational aids and use thereof, not otherwise provided for in this class using satellite radio beacon positioning systems, e.g. the Global Positioning System GPS

Abstract

The present invention relates to a sailing assistance device using an augmented reality image, which comprises: a communication unit which receives automatic identification system (AIS) data from an AIS; a control unit which determines a first ship information of a first ship with a user riding and a second ship information of a second ship placed near the first ship based on the AIS data, and receives a sailing video made by photographing the outside of the first ship from a camera module, thereby generating an augmented reality sailing video; an augmented reality video generation unit which generates a first augmented reality image on the second ship based on the first ship information and the second ship information; and a video display unit which displays the augmented reality sailing video. The first ship information includes the GPS coordinates, speed, and moving direction of the first ship. The second ship information includes the GPS coordinates, speed, and moving direction of the second ship. The control unit analyzes the sailing video, and overlaps the first augmented image on the position of the second ship in the sailing video, thereby generating the augmented reality sailing video. The present invention aims to provide a sailing assistance device using an augmented reality image, which is able to effectively help a sailor sail in a safe manner.

Description

증강현실 이미지를 이용한 항해 보조장치{SAILING ASSISTANCE DEVICE USING AUGMENTED REALITY IMAGE}Navigation assistance device using augmented reality image {SAILING ASSISTANCE DEVICE USING AUGMENTED REALITY IMAGE}

본 발명은 증강현실 이미지를 이용한 항해 보조장치에 관한 것이다.The present invention relates to a navigation aid device using an augmented reality image.

국내·외 해운학술논문에 따르면 해양사고의 원인 중 운항과실이 전체의 82.8%를 차지하며, 그 중 충돌사고의 경우 96.9%가 경계 소홀이나 조선 부적절 등의 인적 운항과실이 차지하는 것으로 나타난다. 특히 JNPR 논문에 따르면 2D 화면에 표시된 첨단항해장비들의 수많은 정보가 항해사의 의사결정에 어려움을 초래하고 있는 것으로 판단된다. 예컨대, 싱가포르 해협에서는 한 번에 수백 척의 배와 육상물표가 탐지되며, 항해사는 2D 레이더 화면을 확인한 후 전방주시를 하기 때문에 선박과 주변환경을 비교분석하는데 시간이 많이 소요된다.According to domestic and foreign shipping academic papers, operation errors accounted for 82.8% of the total causes of maritime accidents, and 96.9% of them were due to negligence of vigilance or inadequacy of shipbuilding. In particular, according to the JNPR paper, it is judged that a lot of information on advanced navigation equipment displayed on the 2D screen is causing difficulty in decision-making by navigators. For example, in the Singapore Strait, hundreds of ships and land targets are detected at a time, and since the navigator checks the 2D radar screen and then looks forward, it takes a lot of time to compare and analyze the ship and the surrounding environment.

선박은 자동차나 항공기와는 달리, 1~2km로 정선(停船)거리가 길어 직관적이고 빠른 의사결정이 매우 중요하다. 한 척당 수백억을 호가하는 선박의 경우, 한 번의 사고가 조단위를 넘기는 배상문제로 직결되는데, 이를 방지하고자 선박회사에서는 수십억 원의 항해장비들을 사용하고 있다. 항해 장비에서 추출된 모든 데이터들은 VDR(선박데이터기록장치)와 AIS(선박식별장치)로 모이는데, 여기에 유입되는 데이터는 2D 데이터라는 한계가 있어, 다수의 선박이 밀집된 좁은 해협과 같이 빠른 판단이 필요한 상황에도 항해사는 데이터를 분석하는데 많은 시간을 소요하고 있다.Unlike automobiles and aircraft, ships have a long pick-up distance of 1 to 2 km, so intuitive and quick decision-making is very important. In the case of ships that cost tens of billions of dollars per ship, one accident is directly connected to the problem of compensation exceeding trillions. To prevent this, shipping companies are using billions of won of navigational equipment. All the data extracted from the navigation equipment are collected in VDR (Ship Data Recorder) and AIS (Ship Identification Device), and the data that flows into it has a limitation of 2D data, so it makes quick judgments like a narrow strait where a large number of ships are concentrated. Even in this necessary situation, the navigator spends a lot of time analyzing the data.

또한, 야간 운행을 하거나 폭우, 해무 등 악조건의 기상 상태에서는 선박을 운행하는 항해사의 가시거리가 급격하게 작아지지만, 이러한 경우에도 항해사는 2D 데이터만을 분석하여 운행을 해야하는 어려움이 있다.In addition, in bad weather conditions such as nighttime operation, heavy rain, sea, etc., the visibility distance of a sailor who operates a ship decreases rapidly, but even in this case, there is a difficulty in that the sailor must analyze only 2D data to operate.

본 발명이 이루고자하는 기술적인 과제는, 운행 중인 선박과 인접한 다른 선박들 및 주변환경을 증강현실 이미지로 표시하는 항해 보조장치를 제공하는데 있다.A technical problem to be achieved by the present invention is to provide a navigation aid device that displays an augmented reality image of other ships and surrounding environments adjacent to a running ship.

본 발명의 실시 예에 따른 증강현실 이미지를 이용한 항해 보조장치는, 선박자동식별시스템(Automatic Identification System)로부터 AIS 데이터를 수신하는 통신부와, 상기 AIS 데이터를 기초로 사용자가 탑승한 제1 선박의 제1 선박정보, 상기 제1 선박과 인접한 위치에 배치된 제2 선박의 제2 선박정보를 판단하고, 카메라 모듈로부터 상기 제1 선박의 외부를 촬영한 항해 영상을 수신하여 증강현실 항해영상을 생성하는 제어부와, 상기 제1 선박정보 및 상기 제2 선박정보를 기초로 상기 제2 선박을 제1 증강현실 이미지로 생성하는 증강현실 영상 생성부와, 상기 증강현실 항해영상을 표시하는 영상 표시부를 포함하고, 상기 제1 선박정보는 상기 제1 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제2 선박정보는 상기 제2 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 제2 선박의 위치에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성할 수 있다.A navigation aid device using an augmented reality image according to an embodiment of the present invention includes a communication unit that receives AIS data from an automatic identification system, and a first ship on which a user is boarded based on the AIS data. 1 It determines the ship information, the second ship information of the second ship disposed in a position adjacent to the first ship, and generates an augmented reality voyage image by receiving a voyage image photographing the outside of the first ship from a camera module. A control unit, an augmented reality image generation unit that generates the second ship as a first augmented reality image based on the first ship information and the second ship information, and an image display unit that displays the augmented reality navigation image, , The first ship information includes GPS coordinates, speed, and moving direction of the first ship, and the second ship information includes GPS coordinates, speed, and moving direction of the second ship, and the control unit The augmented reality navigation image may be generated by analyzing the navigation image and superimposing the first augmented reality image on the position of the second ship in the navigation image.

실시 예에 따라, 상기 제어부는 상기 카메라 모듈로부터 촬영방위를 수신하여 상기 항해영상의 방위를 판단하고, 상기 제1 선박정보를 기초로 상기 제1 선박의 GPS 좌표를 판단하여, 상기 제1 선박의 GPS 좌표를 기준으로 상기 항해영상에 GPS 좌표를 설정할 수 있다.According to an embodiment, the controller receives the photographing orientation from the camera module to determine the orientation of the navigation image, determines the GPS coordinates of the first ship based on the first ship information, and GPS coordinates may be set in the navigation image based on GPS coordinates.

실시 예에 따라, 상기 제어부는 상기 항해영상을 복수의 영역들로 분할하고, 각 영역이 상기 카메라 모듈 및 해수면과 이루는 각도에 대응하여 각 영역의 떨어진 거리를 판단하고, 판단된 거리 및 상기 방위에 대응하여 상기 각 영역에 GPS 좌표를 설정할 수 있다.According to an embodiment, the control unit divides the navigation image into a plurality of areas, determines a distance between each area corresponding to an angle formed by the camera module and the sea level, and determines the distance between the areas and the determined distance and the direction. Correspondingly, GPS coordinates may be set in each of the areas.

실시 예에 따라, 상기 제어부는 상기 영역들 중 상기 제2 선박의 GPS 좌표와 매칭되는 GPS 좌표를 갖는 제1 영역을 선별하고, 상기 제1 영역 상에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성할 수 있다.According to an embodiment, the control unit selects a first area having GPS coordinates matching the GPS coordinates of the second ship among the areas, and superimposes the first augmented reality image on the first area to perform the augmentation. Real voyage images can be created.

실시 예에 따라, 상기 통신부는 전자해도정보시스템(Electronic Chart Display and Information System)로부터 ECDIS 데이터를 수신하고, 상기 제어부는 상기 ECDIS 데이터를 기초로 상기 주변환경의 환경정보를 판단하며, 상기 증강현실 영상 생성부는 상기 환경정보를 기초로 상기 주변환경을 제2 증강현실 이미지로 생성하고, 상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 주변환경의 위치에 상기 제2 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성할 수 있다.According to an embodiment, the communication unit receives ECDIS data from an electronic chart display and information system, and the control unit determines environmental information of the surrounding environment based on the ECDIS data, and the augmented reality image The generation unit generates the surrounding environment as a second augmented reality image based on the environment information, and the controller analyzes the navigation image and superimposes the second augmented reality image on the location of the surrounding environment in the navigation image. Augmented reality navigation images can be created.

실시 예에 따라, 상기 제어부는 제1 시점에서 상기 제1 및 제2 선박정보들을 분석하여, 각 선박의 이동경로 및 속도를 유지할 경우에 상기 제1 시점 이후 상기 제1 선박에 제1 기준 거리 미만으로 인접하게될 제2 선박을 선별하고, 선별된 제2 선박을 충돌위험선박으로 결정할 수 있다.According to an embodiment, the control unit analyzes the first and second ship information at a first time point, and when maintaining the movement path and speed of each ship, the control unit is less than a first reference distance to the first ship after the first time point. As a result, the second ship to be adjacent may be selected, and the selected second ship may be determined as a collision risk ship.

실시 예에 따라, 상기 제어부는 다수의 제2 선박들 중 충돌위험선박으로 선정된 제2 선박의 제1 증강현실 이미지만을 상기 항해 영상에 중첩하여 표시할 수 있다.According to an embodiment, the control unit may display only the first augmented reality image of a second ship selected as a collision risk ship among the plurality of second ships by superimposing on the navigation image.

실시 예에 따라, 상기 제어부는 다수의 제2 선박들 중 나머지를 식별기호로 구현하여 상기 증강현실 항해영상에 표시할 수 있다.According to an embodiment, the control unit may implement the rest of the plurality of second ships as identification symbols and display them on the augmented reality navigation image.

본 발명의 다른 실시 예에 따른 증강현실 이미지를 이용한 항해 보조장치는, 선박용 레이더로부터 레이더 데이터를 수신하는 통신부와, 상기 레이더 데이터를 기초로 사용자가 탑승한 제1 선박의 제1 선박정보, 상기 제1 선박과 인접한 위치에 배치된 제2 선박의 제2 선박정보를 판단하고, 카메라 모듈로부터 상기 제1 선박의 외부를 촬영한 항해 영상을 수신하여 증강현실 항해영상을 생성하는 제어부와, 상기 제1 선박정보 및 상기 제2 선박정보를 기초로 상기 제2 선박을 제1 증강현실 이미지로 생성하는 증강현실 영상 생성부와, 상기 증강현실 항해영상을 표시하는 영상 표시부를 포함하고, 상기 제1 선박정보는 상기 제1 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제2 선박정보는 상기 제2 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 제2 선박의 위치에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성할 수 있다.A navigation aid device using an augmented reality image according to another embodiment of the present invention includes a communication unit receiving radar data from a ship radar, and first ship information of a first ship on which a user is boarded, and the first ship based on the radar data. 1 A control unit that determines second ship information of a second ship disposed in a position adjacent to the ship, receives a voyage image photographed outside of the first ship from a camera module, and generates an augmented reality voyage image, and the first An augmented reality image generation unit for generating the second ship as a first augmented reality image based on ship information and the second ship information, and an image display unit for displaying the augmented reality navigation image, wherein the first ship information Includes the GPS coordinates, speed, and movement direction of the first ship, the second ship information includes the GPS coordinates, speed, and movement direction of the second ship, and the control unit analyzes the navigation image The augmented reality navigation image may be generated by superimposing the first augmented reality image on the position of the second ship in the navigation image.

본 발명의 실시 예에 따른 항해 보조장치에 따르면, 해양을 촬영한 영상의 화질이 좋지않아 대상을 식별하기 어려운 경우에도 선박자동식별시스템과 전자해도정보시스템로부터 제공된 데이터를 이용하여 증강현실 이미지를 생성하고, 증강현실 이미지를 인식시킴으로써 항해자의 안전 운항을 효과적으로 도울 수 있다.According to the navigation assistance device according to an embodiment of the present invention, even when it is difficult to identify a target due to poor quality of an image photographed at sea, an augmented reality image is generated using data provided from the automatic ship identification system and the electronic chart information system. And, by recognizing the augmented reality image, it can effectively help the safe navigation of the navigator.

도 1은 본 발명의 실시 예에 따른 항해 보조시스템의 도면이다.
도 2는 본 발명의 실시 예에 따른 항해 보조장치의 개략적인 블록도이다.
도 3a 내지 도 3c는 본 발명의 실시 예에 따른 항해 보조장치에서 표시되는 증강현실 항해영상을 나타낸 도면이다.
도 4는 본 발명의 다른 실시 예에 따른 항해 보조장치의 동작을 설명하기 위한 개념도이다.
도 5는 본 발명의 또 다른 실시 예에 따른 항해 보조장치의 동작을 설명하기 위한 개념도이다.
도 6는 본 발명의 또 다른 실시 예에 따른 항해 보조시스템의 도면이다.
1 is a diagram of a navigation assistance system according to an embodiment of the present invention.
2 is a schematic block diagram of a navigation aid according to an embodiment of the present invention.
3A to 3C are views showing an augmented reality navigation image displayed by a navigation aid device according to an embodiment of the present invention.
4 is a conceptual diagram illustrating an operation of a navigation aid device according to another embodiment of the present invention.
5 is a conceptual diagram illustrating an operation of a navigation aid device according to another embodiment of the present invention.
6 is a view of a navigation assistance system according to another embodiment of the present invention.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다. 본 명세서에 기재된 실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in the present specification are exemplified only for the purpose of describing the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein. In the embodiments described herein, a'module' or'unit' means a functional part that performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software.

도 1은 본 발명의 실시 예에 따른 항해 보조시스템의 도면이고, 도 2는 본 발명의 실시 예에 따른 항해 보조장치의 개략적인 블록도이다.1 is a diagram of a navigational assistance system according to an embodiment of the present invention, and FIG. 2 is a schematic block diagram of a navigational assistance device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 항해 보조시스템(10)은 선박자동식별시스템(100), 전자해도정보시스템(200), 및 항해 보조장치(300)를 포함한다.Referring to FIG. 1, a navigation assistance system 10 according to an embodiment of the present invention includes an automatic ship identification system 100, an electronic chart information system 200, and a navigation assistance device 300.

선박자동식별시스템(Automatic Identification System, AIS; 100)는 선박의 위치, 속도, 및 이동 방향을 주변에 자동적으로 알려주는 장치로서, AIS 데이터를 항해 보조장치(300)에 제공할 수 있다. AIS 데이터는 사용자가 탑승한 제1 선박(SH1)의 제1 선박정보와 제1 선박(SH1)과 인접한 위치에 배치된 제 선박(SH2)의 제2 선박정보를 포함한다. 제1 선박정보는 제1 선박(SH1)의 GPS 좌표, 속도, 및 이동방향을 포함하고, 제2 선박정보는 제2 선박(SH2)의 GPS 좌표, 속도, 및 이동방향을 포함한다. 제1 선박(SH1)과 인접한 위치에는 다수의 제2 선박(SH2)들이 위치할 수도 있으며, 이 경우 AIS 데이터에는 다수의 제2 선박(SH2)들의 제2 선박정보들이 모두 포함될 수 있다.The automatic identification system (AIS) 100 is a device that automatically informs the surroundings of the position, speed, and movement direction of the ship, and may provide AIS data to the navigation assistance device 300. The AIS data includes first ship information of the first ship SH1 on which the user is boarded and second ship information of the second ship SH2 disposed in a position adjacent to the first ship SH1. The first ship information includes GPS coordinates, speed, and movement direction of the first ship SH1, and the second ship information includes GPS coordinates, speed, and movement direction of the second ship SH2. A plurality of second ships SH2 may be located in a position adjacent to the first ship SH1, and in this case, the AIS data may include all of the second ship information of the plurality of second ships SH2.

전자해도정보시스템(Electronic Chart Display and Information System, ECDIS; 200)은 선박의 실시간 위치정보를 표시하여, 항해사로 하여금 항로를 계획하고, 감시하며, 항해와 관련한 부가 정보를 활용할 수 있도록 항해를 지원하는 항해정보시스템이다. 전자해도정보시스템(200)은 해안선, 등심선, 수심, 항로표지(등대, 등부표), 위험물, 항로 등 제1 선박(SH1)의 항해와 관련된 모든 해도정보를 포함하는 ECDIS 데이터를 항해 보조장치(300)에 제공할 수 있다. 예컨대, ECDIS 데이터에는 제1 선박(SH1)을 둘러싼 지역의 해안선 정보, 해저 지형, 수심 등이 포함될 수 있다.The Electronic Chart Display and Information System (ECDIS; 200) displays real-time location information of ships and supports navigation so that navigators can plan and monitor routes and utilize additional information related to navigation. It is a navigational information system. The electronic chart information system 200 stores ECDIS data including all chart information related to the voyage of the first ship (SH1) such as coastline, fillet ship, water depth, route signs (lighthouse, light buoy), dangerous goods, and route, etc. ) Can be provided. For example, the ECDIS data may include coastline information, seafloor topography, water depth, and the like of an area surrounding the first ship SH1.

항해 보조장치(300)는 제1 선박(SH1)의 외부를 촬영한 항해영상을 기초로 증강현실 항해영상(IM)을 생성할 수 있는데, 먼저 항해 보조장치(300)는 선박자동식별시스템(100)으로부터 AIS 데이터를 수신하고, ECDIS 데이터를 수신하여 제2 선박(SH2) 및 주변환경(EN)을 증강현실 이미지로 구현할 수 있다. 그리고, 항해 보조장치(300)는 항해영상을 분석하여 항해영상 내 제2 선박(SH2)의 위치와 주변환경(EN)의 위치 각각에 증강현실 이미지를 중첩한 증강현실 항해영상(IM)을 생성할 수 있다. The navigation assistance device 300 may generate an augmented reality navigation image (IM) based on a navigation image photographed outside of the first ship (SH1). First, the navigation assistance device 300 is a ship automatic identification system 100 ) From the AIS data and ECDIS data is received, the second ship (SH2) and the surrounding environment (EN) can be implemented as an augmented reality image. And, the navigation assistance device 300 analyzes the navigation image and generates an augmented reality navigation image (IM) in which an augmented reality image is superimposed on each of the position of the second ship (SH2) and the position of the surrounding environment (EN) in the navigation image. can do.

실시 예에 따라, 항해 보조장치(300)는 제2 선박(SH2)만을 증강현실 이미지로 구현하여 증강현실 항해영상을 생성할 수도 있다.According to an embodiment, the navigation assistance device 300 may generate an augmented reality navigation image by implementing only the second ship SH2 as an augmented reality image.

항해 보조장치(300)에서 표시되는 증강현실 항해영상은 제1 선박(SH1)의 외부를 촬영한 실제 촬영 화면에 선박, 암초, 해안선, 위험물 등을 증강현실 이미지로 표시한 것이기 때문에, 폭우, 해무 등에 의해 항해영상 내 대상을 분간하기 어렵더라도 항해사는 증강현실 이미지를 통해 대상을 인식할 수 있다.Since the augmented reality navigation image displayed by the navigation assistance device 300 is an augmented reality image of ships, reefs, coastlines, and dangerous objects on an actual photographing screen photographed outside of the first ship SH1, heavy rain, sea fog, etc. Even if it is difficult to discern the object in the navigation image due to the like, the navigator can recognize the object through the AR image.

실시 예에 따라, 항해 보조장치(300)는 PC(personal computer), 스마트 폰(smart phone), 태블릿 (tablet) PC, 모바일 인터넷 장치(mobile internet device(MID)), 인터넷 태블릿, IoT(internet of things) 장치, IoE(internet of everything) 장치, 데스크 탑 컴퓨터(desktop computer), 랩탑(laptop) 컴퓨터, 워크스테이션 컴퓨터, Wibro(Wireless Broadband Internet) 단말, 및 PDA (Personal Digital Assistant) 중 어느 하나일 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the navigation assistance device 300 includes a personal computer (PC), a smart phone, a tablet PC, a mobile internet device (MID), an internet tablet, and an Internet of Things (IoT). things) a device, an Internet of everything (IoE) device, a desktop computer, a laptop computer, a workstation computer, a Wireless Broadband Internet (Wibro) terminal, and a Personal Digital Assistant (PDA). However, it is not limited thereto.

도 2를 참조하면, 본 발명의 실시 예에 따른 항해 보조장치(300)는 카메라 모듈(310), 통신부(320), 제어부(330), 증강현실 영상 생성부(340), 및 영상 표시부(350)를 포함할 수 있다.Referring to FIG. 2, the navigation assistance device 300 according to an embodiment of the present invention includes a camera module 310, a communication unit 320, a control unit 330, an augmented reality image generation unit 340, and an image display unit 350. ) Can be included.

카메라 모듈(310)은 제1 선박(SH1)의 외부를 촬영하여 항해영상을 생성할 수 있는데, 항해영상 촬영시 촬영방위를 항해영상에 포함시킬 수 있다. 예컨대, 카메라 모듈(310)이 정남쪽 방향을 바라보며 촬영할 경우, 촬영방위는 정남쪽으로 기록되어 항해영상에 포함될 수 있다.The camera module 310 may generate a navigation image by photographing the outside of the first ship SH1, and when photographing a navigation image, the photographing direction may be included in the navigation image. For example, when the camera module 310 is photographed while facing the south-south direction, the photographing direction may be recorded in the south-south direction and included in the navigation image.

또한, 카메라 모듈(310)은 해수면과 이루는 각도를 판단하여 항해영상에 포함시킬 수 있다. 예컨대, 카메라 모듈(310)이 해수면과 30°로 기울여진 상태로 촬영될 경우, 항해영상에는 30°의 각도값이 포함될 수 있다.In addition, the camera module 310 may determine an angle made with the sea level and include it in the navigation image. For example, when the camera module 310 is photographed while being inclined to the sea level by 30°, the navigation image may include an angle value of 30°.

한편, 도 2에서는 카메라 모듈(310)이 항해 보조장치(300)의 내부 구성으로 도시되어 있지만, 카메라 모듈(310)은 항해 보조장치(300)와의 별도의 장치로 구현되어 항해 보조장치(300)에 항해영상을 제공하는 구성일 수도 있다. 예컨대, 카메라 모듈(310)은 제1 선박(SH1)에 설치된 카메라 장치일 수 있다.Meanwhile, in FIG. 2, the camera module 310 is shown as an internal configuration of the navigation aid 300, but the camera module 310 is implemented as a separate device from the navigation aid 300, so that the navigation aid 300 It may also be a configuration that provides a navigational image to. For example, the camera module 310 may be a camera device installed on the first ship SH1.

통신부(320)는 선박자동식별시스템(100) 및 전자해도정보시스템(200)과 유선 또는 무선 통신을 통해 연결되어 AIS 데이터 및 ECDIS 데이터를 수신할 수 있다.The communication unit 320 may be connected to the ship automatic identification system 100 and the electronic chart information system 200 through wired or wireless communication to receive AIS data and ECDIS data.

실시 예에 따라, 통신부(320)는 WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), WiFi 등의 무선 인터넷 통신 뿐만 아니라, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 근거리 통신 기술을 사용할 수도 있어, 어느 하나의 통신 방식에 한정되지 아니한다. According to an embodiment, the communication unit 320 not only wireless Internet communication such as WLAN (Wireless LAN), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), WiFi, etc., but also Bluetooth Short-range communication technologies such as (Bluetooth), RFID (Radio Frequency Identification), infrared communication (IrDA, infrared Data Association), UWB (Ultra Wideband), ZigBee, etc. may be used, so the communication method is not limited to any one communication method. .

제어부(330)는 AIS 데이터를 분석하여, 제1 선박(SH1)의 GPS 좌표, 위치, 이동방향(침로), 속도, 선박의 길이, 폭, 형상, 선박이 물에 잠긴 깊이 등에 관한 제1 선박정보와, 제2 선박(SH2)의 GPS 좌표, 위치, 이동방향, 속도, 선박의 길이, 폭, 형상 등에 관한 제2 선박정보를 판단하고, ECDIS 데이터를 분석하여 해안선, 수심, 해저지형, 풍향, 풍속, 조류 속도, 파고 등에 관한 주변환경(EN)의 환경정보를 판단할 수 있다. The control unit 330 analyzes the AIS data to determine the GPS coordinates of the first ship SH1, the location, the direction of movement (course), the speed, the length, width, shape, and depth of the ship. Information and second ship information regarding GPS coordinates, position, movement direction, speed, ship length, width, shape, etc. of the second ship (SH2) are determined, and the ECDIS data is analyzed to determine the coastline, water depth, submarine topography, and wind direction. , It is possible to determine environmental information of the surrounding environment (EN) about wind speed, tidal speed, and wave height.

제어부(330)는 카메라 모듈(310)로부터 제1 선박(SH1)의 외부를 촬영한 항해영상을 수신하고, 증강현실 영상 생성부(340)에서 생성된 증강현실 이미지를 항해 영상에 중첩하여 증강현실 항해영상(IM)을 생성할 수 있다.The control unit 330 receives a navigation image photographed from the outside of the first ship SH1 from the camera module 310, and superimposes the augmented reality image generated by the augmented reality image generation unit 340 on the navigation image to provide augmented reality. You can create a navigation image (IM).

제어부(330)는 제1 선박정보를 기초로 제1 선박(SH1)의 GPS 좌표를 판단할 수 있는데, 카메라 모듈(310)로부터 수신된 촬영방위에 기초하여 항해영상에 GPS 좌표를 설정할 수 있다. The controller 330 may determine the GPS coordinates of the first ship SH1 based on the first ship information, and may set the GPS coordinates in the navigation image based on the photographing direction received from the camera module 310.

예컨대, 제1 선박(SH1)의 GPS 좌표가 35.092539, 130.379864이고, 촬영방위가 정남쪽으로 판단된 경우, 항해영상의 GPS 좌표 중 경도는 35.092539보다 작은 값을 포함하게 된다.For example, when the GPS coordinates of the first ship SH1 are 35.092539 and 130.379864, and the photographing direction is determined to be south, the longitude of the GPS coordinates of the navigation image includes a value less than 35.092539.

또한, 제어부(330)는 항해영상을 복수의 영역들로 분할하고, 각 영역이 카메라 모듈 및 해수면과 이루는 각도에 대응하여 각 영역이 떨어진 거리를 개별적으로 판단할 수 있다. 그리고, 제어부(330)는 각 영역이 제1 선박(SH1)으로부터 떨어진 거리와 촬영 방위를 기초로 각 영역에 GPS 좌표를 설정할 수 있다. 여기서, 하나의 영역에 복수의 GPS 좌표들이 포함된 경우, GPS 좌표들 중 중간값의 GPS 좌표를 해당 영역의 대표 GPS 좌표로 설정할 수 있다.In addition, the control unit 330 may divide the navigation image into a plurality of areas, and may individually determine a distance from each area corresponding to an angle made by each area between the camera module and the sea level. In addition, the control unit 330 may set GPS coordinates in each region based on a distance and a photographing direction in which each region is separated from the first ship SH1. Here, when a plurality of GPS coordinates are included in one area, the intermediate GPS coordinates among the GPS coordinates may be set as the representative GPS coordinates of the corresponding area.

제어부(330)는 제2 선박정보를 기초로 분할된 영역들 중 제2 선박(SH2)의 GPS 좌표와 매칭되는 GPS 좌표를 갖는 제1 영역을 선별할 수 있고, 항해영상 내 제1 영역 상에 제2 선박(SH2)의 증강현실 이미지를 중첩하여 증강현실 항해영상을 생성할 수 있다.The control unit 330 may select a first area having GPS coordinates matching the GPS coordinates of the second ship SH2 among the divided areas based on the second ship information, and on the first area in the navigation image. An augmented reality navigation image may be generated by overlapping the augmented reality image of the second ship SH2.

또한, 제어부(330)는 환경정보를 기초로 분할된 영역들 중 주변환경의 GPS 좌표와 매칭되는 GPS 좌표를 갖는 제2 영역을 선별할 수 있고, 항해영상 내 제2 영역 상에 주변환경의 증강현실 이미지를 중첩하여 증강현실 항해영상을 생성할 수 있다.In addition, the control unit 330 may select a second area having GPS coordinates matching the GPS coordinates of the surrounding environment among the divided areas based on the environment information, and enhance the surrounding environment on the second area in the navigation image. Augmented reality navigation images can be created by overlapping reality images.

실시 예에 따라, 제어부(330)는 제1 및 제2 선박정보들을 기초로 제1 선박(SH1)과 제2 선박(SH2)의 충돌가능성을 판단할 수 있는데, 충돌가능성 분석시점(이후 '제1 시점'이라 함)의 충돌 가능성뿐만 아니라, 제1 및 제2 선박들(SH1 및 SH2)의 움직임에 따른 향후 충돌가능성까지 판단할 수 있다.Depending on the embodiment, the control unit 330 may determine the possibility of collision between the first and second ships SH1 and SH2 based on the first and second ship information. It is possible to determine the possibility of a collision in the future according to the movement of the first and second ships SH1 and SH2 as well as the possibility of a collision at a point of view 1').

즉, 제어부(330)는 제1 시점 이후 제1 및 제2 선박들(SH1 및 SH2) 각각이 현재 속도와 이동경로를 유지할 경우, 제1 및 제2 선박들(SH1 및 SH2) 사이의 충돌 가능성을 예측할 수 있다. 여기서, 충돌 가능성이 있다함은 직접 충돌하는 경우뿐만 아니라, 제2 선박(SH2)이 제1 선박(SH1)에 제1 기준 거리 미만으로 인접하는 경우를 포함한다.That is, when the first and second ships SH1 and SH2 each maintain the current speed and movement path after the first point in time, the control unit 330 may collide between the first and second ships SH1 and SH2. Can be predicted. Here, the possibility of collision includes not only a case of direct collision, but also a case where the second ship SH2 is adjacent to the first ship SH1 by less than a first reference distance.

제어부(330)는 제1 시점 이후 제1 선박(SH1)에 제1 기준 거리 미만으로 인접하게될 제2 선박(SH2)을 선별하여, 이를 충돌위험선박으로 결정할 수 있다.The controller 330 may select the second ship SH2 to be adjacent to the first ship SH1 less than the first reference distance after the first point in time, and determine this as a collision risk ship.

예컨대, 2020년 6월 15일 14시(제1 시점)에 10노트의 속도로 제1 방향을 따라 운행 중인 제1 선박(SH1)과, 5노트의 속도로 제2 방향을 따라 운행 중인 제2 선박(SH2) 사이의 충돌 가능성을 판단하는 경우, 제어부(330)는 제1 시점(SH1)에서의 충돌 가능성뿐만 아니라 제1 시점 이후의 충돌가능성도 판단할 수 있다. 즉, 제어부(330)는 제1 시점 이후 제1 선박(SH1)이 10노트의 속도로 제1 방향을 따라 운행하고, 제2 선박(SH2)이 5노트의 속도로 제2 방향을 따라 운행하는 것을 가정하여, 제1 시점 이후의 충돌 가능성을 판단할 수 있다.For example, on June 15, 2020, at 14:00 (the first time point), the first ship SH1 running along the first direction at a speed of 10 knots, and the second ship SH1 running along the second direction at a speed of 5 knots. When determining the possibility of a collision between the ships SH2, the controller 330 may determine not only the possibility of a collision at the first time point SH1, but also the possibility of a collision after the first time point. That is, after the first point in time, the control unit 330 allows the first ship SH1 to travel along the first direction at a speed of 10 knots, and the second ship SH2 to travel along the second direction at a speed of 5 knots. Assuming that, the possibility of collision after the first point in time can be determined.

만약, 제1 기준 거리가 3M이고, 제어부(330)가 제1 시점 이후에 제1 선박(SH1)과 제2 선박(SH2)의 거리가 3M 이내로 가까워질 것으로 예측하는 경우, 제1 및 제2 선박들(SH1 및 SH2)이 서로 충돌할 것으로 예측하여, 상기 제2 선박(SH2)을 충돌위험선박으로 결정할 수 있다.If the first reference distance is 3M and the control unit 330 predicts that the distance between the first ship SH1 and the second ship SH2 will be within 3M after the first point in time, the first and second By predicting that the ships SH1 and SH2 will collide with each other, the second ship SH2 may be determined as a collision risk ship.

제어부(330)는 기준 주기마다 제1 선박(SH1)과 제2 선박(SH2)의 충돌가능성을 판단할 수 있으나, 제1 선박(SH1)과 제2 선박(SH2)의 거리에 대응하여 기준 주기보다 더 짧은 주기로 충돌가능성을 판단할 수도 있다.The control unit 330 may determine the possibility of collision between the first ship (SH1) and the second ship (SH2) for each reference period, but the reference period corresponding to the distance between the first ship (SH1) and the second ship (SH2) It is also possible to judge the possibility of collision with a shorter period.

실시 예에 따라, 제어부(330)는 제1 시점에서 다수의 제2 선박(SH2)들 중 제1 선박(SH1)과 가장 인접한 선박과, 제1 선박(SH1) 사이의 제1 거리가 제2 기준 거리 이상인 경우, 기준 주기마다 제1 및 제2 선박정보들을 분석하여 충돌위험선박을 결정할 수 있다.According to an embodiment, the control unit 330 may determine that the first distance between the first ship SH1 and the closest ship among the plurality of second ships SH2 and the first ship SH1 at the first time point is 2 If the distance is greater than the reference distance, the collision risk vessel may be determined by analyzing the first and second vessel information at each reference period.

반면, 제어부(330)는 제1 시점에서 제1 선박(SH1)과 가장 인접한 선박과, 제1 선박(SH1) 사이의 제1 거리가 제2 기준 거리 미만인 경우, 제1 거리가 제2 기준 거리보다 작아질수록 기준 주기보다 더 짧은 주기로 제1 및 제2 선박정보들을 분석하여 충돌위험선박을 결정할 수 있다.On the other hand, when the first distance between the ship closest to the first ship SH1 and the first ship SH1 at a first time point is less than the second reference distance, the first distance is the second reference distance. As it becomes smaller, the collision risk ship may be determined by analyzing the first and second ship information at a shorter period than the reference period.

예컨대, 제2 기준 거리가 1km이고 기준 주기가 5초 경우, 제1 시점에서 가장 가까운 제2 선박(SH2)이 3km 떨어진 거리에 위치하는 경우, 제어부(330)는 5초마다 충돌가능성을 검토하여 충돌위험선박을 결정할 수 있다.For example, when the second reference distance is 1 km and the reference period is 5 seconds, when the second ship SH2 closest to the first time point is located at a distance of 3 km, the control unit 330 reviews the possibility of collision every 5 seconds. The ships at risk of collision can be determined.

반면, 제2 기준 거리가 1km이고 기준 주기가 5초 경우, 제1 시점에서 가장 가까운 제2 선박(SH2)이 800m 떨어진 거리에 위치하는 경우, 제어부(330)는 3초마다 충돌가능성을 검토하여 충돌위험선박을 결정할 수 있다.On the other hand, if the second reference distance is 1km and the reference period is 5 seconds, and the second ship SH2 closest to the first time point is located at a distance of 800m, the control unit 330 reviews the possibility of collision every 3 seconds. The ships at risk of collision can be determined.

제어부는 다수의 제2 선박(SH2)들 중 충돌위험선박으로 선정된 제2 선박의 증강현실 이미지만을 항해영상에 중첩표시하여 표시하고, 나머지 제2 선박들은 식별기호로 구현하여 증강현실 항해영상에 표시할 수 있다.The control unit displays only the augmented reality image of the second ship selected as a collision risk ship among the plurality of second ships (SH2) by superimposing and displaying the second ship on the voyage image, and the remaining second ships are implemented as identification symbols to display the augmented reality voyage image. Can be displayed.

증강현실 영상 생성부(340)는 제1 선박정보, 제2 선박정보, 및 환경 정보를 기초로 제2 선박(SH2) 및 주변환경(EN)을 증강현실 이미지로 구현한 증강현실 항해영상을 생성할 수 있다.The augmented reality image generation unit 340 generates an augmented reality navigation image that implements the second ship (SH2) and the surrounding environment (EN) as augmented reality images based on the first ship information, the second ship information, and the environment information. can do.

제1 및 제2 선박정보들에는 제1 및 제2 선박들(SH1 및 SH2) 각각의 종류, 길이, 폭에 대한 정보가 포함되어 있기 때문에, 증강현실 영상 생성부(340)는 제1 및 제2 선박정보들을 이용하여 제2 선박(SH2)을 증강현실 이미지로 구현할 수 있다. 또한, 환경 정보에는 해안선, 주변 지형에 대한 정보가 포함되어 있기 때문에, 증강현실 영상 생성부(340)는 환경 정보를 이용하여 주변 환경(EN)을 증강현실 이미지로 구현할 수 있다.Since the first and second ship information includes information on the type, length, and width of each of the first and second ships SH1 and SH2, the augmented reality image generator 340 2 Using the ship information, the second ship SH2 can be implemented as an augmented reality image. In addition, since the environmental information includes information on the coastline and the surrounding terrain, the augmented reality image generation unit 340 may implement the surrounding environment EN as an augmented reality image using the environmental information.

실시 예에 따라, 증강현실 영상 생성부(340)는 다수의 제2 선박(SH2)들 중 충돌위험선박만을 증강현실 이미지로 구현할 수 있다. 즉, 제1 선박(SH1)과 인접한 제2 선박(SH2)들이 다수 존재하는 경우, 증강현실 영상 생성부(340)는 모든 제2 선박(SH2)들을 증강현실 이미지로 구현하는 것이 아니라, 제1 선박(SH1)과 충돌 가능성이 존재하는 충돌위험선박만을 증강현실 이미지로 구현할 수 있다.According to an embodiment, the augmented reality image generator 340 may implement only a collision risk ship among the plurality of second ships SH2 as an augmented reality image. That is, when a plurality of second ships SH2 adjacent to the first ship SH1 exist, the augmented reality image generator 340 does not implement all the second ships SH2 as augmented reality images, but the first Only ships at risk of collision with the ship SH1 can be implemented as an augmented reality image.

그리고, 증강현실 영상 생성부(340)는 다수의 제2 선박(SH2)들 중 충돌위험선박이 아닌 나머지 선박을 식별기호로 구현할 수 있으나, 사용자가 식별기호로 표기된 제2 선박(SH2)의 표시를 원하는 경우, 증강현실 영상 생성부(340)는 사용자의 제어에 대응하여 해당 제2 선박(SH2)을 증강현실 이미지로 구현할 수 있다.In addition, the augmented reality image generation unit 340 may implement the remaining ships of the plurality of second ships SH2, other than the crash-risk ships, as an identification symbol, but the user displays the second ship SH2 marked with the identification symbol. If desired, the augmented reality image generation unit 340 may implement the second ship SH2 as an augmented reality image in response to the user's control.

영상 표시부(350)는 항해자에게 증강현실 항해영상(IM)을 표시할 수 있는데, 영상 표시부(350)는 유기전계발광 표시 패널(Organic Light Emitting Display Panel), 액정 표시 패널(Liquid Crystal Display Panel), 플라즈마 표시 패널(Plasma Display Panel) 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다.The image display unit 350 may display an augmented reality navigation image (IM) to the navigator. The image display unit 350 includes an organic light emitting display panel, a liquid crystal display panel, and It may be implemented as a plasma display panel or the like, but is not limited thereto.

또한, 영상 표시부(350)는 터치 스크린을 포함할 수 있으며, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수도 있다.In addition, the image display unit 350 may include a touch screen, and may receive a touch, gesture, proximity, or hovering input using an electronic pen or a part of the user's body.

도 3a 내지 도 3c는 본 발명의 실시 예에 따른 항해 보조장치에서 표시되는 증강현실 항해영상을 나타낸 도면이다.3A to 3C are views showing an augmented reality navigation image displayed by a navigation aid device according to an embodiment of the present invention.

도 3a를 참조하면, 항해 보조장치(300)의 사용자가 탑승한 제1 선박(SH1)과, 제1 선박(SH1)의 인접한 위치에서 항해중인 제2 선박들(SH2a 및 SH2b)을 포함하는 항해영상(IMa)이 도시되어 있다. Referring to FIG. 3A, sailing including a first ship SH1 on which a user of the navigation assistance device 300 is aboard, and second ships SH2a and SH2b sailing at a position adjacent to the first ship SH1 The image IMA is shown.

여기서, 항해영상(IMa)은 항해 보조장치(300)에 내장된 카메라 모듈(310)에 의해 촬영된 영상을 의미하지만, 이에 한정되지 않으며, 제1 선박(SH1)에 고정되어 설치된 카메라 장치에 의해 촬영된 영상일 수도 있다. 또한, 도 3a에서는 제1 선박(SH1)이 항해영상(IMa) 내에 포함된 것으로 표시되었으나, 이는 항해 보조장치(300)의 촬영방향에 따라 항해영상(IMa) 내에 포함되거나 포함되지 않을 수 있다.Here, the navigation image (IMa) refers to an image captured by the camera module 310 embedded in the navigation assistance device 300, but is not limited thereto, and by a camera device fixed and installed on the first ship SH1. It may be a photographed image. In addition, in FIG. 3A, it is indicated that the first ship SH1 is included in the navigation image IMA, but this may or may not be included in the navigation image IMA according to the photographing direction of the navigation assistance device 300.

항해 보조장치(300)는 촬영시 촬영방위를 판단하여 항해영상(IMa)의 방위를 결정하고, 항해 보조장치(300)의 카메라 모듈이 해수면과 이루는 각도를 판단할 수 있다. 예컨대, 항해 보조장치(300)는 카메라 모듈(310)의 렌즈면과 수직을 이루는 선이 해수면과 이루는 각도를 판단할 수 있다.The navigation assistance device 300 may determine the orientation of the navigation image IMA by determining the photographing orientation during photographing, and determine an angle formed by the camera module of the navigation assistance device 300 with the sea level. For example, the navigation assistance device 300 may determine an angle formed by a line perpendicular to the lens surface of the camera module 310 and the sea level.

도 3b를 참조하면, 항해 보조장치(300)가 야간운행, 해무가 가득낀 상태, 폭우 등에 의해 가시거리가 매우 짧은 상황에서 제1 선박(SH1)의 외부를 촬영한 항해영상(IMb)이 도시되어 있다. Referring to FIG. 3B, a navigation image IMb photographing the outside of the first ship SH1 in a situation where the visibility distance is very short due to night operation, a state full of sea traffic, heavy rain, etc. of the navigation aid device 300 is shown. Has been.

가시거리가 긴 맑은 날씨에서는 항해 보조장치(300)가 선명한 화질로 외부 환경에 대한 항해영상을 촬영할 수 있지만, 야간운행, 해무가 가득낀 상태, 폭우 등에 의해 가시거리가 매우 짧은 상황에서는 항해 보조장치(300)가 외부 환경을 제대로 촬영할 수 없다. 따라서, 실제로 제1 선박(SH1)의 주변에 제2 선박(SH2)이 위치하고 있고, 암초 등이 존재하더라도, 항해영상(IMb)에는 제2 선박(SH2)과 주변환경(EN)이 포함되지 않을 수 있다.In clear weather with a long line of sight, the navigation aid 300 can capture a navigational image of the external environment with clear image quality, but in a situation where the line of sight is very short due to night operation, a state full of sea fog, heavy rain, etc. 300 can not properly shoot the external environment. Therefore, even if the second ship (SH2) is actually located around the first ship (SH1) and there is a reef, the navigation image (IMb) does not include the second ship (SH2) and the surrounding environment (EN). I can.

도 3c를 참조하면, 항해 보조장치(300)는 항해영상에 증강현실 이미지를 중첩하여 증강현실 항해영상(IMc)를 표시할 수 있다. 증강현실 항해영상(IMc)에는 제2 선박들(SH2a 및 sh2b)이 각 선박 위치에 대응하여 중첩하여 표시될 수 있다. Referring to FIG. 3C, the navigation assistance device 300 may display an augmented reality navigation image (IMc) by superimposing an augmented reality image on the navigation image. In the augmented reality navigation image Imc, the second ships SH2a and sh2b may be overlapped and displayed in correspondence with each ship position.

따라서, 촬영된 항해영상의 화질이 좋지 않아, 제2 선박들(SH2a 및 sh2b)과 주변환경(EN)이 표시되지 않더라도, 항해 보조장치(300)는 증가연실 이미지를 항해영상에 중첩하여 표시함으로써 사용자에게 제2 선박들(SH2a 및 sh2b)과 주변환경(EN)의 위치를 인식시킬 수 있다.Therefore, even if the image quality of the captured sailing image is not good, and the second ships SH2a and sh2b and the surrounding environment EN are not displayed, the navigation assistance device 300 superimposes and displays the increased smoke image on the sailing image. The user may be able to recognize the location of the second ships SH2a and sh2b and the surrounding environment EN.

도 4는 본 발명의 다른 실시 예에 따른 항해 보조장치의 동작을 설명하기 위한 개념도이다.4 is a conceptual diagram illustrating an operation of a navigation aid device according to another embodiment of the present invention.

도 4를 참조하면, 본 발명의 다른 실시 예에 따른 드론(DR)은 카메라 모듈(310')을 구비한 상태로 제1 선박(SH1) 상공을 비행할 수 있다. 카메라 모듈(310')은 제1 선박(SH1)의 상공에서 제2 선박(SH2), 주변환경(EN), 등 제1 선박(SH1)의 외부를 촬영하여 항해영상을 생성할 수 있다.Referring to FIG. 4, the drone DR according to another embodiment of the present invention may fly over the first ship SH1 with the camera module 310 ′. The camera module 310 ′ may generate a navigation image by photographing the outside of the first ship SH1, such as the second ship SH2, the surrounding environment EN, and the like from above the first ship SH1.

드론(DR)은 제1 선박(SH1)에 위치한 항해 보조장치(300)와 무선통신을 수행하여 카메라 모듈(310')에 의해 촬영된 항해영상을 전송할 수 있으나, 이에 한정되지 않으며 카메라 모듈(310')이 항해 보조장치(300)와 무선통신을 수행하여 직접 촬영한 항해영상을 전송할 수도 있다.The drone DR may perform wireless communication with the navigation assistance device 300 located in the first ship SH1 to transmit a navigation image captured by the camera module 310', but is not limited thereto and the camera module 310 ') It is also possible to transmit the directly photographed navigation image by performing wireless communication with the navigation assistance device 300.

드론(DR)은 무선통신을 통해 항해 보조장치(300)로부터 수신된 제어신호에 대응하여 비행동작을 수행할 수 있다. 즉, 드론(DR)은 상기 제어신호에 대응하여 비행고도, 비행속력, 비행방향, 수평회전 움직임 등을 제어할 수 있으며, 드론(DR)에 구비된 카메라 모듈(310')은 드론(DR)의 움직임에 대응하여 촬영방향 및 촬영범위가 변경될 수 있다.The drone DR may perform a flight operation in response to a control signal received from the navigation assistance device 300 through wireless communication. That is, the drone DR can control flight altitude, flight speed, flight direction, horizontal rotation movement, etc. in response to the control signal, and the camera module 310' provided in the drone DR is a drone DR. The photographing direction and the photographing range may be changed in response to the movement of the camera.

실시 예에 따라, 드론(DR)은 별도의 GPS 모듈을 포함하고 있으며, 실시간으로 드론(DR)의 GPS 좌표를 측정하여 항해 보조장치(300)에 제공할 수 있고, 항해 보조장치(300)는 드론(DR)의 GPS 좌표와 제1 선박(SH1)의 GPS 좌표를 고려하여, 제1 선박(SH1)의 GPS 좌표를 기준으로 항해영상에 GPS 좌표를 설정할 수 있다.Depending on the embodiment, the drone DR includes a separate GPS module, and the GPS coordinates of the drone DR can be measured in real time and provided to the navigation assistance device 300, and the navigation assistance device 300 In consideration of the GPS coordinates of the drone DR and the GPS coordinates of the first ship SH1, GPS coordinates may be set in the navigation image based on the GPS coordinates of the first ship SH1.

도 5는 본 발명의 또 다른 실시 예에 따른 항해 보조장치의 동작을 설명하기 위한 개념도이다.5 is a conceptual diagram illustrating an operation of a navigation aid device according to another embodiment of the present invention.

도 5를 참조하면, 항해 보조장치(300)는 항해영상을 촬영하면서 항해영상 내 각 영역이 제1 선박(SH1)으로부터 떨어진 거리 및 방위를 판단할 수 있다.Referring to FIG. 5, while photographing a navigation image, the navigation assistance device 300 may determine a distance and azimuth in which each region in the navigation image is separated from the first ship SH1.

만약, 항해 보조장치(300)의 카메라 모듈(310)이 제1 지점(PO1)과 제2 지점(PO2) 사이의 해상을 촬영한 경우, 항해영상(IMb)의 최상단은 제1 지점(PO1)에 대한 영상을 포함하고 있고, 최하단은 제2 지점(PO2)에 대한 영상을 포함할 수 있다. If the camera module 310 of the navigation assistance device 300 photographs the sea between the first point PO1 and the second point PO2, the top of the navigation image IMb is the first point PO1 An image of is included, and the lowermost portion may include an image of the second point PO2.

항해 보조장치(300)는 별도로 자이로 센서, 가속도 센서 등을 포함할 수 있어, 카메라 모듈(310)의 렌즈면에 수직한 선이 해수면과 만나는 제3 지점(POX)에서의 각도(θ)를 계산할 수 있다. 또한, 항해 보조장치(300)는 제1 선박정보를 기초로 해수면으로부터 높이(l)를 계산할 수 있기 때문에, 하기의 수학식1에 의해 제3 지점(POX)까지 거리(x)를 계산할 수 있다.The navigation aid 300 may separately include a gyro sensor, an acceleration sensor, and the like, so that the angle θ at the third point POX where the line perpendicular to the lens surface of the camera module 310 meets the sea level can be calculated. I can. In addition, since the navigation assistance device 300 can calculate the height (l) from the sea level based on the first ship information, the distance (x) to the third point (POX) can be calculated by Equation 1 below. .

Figure 112020070326510-pat00001
Figure 112020070326510-pat00001

그리고, 항해 보조장치(300)는 제3 지점(POX)까지 거리(x)를 기초로 나머지 지점들까지의 거리를 계산할 수 있다. 이때, 항해 보조장치(300)는 카메라 모듈(300)의 광각에 대응하여 제1 및 제2 지점들(PO1 및 PO2)까지의 거리를 계산할 수 있다. In addition, the navigation assistance device 300 may calculate the distance to the remaining points based on the distance x to the third point POX. In this case, the navigation assistance device 300 may calculate the distance to the first and second points PO1 and PO2 in correspondence with the wide angle of the camera module 300.

만약, 해양영상(IMb)이 복수의 영역들로 구분된 경우, 항해 보조장치(300)는 각 영역들의 중심거리를 영상 비율에 대응하여 계산하고, 각 영역의 대표 거리를 설정할 수 있다.If the marine image IMb is divided into a plurality of regions, the navigation assistance device 300 may calculate the center distance of each region corresponding to the image ratio and set a representative distance of each region.

도 6은 본 발명의 또 다른 실시 예에 따른 항해 보조시스템의 도면이다.6 is a view of a navigation assistance system according to another embodiment of the present invention.

도 6을 참조하면, 본 발명의 또 다른 실시 예에 따른 항해 보조시스템(10')은 선박자동식별시스템(100), 전자해도정보시스템(200), 선박용 레이더(400), 및 항해 보조장치(300)를 포함한다.6, the navigation assistance system 10' according to another embodiment of the present invention includes an automatic ship identification system 100, an electronic chart information system 200, a ship radar 400, and a navigation assistance device ( 300).

선박자동식별시스템(100)는 AIS 데이터를 항해 보조장치(300)에 제공할 수 있다. AIS 데이터는 사용자가 탑승한 제1 선박(SH1)의 제1 선박정보와 제1 선박(SH1)과 인접한 위치에 배치된 제 선박(SH2)의 제2 선박정보를 포함한다. 제1 선박정보는 제1 선박(SH1)의 속도와 이동방향을 포함하고, 제2 선박정보는 제2 선박(SH2)의 속도와 이동방향을 포함한다. The ship automatic identification system 100 may provide AIS data to the navigation aids 300. The AIS data includes first ship information of the first ship SH1 on which the user is boarded and second ship information of the second ship SH2 disposed in a position adjacent to the first ship SH1. The first ship information includes the speed and movement direction of the first ship SH1, and the second ship information includes the speed and movement direction of the second ship SH2.

전자해도정보시스템(200)은 해안선, 등심선, 수심, 항로표지(등대, 등부표), 위험물, 항로 등 제1 선박(SH1)의 항해와 관련된 모든 해도정보를 포함하는 ECDIS 데이터를 항해 보조장치(300)에 제공할 수 있다. 예컨대, ECDIS 데이터에는 제1 선박(SH1)을 둘러싼 지역의 해안선 정보, 해저 지형, 수심 등이 포함될 수 있다.The electronic chart information system 200 stores ECDIS data including all chart information related to the voyage of the first ship (SH1) such as coastline, fillet ship, water depth, route signs (lighthouse, light buoy), dangerous goods, and route, etc. ) Can be provided. For example, the ECDIS data may include coastline information, seafloor topography, water depth, and the like of an area surrounding the first ship SH1.

선박용 레이더(400)는 레이더 데이터를 생성하여 항해 보조장치(300)에 제공할 수 있는데, 레이더 데이터에는 사용자가 탑승한 제1 선박(SH1)의 제1 선박정보와 제1 선박(SH1)과 인접한 위치에 배치된 제 선박(SH2)의 제2 선박정보를 포함할 수 있다. 제1 선박정보는 제1 선박(SH1)의 속도와 이동방향을 포함하고, 제2 선박정보는 제2 선박(SH2)의 속도와 이동방향을 포함한다The marine radar 400 may generate radar data and provide it to the navigation assistance device 300. The radar data includes first ship information of the first ship SH1 on which the user is boarded and adjacent to the first ship SH1. It may include the second ship information of the second ship (SH2) arranged at the location. The first ship information includes the speed and movement direction of the first ship SH1, and the second ship information includes the speed and movement direction of the second ship SH2.

항해 보조장치(300)는 AIS 데이터와 레이더 데이터를 이용하여 제2 선박(SH2)을 증강현실 이미지로 구현하고, 및 ECDIS 데이터를 이용하여 주변환경(EN)을 증강현실 이미지로 구현한 증강현실 항해영상(IM)을 생성할 수 있다.The navigation assistance device 300 implements the second ship (SH2) as an augmented reality image using AIS data and radar data, and the augmented reality navigation in which the surrounding environment (EN) is implemented as an augmented reality image using ECDIS data. It is possible to create an image (IM).

이상에서 본 발명의 실시 예에 관하여 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 특허청구범위를 벗어남이 없이 다양하게 변형 실시할 수 있을 것으로 이해된다.Although the embodiments of the present invention have been described above, it is understood that those of ordinary skill in the art to which the present invention pertains can perform various modifications without departing from the scope of the claims of the present invention.

100: 선박자동식별시스템
200: 전자해도정보시스템
300: 사용자 단말기
400: 선박용 레이더
100: ship automatic identification system
200: electronic chart information system
300: user terminal
400: marine radar

Claims (9)

선박자동식별시스템(Automatic Identification System)로부터 AIS 데이터를 수신하는 통신부;
상기 AIS 데이터를 기초로 사용자가 탑승한 제1 선박의 제1 선박정보, 상기 제1 선박과 인접한 위치에 배치된 제2 선박의 제2 선박정보를 판단하고, 카메라 모듈로부터 상기 제1 선박의 외부를 촬영한 항해 영상을 수신하여 증강현실 항해영상을 생성하는 제어부;
상기 제1 선박정보 및 상기 제2 선박정보를 기초로 상기 제2 선박을 제1 증강현실 이미지로 생성하는 증강현실 영상 생성부; 및
상기 증강현실 항해영상을 표시하는 영상 표시부를 포함하고,
상기 제1 선박정보는 상기 제1 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제2 선박정보는 상기 제2 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고,
상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 제2 선박의 위치에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성하고,
상기 제어부는 상기 카메라 모듈로부터 촬영방위를 수신하여 상기 항해영상의 방위를 판단하고, 상기 제1 선박정보를 기초로 상기 제1 선박의 GPS 좌표를 판단하여, 상기 제1 선박의 GPS 좌표를 기준으로 상기 항해영상에 GPS 좌표를 설정하고,
상기 제어부는 상기 항해영상을 복수의 영역들로 분할하고, 각 영역이 상기 카메라 모듈 및 해수면과 이루는 각도에 대응하여 각 영역의 떨어진 거리를 판단하고, 판단된 거리 및 상기 방위에 대응하여 상기 각 영역에 GPS 좌표를 설정하는 증강현실 이미지를 이용한 항해 보조장치.
A communication unit for receiving AIS data from an automatic identification system;
Based on the AIS data, the first ship information of the first ship on which the user is boarded, the second ship information of the second ship disposed in a position adjacent to the first ship is determined, and the outside of the first ship from the camera module A control unit for receiving a navigation image photographed and generating an augmented reality navigation image;
An augmented reality image generator for generating the second ship as a first augmented reality image based on the first ship information and the second ship information; And
Including an image display for displaying the augmented reality navigation image,
The first ship information includes GPS coordinates, speed, and movement direction of the first ship, and the second ship information includes GPS coordinates, speed, and movement direction of the second ship,
The control unit analyzes the navigation image and superimposes the first augmented reality image on the position of the second ship in the navigation image to generate the augmented reality navigation image,
The control unit receives the photographing orientation from the camera module, determines the orientation of the navigation image, determines the GPS coordinates of the first ship based on the first ship information, and determines the GPS coordinates of the first ship based on the GPS coordinates of the first ship. Set GPS coordinates in the navigation image,
The control unit divides the navigation image into a plurality of areas, determines a distance of each area corresponding to an angle formed by each area with the camera module and sea level, and determines the distance of each area in response to the determined distance and the direction. Navigation aids using augmented reality images to set GPS coordinates in.
삭제delete 삭제delete 제1항에 있어서,
상기 제어부는 상기 영역들 중 상기 제2 선박의 GPS 좌표와 매칭되는 GPS 좌표를 갖는 제1 영역을 선별하고, 상기 제1 영역 상에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성하는 증강현실 이미지를 이용한 항해 보조장치.
The method of claim 1,
The control unit selects a first area having GPS coordinates matching the GPS coordinates of the second ship among the areas, and generates the augmented reality navigation image by superimposing the first augmented reality image on the first area. Navigation aids using an augmented reality image.
제1항에 있어서,
상기 통신부는 전자해도정보시스템(Electronic Chart Display and Information System)로부터 ECDIS 데이터를 수신하고,
상기 제어부는 상기 ECDIS 데이터를 기초로 주변환경의 환경정보를 판단하며,
상기 증강현실 영상 생성부는 상기 환경정보를 기초로 상기 주변환경을 제2 증강현실 이미지로 생성하고,
상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 주변환경의 위치에 상기 제2 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성하는 증강현실 이미지를 이용한 항해 보조장치.
The method of claim 1,
The communication unit receives ECDIS data from an Electronic Chart Display and Information System,
The control unit determines environmental information of the surrounding environment based on the ECDIS data,
The augmented reality image generation unit generates the surrounding environment as a second augmented reality image based on the environment information,
The control unit analyzes the navigation image and superimposes the second augmented reality image on the location of the surrounding environment in the navigation image to generate the augmented reality navigation image.
제1항에 있어서,
상기 제어부는 제1 시점에서 상기 제1 및 제2 선박정보들을 분석하여, 각 선박의 이동경로 및 속도를 유지할 경우에 상기 제1 시점 이후 상기 제1 선박에 제1 기준 거리 미만으로 인접하게될 제2 선박을 선별하고, 선별된 제2 선박을 충돌위험선박으로 결정하는 증강현실 이미지를 이용한 항해 보조장치.
The method of claim 1,
The control unit analyzes the first and second ship information at a first time point, and when maintaining the movement path and speed of each ship, the control unit is configured to be adjacent to the first ship by less than a first reference distance after the first time point. 2 Navigation aids using an augmented reality image that selects a ship and determines the selected second ship as a collision risk ship.
제6항에 있어서,
상기 제어부는 다수의 제2 선박들 중 충돌위험선박으로 선정된 제2 선박의 제1 증강현실 이미지만을 상기 항해 영상에 중첩하여 표시하는 증강현실 이미지를 이용한 항해 보조장치.
The method of claim 6,
The control unit is a navigation aid using an augmented reality image that displays only the first augmented reality image of a second ship selected as a collision risk ship among the plurality of second ships by superimposing on the sailing image.
제7항에 있어서,
상기 제어부는 다수의 제2 선박들 중 나머지를 식별기호로 구현하여 상기 증강현실 항해영상에 표시하는 증강현실 이미지를 이용한 항해 보조장치.
The method of claim 7,
The control unit is a navigation assistance device using an augmented reality image that is displayed on the augmented reality navigation image by implementing the rest of the plurality of second ships as identification symbols.
선박용 레이더로부터 레이더 데이터를 수신하는 통신부;
상기 레이더 데이터를 기초로 사용자가 탑승한 제1 선박의 제1 선박정보, 상기 제1 선박과 인접한 위치에 배치된 제2 선박의 제2 선박정보를 판단하고, 카메라 모듈로부터 상기 제1 선박의 외부를 촬영한 항해 영상을 수신하여 증강현실 항해영상을 생성하는 제어부;
상기 제1 선박정보 및 상기 제2 선박정보를 기초로 상기 제2 선박을 제1 증강현실 이미지로 생성하는 증강현실 영상 생성부; 및
상기 증강현실 항해영상을 표시하는 영상 표시부를 포함하고,
상기 제1 선박정보는 상기 제1 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고, 상기 제2 선박정보는 상기 제2 선박의 GPS 좌표, 속도, 및 이동방향을 포함하고,
상기 제어부는 상기 항해 영상을 분석하여 상기 항해 영상 내 상기 제2 선박의 위치에 상기 제1 증강현실 이미지를 중첩하여 상기 증강현실 항해영상을 생성하고,
상기 제어부는 상기 카메라 모듈로부터 촬영방위를 수신하여 상기 항해영상의 방위를 판단하고, 상기 제1 선박정보를 기초로 상기 제1 선박의 GPS 좌표를 판단하여, 상기 제1 선박의 GPS 좌표를 기준으로 상기 항해영상에 GPS 좌표를 설정하고,
상기 제어부는 상기 항해영상을 복수의 영역들로 분할하고, 각 영역이 상기 카메라 모듈 및 해수면과 이루는 각도에 대응하여 각 영역의 떨어진 거리를 판단하고, 판단된 거리 및 상기 방위에 대응하여 상기 각 영역에 GPS 좌표를 설정하는 증강현실 이미지를 이용한 항해 보조장치.
A communication unit for receiving radar data from a ship radar;
Based on the radar data, the first ship information of the first ship on which the user is boarded, the second ship information of the second ship disposed in a position adjacent to the first ship is determined, and the outside of the first ship from the camera module A control unit for receiving a navigation image photographed and generating an augmented reality navigation image;
An augmented reality image generator for generating the second ship as a first augmented reality image based on the first ship information and the second ship information; And
Including an image display for displaying the augmented reality navigation image,
The first ship information includes GPS coordinates, speed, and movement direction of the first ship, and the second ship information includes GPS coordinates, speed, and movement direction of the second ship,
The control unit analyzes the navigation image and superimposes the first augmented reality image on the position of the second ship in the navigation image to generate the augmented reality navigation image,
The control unit receives the photographing orientation from the camera module, determines the orientation of the navigation image, determines the GPS coordinates of the first ship based on the first ship information, and determines the GPS coordinates of the first ship based on the GPS coordinates of the first ship. Set GPS coordinates in the navigation image,
The control unit divides the navigation image into a plurality of areas, determines a distance of each area corresponding to an angle formed by each area with the camera module and sea level, and determines the distance of each area in response to the determined distance and the direction. Navigation aids using augmented reality images to set GPS coordinates in.
KR1020200083338A 2020-06-24 2020-07-07 Sailing assistance device using augmented reality image KR102249156B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200083338A KR102249156B1 (en) 2020-07-07 2020-07-07 Sailing assistance device using augmented reality image
EP21829226.6A EP4173942A1 (en) 2020-06-24 2021-06-08 Navigation assistance device using augmented reality and 3d images
PCT/KR2021/007157 WO2021261810A1 (en) 2020-06-24 2021-06-08 Navigation assistance device using augmented reality and 3d images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200083338A KR102249156B1 (en) 2020-07-07 2020-07-07 Sailing assistance device using augmented reality image

Publications (1)

Publication Number Publication Date
KR102249156B1 true KR102249156B1 (en) 2021-05-07

Family

ID=75916847

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200083338A KR102249156B1 (en) 2020-06-24 2020-07-07 Sailing assistance device using augmented reality image

Country Status (1)

Country Link
KR (1) KR102249156B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2795847C1 (en) * 2021-12-13 2023-05-12 Общество с ограниченной ответственностью "РобБотКрафт" Method and system for detecting objects in water for small boats

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101539061B1 (en) * 2014-06-11 2015-07-23 한국해양과학기술원 Measuring devices for back light of beacon using camera and management method of the same
KR101549513B1 (en) * 2015-04-08 2015-09-03 이병걸 System and Method for Preventing Collision of Vessel and Recording using Augmented Reality
KR20200050808A (en) * 2018-11-02 2020-05-12 대우조선해양 주식회사 System for predicting degree of collision risk and guiding safe voyage route through fusing navigation sensor inside ship and image information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101539061B1 (en) * 2014-06-11 2015-07-23 한국해양과학기술원 Measuring devices for back light of beacon using camera and management method of the same
KR101549513B1 (en) * 2015-04-08 2015-09-03 이병걸 System and Method for Preventing Collision of Vessel and Recording using Augmented Reality
KR20200050808A (en) * 2018-11-02 2020-05-12 대우조선해양 주식회사 System for predicting degree of collision risk and guiding safe voyage route through fusing navigation sensor inside ship and image information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2795847C1 (en) * 2021-12-13 2023-05-12 Общество с ограниченной ответственностью "РобБотКрафт" Method and system for detecting objects in water for small boats

Similar Documents

Publication Publication Date Title
US20200278433A1 (en) Real-time monitoring of surroundings of marine vessel
US11328155B2 (en) Augmented reality labels systems and methods
US10942027B2 (en) Video sensor fusion and model based virtual and augmented reality systems and methods
US9401049B2 (en) Augmented reality system using moving ceiling transparent display for ship and method for enabling same
KR20200027871A (en) Path planning method using obstacle map
US20210206459A1 (en) Video sensor fusion and model based virtual and augmented reality systems and methods
US11892298B2 (en) Navigational danger identification and feedback systems and methods
US20230038494A1 (en) Administrative server in ship navigation assistance system, ship navigation assistance method, and ship navigation assistance program
US20220172464A1 (en) Water non-water segmentation systems and methods
US20220392211A1 (en) Water non-water segmentation systems and methods
CN109911140A (en) A kind of water-area navigation information enhancement device, system and method
US20220268580A1 (en) Tidal current information display apparatus and method
JP2011225208A (en) Image display system, image display method and program
KR102283968B1 (en) System and method for generating and sharing visibility observation information based on image learning
KR102249156B1 (en) Sailing assistance device using augmented reality image
KR102464207B1 (en) Ship safety management system using augmented reality
WO2023064384A1 (en) Context-dependent generation of navigational chart comprising hazards
CN113450598B (en) Ship auxiliary navigation method and system based on infrared video
CN115311900A (en) Inland waterway ship auxiliary target identification system and method based on visual enhancement
CN111241948B (en) Method and system for all-weather ship identification
KR20230123504A (en) Navigational Beacon Identification Device, Autonomous Navigation System, Navigational Beacon Identification Method, and Program
EP4173942A1 (en) Navigation assistance device using augmented reality and 3d images
KR102428886B1 (en) support system for vessel operation and ship having the same
CN209641094U (en) Water-area navigation information enhancement glasses
EP4047313A1 (en) Tidal current information display device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant