KR20210136806A - support system for vessel operation and ship having the same - Google Patents

support system for vessel operation and ship having the same Download PDF

Info

Publication number
KR20210136806A
KR20210136806A KR1020200114176A KR20200114176A KR20210136806A KR 20210136806 A KR20210136806 A KR 20210136806A KR 1020200114176 A KR1020200114176 A KR 1020200114176A KR 20200114176 A KR20200114176 A KR 20200114176A KR 20210136806 A KR20210136806 A KR 20210136806A
Authority
KR
South Korea
Prior art keywords
image
ship
unit
image acquisition
vessel
Prior art date
Application number
KR1020200114176A
Other languages
Korean (ko)
Other versions
KR102428886B1 (en
Inventor
이호진
전마로
우주현
Original Assignee
주식회사 아비커스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아비커스 filed Critical 주식회사 아비커스
Publication of KR20210136806A publication Critical patent/KR20210136806A/en
Application granted granted Critical
Publication of KR102428886B1 publication Critical patent/KR102428886B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B43/00Improving safety of vessels, e.g. damage control, not otherwise provided for
    • B63B43/18Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems

Abstract

The present invention relates to a ship navigation support system and a ship including the same. According to the present invention, the ship navigation support system comprises: a plurality of image acquisition units provided on a ship having a cabin on the deck and collecting images of the surroundings; an image processing unit for processing the image of the image acquisition unit to generate a processed image looking down from the upper side of the ship; an image blur estimation unit for calculating a degree of blur of a specific part corresponding to a peripheral object of the ship in the image of the image acquisition unit; and an object distance estimation unit for estimating the distance from the ship to the specific part based on the degree of blur of the specific part and the focal length of the image acquisition unit.

Description

선박 운항 지원 시스템 및 이를 포함하는 선박{support system for vessel operation and ship having the same}A ship operation support system and a ship including the same {support system for vessel operation and ship having the same}

본 발명은 선박 운항 지원 시스템 및 이를 포함하는 선박에 관한 것이다.The present invention relates to a ship navigation support system and a ship including the same.

선박은 대량의 광물이나 원유, 천연가스, 또는 몇천 개 이상의 컨테이너 등을 싣고 대양을 항해하는 운송수단으로서, 강철로 이루어져 있고 부력에 의해 수선면에 부유한 상태에서 프로펠러의 회전을 통해 발생되는 추력을 통해 이동한다.A ship is a means of transport that carries a large amount of minerals, crude oil, natural gas, or thousands of containers or more and sails the ocean. move through

이러한 선박은 엔진이나 가스 터빈 등을 구동함으로써 추력을 발생시키는데, 이때 엔진은 중유(HFO) 또는 경유(MDO, MGO) 등의 오일연료를 사용하여 피스톤을 움직여서 피스톤의 왕복운동에 의해 크랭크 축이 회전되도록 하고, 크랭크 축에 연결된 샤프트가 회전되어 프로펠러가 구동되도록 하며, 반면 가스 터빈은 압축 공기와 함께 오일연료를 연소시키고, 연소 공기의 온도/압력을 통해 터빈 날개를 회전시킴으로써 발전하여 프로펠러에 동력을 전달하는 방식을 사용한다.These ships generate thrust by driving an engine or gas turbine, etc. At this time, the engine uses oil fuel such as heavy oil (HFO) or light oil (MDO, MGO) to move the piston, and the crankshaft rotates by the reciprocating motion of the piston. The shaft connected to the crankshaft is rotated to drive the propeller, while the gas turbine burns oil fuel with compressed air, and generates power by rotating the turbine blades through the temperature/pressure of the combustion air to power the propeller. method of delivery is used.

그러나 최근에는, 오일연료 사용 시의 배기로 인한 환경 파괴 문제를 해소하기 위해, 액화천연가스(LNG)나 액화석유가스(LPG) 등의 가스연료를 사용하여 엔진이나 터빈 등을 구동해 추진하는 가스연료 추진 방식이 사용되고 있다. 특히 LNG는 청정연료이고 매장량도 석유보다 풍부하기 때문에, 가스연료로 LNG를 사용하는 방식이 LNG 운반선 외에 컨테이너선 등과 같은 다른 선박에도 적용되고 있다.However, in recent years, in order to solve the problem of environmental destruction caused by exhaust when oil fuel is used, gas fuel such as liquefied natural gas (LNG) or liquefied petroleum gas (LPG) is used to drive an engine or a turbine to propel gas. Fuel propulsion is used. In particular, since LNG is a clean fuel and its reserves are more abundant than petroleum, the method of using LNG as a gas fuel is applied to other ships such as container ships in addition to LNG carriers.

이와 같이 선박은, 화물의 운송 효율을 보장하는 기본 기능에서 더 나아가, 환경 오염을 억제하고 에너지 소비를 줄일 수 있도록, 운항 효율을 보장하는 수준까지 점차 발전해 나가고 있다.As described above, the ship is gradually developing to a level that guarantees operational efficiency in order to suppress environmental pollution and reduce energy consumption, going beyond the basic function of guaranteeing transport efficiency of cargo.

이러한 발전 과정에 따라 운항을 효과적이고 심지어 자율적으로 제어할 수 있도록 하는 기술에 대한 연구 및 개발이 지속적으로 이루어지고 있다. 그러나 아직까지 선박에 적용된 사례는 많지 않은 것이 현실이며, 꾸준한 연구가 필요한 실정이다.In accordance with this development process, research and development of technologies that enable effective and even autonomous control of navigation are continuously being made. However, the reality is that there are not many cases applied to ships, and continuous research is needed.

본 발명은 상기와 같은 종래기술의 문제점을 해결하고자 창출된 것으로서, 본 발명의 목적은, 선박이 항해, 정박 등을 위해 움직이는 운항 시 직관적인 가이드 정보를 제공하여 안전한 운항을 가능케 하는 선박 운항 지원 시스템 및 이를 포함하는 선박을 제공하기 위한 것이다.The present invention was created to solve the problems of the prior art as described above, and an object of the present invention is a ship operation support system that enables safe operation by providing intuitive guide information when a ship moves for sailing, anchoring, etc. And to provide a ship including the same.

본 발명의 일 측면에 따른 선박 운항 지원 시스템은, 갑판 상에 선실을 갖는 선박에 마련되며 주변의 영상을 수집하는 복수 개의 영상 획득부; 상기 영상 획득부의 영상을 가공하여 상기 선박의 상측에서 내려다보는 가공 영상을 생성하는 영상 처리부; 상기 영상 획득부의 영상에서 상기 선박의 주변객체에 해당하는 특정 부분의 흐림 정도를 산출하는 영상 블러 추정부; 및 상기 특정 부분의 흐림 정도와 상기 영상 획득부의 초점거리를 토대로 상기 선박으로부터 상기 특정 부분까지의 거리를 추정하는 객체 거리 추정부를 포함하는 것을 특징으로 한다.A ship navigation support system according to an aspect of the present invention is provided in a ship having a cabin on a deck and includes: a plurality of image acquisition units for collecting images of the surroundings; an image processing unit for processing the image of the image acquisition unit to generate a processed image looking down from the upper side of the vessel; an image blur estimator for calculating a degree of blur of a specific part corresponding to a peripheral object of the vessel in the image of the image acquisition unit; and an object distance estimator for estimating the distance from the vessel to the specific part based on the degree of blur of the specific part and the focal length of the image acquisition unit.

구체적으로, 상기 객체 거리 추정부는, 상기 특정 부분의 흐림 정도와 상기 영상 획득부의 초점거리를 토대로 상기 영상 획득부로부터 상기 특정 부분까지의 직선거리를 추정하고, 상기 직선거리 및 상기 영상 획득부의 높이를 토대로 상기 선박으로부터 상기 특정 부분까지의 수평거리를 추정할 수 있다.Specifically, the object distance estimation unit estimates a straight line distance from the image acquisition unit to the specific part based on the degree of blur of the specific part and the focal length of the image acquisition unit, and determines the linear distance and the height of the image acquisition unit. Based on this, the horizontal distance from the ship to the specific part can be estimated.

구체적으로, 상기 영상 획득부는, 단안 카메라일 수 있다.Specifically, the image acquisition unit may be a monocular camera.

구체적으로, 상기 가공 영상을 출력하는 출력부를 더 포함할 수 있다.Specifically, it may further include an output unit for outputting the processed image.

본 발명의 다른 측면에 따른 선박 운항 지원 시스템은, 갑판 상에 선실을 갖는 선박에 마련되며 주변의 영상을 수집하는 복수 개의 영상 획득부; 상기 영상 획득부의 영상을 가공하여 상기 선박의 상측에서 내려다보는 가공 영상을 생성하는 영상 처리부; 상기 영상 획득부가 수집한 영상 또는 상기 영상 처리부가 생성한 가공 영상 중 적어도 어느 하나를 특정 단위로 분할하고 각 단위의 클래스를 할당하여 상기 선박과 상기 선박의 주변객체를 파악하는 영상 분할부; 및 상기 영상 또는 상기 가공 영상의 특정 단위를 기반으로 상기 선박과 상기 주변객체 간의 수평거리를 추정하는 객체 거리 추정부를 포함하는 것을 특징으로 한다.A ship navigation support system according to another aspect of the present invention is provided in a ship having a cabin on a deck and includes: a plurality of image acquisition units for collecting images of the surroundings; an image processing unit for processing the image of the image acquisition unit to generate a processed image looking down from the upper side of the vessel; an image segmentation unit that divides at least one of the image collected by the image acquisition unit or the processed image generated by the image processing unit into specific units and assigns a class to each unit to identify the vessel and objects surrounding the vessel; and an object distance estimator for estimating a horizontal distance between the ship and the surrounding object based on a specific unit of the image or the processed image.

구체적으로, 상기 영상 획득부는, 단안 카메라일 수 있다.Specifically, the image acquisition unit may be a monocular camera.

구체적으로, 상기 가공 영상을 출력하는 출력부를 더 포함할 수 있다.Specifically, it may further include an output unit for outputting the processed image.

본 발명의 일 측면에 따른 선박은, 상기 선박 운항 지원 시스템을 갖는 것을 특징으로 한다.A ship according to an aspect of the present invention is characterized in that it has the ship navigation support system.

본 발명에 따른 선박 운항 지원 시스템 및 이를 포함하는 선박은, 운항 과정에서 주변 환경에 대한 정보를 직관적으로 제공할 수 있음으로써, 사고 위험을 혁신적으로 낮추며 운항의 효율성을 최적화할 수 있다.The ship navigation support system according to the present invention and a ship including the same can intuitively provide information on the surrounding environment during a navigation process, thereby innovatively lowering the risk of an accident and optimizing the efficiency of the operation.

도 1은 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 2는 본 발명의 제1 실시예에 따른 선박의 측면도이다.
도 3은 본 발명의 제1 실시예에 따른 선박의 평면도이다.
도 4 내지 도 7은 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 개념도이다.
도 8은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 9는 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 10 내지 도 12는 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 개념도이다.
도 13은 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 14 내지 도 16은 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템의 개념도이다.
도 17은 본 발명의 제5 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 18 내지 도 20은 본 발명에 따른 선박 운항 지원 시스템의 출력 화면을 나타내는 도면이다.
도 21은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 입자를 나타내는 도면이다.
도 22 및 도 23은 본 발명에 따른 선박 운항 지원 시스템의 출력 화면을 나타내는 도면이다.
도 24는 본 발명의 제6 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 25는 본 발명의 제6 실시예에 따른 선박 운항 지원 시스템의 개념도이다.
1 is a block diagram of a ship navigation support system according to a first embodiment of the present invention.
2 is a side view of a ship according to a first embodiment of the present invention.
3 is a plan view of a ship according to a first embodiment of the present invention.
4 to 7 are conceptual views of a ship navigation support system according to a first embodiment of the present invention.
8 is a block diagram of a ship navigation support system according to a second embodiment of the present invention.
9 is a block diagram of a ship navigation support system according to a third embodiment of the present invention.
10 to 12 are conceptual views of a ship navigation support system according to a third embodiment of the present invention.
13 is a block diagram of a ship navigation support system according to a fourth embodiment of the present invention.
14 to 16 are conceptual views of a ship navigation support system according to a fourth embodiment of the present invention.
17 is a block diagram of a ship navigation support system according to a fifth embodiment of the present invention.
18 to 20 are diagrams illustrating output screens of the ship navigation support system according to the present invention.
21 is a view showing particles of a ship navigation support system according to a second embodiment of the present invention.
22 and 23 are diagrams showing an output screen of the ship navigation support system according to the present invention.
24 is a block diagram of a ship navigation support system according to a sixth embodiment of the present invention.
25 is a conceptual diagram of a ship navigation support system according to a sixth embodiment of the present invention.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시예로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.The objects, specific advantages and novel features of the present invention will become more apparent from the following detailed description and preferred embodiments taken in conjunction with the accompanying drawings. In the present specification, in adding reference numbers to the components of each drawing, it should be noted that only the same components are given the same number as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 참고로 본 발명은 이하에서 설명하는 선박 운항 지원 시스템은 물론이고, 해당 시스템이 탑재/내장되는 선박도 포함한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. For reference, the present invention includes a ship operation support system described below, as well as a ship on which the system is mounted/built.

이때 선박이라 함은 화물이나 사람을 출발지에서 도착지까지 실어 나르는 상선/여객선과 같은 일반적인 선박 외에도, 해양에서 특정한 작업을 수행하기 위한 부유 구조물 등을 모두 포괄하는 개념일 수 있다.In this case, the term "ship" may be a concept that encompasses not only general ships such as merchant ships/passenger ships that transport cargo or people from the origin to the destination, but also floating structures for performing specific tasks in the ocean.

또한 참고로 본 명세서에서, 본 발명의 시스템이 마련되는 선박을 자선이라 하며, 자선의 주변에 위치하는 물체로서 다른 선박이나 부유체, 육지, 교각과 같은 고정 구조물 등을 객체라 지칭함을 알려둔다.Also for reference, in this specification, a ship on which the system of the present invention is provided is referred to as an own ship, and other ships or floating bodies, land, fixed structures such as piers, etc. as objects located in the vicinity of the own ship are referred to as objects.

또한 참고로 이하에서 길이방향은 전후방향과 동일한 의미이며, 폭방향과 좌우방향 역시 동일한 의미를 갖는다. 또한 이하에서 추정, 확인, 산출 등은 그 용어에도 불구하고 계산, 측정, 수신 및 이외 유사어들을 모두 포괄하는 것으로 해석될 수 있다.Also, for reference, hereinafter, the longitudinal direction has the same meaning as the front-back direction, and the width direction and the left-right direction also have the same meaning. In addition, in the following, estimation, confirmation, calculation, etc. may be construed to encompass all similar terms such as calculation, measurement, reception, and other similar terms, despite the terms.

도 1은 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 블록도이고, 도 2는 본 발명의 제1 실시예에 따른 선박의 측면도이며, 도 3은 본 발명의 제1 실시예에 따른 선박의 평면도이다.1 is a block diagram of a ship navigation support system according to a first embodiment of the present invention, FIG. 2 is a side view of a ship according to a first embodiment of the present invention, and FIG. 3 is a first embodiment of the present invention. This is a plan view of the ship.

또한 도 4 내지 도 7은 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 개념도이다.4 to 7 are conceptual views of a ship navigation support system according to the first embodiment of the present invention.

또한 도 18 내지 도 20은 본 발명에 따른 선박 운항 지원 시스템의 출력 화면을 나타내는 도면이고, 도 22 및 도 23은 본 발명에 따른 선박 운항 지원 시스템의 출력 화면을 나타내는 도면이다.18 to 20 are diagrams showing an output screen of the ship navigation support system according to the present invention, and FIGS. 22 and 23 are diagrams showing an output screen of the ship navigation support system according to the present invention.

도 1 내지 도 3을 참조하면, 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템(1)은, 영상 획득부(10), 데이터 전달부(20), 영상 처리부(30), 출력부(40)를 포함한다.1 to 3 , the ship navigation support system 1 according to the first embodiment of the present invention includes an image acquisition unit 10 , a data transmission unit 20 , an image processing unit 30 , and an output unit ( 40).

영상 획득부(10)는, 선박(200)에 마련되며 주변의 영상을 수집한다. 영상 획득부(10)는 복수 개로 마련되며, 아날로그 영상신호를 생성하는 단안 카메라 등으로 마련될 수 있다. 편의상 이하에서 본 발명의 영상 획득부(10)는 단안 카메라인 것을 가정하여 설명하도록 한다.The image acquisition unit 10 is provided in the ship 200 and collects images around it. The image acquisition unit 10 is provided in plurality, and may be provided as a monocular camera that generates an analog image signal. For convenience, the image acquisition unit 10 of the present invention will be described below on the assumption that it is a monocular camera.

영상 획득부(10)는, 선박(200)의 주변 영상을 수집하기 위하여 선박(200)의 주변 방향을 바라보도록 마련되며, 수집된 영상은 후술하는 영상 처리부(30)에 의하여 가공 및 정합되어 하나의 가공 영상(300)으로 변환될 수 있다.The image acquisition unit 10 is provided to face the peripheral direction of the vessel 200 in order to collect images surrounding the vessel 200 , and the collected images are processed and matched by an image processing unit 30 to be described later. may be converted into a processed image 300 of

영상 처리부(30)가 생성하는 가공 영상(300)은 선박(200)의 상측에서 내려다보는 영상일 수 있으며, 이러한 영상의 생성을 위하여 복수 개의 영상 획득부(10)는, 적어도 부분적으로 영상이 겹쳐지도록 촬영할 수 있다.The processed image 300 generated by the image processing unit 30 may be an image looking down from the upper side of the ship 200 , and a plurality of image acquisition units 10 for generating such an image, at least partially overlap the images. You can take pictures.

또한 영상 획득부(10)는, 갑판(220) 상에 선실(221)을 갖는 선박(200)에 마련되며, 그 위치가 구체적으로 특정될 수 있다. 이에 대해서는 도 2 및 도 3을 참조해 설명한다.In addition, the image acquisition unit 10 is provided in the ship 200 having the cabin 221 on the deck 220, the position can be specifically specified. This will be described with reference to FIGS. 2 and 3 .

도 2 및 도 3을 참조할 때, 본 발명의 선박(200)은 내부에 화물을 적재하는 홀드(210)를 구비하며, 홀드(210)는 길이 방향으로 복수 개가 마련될 수 있다.2 and 3, the ship 200 of the present invention has a hold 210 for loading cargo therein, and a plurality of holds 210 may be provided in the longitudinal direction.

일례로 홀드(210)가 오일 등의 유체를 저장하는 카고탱크일 경우, 홀드(210)는 선내에 길이방향을 따라 4개 내지 8개로 마련될 수 있으며, 폭방향으로도 1개 이상 마련될 수 있다.For example, if the hold 210 is a cargo tank for storing a fluid such as oil, the hold 210 may be provided in four to eight pieces along the longitudinal direction in the ship, and one or more may be provided in the width direction as well. have.

또한 선박(200)에는 갑판(220) 상에 선실(221)과 엔진 케이싱(222)이 마련되며, 선실(221)은 갑판(220)에서 선미에 구비될 수 있고, 선실(221)의 후방에 엔진 케이싱(222)이 마련될 수 있다. 즉 도면에 따를 때 선박(200)은 벌크선, 탱커선, 가스선 등일 수 있다.In addition, the ship 200 is provided with a cabin 221 and an engine casing 222 on the deck 220, the cabin 221 may be provided at the stern on the deck 220, and at the rear of the cabin 221 An engine casing 222 may be provided. That is, according to the drawings, the vessel 200 may be a bulk carrier, a tanker, a gas vessel, or the like.

물론 본 발명의 선박(200)은 위와 같은 상선으로 한정되지 않으며, 선실(221)이 갑판(220)에서 길이방향으로 중앙부에 마련되는 컨테이너선 역시 포함될 수 있다. 다만 본 발명의 제1 실시예에 따른 선박(200) 운항 시스템이 탑재되는 선박(200)은, 선수에서 선실(221)까지의 거리가 100m를 초과하는 선박(200)일 수 있다.Of course, the ship 200 of the present invention is not limited to the above merchant ship, and a container ship in which the cabin 221 is provided at the center in the longitudinal direction from the deck 220 may also be included. However, the ship 200 on which the ship 200 navigation system according to the first embodiment of the present invention is mounted may be a ship 200 in which the distance from the bow to the cabin 221 exceeds 100 m.

이러한 선박(200)은, 길이방향을 따라 선수, 선미, 중앙부로 구분될 수 있으며, 영상 획득부(10)는 선박(200) 주변에 대한 영상을 확보하기 위해 선수와 선미 및 선박(200)의 양측 등에 마련된다.Such a vessel 200 may be divided into a bow, a stern, and a central part along the longitudinal direction, and the image acquisition unit 10 of the bow and stern and the vessel 200 in order to secure an image of the vessel 200 periphery. provided on both sides.

특히 영상 획득부(10)는 선수와 선미에 각각 구비되어 선박(200)의 전방 및 후방의 영상을 수집하고, 선박(200)에서 전후 방향으로 적어도 한 지점의 양측에 각각 구비되어 선박(200)의 좌우 영상을 수집할 수 있다.In particular, the image acquisition unit 10 is provided at the bow and the stern respectively to collect images of the front and rear of the ship 200 , and is provided on both sides of at least one point in the front and rear direction in the ship 200 , respectively, to provide the ship 200 . of left and right images can be collected.

선박(200)을 길이 방향으로 도 2 및 도 3에 나타난 바와 같이 선수 구역(A), 선미 구역(B), 전방 구역(C), 후방 구역(D)으로 구분할 수 있으며, 전방 구역(C)은 선수 구역(A)보다 뒤쪽에 위치하며 선수 또는 중앙부에 속하는 부분일 수 있고, 후방 구역(D)은 선미 구역(B)보다 앞쪽에 위치하며 선미 또는 중앙부에 속하는 부분이면서 선실(221)이 마련되는 부분일 수 있다.As shown in FIGS. 2 and 3 in the longitudinal direction, the vessel 200 can be divided into a bow section (A), a stern section (B), a front section (C), a rear section (D), and a front section (C) is located behind the bow area (A) and may be a part belonging to the bow or central part, and the rear zone (D) is located in front of the stern zone (B) and is a part belonging to the stern or central part, and the cabin 221 is provided It may be a part of

이때 영상 획득부(10)는, 위 각 구역(A-D)에 적어도 1개씩 마련되어, 선박(200)의 주변 360도 영상을 모두 확보할 수 있다. 일례로 영상 획득부(10)는 선수 구역(A)과 선미 구역(B)에 각각 1개씩 마련되고, 전방 구역(C)과 후방 구역(D)에 각각 2개씩 선측에 마련될 수 있다.At this time, the image acquisition unit 10 may be provided at least one in each of the above zones A-D to secure all of the surrounding 360-degree images of the ship 200 . As an example, the image acquisition unit 10 may be provided one each in the bow zone (A) and the stern zone (B), and two each in the front zone (C) and the rear zone (D) on the side of the ship.

또한 복수 개의 영상 획득부(10) 중 일부는 갑판(220)에 마련되며, 다른 일부는 갑판(220)보다 높은 위치에 마련될 수 있다. 영상 획득부(10)가 갑판(220)보다 상방에 마련되어 선박(200)의 외측 방향을 촬영하게 될 경우, 촬영된 영상을 선박(200)의 상측에서 내려다보도록 시점 변환하였을 때 해상도가 상대적으로 높게 이루어질 수 있다.In addition, some of the plurality of image acquisition units 10 may be provided on the deck 220 , and other portions may be provided at a higher position than the deck 220 . When the image acquisition unit 10 is provided above the deck 220 to photograph the outer direction of the ship 200 , the resolution is relatively high when the viewpoint is converted to look down the photographed image from the upper side of the ship 200 . can be done

즉 영상 처리부(30)가 생성하는 가공 영상(300)을 고려할 때, 영상 획득부(10)는 높이가 높은 위치에서 촬영하는 것이 해상도 측면에서 바람직한데, 선박(200)의 경우 갑판(220) 위쪽으로 구조물이 많지 않아 복수 개의 영상 획득부(10)를 모두 동일하게 갑판(220)보다 높은 위치에 설치하는 것이 쉽지 않다.That is, in consideration of the processed image 300 generated by the image processing unit 30, the image acquisition unit 10 is preferably photographed at a high position in terms of resolution, in the case of the ship 200, above the deck 220. Because there are not many structures, it is not easy to install the plurality of image acquisition units 10 at a position higher than the deck 220 equally.

따라서 본 실시예의 영상 획득부(10)는, 일부의 영상 획득부(10)를 갑판(220)보다 높은 위치에 마련하여 가공 영상(300)에서 해당 부분에 대한 해상도를 부분적으로 높일 수 있다.Therefore, the image acquisition unit 10 of the present embodiment may provide a portion of the image acquisition unit 10 at a higher position than the deck 220 to partially increase the resolution of the corresponding portion in the processed image 300 .

일례로 선수 구역(A)에 마련되는 영상 획득부(10)는, 선수에서 가장 높은 위치인 선수 마스트(223)에 설치될 수 있다. 다만 선미 구역(B)의 경우 높이를 높일 구조물이 뚜렷하지 않으므로, 선미 구역(B)의 영상 획득부(10)는 갑판(220)에 마련될 수 있다.For example, the image acquisition unit 10 provided in the player area (A) may be installed on the player mast 223, which is the highest position in the player. However, in the case of the stern region (B), since the structure to increase the height is not clear, the image acquisition unit 10 of the stern region (B) may be provided on the deck 220 .

또한 전방 구역(C)의 영상 획득부(10) 역시 갑판(220) 상에 높이를 높일 수 있는 설비의 확보가 쉽지 않은 바, 전방 구역(C)의 영상 획득부(10)도 갑판(220) 상에 마련될 수 있다. In addition, since it is not easy to secure a facility capable of increasing the height on the deck 220 of the image acquisition unit 10 of the front zone C, the image acquisition unit 10 of the front zone C is also on the deck 220 may be provided on the

이때 전방 구역(C)의 영상 획득부(10)는, 복수 개의 홀드(210) 중 최전방에 마련된 홀드(210)의 상방에서 갑판(220)의 양측에 마련될 수 있다. 즉 전방 구역(C)의 영상 획득부(10)는 첫 번째 홀드(210)와 두 번째 홀드(210)를 구획하는 격벽을 기준으로 전방에 배치될 수 있으며, 이를 통해 본 발명은 영상 획득부(10)가 확보하는 영상이 선박(200)을 이접안시키는 예인선(500)에 의해 간섭되지 않도록 할 수 있다.In this case, the image acquisition unit 10 of the front region C may be provided on both sides of the deck 220 above the hold 210 provided at the forefront among the plurality of holds 210 . That is, the image acquisition unit 10 of the front region C may be disposed in front with respect to the partition wall dividing the first hold 210 and the second hold 210, and through this, the present invention provides an image acquisition unit ( It is possible to prevent the image secured by 10) from being interfered with by the tugboat 500 berthing the vessel 200 .

다만 후술하겠으나 영상 처리부(30)는 선실(221)에 마련될 수 있으므로, 영상 처리부(30)에서 선수 구역(A) 및 전방 구역(C)에 마련되는 영상 획득부(10)까지는 일반적인 통신 방법으로 데이터 전송이 어려울 수 있다. 이러한 문제를 해결한 본 발명의 구성에 대해서는 데이터 전달부(20)를 설명하는 과정에서 자세히 서술한다.However, as will be described later, since the image processing unit 30 may be provided in the cabin 221, the image processing unit 30 to the image acquisition unit 10 provided in the bow area A and the front area C is a general communication method. Data transfer can be difficult. The configuration of the present invention that solves these problems will be described in detail in the process of describing the data transfer unit 20 .

후방 구역(D)에 마련되는 영상 처리부(30)는, 선실(221)의 상부에서 양측에 마련될 수 있다. 일례로 후방 구역(D)의 영상 처리부(30)는 선실(221)의 상부에서 양측으로 연장된 브릿지윙(221a)의 좌우 양단에 각각 마련될 수 있다.The image processing unit 30 provided in the rear zone D may be provided on both sides of the upper portion of the cabin 221 . For example, the image processing unit 30 of the rear region D may be provided at both left and right ends of the bridge wings 221a extending to both sides from the upper portion of the cabin 221 , respectively.

따라서 선수 구역(A)과 선미 구역(B)에 마련되는 영상 획득부(10)는 선박(200)의 폭방향으로 중심에 배치되면서 선박(200)의 전방 및 후방의 영상을 확보할 수 있고, 전방 구역(C)과 후방 구역(D)에 마련되는 영상 획득부(10)는 선박(200)의 양측에 배치되면서 선박(200)의 좌우 영상을 확보한다.Therefore, the image acquisition unit 10 provided in the bow zone (A) and the stern zone (B) can secure the images of the front and rear of the ship 200 while being disposed in the center in the width direction of the ship 200, The image acquisition units 10 provided in the front zone C and the rear zone D are disposed on both sides of the ship 200 to secure left and right images of the ship 200 .

또한 영상 획득부(10)는, 선미 구역(B) 및 전방 구역(C)에 마련되는 일부의 영상 획득부(10)가 갑판(220)에 마련되는 대신, 선수 구역(A) 및 후방 구역(D)에 마련되는 다른 일부의 영상 획득부(10)가 갑판(220)보다 높은 위치에 마련되도록 함으로써, 가공 영상(300)에 있어서 충돌 위험이 높거나 가공 영상(300)에 대한 의존도가 높은 부분(일례로 선실(221) 주변 부분)의 해상도를 높일 수 있게 된다. 따라서 본 발명은 선박(200) 운항의 안전성 및 효율성을 더욱 높일 수 있다.In addition, the image acquisition unit 10, instead of the part of the image acquisition unit 10 provided in the stern zone (B) and the front zone (C) is provided on the deck 220, the bow zone (A) and the rear zone ( By making the other part of the image acquisition unit 10 provided in D) be provided at a higher position than the deck 220 , a high risk of collision in the processed image 300 or a high dependence on the processed image 300 . It is possible to increase the resolution of (eg, a portion around the cabin 221 ). Therefore, the present invention can further increase the safety and efficiency of the operation of the ship 200 .

다만 본 발명에서 영상 획득부(10)는, 브릿지윙(221a)의 좌우 양단에만 마련되고 선수 구역(A)이나 선미 구역(B)에서는 생략되는 것도 가능하다. 이 경우 브릿지윙(221a) 양단에 마련되는 일례로 2개의 영상 획득부(10)를 이용하면, 선박(200)의 전방이나 후방의 영상이 미확보될 수 있다.However, in the present invention, the image acquisition unit 10 is provided only at both left and right ends of the bridge wing (221a), and it is also possible to be omitted in the bow area (A) or the stern area (B). In this case, if two image acquisition units 10 are used as an example provided at both ends of the bridge wing 221a, images of the front or rear of the ship 200 may not be secured.

다만 선박(200)의 이접안 시 전방과 후방 등에 연결되는 예인선(500)을 통해 선박(200)의 전후방에 대한 충돌 위험은 해소될 수 있으며, 위와 같은 경우 적어도 선박(200)에서 가장 중요한 부분인 선실(221)(특히 조타실)의 주변에 대한 가공 영상(300)을 제공하여 줌으로써, 영상 획득부(10)를 최소한으로 설치하고 데이터 전달이나 처리를 최소화하여, 최소한의 안전은 확보하면서도 시스템 구축 및 운영 비용을 절감할 수 있다.However, when the ship 200 is berthing, the risk of collision for the front and rear of the ship 200 can be resolved through the tug 500 connected to the front and rear, etc., and in this case, at least the most important part of the ship 200 By providing the processed image 300 for the periphery of the cabin 221 (especially the wheelhouse), the image acquisition unit 10 is installed to a minimum and data transmission or processing is minimized, thereby ensuring minimum safety and system construction and It can reduce operating costs.

데이터 전달부(20)는, 영상 획득부(10)의 영상을 영상 처리부(30)로 전달한다. 앞서 설명한 영상 처리부(30)는 단안 카메라일 수 있고 아날로그 영상신호로서 영상을 수집할 수 있다.The data transmission unit 20 transmits the image of the image acquisition unit 10 to the image processing unit 30 . The image processing unit 30 described above may be a monocular camera and may collect images as analog image signals.

이때 데이터 전달부(20)는 영상의 가공이 가능한 영상 처리부(30)로 영상 획득부(10)의 영상을 전달하게 된다. 다만 영상 처리부(30)는 가공 영상(300)이 출력되어야 하는 선실(221)(특히 조타실)에 설치되는 것이 바람직하므로, 데이터 전달부(20)는 선수 구역(A) 등에 마련되는 영상 획득부(10)로부터 후방 구역(D)의 선실(221)에 마련되는 영상 처리부(30)까지 영상신호를 전송해야 한다.At this time, the data transfer unit 20 transmits the image of the image acquisition unit 10 to the image processing unit 30 capable of processing the image. However, since the image processing unit 30 is preferably installed in the cabin 221 (especially the wheelhouse) where the processed image 300 is to be output, the data transfer unit 20 includes an image acquisition unit ( 10) to the image processing unit 30 provided in the cabin 221 of the rear zone (D) to transmit the image signal.

그런데 본 발명에서 선수 구역(A) 또는 전방 구역(C) 등에 마련되는 적어도 어느 하나의 영상 획득부(10)는, 영상 처리부(30) 대비 기설정거리 이상으로 이격 배치된다. 이때 기설정거리라 함은 GMSL 통신에 의한 유효거리(15m) 및 이더넷(Ethernet) 통신에 의한 유효거리(100m)를 초과한 값이다.However, in the present invention, at least one image acquisition unit 10 provided in the bow zone (A) or the front zone (C) is spaced apart from the image processing unit 30 by a predetermined distance or more. In this case, the preset distance is a value exceeding the effective distance (15m) by GMSL communication and the effective distance (100m) by Ethernet communication.

따라서 데이터 전달부(20)는, 도 4 내지 도 7에서 설명되는 바와 같은 구성을 마련하여 선수 등에 구비되는 영상 획득부(10)와 영상 처리부(30) 간의 영상신호 전달을 보장할 수 있다. 이하에서 데이터 전달부(20)의 구성을 각각 설명한다.Accordingly, the data transfer unit 20 may ensure the image signal transfer between the image acquisition unit 10 and the image processing unit 30 provided in the player or the like by providing the configuration as described with reference to FIGS. 4 to 7 . Hereinafter, the configuration of the data transfer unit 20 will be described, respectively.

도 4를 참조하면, 데이터 전달부(20)는, 복수 개의 영상 획득부(10)의 영상을 아날로그 영상신호로 전달하는 동축 케이블(21a)과, 아날로그 영상 신호를 디지털 영상신호로 변환하여 영상 처리부(30)에 전달하는 인코더(21b)를 포함할 수 있다.Referring to FIG. 4 , the data transfer unit 20 includes a coaxial cable 21a for transferring the images of the plurality of image acquisition units 10 into analog image signals, and an image processing unit by converting the analog image signals into digital image signals. It may include an encoder 21b that forwards to (30).

이때 동축 케이블(21a)은 5C-HFBT, RG-6 등으로서, HD-SDI용으로 마련되는 것일 수 있지만 이에 한정되는 것은 아니다. 이러한 동축 케이블(21a)은 통신 유효거리가 200m에 달하므로, 본 실시예는 선수의 영상 획득부(10)로부터 선실(221)의 영상 처리부(30)로 원활하게 영상신호를 전달할 수 있다.At this time, the coaxial cable 21a is 5C-HFBT, RG-6, etc., and may be provided for HD-SDI, but is not limited thereto. Since the coaxial cable 21a has a communication effective distance of 200 m, the present embodiment can smoothly transmit an image signal from the image acquisition unit 10 of the bow to the image processing unit 30 of the cabin 221 .

다만 데이터 전달부(20)는 동축 케이블(21a)을 이용하여 영상 획득부(10)의 아날로그 영상신호를 그대로 전송하게 되므로, 영상 처리부(30)의 가공을 위하여 인코더(21b)가 영상 처리부(30)의 전단에 마련될 수 있다.However, since the data transmission unit 20 transmits the analog image signal of the image acquisition unit 10 as it is by using the coaxial cable 21a, the encoder 21b uses the image processing unit 30 to process the image processing unit 30 . ) may be provided at the front end of the.

인코더(21b)는 아날로그 영상신호를 디지털 영상신호로 변환해 영상 처리부(30)로 전달함으로써, 영상 처리부(30)가 가공 영상(300)을 원활하게 생성하도록 할 수 있다.The encoder 21b converts an analog image signal into a digital image signal and transmits it to the image processing unit 30 , so that the image processing unit 30 smoothly generates the processed image 300 .

참고로 도면에 따르면 복수 개의 영상 획득부(10)가 하나의 인코더(21b)를 경유하는 것으로 도시되었으나, 인코더(21b)는 영상 획득부(10)의 수에 대응하여 적어도 둘 이상으로 마련될 수 있음은 물론이다.For reference, although the plurality of image acquisition units 10 is illustrated as passing through one encoder 21b according to the drawing, the encoder 21b may be provided in at least two or more corresponding to the number of image acquisition units 10 . of course there is

또는 도 5를 참조하면 데이터 전달부(20)는, 복수 개의 영상 획득부(10)의 영상신호를 이더넷 통신으로 전달하도록 마련될 수 있으며, 다만 영상 처리부(30)에서 기설정거리 이상으로 이격된 영상 획득부(10)로부터의 영상 전달을 보장하기 위해, 적어도 어느 하나의 영상 획득부(10)에 대해 리피터(22)를 구비할 수 있다. Alternatively, referring to FIG. 5 , the data transmission unit 20 may be provided to transmit the image signals of the plurality of image acquisition units 10 through Ethernet communication, but is spaced apart from the image processing unit 30 by a predetermined distance or more. In order to ensure image transfer from the image acquisition unit 10 , a repeater 22 may be provided for at least one image acquisition unit 10 .

리피터(22)는 복수 개의 영상 획득부(10)의 영상신호를 증폭한다. 물론 영상 처리부(30)에서 기설정거리를 초과해 배치된 영상 획득부(10)가 선수의 영상 획득부(10)만이라면, 리피터(22)는 1개인 선수의 영상 획득부(10)의 영상신호를 증폭할 수도 있다.The repeater 22 amplifies the image signals of the plurality of image acquisition units 10 . Of course, if the image acquisition unit 10 disposed beyond the preset distance in the image processing unit 30 is only the image acquisition unit 10 of the player, the repeater 22 is an image of the image acquisition unit 10 of the player. The signal can also be amplified.

데이터 전달부(20)는, 영상 획득부(10)와 리피터(22) 사이의 간격, 리피터(22)와 영상 처리부(30) 사이의 간격, 리피터(22) 사이의 간격 등을 기설정거리 이내로 할 수 있다. 일례로 어느 하나의 영상 획득부(10)로부터 영상 처리부(30)까지의 간격이 150m라고 할 때, 리피터(22)는 영상 획득부(10)로부터 50m 이상 이격된 위치에 배치됨으로써, 리피터(22)에서 영상 획득부(10)/영상 처리부(30)까지의 거리를 이더넷 통신의 유효거리 이내로 할 수 있다.The data transfer unit 20 sets the interval between the image acquisition unit 10 and the repeater 22, the interval between the repeater 22 and the image processing unit 30, the interval between the repeaters 22, etc. within a preset distance. can do. For example, when the distance from any one image acquisition unit 10 to the image processing unit 30 is 150 m, the repeater 22 is disposed at a location spaced 50 m or more from the image acquisition unit 10, so that the repeater 22 ) to the image acquisition unit 10 / image processing unit 30 can be within the effective distance of Ethernet communication.

또는 영상 획득부(10)에서 영상 처리부(30)까지의 간격이 300m 이상이라면, 적어도 100m 이내의 간격으로 2개 이상이 마련될 수 있고, 영상 획득부(10)와 리피터(22) 사이, 리피터(22)들 사이 및 리피터(22)와 영상 처리부(30) 사이의 최소 간격이 이더넷 통신의 유효거리 이내가 되도록 할 수 있다.Alternatively, if the distance from the image acquisition unit 10 to the image processing unit 30 is 300 m or more, two or more may be provided at an interval of at least 100 m, and between the image acquisition unit 10 and the repeater 22 , the repeater The minimum distance between the 22 and the repeater 22 and the image processing unit 30 may be within the effective distance of Ethernet communication.

또한 리피터(22)를 사용하는 경우 데이터 전달부(20)는 앞서 설명한 인코더(21b)가 영상 처리부(30) 측에 부가될 수 있음은 물론이다.In addition, when the repeater 22 is used, it goes without saying that the encoder 21b described above may be added to the data transfer unit 20 on the side of the image processing unit 30 .

또는 도 6을 참고할 때, 데이터 전달부(20)는 유효 통신거리가 수십 km에 달하는 광통신을 활용할 수 있다. 즉 본 실시예에서 데이터 전달부(20)는, 복수 개의 영상 획득부(10)의 아날로그 영상신호를 광신호로 변환하는 송신측 광 컨버터(23a)와, 광신호를 디지털 영상신호로 변환하는 수신측 광 컨버터(23b)를 포함할 수 있다.Alternatively, referring to FIG. 6 , the data transfer unit 20 may utilize optical communication having an effective communication distance of several tens of km. That is, in the present embodiment, the data transfer unit 20 includes a transmission-side optical converter 23a that converts the analog image signals of the plurality of image acquisition units 10 into optical signals, and a receiver that converts the optical signals into digital image signals. It may include a side optical converter 23b.

이때 송신측 광 컨버터(23a)와 영상 획득부(10) 사이에 인코더(21b)가 마련될 수 있으며, 송신측 광 컨버터(23a)는 인코더(21b)의 디지털 영상신호를 광신호로 변환하여 수신측 광 컨버터(23b)에 전달할 수 있다.In this case, the encoder 21b may be provided between the optical converter 23a on the transmission side and the image acquisition unit 10, and the optical converter 23a on the transmission side converts the digital image signal of the encoder 21b into an optical signal and receives it. It can be transmitted to the side optical converter (23b).

또는 도 7을 참조하면, 무선통신을 이용할 수 있다. 즉 데이터 전달부(20)는 복수 개의 영상 획득부(10)의 영상신호를 무선으로 전달하는 하나 이상의 무선통신 송신부(24a)와, 영상신호를 영상 처리부(30)로 전달하는 하나 이상의 무선통신 수신부(24b)를 포함할 수 있다.Alternatively, referring to FIG. 7 , wireless communication may be used. That is, the data transfer unit 20 includes one or more wireless communication transmitters 24a that wirelessly transmit image signals from the plurality of image acquisition units 10 , and one or more wireless communication receivers that transfer image signals to the image processing unit 30 . (24b) may be included.

이‹š 무선통신 송신부(24a)와 무선통신 수신부(24b) 사이에는, 영상신호의 전달이 원활하도록 전파의 직선 도달이 가능한 가시선(Line of Sight)이 확보될 수 있다.Between the wireless communication transmitting unit 24a and the wireless communication receiving unit 24b, a line of sight through which radio waves can reach a straight line can be secured so that the video signal can be transmitted smoothly.

이를 위해 무선통신 송신부(24a)는 선수 마스트(223) 등 전고가 높고 주변 장애물이 없는 위치에 설치될 수 있으며, 또한 선수 마스트(223)에 영상 획득부(10)가 설치되는 경우, 무선통신 송신부(24a)는 선수 마스트(223) 상에서 영상 획득부(10)의 후방에 마련되어 영상신호의 무선 전달이 영상 획득부(10)에 의해 간섭되지 않도록 할 수 있다.To this end, the wireless communication transmitter 24a may be installed at a high overall height such as the bow mast 223 and there are no surrounding obstacles, and when the image acquisition unit 10 is installed in the bow mast 223, the wireless communication transmitter 24a may be provided on the bow mast 223 on the rear of the image acquisition unit 10 to prevent wireless transmission of the image signal from being interfered with by the image acquisition unit 10 .

또한 무선통신 수신부(24b)는 브릿지윙(221a)의 외부에 마련되어 무선통신 송신부(24a)를 바라볼 때 그 사이에 적어도 전파의 전달을 방해하는 장애물이 없도록 할 수 있다. 따라서 데이터 전달부(20)는 통신의 유효거리가 1km 내외인 WiFi 등의 무선통신 방식을 활용함으로써, 선박(200)에 별도의 케이블을 포설할 필요 없이 영상신호의 전달을 구현할 수 있다.In addition, the wireless communication receiver 24b may be provided on the outside of the bridge wing 221a so that when looking at the wireless communication transmitter 24a, there are at least no obstacles interfering with the transmission of radio waves therebetween. Therefore, the data transmission unit 20 can implement the transmission of the image signal without the need to install a separate cable in the ship 200 by utilizing a wireless communication method such as WiFi, in which the effective distance of communication is about 1 km.

이와 같이 본 실시예는, 자동차와 달리 폭방향 대비 길이방향이 상대적으로 매우 길며 전후 방향으로 길이가 적어도 100m 이상으로 마련되는 선박(200)에 대해 상측에서 내려다보는 가공 영상(300)을 원활하게 생성할 수 있도록, 선수 등에 배치되는 영상 획득부(10)로부터 선실(221)에 마련되는 영상 처리부(30)까지의 데이터 전달을 구체적으로 특정함으로써, 효율적인 운항을 도울 수 있다.As such, in this embodiment, the processed image 300 is smoothly generated from the upper side with respect to the vessel 200 which is relatively long in the longitudinal direction compared to the width direction and is provided with a length of at least 100 m or more in the front-rear direction, unlike the automobile. By specifying in detail the data transfer from the image acquisition unit 10 disposed on the bow, etc. to the image processing unit 30 provided in the cabin 221 , it is possible to help efficient navigation.

영상 처리부(30)는, 영상 획득부(10)의 영상을 가공하여 선박(200)의 상측에서 내려다보는 가공 영상(300)을 생성한다. 영상 처리부(30)는 복수 개의 영상 획득부(10)의 영상을, 선박(200)의 상측에서 내려다보는 시점으로 변환한다. 이때 삼각함수를 이용한 영상 변환이 수행될 수 있으며, 선박(200)에 대해 미리 저장된 top-view 영상이 활용될 수 있다.The image processing unit 30 processes the image of the image acquisition unit 10 to generate the processed image 300 looking down from the upper side of the vessel 200 . The image processing unit 30 converts the images of the plurality of image acquisition units 10 into a viewpoint looking down from the upper side of the vessel 200 . In this case, image conversion using a trigonometric function may be performed, and a pre-stored top-view image of the vessel 200 may be utilized.

선수와 선미, 브릿지윙(221a), 갑판(220) 등의 다양한 위치에서 획득한 선박(200)의 주변에 대한 영상은, 모두 동일하게 선박(200)의 상측에서 내려다보는 시점으로 변환될 수 있으며, 앞서 설명한 바와 같이 각 영상은 적어도 부분적으로 겹치게 마련된다.The images of the periphery of the vessel 200 obtained from various positions such as the bow and stern, the bridge wing 221a, and the deck 220 can all be converted to a viewpoint looking down from the top of the vessel 200 in the same way. , as described above, each image is provided to at least partially overlap.

따라서 영상 처리부(30)는, 시점이 변환된 영상들을 정합함으로써 가공 영상(300)을 생성할 수 있다. 이와 같이 생성된 가공 영상(300)은 도 18에 나타난 바와 같다. Accordingly, the image processing unit 30 may generate the processed image 300 by matching the images in which the viewpoints are converted. The processed image 300 generated in this way is as shown in FIG. 18 .

다만 도 18은 영상들의 시점 변환 및 가공만으로 이루어진 가공 영상(300)에서, 서지(surge) 및 스웨이(sway) 속도와, n초 후 선박(200)의 상태 등이 선박(200) 상에 겹쳐 표시되고 선박(200)의 개념 형상을 좌측 하단에 부가한 재가공 영상(310)으로 해석될 수도 있다.However, in FIG. 18 , in the processed image 300 consisting only of viewpoint conversion and processing of images, surge and sway speeds and the state of the vessel 200 after n seconds are displayed overlaid on the vessel 200 . and may be interpreted as a reprocessed image 310 in which the conceptual shape of the vessel 200 is added to the lower left corner.

영상 처리부(30)가 각 영상 획득부(10)로부터 데이터 전달부(20)를 통해 전달된 영상을 가공 및 정합하여 선박(200)의 상측에서 내려다보는 가공 영상(300)을 생성하는 것은, 자동차 분야에서 널리 알려져 있는 어라운드뷰/서라운드뷰 등에서 사용되는 방법을 활용할 수 있으므로, 보다 자세한 내용은 생략한다.The image processing unit 30 processes and matches the image transmitted from each image acquisition unit 10 through the data transmission unit 20 to generate the processed image 300 looking down from the upper side of the ship 200 , Since the method used in the around view/surround view, etc., which is widely known in the field, can be used, more detailed information is omitted.

다만 앞서 설명한 바와 같이 영상 획득부(10)는, 선미에 마련되는 영상 획득부(10)와 선실(221)에 마련되는 영상 획득부(10)의 높이가 서로 다르게 마련되는 바, 영상 처리부(30)는 일부의 영상 획득부(10)와 다른 일부의 영상 획득부(10) 간의 높이차를 고려하여, 복수 개의 영상 획득부(10)의 영상을 가공 및 정합하여 가공 영상(300)을 생성할 수 있다.However, as described above, in the image acquisition unit 10 , the image acquisition unit 10 provided in the stern and the image acquisition unit 10 provided in the cabin 221 have different heights from each other, so the image processing unit 30 ) is to generate the processed image 300 by processing and matching the images of the plurality of image acquisition units 10 in consideration of the height difference between some of the image acquisition unit 10 and the other part of the image acquisition unit 10. can

이때 선실(221) 등과 같이 상대적으로 높게 마련된 영상 획득부(10)의 영상으로부터 생성되는 가공 영상(300)의 일부분이 높은 해상도를 가질 수 있다. 따라서 영상 처리부(30)는 영상들을 정합할 때, 상대적으로 높게 배치되는 영상 획득부(10)로부터 전달되는 영상을 맨 위로 덧입혀서(overlay) 해상도를 확보할 수 있다.In this case, a portion of the processed image 300 generated from the image of the image acquisition unit 10 provided relatively high, such as the cabin 221 , may have high resolution. Accordingly, the image processing unit 30 may secure resolution by overlaying the image transmitted from the relatively high image acquisition unit 10 on top when matching the images.

또한 본 발명의 영상 처리부(30)는 선박(200)이 움직이는 과정에서 영상 획득부(10)에 대한 6자유도 운동이 발생함에 따라 정합이 제대로 이루어지지 못하는 문제를 해소하고자 파라미터 보정부(74) 등을 이용할 수 있는데, 이는 후술한다.In addition, the image processing unit 30 of the present invention is a parameter correcting unit 74 to solve the problem of not being properly matched as the 6-DOF motion occurs for the image acquisition unit 10 in the process of the vessel 200 moving. etc. can be used, which will be described later.

출력부(40)는, 가공 영상(300)을 출력한다. 출력부(40)는 선실(221)에 마련되는 디스플레이 등일 수 있으며, 적어도 시각적으로 운항을 보조하기 위한 구성일 수 있다. 또한 출력부(40)는 기본적으로 선실(221)에 마련될 수 있지만, 선실(221)에서 출력될 수 있는 가공 영상(300)을 주요 승선원이 휴대하는 휴대기기(모바일단말기 등)에 동시 출력할 수도 있으므로, 출력부(40)는 설치 위치가 제한되지 않으며 가공 영상(300)이 출력될 수 있는 모든 구성을 포괄할 수 있다.The output unit 40 outputs the processed image 300 . The output unit 40 may be a display provided in the cabin 221 , and may be configured to at least visually assist navigation. In addition, the output unit 40 can be basically provided in the cabin 221, but the processed image 300 that can be output from the cabin 221 can be simultaneously output to portable devices (mobile terminals, etc.) carried by the main crew members. Therefore, the output unit 40 is not limited to the installation position and may cover all configurations in which the processed image 300 can be output.

본 실시예의 가공 영상(300)은 선박(200)을 위에서 내려다보는 Top-view로 이루어지므로, 출력부(40)를 이용하는 사용자는 상황에 대한 직관적 인식이 가능하다. 또한 앞서 도 18에서 설명한 바와 같이 운항에 도움이 될 수 있는 다른 정보(선박(200)의 운동 정보 등)가 가공 영상(300)에 추가되어 출력부(40)를 통해 출력될 수 있으므로, 본 실시예는 사용자의 상황인식을 도울 수 있다.Since the processed image 300 of this embodiment consists of a top-view looking down on the vessel 200 from above, a user using the output unit 40 can intuitively recognize the situation. In addition, as previously described with reference to FIG. 18 , other information (such as motion information of the ship 200 ) that can be helpful in operation may be added to the processed image 300 and outputted through the output unit 40 , so this embodiment Examples may help the user's situational awareness.

출력부(40)는 자선에 대한 가공 영상(300)을 실시간으로 출력할 수 있으며, 이를 위해 영상 획득부(10)의 영상 획득 및 영상 처리부(30)의 가공 영상(300) 생성 역시 실시간으로 이루어질 수 있다.The output unit 40 may output the processed image 300 of the own ship in real time, and for this purpose, the image acquisition of the image acquisition unit 10 and the generation of the processed image 300 of the image processing unit 30 are also performed in real time. can

또한 출력부(40)는 가공 영상(300)에 대한 확대/축소, 가공 영상(300)의 송출 기능 조정, 실시간 자선 속도 정보 표시 등을 구현할 수 있다. 일례로 출력부(40)는 선수, 중앙부, 선미에서의 속도를 각각 실시간으로 제공함으로써 자선의 움직임에 대하여 즉각적인 이해를 도울 수 있고, 확대/축소 기능을 통해 사용자의 필요에 따라 영상을 조절하여 특정 위치의 확인을 가능케 한다.In addition, the output unit 40 may implement enlargement/reduction of the processed image 300 , adjustment of the transmission function of the processed image 300 , real-time display of own ship speed information, and the like. For example, the output unit 40 can help an immediate understanding of the movement of the ship by providing the speed at the bow, the center, and the stern in real time, respectively, and adjust the image according to the user's needs through the zoom function to select a specific Allows location verification.

본 발명의 출력부(40)는 이하 다른 실시예에서 설명하는 추가적인 사항들을 영상으로 송출할 수 있으며, 다만 출력부(40)는 자선 속도 등과 같이 영상신호에서 기인하지 않은 다른 정보에 대해, 가공 영상(300)에 겹쳐 표시하거나 또는 가공 영상(300)의 주변에 별도로 표시할 수 있다.The output unit 40 of the present invention may transmit additional information as described below in another embodiment as an image, but the output unit 40 provides a processed image for other information not derived from the image signal, such as own ship speed, etc. It may be displayed overlaid on 300 or separately displayed around the processed image 300 .

이와 같이 본 실시예는, 길이가 100m 이상으로 마련되어 일반적인 이더넷으로는 영상신호 전달이 불가능한 선박(200)에 대해, 선박(200)을 위에서 내려다보는 가공 영상(300)을 생성하기 위하여 특정한 통신 방식을 활용하며, 또한 영상 획득부(10)의 배치를 최적화하여 이접안 상황 등에서 선박(200)의 주변 영상을 직관적으로 제공하여 효율적 운항을 도울 수 있다.As such, in this embodiment, a specific communication method is used to generate a processed image 300 that looks down on the vessel 200 from above for a vessel 200 that is provided with a length of 100 m or more and cannot transmit an image signal through general Ethernet. In addition, by optimizing the arrangement of the image acquisition unit 10, it is possible to intuitively provide an image of the surroundings of the vessel 200 in a berthing situation, etc., thereby helping efficient navigation.

도 8은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 블록도이고, 도 21은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 입자를 나타내는 도면이다.8 is a block diagram of a ship navigation support system according to a second embodiment of the present invention, and FIG. 21 is a diagram illustrating particles of the ship navigation support system according to the second embodiment of the present invention.

이하에서는 도 8 등을 참조하여 본 발명의 제2 실시예에 대해 설명하되, 앞선 실시예 대비 달라지는 점 위주로 설명하며, 설명을 생략한 부분은 앞선 내용으로 갈음한다. 이는 이하 다른 실시예에서도 마찬가지임을 알려둔다.Hereinafter, the second embodiment of the present invention will be described with reference to FIG. 8 and the like, but the points that are different from the previous embodiment will be mainly described, and the parts omitted from the description will be replaced with the previous content. Note that this is also the case in other embodiments below.

도 8을 참조하면, 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템(1)은, 풍하중 정보 획득부(50)를 더 포함할 수 있다. Referring to FIG. 8 , the ship navigation support system 1 according to the second embodiment of the present invention may further include a wind load information obtaining unit 50 .

풍하중 정보 획득부(50)는, 선박(200) 주변의 풍하중 정보를 획득한다. 풍하중 정보라 함은 풍향 정보, 풍속 정보 등을 의미할 수 있으며, 풍하중은 그 용어에도 불구하고 해수면 상방에서 선박(200)의 움직임에 영향을 미칠 수 있는 모든 하중을 포괄하는 것으로 해석될 수 있다.The wind load information acquisition unit 50 acquires wind load information around the ship 200 . Wind load information may mean wind direction information, wind speed information, etc., and wind load may be interpreted as encompassing all loads that may affect the movement of the vessel 200 above sea level despite the term.

풍하중 정보 획득부(50)는 선박(200)에 마련되는 anemometer 센서 등을 포함하여 풍하중 정보를 직접 측정할 수 있으며, 또는 선박(200)의 위치를 참고하여 위성이나 기상관측소 등으로부터 풍하중 정보를 수신할 수 있다.The wind load information acquisition unit 50 may directly measure wind load information including an anemometer sensor provided in the ship 200 , or receive wind load information from a satellite or a meteorological station with reference to the location of the ship 200 . can do.

이때 본 실시예의 영상 처리부(30)는, 영상 획득부(10)의 영상들을 시점 변환 및 정합해 생성한 가공 영상(300)에, 풍하중 정보를 덧입혀 재가공 영상(310)을 생성할 수 있으며, 출력부(40)는 재가공 영상(310)을 출력한다.At this time, the image processing unit 30 of this embodiment may generate a reprocessed image 310 by adding wind load information to the processed image 300 generated by converting and matching the viewpoints of the images of the image acquisition unit 10, The output unit 40 outputs the reprocessed image 310 .

일례로 영상 처리부(30)는 가공 영상(300)에 복수 개의 입자(311)로 이루어진 그리드를 덧입히고, 입자(311)를 통해 풍하중 정보를 표시할 수 있다. 즉 도 20에 나타난 것과 같이, 도 18의 가공 영상(300)에 대해 복수 개의 입자(311)가 부가되어 풍하중 정보를 표시할 수 있다. 다만 도 20의 경우 풍하중이 (거의) 없는 상태로서 그리드를 이루는 입자(311)들이 균일하게 배열되어 있을 수 있다.For example, the image processing unit 30 may overlay a grid made of a plurality of particles 311 on the processed image 300 , and display wind load information through the particles 311 . That is, as shown in FIG. 20 , a plurality of particles 311 may be added to the processed image 300 of FIG. 18 to display wind load information. However, in the case of FIG. 20 , the particles 311 constituting the grid may be uniformly arranged in a state where there is (almost) no wind load.

영상 처리부(30)는, 풍하중 정보에 따라 입자(311)의 형상, 크기, 위치 및 색상 중 적어도 어느 하나를 변형하여 재가공 영상(310)을 생성할 수 있다. 일례로 영상 처리부(30)는, 풍하중 정보에 포함되는 풍향 정보에 따라 입자(311)의 형상 및 위치 중 적어도 어느 하나를 수정하여 풍향을 직관적으로 표시할 수 있으며, 또한 영상 처리부(30)는 풍하중 정보에 포함되는 풍속 정보에 따라 입자(311)의 크기 및 색상 중 적어도 어느 하나를 수정하여 풍속을 직관적으로 표시할 수 있다.The image processing unit 30 may generate the reprocessed image 310 by deforming at least one of the shape, size, position, and color of the particles 311 according to the wind load information. For example, the image processing unit 30 may intuitively display the wind direction by correcting at least one of the shape and position of the particles 311 according to the wind direction information included in the wind load information, and the image processing unit 30 may The wind speed may be intuitively displayed by correcting at least one of the size and color of the particles 311 according to the wind speed information included in the information.

일례로 도 21을 참조할 때, 풍하중이 거의 없는 좌측의 그리드 대비, 풍하중이 작용하는 경우 우측의 그리드와 같이 입자(311)가 변화할 수 있다. 이때 입자(311)는 풍향에 따라 기울어지게 형상이 변형될 수 있으며, 또한 풍속에 따라 크기나 색상이 변형될 수 있다.As an example, referring to FIG. 21 , the particles 311 may change as in the grid on the right when wind load is applied, compared to the grid on the left where there is little wind load. At this time, the particle 311 may be inclinedly deformed in shape according to the wind direction, and may also be deformed in size or color according to the wind speed.

물론 본 실시예에서 도 21에 나타난 입자(311)의 변형은 하나의 예시에 불과하며, 풍하중 정보를 효율적이고 직관적으로 사용자에게 제공할 수 있는 어떠한 입자(311)의 변형도 가능하다.Of course, the deformation of the particles 311 shown in FIG. 21 in this embodiment is only one example, and any deformation of the particles 311 that can efficiently and intuitively provide wind load information to the user is possible.

일례로 풍하중 정보는 벡터장과 같이 나타날 수 있으며, 또한 실제 바람이 움직이는 것과 같은 입자(311)의 이동을 표현할 수 있다. 즉 풍향과 풍속을 고려하여 입자(311)가 이동하여 그리드의 배열을 흐트러뜨릴 수 있고, 다만 입자(311)의 위치 이동이 반복적으로 표시되도록 할 수 있다. For example, the wind load information may appear as a vector field, and may also represent the movement of the particles 311 as the actual wind moves. That is, in consideration of the wind direction and the wind speed, the particles 311 may move to disturb the grid arrangement, but the position movement of the particles 311 may be repeatedly displayed.

일례로 입자(311)는 풍하중 정보를 토대로 위치가 일정 시간동안 이동한 뒤 원위치로 되돌아가는 애니메이션으로 구현될 수 있으며, 이때 입자(311)가 이동하는 거리나 원위치로 되돌아가는 시간 간격 등은 풍하중 정보에 따라 달라질 수 있다.For example, the particle 311 may be implemented as an animation that returns to its original position after moving its position for a certain period of time based on wind load information. may vary depending on

이와 같이 본 실시예는, 선박(200)을 위에서 내려다보는 직관적인 가공 영상(300)에 대해 풍하중 정보를 겹쳐 표시하여, 풍하중에 대한 직관적 상황인식을 가능케 하고 도선 과정에서 잘못된 상황인식에 의해 발생할 수 있는 인적과오를 방지할 수 있다.As such, in this embodiment, the wind load information is superimposed on the intuitive processed image 300 that looks down on the vessel 200 from above, enabling intuitive situational recognition of the wind load, and may be caused by incorrect situational recognition in the course of the piloting. human error can be prevented.

도 9는 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 블록도이고, 도 10 내지 도 12는 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 개념도이다.9 is a block diagram of a ship navigation support system according to a third embodiment of the present invention, and FIGS. 10 to 12 are conceptual views of a ship navigation support system according to a third embodiment of the present invention.

도 9 내지 도 12를 참조하면, 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템(1)은, 앞선 제1 실시예 대비 영상 분할부(61), 객체 거리 추정부(62), 영상 블러 추정부(63) 등을 더 포함할 수 있다.9 to 12 , the ship navigation support system 1 according to the third embodiment of the present invention includes an image dividing unit 61, an object distance estimating unit 62, and an image blur compared to the first embodiment of the present invention. It may further include an estimator 63 and the like.

영상 분할부(61)는, 영상 처리부(30)가 생성한 가공 영상(300)을 특정 단위로 분할하고, 각 단위에 대해 클래스를 할당한다. 특정 단위라 함은 픽셀(pixel)일 수 있지만 영상신호의 종류에 따라 특정 단위는 다양하게 설정될 수 있다.The image dividing unit 61 divides the processed image 300 generated by the image processing unit 30 into specific units, and assigns a class to each unit. The specific unit may be a pixel, but the specific unit may be variously set according to the type of the image signal.

영상 분할부(61)는 픽셀 단위에 대하여 클래스를 할당하게 되며, 클래스는 운항 효율이 도움이 될 수 있도록 복수 개로 마련될 수 있다. 일례로 본 실시예에서 클래스는 자선, 객체(400), 예인선(500), 바다 등으로 구분될 수 있으며, 특히 자선과 충돌 우려가 있는 주변객체(400)를 별도 클래스로 구분할 수 있다.The image dividing unit 61 allocates a class to each pixel unit, and a plurality of classes may be provided to help navigation efficiency. For example, in this embodiment, the class may be divided into own ship, object 400, tugboat 500, sea, and the like, and in particular, the surrounding object 400 that may collide with the own ship may be divided into a separate class.

따라서 도 10에서와 같이, 영상 분할부(61)는 가공 영상(300)의 각 단위에 선박(200), 육지, 예인선(500)을 서로 다른 클래스로 구분할 수 있다. 이러한 영상 분할부(61)의 기능은 semantic segmentation 기법에 해당할 수 있으며, 이는 공지된 기술이므로 보다 자세한 설명은 생략한다.Therefore, as shown in FIG. 10 , the image dividing unit 61 may classify the ship 200 , the land, and the tugboat 500 into different classes in each unit of the processed image 300 . The function of the image segmentation unit 61 may correspond to a semantic segmentation technique, which is a known technique, and thus a more detailed description thereof will be omitted.

다만 본 실시예의 영상 분할부(61)는, 도 10의 (A)에서와 같이 영상 획득부(10)가 획득한 영상을 직접 이용하여 semantic segmentation을 적용할 수 있고, 또는 도 10의 (B)에서와 같이 가공 영상(300)을 토대로 semantic segmentation을 적용할 수도 있다.However, the image segmentation unit 61 of this embodiment may apply semantic segmentation by directly using the image acquired by the image acquisition unit 10 as shown in (A) of FIG. 10, or (B) of FIG. Semantic segmentation may be applied based on the processed image 300 as in FIG.

다만 영상 획득부(10)가 획득한 영상에서 영상 처리부(30)에 의해 가공 영상으로 변환될 때 왜곡이 발생할 수 있으므로, 영상 분할부(61)는 영상 처리부(30)에 의한 처리 전의 원본 영상(raw data)을 이용해 semantic segmentation을 적용할 수 있을 것이다.However, since distortion may occur when the image acquired by the image acquisition unit 10 is converted into a processed image by the image processing unit 30 , the image dividing unit 61 is configured to convert the original image ( You can apply semantic segmentation using raw data).

객체 거리 추정부(62)는, 영상의 특정 단위를 기반으로 선박(200)과 주변객체(400) 간의 수평거리를 추정한다. 객체 거리 추정부(62)는 영상 분할부(61)에 의해 클래스가 할당되는 경우, 원본 영상 또는 가공 영상(300)에서 자선과 주변객체(400)가 구분되므로, 자선과 주변객체(400) 간의 거리를 특정 단위로 확인할 수 있다.The object distance estimation unit 62 estimates the horizontal distance between the ship 200 and the surrounding object 400 based on a specific unit of the image. When the class is assigned by the image dividing unit 61 , the object distance estimator 62 separates the own ship and the surrounding object 400 from the original image or the processed image 300 , so that between the own ship and the surrounding object 400 . You can check the distance in a specific unit.

또한 객체 거리 추정부(62)는, 자선에 대한 제원을 특정 단위로 확인할 수 있으며, 일례로 가공 영상(300)에 나타난 자선의 전후 길이를 특정 단위로 확인 가능하다.In addition, the object distance estimator 62 may check the specification of the own ship in a specific unit, and for example, the front and rear lengths of the own ship displayed in the processed image 300 in a specific unit.

따라서 객체 거리 추정부(62)는 미리 저장된 자선에 대한 제원을 활용하고 아래 공식을 참고하여 자선과 주변객체(400) 간의 실제거리를 확인할 수 있게 된다.Accordingly, the object distance estimator 62 can check the actual distance between the own ship and the surrounding object 400 by using the pre-stored specifications for the own ship and referring to the formula below.

자선길이(픽셀):자선 길이(실제)=객체(400)거리(픽셀):객체(400)거리(실제)Own ship length (pixels): Own ship length (actual) = object (400) distance (pixels): object (400) distance (actual)

이를 통해 객체 거리 추정부(62)는, 자선과 주변객체(400) 간의 실제 거리를 확인할 수 있으며, 가공 영상(300)이 Top-view 이므로 가공 영상(300)으로부터 객체 거리 추정부(62)에 의해 확인되는 자선과 주변객체(400) 사이의 거리는 수평 거리일 수 있다.Through this, the object distance estimator 62 can check the actual distance between the own ship and the surrounding object 400 , and since the processed image 300 is a top-view, the object distance estimator 62 from the processed image 300 is The distance between the own ship and the surrounding object 400, which is confirmed by the , may be a horizontal distance.

또는 영상 분할부(61)가 원본 영상을 이용하는 경우 객체 거리 추정부(62)는 영상 획득부(10)의 좌표나 촬영 각도, 화각 등을 감안하여 자선과 주변객체(400) 사이의 거리를 수평거리로 환산하여 출력할 수도 있다. 이 경우에는 도 13 등에서 설명하는 파라미터 보정부(74) 등이 활용될 수 있다.Alternatively, when the image dividing unit 61 uses the original image, the object distance estimating unit 62 horizontally calculates the distance between the own ship and the surrounding object 400 in consideration of the coordinates, the shooting angle, and the angle of view of the image acquisition unit 10 . You can also convert it to a distance and print it out. In this case, the parameter correction unit 74 described in FIG. 13 or the like may be utilized.

즉 아래 다른 실시예에서 상세히 설명하겠으나, 영상 획득부(10)의 좌표(내부 파라미터)를 고정적으로 이용하여 객체 거리 추정부(62)가 자선과 주변객체(400) 사이의 거리를 추정하게 되면, 선박(200)이 이접안 과정에서 움직이거나 흘수가 변경됨에 따라 거리 추정에 오차가 발생할 수 있다.That is, as will be described in detail in another embodiment below, when the object distance estimator 62 estimates the distance between the own ship and the surrounding object 400 by using the coordinates (internal parameters) of the image acquisition unit 10 fixedly, As the ship 200 moves or the draft changes during the berthing process, an error may occur in the distance estimation.

따라서 본 실시예는, 이하 다른 실시예에서 설명하는 파라미터 보정부(74)에 의해 영상 획득부(10)인 카메라의 위치 및 자세에 대해 캘리브레이션을 수행하고, 객체 거리 추정부(62)는 파라미터 보정부(74)를 통해 캘리브레이션 후 보정된 파라미터를 반영하여 보다 정확하게 거리 추정값을 산출해낼 수 있다.Therefore, in this embodiment, calibration is performed with respect to the position and posture of the camera, which is the image acquisition unit 10, by the parameter correction unit 74, which will be described in another embodiment below, and the object distance estimation unit 62 provides the parameter information. The distance estimation value may be more accurately calculated by reflecting the parameter corrected after calibration through the government 74 .

이와 같이 객체 거리 추정부(62)에 의해 확인된 주변객체(400)까지의 거리는 영상 처리부(30)에 의해 가공 영상(300)에 덧입혀져 재가공 영상(310)을 생성할 수 있으며, 도 19에 나타난 것과 같이 출력부(40)에 의해 출력될 수 있다. 도 19를 참조하면 선박(200)에서 선실(221) 전방의 양측에서 육지까지의 거리인 38.2m, 44.5m가 도시되어 있다.As such, the distance to the surrounding object 400 confirmed by the object distance estimation unit 62 may be overlaid on the processed image 300 by the image processing unit 30 to generate a reprocessed image 310, as shown in FIG. As shown, it may be output by the output unit 40 . Referring to FIG. 19 , 38.2 m and 44.5 m, which are the distances from both sides of the ship 200 in front of the cabin 221 to the land, are shown.

또한 도 22의 경우에도 이접안 과정에 놓인 선박(200)에 대해 육지와의 거리를 표시할 수 있다. 이때 객체 거리 추정부(62)는 선박(200)에서 주변객체(400)까지의 최단거리를 확인하여 출력되도록 할 수 있고, 또는 도 22에서와 같이 선박(200)에서 전방과 후방에 대해 항만과의 거리를 확인하여 출력되도록 함으로써 선박(200)이 원활하게 접안되는지를 사용자에게 확인시켜 줄 수 있다. Also in the case of FIG. 22 , the distance to the land may be displayed for the vessel 200 placed in the berthing process. At this time, the object distance estimator 62 may check the shortest distance from the ship 200 to the surrounding object 400 and output it, or the port and the port for the front and rear in the ship 200 as shown in FIG. 22 . By checking and outputting the distance of , it is possible to confirm to the user whether the vessel 200 is smoothly docked.

즉 도 22에서와 같은 주변객체(400)와의 거리 출력을 이용하면, 선박(200)이 정박하는 과정에서 안벽과 나란하게 놓여 있는지 여부를 명확하게 확인할 수 있으며, 이는 선박(200)의 heading angle 등을 통해 확인하는 것보다 더욱 정확하다. 또한 선박(200)이 안벽과 평행한 상태를 유지하다가 안벽에 접안되도록 하여, 안벽과 선박(200) 사이에 마련되는 완충재(fender)에 국부적으로 과도한 부하가 걸리는 것을 방지할 수 있다.That is, by using the output of the distance from the surrounding object 400 as in FIG. 22 , it is possible to clearly confirm whether the ship 200 is placed in parallel with the quay wall in the process of anchoring, which is the heading angle of the ship 200 , etc. It is more accurate than checking through In addition, it is possible to prevent the vessel 200 from being berthed on the quay wall while maintaining a state parallel to the quay wall, so that a local excessive load is applied to the fender provided between the quay wall and the vessel 200 .

이러한 객체 거리 추정부(62)는, 앞서 설명한 바와 같이 semantic segmentation 기법을 이용할 수 있고, 및/또는 영상 블러 추정기법을 이용할 수 있다. 영상 블러에 대해서는 영상 블러 추정부(63)를 이용한다.The object distance estimator 62 may use a semantic segmentation technique as described above, and/or may use an image blur estimation technique. For the image blur, the image blur estimation unit 63 is used.

영상 블러 추정부(63)는, 영상 획득부(10)의 영상에서 선박(200)의 주변객체(400)에 해당하는 특정 부분의 흐림 정도를 산출한다. 특정 부분의 흐림 정도는 영상 획득부(10)가 단안 카메라일 경우, 초점거리를 토대로 객체(400)의 거리를 추정하는데 사용될 수 있다.The image blur estimation unit 63 calculates the degree of blur of a specific portion corresponding to the surrounding object 400 of the ship 200 in the image of the image acquisition unit 10 . The degree of blur of a specific part may be used to estimate the distance of the object 400 based on the focal length when the image acquisition unit 10 is a monocular camera.

영상 블러 추정부(63)는, 딥러닝 기반으로 영상의 흐림 정도를 분석할 수 있으며, 흐림 정도는 수치 등으로 산출될 수 있다. 또한 영상 블러 추정부(63)는 주변객체(400) 중 선박(200)에 가장 인접한 부분을 특정 부분으로 하여 흐림 정도를 산출할 수 있다.The image blur estimator 63 may analyze the degree of blur of the image based on deep learning, and the degree of blur may be calculated as a numerical value or the like. Also, the image blur estimator 63 may calculate the degree of blur by using a portion closest to the vessel 200 among the surrounding objects 400 as a specific portion.

영상 블러 추정부(63)가 산출한 흐림 정도는, 객체 거리 추정부(62)에 의해 거리 추정에 활용된다. 구체적으로 객체 거리 추정부(62)는, 특정 부분의 흐림 정도와 영상 획득부(10)의 초점거리를 토대로, 선박(200)으로부터 특정 부분까지의 거리를 추정하며, 이에 대해서는 도 11 및 도 12에 나타나 있다.The degree of blur calculated by the image blur estimator 63 is used for distance estimation by the object distance estimator 62 . Specifically, the object distance estimator 62 estimates the distance from the vessel 200 to the specific part based on the degree of blur of the specific part and the focal length of the image acquisition unit 10, and for this, FIGS. 11 and 12 . is shown in

영상 획득부(10)는 선박(200)에서 갑판(220) 등에 마련될 수 있으며, 해상도 향상을 위해 적어도 어느 하나는 갑판(220)보다 상방의 위치에 배치될 수 있다. 그런데 선박(200)의 주변객체(400)가 안벽 등일 경우, 주변객체(400)는 영상 획득부(10) 대비 낮은 위치에 놓이게 된다.The image acquisition unit 10 may be provided on the deck 220 in the ship 200 , and at least one of them may be disposed above the deck 220 to improve resolution. However, when the surrounding object 400 of the ship 200 is a quay wall, the surrounding object 400 is placed at a lower position than the image acquisition unit 10 .

따라서 도 11에서와 같이, 주변객체(400)에서 선박(200)에 인접한 지점과, 선박(200)에서 주변객체(400)와 수평하게 인접한 지점, 그리고 영상 획득부(10)가 위치한 지점은 삼각형을 이루게 되며, 빗변은 영상 획득부(10)로부터 주변객체(400)까지의 거리이고, 밑변은 선박(200)과 주변객체(400) 간의 실제 거리가 된다. Therefore, as shown in FIG. 11 , a point adjacent to the ship 200 in the surrounding object 400 , a point horizontally adjacent to the surrounding object 400 in the ship 200 , and a point where the image acquisition unit 10 is located are triangles. , and the hypotenuse is the distance from the image acquisition unit 10 to the surrounding object 400 , and the base is the actual distance between the ship 200 and the surrounding object 400 .

또한 수직변은 영상 획득부(10)의 설치 높이에 대응되는데, 해수면 또는 지면 등을 기준으로 하는 영상 획득부(10)의 설치 높이는 미리 저장되어 있는 값일 수 있다.Also, the vertical side corresponds to the installation height of the image acquisition unit 10 , and the installation height of the image acquisition unit 10 based on the sea level or the ground may be a previously stored value.

따라서 도 11에 나타난 직각 삼각형에서 수직변은 확인 되었으므로, 객체 거리 추정부(62)는 빗변을 구하면 밑변을 확인할 수 있다. 이를 위해 객체 거리 추정부(62)는, 특정 부분의 흐림 정도와 영상 획득부(10)의 초점거리를 토대로 영상 획득부(10)로부터 특정 부분까지의 직선거리를 먼저 추정한다.Therefore, since the vertical side of the right triangle shown in FIG. 11 is confirmed, the object distance estimator 62 can determine the base by obtaining the hypotenuse. To this end, the object distance estimator 62 first estimates the linear distance from the image acquisition unit 10 to the specific part based on the degree of blur of the specific part and the focal length of the image acquisition unit 10 .

도 12는 카메라 센서에 상이 맺히는 기하학적 구조를 나타낸다. 물체로부터 방사된 빛은 렌즈에 의해 굴절되어 초점면의 점(lF)에 맺힌다. 렌즈의 초점이 F일 때 렌즈로부터 초점이 맞는 물체 평면까지의 초점거리(LOl)과 초점이 맞춰진 영상에서 렌즈까지의 거리(LlF) 간의 관계는 다음과 같이 표현된다.12 shows a geometrical structure in which an image is formed on a camera sensor. The light emitted from the object is refracted by the lens and focused on the focal plane (l F ). When the focus of the lens is F, the relationship between the focal length (L Ol ) from the lens to the focused object plane and the distance from the focused image to the lens (L IF ) is expressed as follows.

1/LOl + 1/LlF = 1/F1/L Ol + 1/L LF = 1/F

센서 평면이 초점면과 일치하지 않으면 카메라 센서에 맺히는 상은 반지름이 R인 원형으로 나타나며, 이때 렌즈와 물체 사이의 거리(LOl)과 R 사이의 관계는 다음과 같다.If the sensor plane does not coincide with the focal plane, the image formed on the camera sensor appears as a circle with a radius of R. In this case, the relationship between the distance between the lens and the object (L Ol ) and R is as follows.

LOl = FLlS / (LlS - F- 2fR)L Ol = FL lS / (L lS - F- 2fR)

따라서 객체 거리 추정부(62)는, 앞서 영상 블러 추정부(63)가 확인한 특정 부분의 흐림 정도(R)를 고려하여, 영상 획득부(10)로부터 주변객체(400)까지의 직선거리를 구할 수 있다.Therefore, the object distance estimator 62 calculates the linear distance from the image acquisition unit 10 to the surrounding object 400 in consideration of the degree of blur (R) of the specific portion previously confirmed by the image blur estimation unit 63 . can

이후 객체 거리 추정부(62)는, 직선거리 및 영상 획득부(10)의 높이를 토대로 하여, 선박(200)으로부터 특정 부분까지의 수평거리를 추정할 수 있다. 이때 추정된 수평거리는 앞서 영상 분할부(61)를 이용해 확인된 수평거리와 융합되어 영상 처리부(30)에 의해 처리된 후 출력부(40)를 통해 가시화될 수 있다.Thereafter, the object distance estimator 62 may estimate the horizontal distance from the ship 200 to a specific part based on the linear distance and the height of the image acquisition unit 10 . In this case, the estimated horizontal distance may be fused with the previously confirmed horizontal distance using the image dividing unit 61 , processed by the image processing unit 30 , and then visualized through the output unit 40 .

다만 영상 분할부(61)를 이용하는 경우와 달리, 영상 블러 추정부(63)를 이용하는 경우에는 영상 획득부(10)가 마련되는 지점에서의 수평거리만 확인된다. 따라서 객체 거리 추정부(62)는, 영상 획득부(10)가 배치된 지점 대비 육지 등의 주변객체(400) 간의 이격 거리가 출력되도록 하거나, 영상 블러 추정부(63)를 이용한 수평거리에 대해 보정을 수행한 뒤 출력할 수 있다.However, unlike the case of using the image dividing unit 61 , in the case of using the image blur estimation unit 63 , only the horizontal distance at the point where the image acquisition unit 10 is provided is checked. Therefore, the object distance estimator 62 outputs the separation distance between the surrounding objects 400 such as land compared to the point at which the image acquisition unit 10 is disposed, or for a horizontal distance using the image blur estimator 63 . After performing the calibration, it can be printed.

일례로 영상 블러 추정부(63)를 이용한 수평거리를, 도 22에서 확인 가능한 선박(200)의 측선과 안벽 사이의 경사각도와 융합함으로써, 선측에서 영상 획득부(10)가 마련되지 않은 부분에 대한 주변객체(400)까지의 수평거리로 보정할 수도 있다.For example, by fusing the horizontal distance using the image blur estimation unit 63 with the inclination angle between the lateral line and the quay wall of the ship 200 that can be confirmed in FIG. 22, the image acquisition unit 10 is not provided on the ship side. The horizontal distance to the surrounding object 400 may be corrected.

물론 이외에도 객체 거리 추정부(62)는 영상 분할부(61) 및 영상 블러 추정부(63)를 다양하게 조합함으로써, 사용자로 하여금 보다 효율적인 운항을 가능케 하는 다양한 직관적 표시요소를 출력할 수 있다.Of course, in addition to this, the object distance estimator 62 may output various intuitive display elements enabling the user to more efficiently navigate by variously combining the image dividing unit 61 and the image blur estimating unit 63 .

이와 같이 본 실시예는, 가공 영상(300)의 특정 단위/흐림 정도 등을 바탕으로 하여, 선박(200)의 주변에 놓이는 객체(400)까지의 거리를 명확하게 확인하여 출력부(40)를 통해 사용자에게 제공해 줌으로써, 충돌 위험을 직관적으로 안내하여 안전한 운항을 가능케 한다.As such, in this embodiment, based on a specific unit / degree of blur of the processed image 300 , the distance to the object 400 placed around the ship 200 is clearly identified and the output unit 40 is By providing it to the user, it intuitively guides the risk of collision and enables safe operation.

도 13은 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템의 블록도이고, 도 14 내지 도 16은 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템의 개념도이다.13 is a block diagram of a ship navigation support system according to a fourth embodiment of the present invention, and FIGS. 14 to 16 are conceptual views of a ship navigation support system according to a fourth embodiment of the present invention.

도 13 내지 도 16을 참조하면, 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템(1)은, 앞선 제1 실시예 등과 대비할 때 파라미터 세팅부(71), 흘수 추정부(72), 운동 추정부(73), 파라미터 보정부(74) 등을 더 포함한다.13 to 16 , the ship navigation support system 1 according to the fourth embodiment of the present invention includes a parameter setting unit 71 , a draft estimation unit 72 , and movement in comparison with the first embodiment and the like. It further includes an estimating unit 73 , a parameter correcting unit 74 , and the like.

파라미터 세팅부(71)는, 선박(200)의 기준점에 대한 영상 획득부(10)의 위치와 자세를 포함한 파라미터를 산출한다. 영상 획득부(10)는 선박(200)에서 갑판(220), 선수 마스트(223), 브릿지윙(221a) 등에 설치될 수 있으며, 선박(200)의 기준점 대비 서로 다른 높이에 배치될 수 있다.The parameter setting unit 71 calculates parameters including the position and posture of the image acquisition unit 10 with respect to the reference point of the vessel 200 . The image acquisition unit 10 may be installed on the deck 220, the bow mast 223, the bridge wing 221a, etc. in the ship 200, and may be disposed at different heights compared to the reference point of the ship 200.

이 경우 선박(200)이 롤링 등으로 기울게 되면, 도 14에서와 같이 브릿지윙(221a) 등에 마련된 영상 획득부(10)의 위치 및 자세 변화가 선박(200)의 위치 및 자세 변화와는 서로 다른 양상으로 나타날 수 있다. 따라서 선박(200)에 움직임이 발생할 때 각 영상 획득부(10)에 대한 파라미터가 서로 다르게 나타나면서, 영상 처리부(30)의 영상 정합 시 오류가 발생할 우려가 있다.In this case, when the vessel 200 is tilted by rolling, etc., as shown in FIG. 14 , the position and attitude change of the image acquisition unit 10 provided on the bridge wing 221a, etc. is different from the position and attitude change of the vessel 200 . may appear in the form of Accordingly, when a movement occurs in the vessel 200 , parameters for each image acquisition unit 10 appear differently, and there is a fear that an error may occur during image matching of the image processing unit 30 .

이를 해소하고자 본 실시예는, 먼저 파라미터 세팅부(71)를 통해 영상 획득부(10)인 카메라 고유의 내부 파라미터를 구한 뒤, 카메라 외부의 물체(마크, 선박(200)의 기준점)에 대한 분석을 통해 외부 파라미터를 구할 수 있고, 파라미터 세팅부(71)는 외부 파라미터를 영상 획득부(10)의 파라미터로서 확인할 수 있다.In order to solve this problem, in this embodiment, first, through the parameter setting unit 71, an internal parameter unique to the camera, which is the image acquisition unit 10, is obtained, and then an object (mark, reference point of the ship 200) outside the camera is analyzed. The external parameter may be obtained through , and the parameter setting unit 71 may identify the external parameter as a parameter of the image acquiring unit 10 .

이와 같이 확인된 파라미터는 초기값으로, 선박(200)이 6자유도 운동을 하지 않는 상태에서의 기본값일 수 있다. 그런데 선박(200)이 운항 중에 롤링/피칭 등의 6자유도 운동을 하게 되면, 서로 다른 위치에 배치된 영상 획득부(10)의 6자유도 운동이 발생하게 되고 복수 개의 영상 획득부(10)의 파라미터가 각각 변화하므로, 파라미터 세팅부(71)에 의해 세팅된 파라미터를 그대로 이용하면 영상 정합 시 정확도가 떨어질 수밖에 없다.The parameter identified as described above is an initial value, and may be a default value in a state in which the vessel 200 does not perform 6-DOF motion. However, when the vessel 200 performs a 6-DOF motion such as rolling/pitching during operation, the 6-DOF motion of the image acquisition unit 10 disposed at different positions occurs, and a plurality of image acquisition units 10 Since the parameters of each change, if the parameters set by the parameter setting unit 71 are used as they are, the accuracy of image matching is inevitably reduced.

따라서 본 실시예는 선박(200)의 흘수 등을 이용하여 영상 획득부(10)의 파라미터(위치 및 자세)를 실시간으로 보정할 수 있는데, 이에 대해 후술한다.Therefore, in the present embodiment, parameters (position and posture) of the image acquisition unit 10 can be corrected in real time by using the draft of the ship 200 , which will be described later.

흘수 추정부(72)는, 선박(200)의 흘수를 추정한다. 흘수 추정부(72)는 흘수를 직접 측정하거나, 선박(200)에서 자체적으로 계산되는 흘수를 받아 사용할 수 있다. 일례로 흘수 추정부(72)는 도 15에 나타난 바와 같이 선박(200)의 선수나 전방의 양측 및 선박(200)의 선미나 후방의 양측 등에 마련된다.The draft estimation unit 72 estimates the draft of the ship 200 . The draft estimator 72 may directly measure the draft or may receive and use the draft calculated by the ship 200 itself. For example, the draft estimator 72 is provided on both sides of the bow or front of the ship 200 and the stern or rear of the ship 200 as shown in FIG. 15 .

특히 흘수 추정부(72)는 추정되는 흘수를 통해 트림 등을 계산할 수 있도록, 적어도 세 지점에서 흘수를 추정하여 추정된 흘수값에 의해 가상의 평면이 작도되도록 할 수 있다.In particular, the draft estimator 72 may estimate the draft at at least three points so as to calculate a trim or the like through the estimated draft, and may allow a virtual plane to be drawn by the estimated draft value.

운동 추정부(73)는, 선박(200)의 6자유도 운동을 추정한다. 운동 추정부(73)는 흘수 추정부(72)에 의해 추정된 선박(200)의 복수 지점에 대한 흘수값을 통해 선박(200)의 6자유도 운동을 추정할 수 있다.The motion estimation unit 73 estimates the 6 degree of freedom motion of the ship 200 . The motion estimator 73 may estimate the 6-DOF motion of the vessel 200 through the draft values for a plurality of points of the vessel 200 estimated by the draft estimator 72 .

일례로 운동 추정부(73)는 흘수 추정부(72)에 의해 전달받은 복수의 흘수값을 이용하여 가상의 평면을 작도하고, 가상의 평면을 활용하여 선박(200)의 Roll/Pich/Yaw 값을 추정할 수 있다. For example, the motion estimator 73 constructs a virtual plane using a plurality of draft values received by the draft estimator 72 , and uses the virtual plane to roll/pich/yaw values of the ship 200 . can be estimated.

이러한 운동 추정부(73)는 일례로 네 점에 대한 흘수값을 통하여 선박(200)에 대한 Trim/Heel/Immersion을 계산해낼 수 있고, 계산된 값은 영상 획득부(10)의 파라미터 보정에 사용되어 정합 정확도를 높이게 된다.The motion estimation unit 73 may calculate Trim/Heel/Immersion for the vessel 200 through the draft values for four points, for example, and the calculated value is used for parameter correction of the image acquisition unit 10 . This increases the matching accuracy.

파라미터 보정부(74)는, 선박(200)의 움직임에 따라 파라미터를 보정한다. 파라미터 보정부(74)는 선박(200)의 흘수 변화 및 선박(200)의 운동 상태를 고려하여, 파라미터를 보정할 수 있다.The parameter correction unit 74 corrects the parameters according to the movement of the ship 200 . The parameter correcting unit 74 may correct the parameters in consideration of the draft change of the vessel 200 and the motion state of the vessel 200 .

즉 파라미터 보정부(74)는 영상 획득부(10)를 구성하는 카메라의 위치 및 자세에 대해 캘리브레이션을 수행함으로써, 선박(200)의 운동에도 불구하고 복수 개의 영상 획득부(10)의 영상들의 정합이 오차 없이 이루어지도록 할 수 있다.That is, the parameter correcting unit 74 performs calibration on the position and posture of the cameras constituting the image acquiring unit 10 , thereby matching the images of the plurality of image acquiring units 10 despite the movement of the vessel 200 . This can be done without error.

즉 도 16을 참고할 때, 선박(200)이 움직임에 따라 영상 획득부(10)의 파라미터가 변경된 경우, 파라미터 세팅부(71)에 의해 세팅된 파라미터를 기반으로 하여 영상 처리부(30)가 영상에 대한 시점 변화를 그대로 수행하게 되면, 도 16의 우측 상부에 나타난 것과 같이 선박(200)의 자세 변화에 따른 대응이 불가능하여 정확한 Top-view 영상을 만들어내지 못한다.That is, referring to FIG. 16 , when the parameter of the image acquisition unit 10 is changed according to the movement of the vessel 200 , the image processing unit 30 is added to the image based on the parameter set by the parameter setting unit 71 . If the viewpoint change is performed as it is, as shown in the upper right of FIG. 16 , it is impossible to respond according to the change in the attitude of the vessel 200 , and thus an accurate top-view image cannot be created.

반면 도 16의 우측 하부에 나타난 것과 같이, 본 실시예는 선박(200)의 자세변화에 따른 Roll/Pitch/Yaw 값을 이용하여, 영상 획득부(10)의 위치 및 자세인 파라미터가 보정되도록 함으로써, Top-view를 만들기 위한 Transformation의 정확도를 높일 수 있다. 즉 본 실시예는 파라미터 보정부(74)를 통해, 영상 획득부(10)에 의한 영상들의 부정합 발생 가능성을 낮출 수 있다.On the other hand, as shown in the lower right of FIG. 16 , this embodiment uses the Roll/Pitch/Yaw values according to the change in the attitude of the ship 200 so that the parameters that are the position and attitude of the image acquisition unit 10 are corrected. , it is possible to increase the accuracy of transformation for making Top-view. That is, in the present embodiment, through the parameter correcting unit 74 , the possibility of occurrence of mismatch of images by the image acquiring unit 10 may be reduced.

따라서 영상 처리부(30)는, 파라미터 보정부(74)에 의해 보정된 파라미터를 반영하여 복수 개의 영상 획득부(10)의 영상을 가공 및 정합하여 가공 영상(300)을 생성하고, 출력부(40)를 통해 가시화할 수 있다.Accordingly, the image processing unit 30 generates the processed image 300 by processing and matching the images of the plurality of image acquisition units 10 by reflecting the parameters corrected by the parameter correcting unit 74 , and the output unit 40 . ) can be visualized.

구체적으로 영상 처리부(30)는 영상 획득부(10)의 파라미터를 반영하여 영상 획득부(10)가 전송한 영상의 시점변환을 수행함으로써, 선박(200)의 움직임 발생 시 영상에 대하여 영상 획득부(10)의 파라미터 수정 없이 시점변환을 그대로 하는 대신에, 선박(200)의 6자유도 운동을 고려한 파라미터 수정을 거쳐 시점변환을 수행하게 되므로, 정확한 가공 영상(300)의 생성이 가능하다.Specifically, the image processing unit 30 reflects the parameters of the image acquisition unit 10 and performs a viewpoint transformation of the image transmitted by the image acquisition unit 10, so that the image acquisition unit for the image when the vessel 200 moves. Instead of performing the viewpoint transformation without modifying the parameters of (10), the viewpoint transformation is performed through parameter correction in consideration of the 6-DOF motion of the vessel 200, so that the accurate processed image 300 can be generated.

다만 파라미터 수정을 위한 계산을 최소화 하고자, 파라미터 수정이 없더라도 가공 영상(300)에서의 오차가 사용자의 식별에 큰 문제가 없는 수준이라면, 즉 선박(200)의 움직임이 기설정범위 내로 확인되면, 파라미터 보정은 생략될 수 있다.However, in order to minimize the calculation for parameter correction, even if there is no parameter correction, if the error in the processed image 300 is at a level where there is no big problem in the user's identification, that is, if the movement of the vessel 200 is confirmed within the preset range, the parameter Calibration may be omitted.

이와 같이 본 실시예는, 선박(200)에서 다양한 위치에 마련되는 영상 획득부(10)가 선박(200)의 6자유도 운동에 의해 위치/자세가 다양하게 변경되는 것을 반영하여 Top-view 영상을 생성함으로써, 가공 영상(300)의 부자연스러운 정합을 방지할 수 있다.As described above, in this embodiment, the image acquisition unit 10 provided at various positions in the vessel 200 reflects that the position/position of the image acquisition unit 10 provided at various positions in the vessel 200 is changed in various ways by the 6-DOF movement of the vessel 200, and thus is a top-view image. By generating , it is possible to prevent unnatural matching of the processed image 300 .

도 17은 본 발명의 제5 실시예에 따른 선박 운항 지원 시스템의 블록도이다.17 is a block diagram of a ship navigation support system according to a fifth embodiment of the present invention.

도 17을 참조하면, 본 발명의 제5 실시예에 따른 선박 운항 지원 시스템(1)은, 선박(200)이 복수 개의 예인선(500)에 의해 이접안되는 경우에 활용될 수 있으며, 앞선 실시예 대비 예인선 운동 추정부(81), 예인선 벡터 추정부(82), 자선 운동 추정부(83), 자선 벡터 추정부(84), 객체 탐지부(90), 충돌 계산부(91) 등을 더 포함할 수 있다.Referring to FIG. 17 , the ship navigation support system 1 according to the fifth embodiment of the present invention can be utilized when the ship 200 is docked by a plurality of tugs 500 , and compared to the previous embodiment It may further include a tugboat motion estimation unit 81, a tugboat vector estimation unit 82, an own ship motion estimation unit 83, an own vessel vector estimation unit 84, an object detection unit 90, a collision calculation unit 91, and the like. can

본 실시예의 영상 획득부(10)는, 선박(200)에 마련되며 주변의 영상을 수집하는 것은 동일하며, 이 경우 적어도 선박(200)을 이접안시키는 예인선(500)(Tug-boat)까지 포괄되도록 영상을 수집할 수 있다.The image acquisition unit 10 of this embodiment is provided in the ship 200 and it is the same to collect the surrounding images, and in this case, at least the tug 500 (Tug-boat) berthing the ship 200 is covered. You can collect images.

본 실시예는 예인선(500)에 대한 정보가 표시되는 가공 영상(300)을 출력하기 위한 것이므로, 영상 획득부(10)는 적어도 선박(200)을 밀거나 당겨서 선박(200)에 어떠한 힘을 가하는 예인선(500)이 가공 영상(300)에 포함되는 범위로 영상을 수집할 수 있다.Since this embodiment is for outputting a processed image 300 in which information about the tugboat 500 is displayed, the image acquisition unit 10 pushes or pulls at least the vessel 200 to apply a certain force to the vessel 200 . The tug boat 500 may collect images in a range included in the processed image 300 .

예인선 운동 추정부(81)는, 예인선(500)의 위치, 자세 및 움직임 등을 포함한 예인선(500) 운동정보를 산출한다. 예인선(500) 운동정보는 예인선(500)이 직접 측정하는 정보일 수 있고, 예인선(500)과 통신하는 다른 설비로부터 수신되는 정보 등일 수 있다.The tugboat motion estimation unit 81 calculates motion information of the tugboat 500 including the position, posture, and movement of the tugboat 500 . The tugboat 500 motion information may be information directly measured by the tugboat 500 , or information received from other equipment communicating with the tugboat 500 .

따라서 예인선 운동 추정부(81)는 서두에서도 언급한 것처럼, 예인선(500) 운동정보를 산출하거나 추정하거나 수신하는 등의 구성으로 해석될 수 있을 것이다.Accordingly, the tugboat motion estimation unit 81 may be interpreted as a configuration for calculating, estimating, or receiving motion information of the tugboat 500 as mentioned in the introduction.

예인선 운동 추정부(81)가 예인선(500) 운동정보를 산출하는 예인선(500)은, 선박(200)과 연결되어 선박(200)의 움직임에 관여하는 예인선(500)일 수 있으며, 선박(200)의 주변에 독립적으로 움직이거나 단순히 위치해 있는 예인선(500)의 경우에는 예인선(500) 운동정보의 산출에서 제외될 수 있다.The tugboat 500 for which the tugboat motion estimation unit 81 calculates the motion information of the tugboat 500 may be a tugboat 500 that is connected to the vessel 200 and participates in the movement of the vessel 200 , and the vessel 200 . ), in the case of the tugboat 500 independently moving or simply located around the tugboat 500 may be excluded from the calculation of the motion information of the tugboat 500 .

예인선(500)은 선박(200)에 대해 도 23에서 나타난 것과 같이 선수, 선미 및 좌우 양측 등을 포함하여 복수 대가 하나의 선박(200)에 대한 이접안을 담당할 수 있으며, 예인선 운동 추정부(81)는 각 예인선(500)마다 마련되거나, 적어도 둘 이상의 예인선(500)에 대한 예인선(500) 운동정보를 취합할 수 있도록 마련될 수 있다.As shown in FIG. 23 for the vessel 200, a plurality of tugs 500 including a bow, a stern and both left and right sides may be in charge of berthing for one vessel 200, and the tugboat motion estimation unit 81 ) may be provided for each tugboat 500 or may be provided to collect motion information of the tugboat 500 for at least two tugboats 500 .

예인선 벡터 추정부(82)는, 예인선(500) 운동정보를 토대로, 예인선(500)이 선박(200)에 가하는 힘을 표시하는 예인선 벡터(312)를 산출한다. 예인선 벡터(312)는 예인선(500) 운동정보에 더하여 자선의 위치 및 자세 등이 함께 고려되어 산출될 수 있다.The tugboat vector estimator 82 calculates a tugboat vector 312 indicating the force that the tugboat 500 applies to the vessel 200 based on the motion information of the tugboat 500 . The tugboat vector 312 may be calculated by considering the position and posture of the own ship in addition to the motion information of the tugboat 500 .

예인선 벡터(312)는 예인선(500)이 연결된 선박(200)의 각 지점을 기준으로 선박(200)에 작용하는 힘 벡터를 표시하는 것이며, 따라서 예인선 벡터(312)는 복수 대의 예인선(500)에 대해 시작점이 모두 상이하게 마련될 수 있다.The tugboat vector 312 indicates a force vector acting on the vessel 200 based on each point of the vessel 200 to which the tugboat 500 is connected, and thus the tugboat vector 312 is a plurality of tugboats 500. All starting points may be provided differently.

또한 예인선(500)은 선박(200)의 각 부분에 대해 미는 힘과 당기는 힘 등을 적용하게 되므로, 각 예인선(500)에 대해 산출되는 예인선 벡터(312)는 서로 다른 시작점을 기준으로 서로 다른 방향 및 크기로 나타날 수 있다.In addition, since the tugboat 500 applies a pushing force and a pulling force to each part of the vessel 200, the tugboat vector 312 calculated for each tugboat 500 is different from each other based on different starting points. and size.

자선 운동 추정부(83)는, 본 실시예가 탑재되는 선박(200)인 자선의 위치, 자세 및 움직임 등을 포함한 자선 운동정보를 산출한다. 자선 운동 추정부(83)는 예인선 운동 추정부(81)와 마찬가지로, 선박(200)으로부터 직접 측정되는 자선 운동정보 또는 선박(200)과 통신하는 위성이나 예인선(500) 등으로부터 수신되는 자선 운동정보 등을 확인할 수 있다.The own ship motion estimation unit 83 calculates own ship motion information including the position, posture, and movement of the own ship, which is the ship 200 on which the present embodiment is mounted. Own motion estimation unit 83, like the tugboat motion estimation unit 81, own motion information measured directly from the ship 200 or self-propelled motion information received from a satellite or tugboat 500 that communicates with the ship 200 etc. can be checked.

참고로 자선 운동 추정부(83)는 앞선 실시예에서 설명한 운동 추정부(73)와 동일/유사한 구성일 수 있으므로, 앞선 내용을 그대로 포함하며 이하에서 설명하는 내용을 추가로 포함할 수 있다.For reference, since the charity motion estimation unit 83 may have the same/similar configuration to the motion estimation unit 73 described in the previous embodiment, it may include the above content as it is and may additionally include the contents described below.

자선 운동 추정부(83)는, 자선 운동정보를 바탕으로 자선의 n초(또는 n분 등) 후 위치를 추정할 수 있다. 즉 자선 운동 추정부(83)는 예인선 운동 추정부(81)와 달리, 자선에 대한 운동 예측값을 산출할 수 있다.The own ship's motion estimation unit 83 may estimate the position of the own ship after n seconds (or n minutes, etc.) based on the own ship's motion information. That is, the own ship motion estimation unit 83 may calculate a motion prediction value for the own ship, unlike the tugboat motion estimation unit 81 .

이를 위해 자선 운동 추정부(83)는 자선 운동정보에 더하여 예인선(500) 운동정보 및 예인선 벡터(312)를 활용할 수 있으며, 또한 앞선 실시예에서 영상 분할부(61)로부터 확인되는 가공 영상(300) 내 선박(200) 부분을 이용할 수 있다.To this end, the own ship motion estimation unit 83 may utilize the tugboat 500 motion information and the tug boat vector 312 in addition to the own ship motion information, and also the processed image 300 confirmed from the image division unit 61 in the previous embodiment. ) My vessel 200 part can be used.

자선 운동 추정부(83)는, 자선의 위치 및 자세 추정 결과를 바탕으로, 자선의 n초 후 위치 및 자세를 추정하며, 추정된 n초 후 자선의 상태에 대하여 별도의 그래픽을 사용하여 가공 영상(300)에 덧입힐 수 있다.The vessel motion estimation unit 83 estimates the position and attitude of the own vessel after n seconds based on the result of estimating the position and attitude of the own vessel, and uses a separate graphic for the estimated state of the own vessel after n seconds. (300) can be overlaid.

이는 도 18에 나타난 바와 같다. 자선 운동 추정부(83)는 예인선(500) 등에 의해 n초 후에 선박(200)이 놓일 상태를 예상한 뒤, 영상 처리부(30)로 전달하게 된다. 이때 영상 처리부(30)는 가공 영상(300)에서 영상 분할부(61)로부터 추출된 선박(200) 부분을 확인하여 레이어(layer)를 형성해 두고(또는 미리 저장된 선박(200)의 top-view 영상 레이어를 활용할 수 있음), n초 후 선박(200)의 위치를 참고하여 가공 영상(300)에 미래의 선박(200) 상태를 별도의 레이어로 겹쳐서 표시할 수 있다.This is as shown in FIG. 18 . The self-ship motion estimation unit 83 predicts a state in which the vessel 200 will be placed after n seconds by the tugboat 500 , etc., and then transmits it to the image processing unit 30 . At this time, the image processing unit 30 checks the part of the vessel 200 extracted from the image division unit 61 in the processed image 300 to form a layer (or a pre-stored top-view image of the vessel 200 ). layer can be used), the future state of the vessel 200 may be displayed on the processed image 300 by referring to the position of the vessel 200 after n seconds as a separate layer.

일례로 도 18의 경우 선박(200)의 자항 및 예인선(500) 등에 의해 n초 후 선박(200)이 도면 상에서 좌측으로 이동하게 될 것이 자선 운동 추정부(83)에 의해 예측되면, 영상 처리부(30)는 가공 영상(300)에 대해 좌측으로 이동한 선박(200)의 레이어를 덧입혀 재가공 영상(310)을 생성하고, 출력부(40)를 통해 가시화할 수 있다.For example, in the case of FIG. 18, if the self-navigation of the vessel 200 and the tug 500, etc., predict that the vessel 200 will move to the left in the drawing after n seconds by the own vessel motion estimation unit 83, the image processing unit ( 30 , the reprocessed image 310 may be generated by overlaying the layer of the vessel 200 moved to the left with respect to the processed image 300 , and may be visualized through the output unit 40 .

이때 가공 영상(300)에 나타난 선박(200) 부분(영상 획득부(10)로 수집되는 부분이 아닌, 미리 저장된 선박(200)의 top-view 영상일 수 있음은 앞서 언급한 바와 같다.) 대비, 재가공 영상(310)에 부가되는 미래의 선박(200) 상태는, 반투명하며 사용자로 하여금 구별이 용이한 색상을 갖도록 표시될 수 있을 것이다. At this time, the part of the vessel 200 shown in the processed image 300 (not the part collected by the image acquisition unit 10, it may be a pre-stored top-view image of the vessel 200 is as mentioned above) Contrast , the state of the future vessel 200 added to the reprocessed image 310 may be translucent and may be displayed to have a color that is easy for the user to distinguish.

따라서 자선 운동 추정부(83)는, 자선 운동정보와 예인선(500) 운동정보 등을 통해 미래의 선박(200) 상태를 직관적으로 확인할 수 있게 함으로써, 이접안의 안전을 효율적으로 보장할 수 있다.Accordingly, the ship motion estimation unit 83 can intuitively check the state of the future ship 200 through the ship motion information and the motion information of the tugboat 500 , thereby effectively ensuring the safety of the berth.

자선 벡터 추정부(84)는, 자선 운동정보 및 예인선(500) 운동정보를 토대로 선박(200)에 적용되는 힘을 표시하는 자선 벡터(313)를 산출한다. 자선 벡터 추정부(84)는, 자선 운동정보 및 예인선 벡터 추정부(82)로 추정되는 예인선 벡터(312)를 토대로 하여, 선박(200)에 적용되는 힘을 표시할 수 있다.The own ship vector estimator 84 calculates the own ship vector 313 indicating the force applied to the ship 200 based on the own ship motion information and the tugboat 500 motion information. The own ship vector estimator 84 may display the force applied to the ship 200 based on the own ship motion information and the tugboat vector 312 estimated by the tugboat vector estimator 82 .

자선 벡터 추정부(84)가 자선 벡터(313)를 산출하는 것은 예인선 벡터(312)의 산출과 동일한 원리를 이용할 수 있으며, 다만 예인선 벡터(312)의 산출과 대비할 때 자선 벡터(313)는 선박(200)의 복수 지점에 예인선(500)에 의한 힘이 작용하는 것을 고려해야 한다.Calculating the own ship vector 313 by the own vector estimator 84 may use the same principle as the calculation of the tugboat vector 312 , but in comparison with the calculation of the tugboat vector 312 , the own ship vector 313 is a ship It should be considered that the force by the tugboat 500 acts on a plurality of points (200).

따라서 자선 벡터(313)는 자선 운동정보 뿐만 아니라 예인선 벡터(312)를 고려하여 산출되어야 하며, 이때 자선 벡터(313)의 시작점은 선박(200)의 무게중심이나 사용자가 인식하기 용이한 센터 지점 등일 수 있다.Therefore, the own ship vector 313 should be calculated in consideration of the tugboat vector 312 as well as the own ship motion information. can

이와 같이 자선 벡터 추정부(84)에 의해 자선 벡터(313)의 산출이 완료되면, 영상 처리부(30)는 가공 영상(300)에 자선 벡터(313)를 덧입혀 재가공 영상(310)을 생성할 수 있다. 물론 영상 처리부(30)는 가공 영상(300)에 예인선 벡터(312)와 자선 벡터(313)를 모두 덧입혀 재가공 영상(310)을 생성하여 출력부(40)에 의해 출력되도록 할 수 있으며, 이는 도 23에 나타난 바와 같다.In this way, when the calculation of the own ship vector 313 by the own ship vector estimator 84 is completed, the image processing unit 30 adds the own ship vector 313 to the processed image 300 to generate the reprocessed image 310 . can Of course, the image processing unit 30 may generate the reprocessed image 310 by adding both the tugboat vector 312 and the own ship vector 313 to the processed image 300 to be output by the output unit 40, which As shown in FIG. 23 .

다만 이때 사용자의 직관적인 인식 효율을 높이기 위하여, 예인선 벡터(312)와 자선 벡터(313)는 서로 다른 형식으로 표시될 수 있다. 일례로 예인선 벡터(312) 대비 자선 벡터(313)의 색상이나 굵기 등이 두드러지게 표현될 수 있다. 물론 이러한 변경은 사용자가 출력부(40)를 통해 조정할 수 있도록 마련된다.However, in this case, in order to increase the intuitive recognition efficiency of the user, the tugboat vector 312 and the own ship vector 313 may be displayed in different formats. As an example, the color or thickness of the own ship vector 313 compared to the tugboat vector 312 may be displayed prominently. Of course, this change is provided so that the user can adjust it through the output unit 40 .

이와 같이 자선 벡터 추정부(84)를 이용하여 자선 벡터(313)가 가시화되도록 함으로써, 본 실시예는 선박(200)의 이접안 시 선박(200)의 이동 방향이나 이동 정도 등을 육안으로 바로 확인할 수 있게 하여, 이접안의 안전을 보장하면서 이접안 효율을 혁신적으로 개선할 수 있다.In this way, by making the own ship vector 313 visible by using the own ship vector estimation unit 84 as described above, in this embodiment, the moving direction or the degree of movement of the ship 200 is immediately confirmed with the naked eye when the ship 200 is berthing. By doing so, it is possible to innovatively improve the efficiency of the berth while ensuring the safety of the berth.

또한 본 실시예는 이하에서 설명하는 바와 같이 객체(400)와의 충돌 위험을 가시화하여, 이접안 안전성을 더욱 높이게 된다.In addition, this embodiment visualizes the risk of collision with the object 400 as will be described below, thereby further enhancing the safety of the eyepiece.

객체 탐지부(90)는, 선박(200)의 주변객체(400)를 탐지한다. 객체 탐지부(90)가 탐지하는 주변객체(400)라 함은 선박(200)과 충돌하였을 때 선박(200)에 위해를 가할 수 있는 모든 물체를 포함하며, 선박(200) 주변에 부유해 있는 예인선(500)(선박(200)의 이접안을 직접 담당하는 예인선(500) 제외) 역시 주변객체(400)로 포괄될 수 있다.The object detection unit 90 detects an object 400 surrounding the ship 200 . The surrounding object 400 detected by the object detection unit 90 includes all objects that can harm the ship 200 when it collides with the ship 200 , and is floating around the ship 200 . The tugboat 500 (except the tugboat 500 directly in charge of the berth of the ship 200 ) may also be encompassed by the surrounding object 400 .

이때 객체 탐지부(90)는 해수면 상에서 선박(200)의 주변에 놓이는 주변객체(400) 위주로 탐지를 수행할 수 있으며, 이외에도 선박(200)의 상방에 놓이되 선박(200)의 높이를 고려해 충돌 위험이 있는 주변객체(400)(교각 등) 역시 탐지할 수 있다. 다만 후자의 경우에 객체 탐지부(90)는 주변객체(400)의 정보와 선박(200)의 제원 등을 고려하여 탐지 대상에서 제외하는 필터링이 이루어질 수도 있다.At this time, the object detection unit 90 may detect mainly the surrounding objects 400 placed on the periphery of the ship 200 on the sea level. A nearby object 400 (pier, etc.) having a risk of collision may also be detected. However, in the latter case, the object detection unit 90 may perform filtering to exclude from the detection target in consideration of the information of the surrounding object 400 and the specifications of the vessel 200 .

충돌 계산부(91)는, 자선 운동정보를 토대로 주변객체(400)에 대한 충돌 정보를 산출한다. 충돌 정보는 자선 운동정보 및 자선 벡터(313)를 토대로 주변객체(400)에 대한 충돌 가능성 등으로서 산출될 수 있다.The collision calculation unit 91 calculates collision information on the surrounding object 400 based on the own ship motion information. The collision information may be calculated as a possibility of collision with respect to the surrounding object 400 based on the own ship motion information and the own ship vector 313 .

충돌 계산부(91)의 충돌 확률은, 선박(200)의 이동 방향과 이동 속도, 선박(200)의 크기 등과 같은 제원, 주변객체(400)의 형태 및 크기 등을 복합적으로 고려하여 산출될 수 있으며, 이때 영상 분할부(61)에 의해 가공 영상(300)으로부터 할당되는 선박(200)과 주변객체(400)의 클래스가 활용될 수 있다.The collision probability of the collision calculation unit 91 may be calculated by considering the moving direction and moving speed of the vessel 200, specifications such as the size of the vessel 200, the shape and size of the surrounding object 400, and the like. In this case, the class of the vessel 200 and the surrounding object 400 allocated from the processed image 300 by the image dividing unit 61 may be utilized.

다만 선박(200)과 객체(400) 간의 충돌 확률을 계산하는 구체적인 방법은, 다수의 문헌에 의해 공지된 방법을 얼마든지 활용할 수 있으므로, 본 명세서에서 자세한 설명은 생략하도록 한다.However, as a specific method for calculating the collision probability between the ship 200 and the object 400, a method known by a number of documents can be used as much as possible, and thus a detailed description thereof will be omitted herein.

충돌 계산부(91)가 산출하는 충돌 정보는, 선박(200)과 주변객체(400) 간의 충돌 확률에 더하여, 앞선 실시예에서 설명한 객체 거리 추정부(62)가 추정한 선박(200)과 주변객체(400)까지의 거리를 포함할 수 있다.The collision information calculated by the collision calculation unit 91 includes the collision probability between the vessel 200 and the surrounding object 400, and the vessel 200 and the surrounding area estimated by the object distance estimation unit 62 described in the previous embodiment. The distance to the object 400 may be included.

즉 이접안 과정에서 선박(200)이 움직임에 따라 주변객체(400)와의 충돌 가능성을 명확히 표시하기 위해, 본 실시예의 영상 처리부(30)는 충돌 확률 및 주변객체(400)까지의 거리 등과 같이 충돌과 관련되는 모든 정보들을 충돌 정보로 포괄하여, 가공 영상(300)에 덧입혀서 재가공 영상(310)을 생성할 수 있다.That is, in order to clearly indicate the possibility of collision with the surrounding object 400 as the vessel 200 moves in the berthing process, the image processing unit 30 of this embodiment collides with the collision probability and the distance to the surrounding object 400 . The reprocessed image 310 may be generated by covering all information related to the collision information as collision information and overlaying it on the processed image 300 .

이 경우 충돌 확률 및 주변객체(400)까지의 거리는, 선박(200)의 이접안 과정에서 지속적으로 변화할 수 있으므로, 충돌 계산부(91) 및 객체 거리 추정부(62)는 실시간 또는 n초 간격으로 충돌 정보 산출 및 객체(400) 거리 계산을 수행할 수 있다. 이때 n초는 앞선 자선 운동 추정부(83)에서의 n초와 동일한 시간일 수 있다.In this case, since the collision probability and the distance to the surrounding object 400 may continuously change during the berthing process of the ship 200, the collision calculation unit 91 and the object distance estimation unit 62 are performed in real time or at an interval of n seconds. In this way, collision information calculation and object 400 distance calculation can be performed. In this case, n seconds may be the same time as n seconds in the previous self-propelled motion estimation unit 83 .

충돌 정보는 충돌 가능성에 따라 다르게 표시될 수 있으며, 일례로 충돌 정보는 선박(200)에서 주변객체(400)까지의 거리를 기본적으로 표시하면서, 충돌 가능성이 높아짐에 따라 거리의 표시 색상이나 크기 등을 강조하여 주변객체(400)의 위험성을 두드러지게 표현할 수 있다. Collision information may be displayed differently depending on the possibility of collision. For example, collision information basically displays the distance from the ship 200 to the surrounding object 400, and as the probability of collision increases, the display color or size of the distance, etc. It is possible to express the danger of the surrounding object 400 conspicuously by emphasizing it.

물론 이러한 표현 방식은 사용자가 출력부(40)를 조작함에 따라 다양하게 변경될 수 있으며, 또한 본 발명에서 재가공 영상(310)에 부가되는 각종 정보들의 표현은 제한되지 않는 다양한 방식을 이용할 수 있음은 이미 언급한 바와 같다.Of course, this expression method can be variously changed as the user manipulates the output unit 40, and in the present invention, various methods that are not limited to the expression of various information added to the reprocessed image 310 can be used. As already mentioned.

이와 같이 본 실시예는, 도 23에 나타난 것과 같이 자선 벡터(313) 등을 표시하여 선박(200)의 이접안 시 선박(200)의 이동 방향을 표시해주고, 더욱 직관적으로는 도 18에서와 같이 미래의 선박(200) 상태를 덧입혀 표시하며, 추가로 도 19에서와 같이 선박(200)의 주변객체(400)에 대한 충돌 정보를 표시함으로써, 위험 요소를 모두 배제한 안전한 이접안이 효과적으로 구현되도록 할 수 있다.As such, in this embodiment, as shown in FIG. 23 , the own ship vector 313 is displayed to indicate the direction of movement of the ship 200 when the ship 200 is berthing, and more intuitively, as in FIG. 18 . The state of the future ship 200 is overlaid and displayed, and by further displaying collision information on the surrounding object 400 of the ship 200 as in FIG. 19, a safe berth excluding all risk factors is effectively implemented can

도 24는 본 발명의 제6 실시예에 따른 선박 운항 지원 시스템의 블록도이고, 도 25는 본 발명의 제6 실시예에 따른 선박 운항 지원 시스템의 개념도이다.24 is a block diagram of a ship navigation support system according to a sixth embodiment of the present invention, and FIG. 25 is a conceptual diagram of a ship navigation support system according to a sixth embodiment of the present invention.

도 24 및 도 25를 참조하면, 본 발명의 제6 실시예에 따른 선박 운항 지원 시스템(1)은, 앞선 실시예가 가공 영상(300)/재가공 영상(310)을 생성하여 사용자에게 직관적인 정보 제공을 주요 목적으로 한 것과 달리, 선박(200)의 운항 과정에서 선박(200)의 운항 효율을 향상시키기 위한 정보 제공을 주요 목적으로 한다. 24 and 25 , the ship navigation support system 1 according to the sixth embodiment of the present invention provides intuitive information to the user by generating the processed image 300 / reprocessed image 310 of the previous embodiment. The main purpose is to provide information for improving the operation efficiency of the vessel 200 in the course of the operation of the vessel 200 .

일례로 본 실시예는, 이접안 시가 아닌 대양을 항해하는 과정에서 사용될 수 있으며, 본 실시예는 레이더 측정부(100), 관심구역 설정부(102), 해상 추정부(103), 운항 산출부(105)를 포함할 수 있다. 물론 본 실시예에 대해서도 앞선 실시예에서 언급한 출력부(40) 등이 얼마든지 활용될 수 있다.As an example, this embodiment can be used in the process of navigating the ocean other than the time of berthing, and this embodiment is a radar measurement unit 100, an area of interest setting unit 102, a sea estimation unit 103, and a navigation calculation unit. (105). Of course, the output unit 40 and the like mentioned in the previous embodiment may be used for this embodiment as well.

레이더 측정부(100)는, 선박(200)에 마련되며 주변 해양의 레이더 정보를 수집한다. 레이더 정보는 레이더를 이용해 수집되는 신호로서, 선박(200)을 기준점으로 일정한 반경을 그리는 원 범위에 대해 신호가 수집될 수 있다. The radar measurement unit 100 is provided in the ship 200 and collects radar information of the surrounding ocean. The radar information is a signal collected using radar, and the signal may be collected for a circle range in which a constant radius is drawn with the vessel 200 as a reference point.

즉 레이더 정보는 선박(200)을 중심으로 한 360도 원 형태로 나타날 수 있으며, 이를 출력부(40)로 출력하면 도 25의 좌측에 나타난 것과 같다.That is, the radar information may appear in the form of a 360-degree circle centered on the ship 200 , and outputting it to the output unit 40 is as shown on the left side of FIG. 25 .

레이더 측정부(100)가 수집하는 레이더 정보에는, 주변객체(400)에 대한 정보는 물론이고 해상에 대한 정보가 포함될 수 있다. 즉 선박(200)에 마련되는 레이더가 방출하는 신호에 대해 반사신호가 발생할 수 있는 모든 물체에 대해 레이더 정보가 발생할 수 있다.The radar information collected by the radar measurement unit 100 may include information on the sea as well as information on the surrounding object 400 . That is, radar information may be generated for all objects that may generate a reflected signal with respect to a signal emitted by a radar provided in the ship 200 .

특히 본 실시예는, 앞선 실시예에서 설명한 것과 같은 주변객체(400) 외에, 해상을 주요하게 확인하기 위하여 레이더 정보를 활용할 수 있으며, 이에 대해서는 후술한다.In particular, in this embodiment, in addition to the surrounding object 400 as described in the previous embodiment, radar information may be used to mainly identify the sea, which will be described later.

이를 위해 본 실시예는 레이더 가공부(101)를 더 포함한다. 레이더 가공부(101)는, 주변 해양의 해상 상태가 두드러지는 방향으로 레이더 정보에 대한 클러터(clutter)를 조정할 수 있다.To this end, the present embodiment further includes a radar processing unit 101 . The radar processing unit 101 may adjust the clutter of the radar information in a direction in which the sea state of the surrounding ocean is conspicuous.

항해 과정에서 선박(200)의 충돌 위험을 줄이기 위하여 레이더 장비를 이용하는 종래의 경우에는, 해상에 대한 부분은 축소되고 주변객체(400)가 강조되는 방향으로 클러터를 조정하는 것이 일반적이다.In the conventional case of using radar equipment to reduce the risk of collision of the vessel 200 in the course of navigation, it is common to adjust the clutter in a direction in which the portion for the sea is reduced and the surrounding object 400 is emphasized.

그러나 본 실시예는 종래와 반대되게, 해상 정보를 확인하기 위하여 해상 상태가 두드러지는 방향으로 클러터의 조정이 이루어질 수 있으며, 주변객체(400)에 대한 충돌 위험은 앞선 다른 실시예에서의 구성을 통해 확인되므로, 선박(200) 운항 시의 안전은 여전히 확보될 수 있다.However, in this embodiment, contrary to the prior art, the clutter can be adjusted in a direction in which the sea state is prominent in order to check the sea information, and the risk of collision with the surrounding object 400 is similar to the configuration in the previous other embodiment. Since it is confirmed through the vessel 200, safety during operation can still be ensured.

관심구역 설정부(102)는, 선박(200)의 운항 정보를 토대로 선박(200)의 주변 해양에 대한 레이더 정보 중 관심구역을 설정한다. 관심구역(ROI, Region of Interest)은, 레이더 측정부(100)에 의해 수집되는 원 형태의 레이저 정보(일례로 scatter plot)에 대해서, 선박(200)의 운항 방향을 기준으로 자선 유효변침각도를 고려해 기설정 각도 범위를 관심구역으로 설정할 수 있다.The region of interest setting unit 102 sets the region of interest among radar information on the surrounding ocean of the vessel 200 based on the operation information of the vessel 200 . The region of interest (ROI) is the effective angle of divergence of the own vessel based on the operating direction of the vessel 200 with respect to the circular laser information (eg, scatter plot) collected by the radar measurement unit 100 . Considering this, the preset angle range can be set as the region of interest.

즉 관심구역 설정부(102)는 도 25의 우측에 나타난 바와 같이, 360도로 나타나는 레이저 정보 중에서, 선박(200)이 전방 우측으로 항해할 경우 해당 방향을 포괄하는 일정 각도 부분을 관심구역으로 설정할 수 있다.That is, as shown on the right side of FIG. 25 , the region of interest setting unit 102 can set the region of interest as the region of interest when the vessel 200 sails to the front right among the 360 degrees of laser information. have.

관심구역은 선박(200)의 운항 정보에 따라 지속적으로 업데이트될 수 있다. 즉 선박(200)의 운항 방향이 변경되면 관심구역 역시 변경될 수 있다. 또한 관심구역은 선박(200)의 선속에 따라서도 달라질 수 있는데, 선속이 커지면 원형으로 출력되는 레이더 정보 중에서 관심구역을 이루는 조각의 반경이 커질 수 있고, 반대로 선속이 작아지면 관심구역 조각의 반경이 작아질 수 있다.The region of interest may be continuously updated according to the operation information of the vessel 200 . That is, when the operating direction of the vessel 200 is changed, the region of interest may also be changed. In addition, the region of interest may also vary depending on the speed of the vessel 200. As the speed of the vessel increases, the radius of the fragment constituting the region of interest among the radar information output in a circular shape may increase. Conversely, if the velocity decreases, the radius of the fragment of the region of interest decreases can be small

해상 추정부(103)는, 관심구역에 대한 레이더 정보를 토대로 해상 상태를 추정한다. 해상 추정부(103)는 위성 등으로부터 수신하는 것도 가능하지만, 본 실시예는 선박(200) 자체적으로 확인 가능하도록 마련될 수 있다.The sea estimator 103 estimates the sea state based on radar information on the region of interest. The sea estimator 103 may be received from a satellite or the like, but in this embodiment, the ship 200 may be provided so that it can be checked by itself.

즉 해상 추정부(103)는, 레이더 가공부(101)를 통해 해상 상태가 두드러지도록 처리된 레이더 정보에 대하여, scatter plot의 색상, scatter의 정도로부터 영상 처리를 통해 파고와 파향 등을 추정할 수 있다.That is, the sea estimator 103 can estimate the wave height and wave direction through image processing from the color of the scatter plot and the degree of scatter with respect to the radar information processed to make the sea state stand out through the radar processing unit 101 . have.

일례로 scatter의 색상이 밝고 많으면 파고가 큰 것으로 추정할 수 있고, 해상 상태가 severe한 정도인 것으로 해상 상태를 확인할 수 있다. 반면 scatter가 매우 적다면 해상 상태는 잔잔한 것으로 해상 상태를 추정할 수 있다. For example, if the color of the scatter is bright and many, it can be estimated that the wave height is large, and the sea state can be confirmed as the severe degree of the sea state. On the other hand, if the scatter is very small, the sea state can be estimated as calm.

물론 이외에도 레이더 정보로부터 해상 상태의 추정은 다양한 방법이 활용될 수 있으며, 선택되는 방법에 따라 레이더 가공부(101)의 조정 역시 달라질 수 있다. 본 명세서의 경우에는 scatter를 이용하여 해상 상태를 추정하기 위해 클러터를 조정하는 것을 하나의 예시로서 설명하는 것이다.Of course, various methods may be used for estimating the sea state from radar information, and the adjustment of the radar processing unit 101 may also vary according to a selected method. In the case of this specification, adjustment of clutter in order to estimate a resolution state using scatter will be described as an example.

해상 추정부(103)가 추정한 해상 상태는, 운항 산출부(105)에서 운항값 변화의 산출에 활용될 수 있으며, 따라서 해상 상태는 적어도 운항 효율을 계산하는데 반영할 수 있도록 수치적으로 산출될 수 있다. The sea state estimated by the sea estimator 103 may be utilized in the calculation of the change in the operation value by the operation calculation unit 105, and therefore the sea state can be calculated numerically so as to be reflected at least in calculating the operation efficiency. can

본 실시예는 scatter로부터의 해상 상태의 산출 정확도 및 신뢰성을 높이기 위해, 딥러닝 등의 기법을 적용할 수 있다. 물론 딥러닝 기법은 앞서 다른 실시예들에서도 얼마든지 활용될 수 있다.In this embodiment, in order to increase the accuracy and reliability of the calculation of the resolution state from the scatter, a technique such as deep learning can be applied. Of course, the deep learning technique may be freely used in other embodiments.

운항 산출부(105)는, 선박(200)의 운항 정보 및 해상 상태를 고려하여 선박(200)의 운항값 변화를 예측한다. 즉 운항 산출부(105)는 레이더 정보로부터 확인되는 해상 상태가 선박(200)이 미치는 영향을 고려하여, 연비 등의 변화를 사용자에게 제공함으로써 운항 조정 필요성 등을 가이드할 수 있다.The operation calculation unit 105 predicts a change in the operation value of the ship 200 in consideration of the operation information and the sea state of the ship 200 . That is, the operation calculator 105 may guide the necessity of operation adjustment by providing the user with changes in fuel efficiency, etc. in consideration of the influence of the ship 200 on the sea state confirmed from the radar information.

이를 위해 본 실시예는 부가저항 계산부(104)를 더 포함할 수 있다. 부가저항 계산부(104)는 자선 운동정보 및 해상 상태를 고려하여 선박(200)의 저항 변화를 예측할 수 있다.To this end, the present embodiment may further include an additional resistance calculation unit 104 . The additional resistance calculation unit 104 may predict a change in the resistance of the vessel 200 in consideration of the vessel motion information and the sea state.

이때 자선 운동정보는, 앞서 다른 실시예에서 설명한 자선 운동 추정부(83)로부터 추정 또는 수신되는 값을 활용할 수 있으므로, 본 실시예는 앞선 실시예의 구성 중 일부를 조합 사용할 수 있다. 다만 본 실시예의 경우 자선 운동정보는 자선 운동 추정부(83)가 수신하는 AIS 정보로부터 획득될 수 있다.At this time, since the self-charity motion information may utilize a value estimated or received from the self-charity motion estimator 83 described in another embodiment, this embodiment may use some of the components of the previous embodiment in combination. However, in the present embodiment, the charity motion information may be obtained from the AIS information received by the charity motion estimation unit 83 .

부가저항 계산부(104)는 부가저항 산정표 등과 같은 table data를 이용하여, 파랑에 의한 부가저항을 추정할 수 있다. scatter를 이용한 해상 상태는 수치적으로 도출될 수 있지만, 파고 등에 대해 매우 높은 수준의 정확도를 얻긴 쉽지 않다. The additional resistance calculation unit 104 may estimate the additional resistance due to waves by using table data such as an additional resistance calculation table. Although the sea state using scatter can be derived numerically, it is not easy to obtain a very high level of accuracy for wave heights, etc.

따라서 본 실시예는 적어도 레이더 정보에 기반한 해상 상태가 운항 가이드에는 신뢰성 있게 활용될 수 있도록, table data 등을 이용하여 부가저항을 추정해낼 수 있다.Therefore, in the present embodiment, the additional resistance can be estimated using table data, etc. so that at least the sea state based on radar information can be reliably used for the navigation guide.

물론 딥러닝 기법을 통해 레이더 정보에서 산출된 해상 상태의 정확성을 높이게 되면, table data 외에 계산식 등을 이용하여 부가저항이 보다 직접적으로 산출될 수도 있을 것이다.Of course, if the accuracy of the sea state calculated from the radar information is increased through the deep learning technique, the additional resistance may be more directly calculated using a calculation formula in addition to the table data.

운항 산출부(105)는 운항값 변화로서 선박(200)의 연비 변화를 예측할 수 있고, 출력부(40)는 운항 산출부(105)에 의해 산출된 연비의 변화를 사용자에게 가시화할 수 있다.The operation calculation unit 105 may predict a change in fuel efficiency of the ship 200 as a change in operation value, and the output unit 40 may visualize the change in fuel efficiency calculated by the operation calculation unit 105 to the user.

이를 통해 사용자는 운항 방향에서의 해상 상태에 따라 연비가 향상되거나 저하되는 것을 미리 확인하고, 운항 효율성을 높이기 위한 조타를 구현할 수 있게 된다.Through this, the user can check in advance whether fuel efficiency is improved or decreased according to the sea condition in the navigation direction, and can implement steering to increase the operation efficiency.

이와 같이 본 실시예는, 선박(200)이 이동하는 해역에 대한 기상정보를 외부로부터 전달받을 경우에는 그 정확도가 낮아 활용성이 떨어지는 종래의 문제를 해소하고자, 선박(200) 주변의 레이더 정보를 토대로 해상 상태를 추정하고 연비 변화를 예측해 제공함으로써, 파고나 파향을 반영한 효율적인 운항이 가능하도록 할 수 있다.As described above, in this embodiment, in order to solve the conventional problem of poor usability due to low accuracy when weather information on the sea area in which the ship 200 moves is received from the outside, radar information around the ship 200 is By estimating the sea condition based on the sea level and predicting fuel economy changes, it is possible to enable efficient operation that reflects the wave height and wave direction.

다만 본 발명은, 앞서 설명한 것처럼 레이더 정보를 이용하는 것도 가능하지만, 또는 위성으로부터 수신되는 선박(200) 주변의 영상을 이용하는 것도 가능하고, 또한 앞선 실시예에서 설명한 영상 획득부(10)로부터 수집된 선박(200)의 주변 영상을 이용할 수도 있다.However, in the present invention, it is possible to use radar information as described above, or it is also possible to use images around the vessel 200 received from the satellite, and also the vessel collected from the image acquisition unit 10 described in the previous embodiment. It is also possible to use the surrounding image of (200).

다만 레이더 정보를 대신하여 영상을 이용하는 경우, 해상 추정부(103)는 해수면이 정수중일 때의 영상을 기준값으로 저장하고, 수신되는 영상에 대한 변화값(타선 등의 객체(400) 제외)을 토대로 해상 상태를 추정할 수 있다.However, when using an image instead of radar information, the sea estimator 103 stores the image when the sea level is still in water as a reference value, and based on the change value of the received image (excluding the object 400 such as other ships) sea conditions can be estimated.

일례로 해상 추정부(103)는 파고 등에 의해 백색으로 변화하는 부분을 통해 해상 상태의 정도를 추정하고, 부가저항 산출부 및 운항 산출부(105)를 통하여 운항값 변화를 사용자에게 직관적으로 제공해줄 수 있다.For example, the sea estimator 103 estimates the degree of the sea state through the part that changes to white due to wave height, etc. can

본 발명은 앞서 설명된 실시예 외에도, 상기 실시예들 중 적어도 둘 이상의 조합 또는 적어도 하나 이상의 상기 실시예와 공지기술의 조합에 의해 발생하는 실시예들을 모두 포괄한다.In addition to the embodiments described above, the present invention encompasses all embodiments generated by a combination of at least two or more of the above embodiments or a combination of at least one or more of the above embodiments and known techniques.

이상 본 발명을 구체적인 실시예를 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당해 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함은 명백하다고 할 것이다.Although the present invention has been described in detail through specific examples, this is for the purpose of describing the present invention in detail, and the present invention is not limited thereto. It will be clear that the transformation or improvement is possible.

본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호 범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.All simple modifications and variations of the present invention fall within the scope of the present invention, and the specific scope of protection of the present invention will be made clear by the appended claims.

1: 선박 운항 지원 시스템 10: 영상 획득부
20: 데이터 전달부 21a: 동축 케이블
21b: 인코더 22: 리피터
23a: 송신측 광 컨버터 23b: 수신측 광 컨버터
24a: 무선통신 송신부 24b: 무선통신 수신부
30: 영상 처리부 40: 출력부
50: 풍하중 정보 획득부 61: 영상 분할부
62: 객체 거리 추정부 63: 영상 블러 추정부
71: 파라미터 세팅부 72: 흘수 추정부
73: 운동 추정부 74: 파라미터 보정부
81: 예인선 운동 추정부 82: 예인선 벡터 추정부
83: 자선 운동 추정부 84: 자선 벡터 추정부
90: 객체 탐지부 91: 충돌 계산부
100: 레이더 측정부 101: 레이더 가공부
102: 관심구역 설정부 103: 해상 추정부
104: 부가저항 계산부 105: 운항 산출부
200: 선박 210: 홀드
220: 갑판 221: 선실
221a: 브릿지윙 222: 엔진 케이싱
223: 선수 마스트 300: 가공 영상
310: 재가공 영상 311: 입자
312: 예인선 벡터 313: 자선 벡터
400: 객체 500: 예인선
1: Ship navigation support system 10: Image acquisition unit
20: data transmission unit 21a: coaxial cable
21b: encoder 22: repeater
23a: Transmitting-side optical converter 23b: Receiving-side optical converter
24a: wireless communication transmitter 24b: wireless communication receiver
30: image processing unit 40: output unit
50: wind load information acquisition unit 61: image segmentation unit
62: object distance estimator 63: image blur estimator
71: parameter setting unit 72: draft estimation unit
73: motion estimation unit 74: parameter correction unit
81: tugboat motion estimation unit 82: tug boat vector estimation unit
83: charity motion estimation unit 84: charity vector estimation unit
90: object detection unit 91: collision calculation unit
100: radar measurement unit 101: radar processing unit
102: area of interest setting unit 103: maritime estimation unit
104: additional resistance calculation unit 105: operation calculation unit
200: vessel 210: hold
220: deck 221: cabin
221a: bridge wing 222: engine casing
223: player mast 300: processed image
310: reprocessed image 311: particles
312: tug boat vector 313: charity vector
400: object 500: tugboat

Claims (8)

갑판 상에 선실을 갖는 선박에 마련되며 주변의 영상을 수집하는 복수 개의 영상 획득부;
상기 영상 획득부의 영상을 가공하여 상기 선박의 상측에서 내려다보는 가공 영상을 생성하는 영상 처리부;
상기 영상 획득부의 영상에서 상기 선박의 주변객체에 해당하는 특정 부분의 흐림 정도를 산출하는 영상 블러 추정부; 및
상기 특정 부분의 흐림 정도와 상기 영상 획득부의 초점거리를 토대로 상기 선박으로부터 상기 특정 부분까지의 거리를 추정하는 객체 거리 추정부를 포함하는 것을 특징으로 하는 선박 운항 지원 시스템.
a plurality of image acquisition units provided on a ship having a cabin on the deck and collecting images of the surroundings;
an image processing unit for processing the image of the image acquisition unit to generate a processed image looking down from the upper side of the vessel;
an image blur estimator for calculating a degree of blur of a specific part corresponding to a peripheral object of the vessel in the image of the image acquisition unit; and
and an object distance estimator for estimating a distance from the vessel to the specific part based on the degree of blur of the specific part and the focal length of the image acquisition unit.
제 1 항에 있어서, 상기 객체 거리 추정부는,
상기 특정 부분의 흐림 정도와 상기 영상 획득부의 초점거리를 토대로 상기 영상 획득부로부터 상기 특정 부분까지의 직선거리를 추정하고, 상기 직선거리 및 상기 영상 획득부의 높이를 토대로 상기 선박으로부터 상기 특정 부분까지의 수평거리를 추정하는 것을 특징으로 하는 선박 운항 지원 시스템.
According to claim 1, wherein the object distance estimation unit,
The linear distance from the image acquisition unit to the specific part is estimated based on the degree of blur of the specific part and the focal length of the image acquisition part, and from the ship to the specific part based on the linear distance and the height of the image acquisition part Ship navigation support system, characterized in that for estimating the horizontal distance.
제 1 항에 있어서, 상기 영상 획득부는,
단안 카메라인 것을 특징으로 하는 선박 운항 지원 시스템.
According to claim 1, wherein the image acquisition unit,
Ship navigation support system, characterized in that it is a monocular camera.
제 1 항에 있어서,
상기 가공 영상을 출력하는 출력부를 더 포함하는 것을 특징으로 하는 선박 운항 지원 시스템.
The method of claim 1,
Ship navigation support system, characterized in that it further comprises an output unit for outputting the processed image.
갑판 상에 선실을 갖는 선박에 마련되며 주변의 영상을 수집하는 복수 개의 영상 획득부;
상기 영상 획득부의 영상을 가공하여 상기 선박의 상측에서 내려다보는 가공 영상을 생성하는 영상 처리부;
상기 영상 획득부가 수집한 영상 또는 상기 영상 처리부가 생성한 가공 영상 중 적어도 어느 하나를 특정 단위로 분할하고 각 단위의 클래스를 할당하여 상기 선박과 상기 선박의 주변객체를 파악하는 영상 분할부; 및
상기 영상 또는 상기 가공 영상의 특정 단위를 기반으로 상기 선박과 상기 주변객체 간의 수평거리를 추정하는 객체 거리 추정부를 포함하는 것을 특징으로 하는 선박 운항 지원 시스템.
a plurality of image acquisition units provided on a ship having a cabin on the deck and collecting images of the surroundings;
an image processing unit for processing the image of the image acquisition unit to generate a processed image looking down from the upper side of the vessel;
an image segmentation unit that divides at least one of the image collected by the image acquisition unit or the processed image generated by the image processing unit into specific units and assigns a class to each unit to identify the vessel and objects surrounding the vessel; and
and an object distance estimator for estimating a horizontal distance between the ship and the surrounding object based on a specific unit of the image or the processed image.
제 5 항에 있어서, 상기 영상 획득부는,
단안 카메라인 것을 특징으로 하는 선박 운항 지원 시스템.
The method of claim 5, wherein the image acquisition unit,
A ship navigation support system, characterized in that it is a monocular camera.
제 5 항에 있어서,
상기 가공 영상을 출력하는 출력부를 더 포함하는 것을 특징으로 하는 선박 운항 지원 시스템.
6. The method of claim 5,
Ship navigation support system, characterized in that it further comprises an output unit for outputting the processed image.
제 1 항 내지 제 7 항 중 어느 한 항의 상기 선박 운항 지원 시스템을 갖는 것을 특징으로 하는 선박.A ship comprising the ship navigation support system according to any one of claims 1 to 7.
KR1020200114176A 2020-05-08 2020-09-07 support system for vessel operation and ship having the same KR102428886B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200055437 2020-05-08
KR20200055437 2020-05-08

Publications (2)

Publication Number Publication Date
KR20210136806A true KR20210136806A (en) 2021-11-17
KR102428886B1 KR102428886B1 (en) 2022-08-04

Family

ID=78703121

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020200114178A KR20210136808A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114198A KR20210136809A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114171A KR20210136804A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114177A KR102428892B1 (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114176A KR102428886B1 (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114200A KR20210136810A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114175A KR20210136805A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020200114178A KR20210136808A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114198A KR20210136809A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114171A KR20210136804A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114177A KR102428892B1 (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020200114200A KR20210136810A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same
KR1020200114175A KR20210136805A (en) 2020-05-08 2020-09-07 support system for vessel operation and ship having the same

Country Status (1)

Country Link
KR (7) KR20210136808A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041530A (en) * 2008-08-07 2010-02-18 Sanyo Electric Co Ltd Steering supporting device
KR20100088569A (en) * 2009-01-30 2010-08-09 소니 주식회사 Two-dimensional polynomial model for depth estimation based on two-picture matching
KR20150125863A (en) * 2014-04-30 2015-11-10 인하대학교 산학협력단 Apparatus for recognizing of object and method thereof
KR102052013B1 (en) * 2019-06-12 2019-12-04 한국해양과학기술원 Image composing system and camera calibration method for ship

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5328874B2 (en) * 2011-11-21 2013-10-30 ジャパンマリンユナイテッド株式会社 Navigation support equipment and ships
KR101823029B1 (en) * 2016-01-27 2018-01-31 대우조선해양 주식회사 System for managing obstacle of ship and method for managing obstacle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041530A (en) * 2008-08-07 2010-02-18 Sanyo Electric Co Ltd Steering supporting device
KR20100088569A (en) * 2009-01-30 2010-08-09 소니 주식회사 Two-dimensional polynomial model for depth estimation based on two-picture matching
KR20150125863A (en) * 2014-04-30 2015-11-10 인하대학교 산학협력단 Apparatus for recognizing of object and method thereof
KR102052013B1 (en) * 2019-06-12 2019-12-04 한국해양과학기술원 Image composing system and camera calibration method for ship

Also Published As

Publication number Publication date
KR20210136809A (en) 2021-11-17
KR20210136804A (en) 2021-11-17
KR20210136805A (en) 2021-11-17
KR20210136810A (en) 2021-11-17
KR102428892B1 (en) 2022-08-04
KR102428886B1 (en) 2022-08-04
KR20210136807A (en) 2021-11-17
KR20210136808A (en) 2021-11-17

Similar Documents

Publication Publication Date Title
US10942028B2 (en) Video sensor fusion and model based virtual and augmented reality systems and methods
KR102112935B1 (en) Path planning method using obstacle map
US10908678B2 (en) Video and image chart fusion systems and methods
US11328155B2 (en) Augmented reality labels systems and methods
US20200278433A1 (en) Real-time monitoring of surroundings of marine vessel
US20210206459A1 (en) Video sensor fusion and model based virtual and augmented reality systems and methods
CN111989547A (en) Determining a virtual representation of at least a portion of an environment
US20220172464A1 (en) Water non-water segmentation systems and methods
US20220392211A1 (en) Water non-water segmentation systems and methods
JP5102886B2 (en) Image display system, image display method, and program
KR20210044197A (en) Autonomous navigation method using image segmentation
CN111315649A (en) Navigation support system for ship
WO2021178603A1 (en) Water non-water segmentation systems and methods
KR102428886B1 (en) support system for vessel operation and ship having the same
KR102464207B1 (en) Ship safety management system using augmented reality
KR102269386B1 (en) support system for vessel operation and ship having the same
WO2023064384A1 (en) Context-dependent generation of navigational chart comprising hazards
KR102249156B1 (en) Sailing assistance device using augmented reality image
GB2612151A (en) Water Non-Water Segmentation Systems And Methods
CN114639268A (en) Inland ship intelligent detection navigation system and method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right