KR20210044197A - Autonomous navigation method using image segmentation - Google Patents

Autonomous navigation method using image segmentation Download PDF

Info

Publication number
KR20210044197A
KR20210044197A KR1020210046441A KR20210046441A KR20210044197A KR 20210044197 A KR20210044197 A KR 20210044197A KR 1020210046441 A KR1020210046441 A KR 1020210046441A KR 20210046441 A KR20210046441 A KR 20210046441A KR 20210044197 A KR20210044197 A KR 20210044197A
Authority
KR
South Korea
Prior art keywords
information
image
obstacle
artificial neural
ship
Prior art date
Application number
KR1020210046441A
Other languages
Korean (ko)
Other versions
KR102466804B1 (en
Inventor
박별터
김한근
김동훈
Original Assignee
씨드로닉스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180165857A external-priority patent/KR102240839B1/en
Application filed by 씨드로닉스(주) filed Critical 씨드로닉스(주)
Publication of KR20210044197A publication Critical patent/KR20210044197A/en
Priority to KR1020220148408A priority Critical patent/KR102604969B1/en
Application granted granted Critical
Publication of KR102466804B1 publication Critical patent/KR102466804B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B49/00Arrangements of nautical instruments or navigational aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B43/00Improving safety of vessels, e.g. damage control, not otherwise provided for
    • B63B43/18Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B43/00Improving safety of vessels, e.g. damage control, not otherwise provided for
    • B63B43/18Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
    • B63B43/20Feelers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63HMARINE PROPULSION OR STEERING
    • B63H25/00Steering; Slowing-down otherwise than by use of propulsive elements; Dynamic anchoring, i.e. positioning vessels by means of main or auxiliary propulsive elements
    • B63H25/02Initiating means for steering, for slowing down, otherwise than by use of propulsive elements, or for dynamic anchoring
    • B63H25/04Initiating means for steering, for slowing down, otherwise than by use of propulsive elements, or for dynamic anchoring automatic, e.g. reacting to compass
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63HMARINE PROPULSION OR STEERING
    • B63H21/00Use of propulsion power plant or units on vessels
    • B63H21/21Control means for engine or transmission, specially adapted for use on marine vessels
    • B63H2021/216Control means for engine or transmission, specially adapted for use on marine vessels using electric control means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ocean & Marine Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Combustion & Propulsion (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Nonlinear Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an autonomous navigation method using image segmentation. According to one aspect of the present invention, the autonomous navigation method using a maritime image and an artificial neural network comprises the steps of: obtaining labeling data including a plurality of labeling values; outputting output data; training the artificial neural network by using an error function in consideration of a difference between the labeling value and the output value; acquiring a maritime image; acquiring information on types of obstacles and distance information included in the maritime image; acquiring direction information of an obstacle included in the maritime image; acquiring a position on an obstacle map of the obstacle included in the maritime image; generating an obstacle map; generating a following path to be followed by the vessel; and generating a control signal so that the vessel follows the following path by using the following path. According to the present invention, surrounding environment detection is performed with an artificial neural network, which performs image segmentation to perform autonomous navigation.

Description

이미지 세그멘테이션을 이용한 자율 운항 방법{AUTONOMOUS NAVIGATION METHOD USING IMAGE SEGMENTATION}Autonomous navigation method using image segmentation {AUTONOMOUS NAVIGATION METHOD USING IMAGE SEGMENTATION}

본 발명은 이미지 세그멘테이션을 이용한 자율 운항 방법에 관한 것으로, 보다 상세하게는 이미지 세그멘테이션을 수행하는 인공신경망을 이용한 자율 운항 방법에 관한 것이다.The present invention relates to an autonomous navigation method using image segmentation, and more particularly, to an autonomous navigation method using an artificial neural network that performs image segmentation.

선박의 운항에 있어 많은 사고가 발생하고 있으며, 그 사고의 주요 원인은 사람의 운항 부주의로 알려져 있다. 사람이 운항하지 않는, 스스로 운항하는 자율 운항 선박 혹은 무인 선박이 상용화되는 경우 해양 사고를 크게 감소시킬 수 있을 것으로 예상되고 있다. 이를 위해 글로벌 기업들은 자율 운항 선박 개발 프로젝트의 진행 중에 있다. Rolls-Royce는 Google과 손을 잡고 자율 운항 선박을 개발 중에 있으며, 노르웨이의 Yara와 Kongsberg, 일본의 Nippon Yusen 등도 이에 동참하고 있다.Many accidents occur in the operation of ships, and the main cause of the accident is known as negligence of man's operation. It is expected that maritime accidents can be greatly reduced when self-operated or unmanned ships that are not operated by humans and operated by themselves are commercialized. To this end, global companies are working on self-driving ship development projects. Rolls-Royce is working with Google to develop autonomous ships, and Norway's Yara and Kongsberg and Japan's Nippon Yusen are also participating.

자율 운항 선박의 완성을 위해서는 육안에 의존하지 않고 장애물을 감지할 수 있어야 한다. 현재 다양한 종류의 장애물 센서를 이용하지만 실효성이 낮아 아직까지는 한계점이 존재하는 상황이다. 예를 들어, ECDIS의 경우 GPS의 부정확성, AIS의 업데이트 주기 및 AIS 미등록 이동체 등으로 인한 한계가 존재하고, radar의 경우 비탐색영역의 존재 및 노이즈로 인한 한계가 존재한다. 그 결과 장애물의 정확한 감지를 위하여는 여전히 육안으로 확인하는 과정이 필요하게 되고, 이는 자율 운항 선박의 완성에 어려움을 주고 있다.In order to complete the autonomous ship, it is necessary to be able to detect obstacles without relying on the naked eye. Currently, various types of obstacle sensors are used, but their effectiveness is low and there are still limitations. For example, in the case of ECDIS, there are limitations due to the inaccuracy of GPS, the update period of the AIS, and the AIS unregistered mobile object, and in the case of radar, there are limitations due to the presence of a non-navigation area and noise. As a result, it is still necessary to check with the naked eye for accurate detection of obstacles, which makes it difficult to complete the autonomous ship.

본 발명의 일 과제는 이미지 세그멘테이션을 수행하는 인공신경망을 이용하여 주변 환경 감지가 가능한 자율 운항 방법을 제공하는 것에 있다.An object of the present invention is to provide an autonomous navigation method capable of sensing the surrounding environment using an artificial neural network that performs image segmentation.

본 발명의 다른 과제는 경로 계획 및 경로 추종을 수행하는 인공신경망을 이용한 자율 운항 방법을 제공하는 것에 있다.Another object of the present invention is to provide an autonomous navigation method using an artificial neural network that performs route planning and route tracking.

본 발명의 또 다른 과제는 엔드-투-엔드 학습된 인공신경망을 이용한 자율 운항 방법을 제공하는 것에 있다.Another object of the present invention is to provide an autonomous navigation method using an end-to-end learned artificial neural network.

본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-described problems, and the problems that are not mentioned will be clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the present specification and the accompanying drawings. .

본 발명의 일 양상에 따르면 해상 이미지 및 인공신경망을 이용한 선박의 자율 운항 방법에 있어서, 복수의 픽셀값을 포함하는 학습 이미지 및 상기 학습 이미지에 포함된 학습 장애물의 종류 정보 및 거리 정보를 반영하여 결정되는 복수의 라벨링값을 포함하는 라벨링 데이터를 획득하는 단계―상기 학습 이미지 및 상기 라벨링 데이터는 서로 대응됨―; 상기 인공신경망이 상기 학습 이미지를 입력받아 출력 데이터를 출력하는 단계―상기 출력 데이터는 복수의 출력값을 포함하고 상기 라벨링값 및 상기 출력값은 서로 대응됨―; 상기 라벨링값 및 상기 출력값의 차이를 고려한 오차 함수를 이용하여 상기 인공신경망을 학습시키는 단계; 상기 선박에 설치된 카메라로부터 상기 해상 이미지를 획득하는 단계; 상기 인공신경망을 이용하여 상기 해상 이미지에 포함된 장애물의 종류 정보 및 거리 정보를 획득하는 단계―상기 해상 이미지에 포함된 장애물은 복수의 픽셀값을 포함함―; 상기 해상 이미지에 포함된 장애물의 픽셀값의 상기 해상 이미지상에서의 위치에 기초하여 상기 해상 이미지에 포함된 장애물의 방향 정보를 획득하는 단계; 상기 해상 이미지에 포함된 장애물의 거리 정보 및 방향 정보를 이용하여 상기 해상 이미지에 포함된 장애물의 장애물 지도상에서의 위치를 획득하는 단계; 상기 장애물 지도상에서의 위치를 이용하여 상기 장애물 지도를 생성하는 단계; 상기 장애물 지도 및 선박 상태 정보를 이용하여 상기 선박이 추종하는 추종 경로를 생성하는 단계―상기 선박 상태 정보는 상기 선박의 위치 정보 및 자세 정보를 포함함―; 및 상기 추종 경로를 이용해 상기 선박이 상기 추종 경로를 추종하도록 제어 신호를 생성하는 단계―상기 제어 신호는 상기 선박의 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―;를 포함하는 자율 운항 방법이 제공될 수 있다.According to an aspect of the present invention, in a method of autonomous navigation of a ship using a maritime image and an artificial neural network, a learning image including a plurality of pixel values and a learning obstacle type information and distance information included in the learning image are determined to be reflected. Obtaining labeling data including a plurality of labeling values, the training image and the labeling data corresponding to each other; Receiving, by the artificial neural network, the training image and outputting output data, wherein the output data includes a plurality of output values, and the labeling value and the output value correspond to each other; Training the artificial neural network using an error function in consideration of a difference between the labeling value and the output value; Acquiring the sea image from a camera installed on the ship; Acquiring type information and distance information of an obstacle included in the maritime image using the artificial neural network, the obstacle included in the maritime image includes a plurality of pixel values; Acquiring direction information of an obstacle included in the sea image based on a position of the pixel value of the obstacle included in the sea image on the sea image; Acquiring a position of an obstacle included in the sea image on an obstacle map using distance information and direction information of the obstacle included in the sea image; Generating the obstacle map by using the position on the obstacle map; Generating a following path followed by the ship using the obstacle map and ship state information, the ship state information including position information and attitude information of the ship; And generating a control signal so that the ship follows the following path using the following path, the control signal including a propeller control signal and a bow direction control signal of the ship. Can be.

본 발명의 다른 양상에 따르면 해상 이미지 및 인공신경망을 이용한 선박의 자율 운항 방법에 있어서, 복수의 픽셀값을 포함하는 학습 이미지 및 상기 학습 이미지에 포함된 학습 장애물의 종류 정보 및 거리 정보를 반영하여 결정되는 복수의 라벨링값을 포함하는 라벨링 데이터를 획득하는 단계―상기 학습 이미지 및 상기 라벨링 데이터는 서로 대응됨―; 상기 인공신경망이 상기 학습 이미지를 입력받아 출력 데이터를 출력하는 단계―상기 출력 데이터는 복수의 출력값을 포함하고 상기 라벨링값 및 상기 출력값은 서로 대응됨―; 상기 라벨링값 및 상기 출력값의 차이를 고려한 오차 함수를 이용하여 제1 인공신경망을 학습시키는 단계; 상기 학습 장애물의 종류 정보 및 거리 정보를 이용하여 제어 신호를 출력하는 제2 인공신경망을 학습시키는 단계; 상기 선박에 설치된 카메라로부터 상기 해상 이미지를 획득하는 단계; 상기 제1 인공신경망을 이용하여 상기 해상 이미지에 포함된 장애물의 종류 정보 및 거리 정보를 획득하는 단계―상기 해상 이미지에 포함된 장애물은 복수의 픽셀값을 포함함―; 상기 해상 이미지에 포함된 장애물의 픽셀값의 상기 해상 이미지상에서의 위치에 기초하여 상기 해상 이미지에 포함된 장애물의 방향 정보를 획득하는 단계; 및 상기 해상 이미지에 포함된 장애물의 종류 정보, 거리 정보, 방향 정보 및 선박 상태 정보를 상기 제2 인공신경망에 입력하여 제어 신호를 생성하는 단계―상기 선박 상태 정보는 상기 선박의 위치 정보 및 자세 정보를 포함하고 상기 제어 신호는 상기 선박의 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―;를 포함하는 자율 운항 방법이 제공될 수 있다.According to another aspect of the present invention, in a method of autonomous navigation of a ship using a maritime image and an artificial neural network, a learning image including a plurality of pixel values and a learning obstacle type information and distance information included in the learning image are determined to be reflected. Obtaining labeling data including a plurality of labeling values, the training image and the labeling data corresponding to each other; Receiving, by the artificial neural network, the training image and outputting output data, wherein the output data includes a plurality of output values, and the labeling value and the output value correspond to each other; Training a first artificial neural network using an error function in consideration of a difference between the labeling value and the output value; Learning a second artificial neural network that outputs a control signal using the learning obstacle type information and distance information; Acquiring the sea image from a camera installed on the ship; Acquiring type information and distance information of an obstacle included in the maritime image using the first artificial neural network, the obstacle included in the maritime image includes a plurality of pixel values; Acquiring direction information of an obstacle included in the sea image based on a position of the pixel value of the obstacle included in the sea image on the sea image; And generating a control signal by inputting type information, distance information, direction information, and ship state information of the obstacle included in the maritime image to the second artificial neural network.- The ship state information includes position information and attitude information of the ship. And the control signal includes a propeller control signal and a bow direction control signal of the ship.

본 발명의 또 다른 양상에 따르면 엔드-투-엔드 학습을 이용한 선박의 자율 운항 방법에 있어서, 학습 데이터 및 라벨링 데이터를 이용하여 제1 인공신경망을 학습하는 단계―상기 학습 데이터는 이미지, 위치 정보 및 자세 정보를 포함하고 상기 라벨링 데이터는 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―; 상기 선박에 설치된 카메라로부터 해상 이미지를 획득하는 단계; 상기 선박의 위치 정보 및 자세 정보를 포함하는 선박 상태 정보를 획득하는 단계; 및 상기 제1 인공신경망을 이용하여 제어 신호를 생성하는 단계―상기 제어 신호는 상기 선박의 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―;를 포함하고, 상기 제1 인공신경망은, 장애물에 대한 객체 정보―상기 객체 정보는 장애물의 거리 정보를 포함함―, 장애물 지도에 대한 정보 및 선박이 추종하는 경로에 대한 정보 중 적어도 하나를 포함하는 자율 운항 방법이 제공될 수 있다.According to another aspect of the present invention, in the autonomous navigation method of a ship using end-to-end learning, the step of learning a first artificial neural network using learning data and labeling data-The learning data includes images, location information, and Including attitude information and the labeling data includes a propeller control signal and a bow direction control signal; Acquiring a sea image from a camera installed on the ship; Acquiring ship state information including position information and attitude information of the ship; And generating a control signal using the first artificial neural network, wherein the control signal includes a propeller control signal and a bow direction control signal of the ship, wherein the first artificial neural network is configured for an obstacle. An autonomous navigation method including at least one of object information—the object information includes distance information of an obstacle—, information on an obstacle map, and information on a path followed by a ship may be provided.

본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solution means of the subject of the present invention is not limited to the above-described solution means, and solutions not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings. I will be able to.

본 발명에 의하면, 이미지 세그멘테이션을 수행하는 인공신경망으로 주변 환경 감지를 수행하여 자율 운항을 할 수 있다.According to the present invention, it is possible to perform autonomous navigation by detecting the surrounding environment with an artificial neural network that performs image segmentation.

본 발명에 의하면, 경로 계획 및 경로 추종을 수행하는 인공신경망으로부터 출력된 제어 신호를 통하여 선박 제어를 할 수 있다.According to the present invention, it is possible to control a vessel through a control signal output from an artificial neural network that performs route planning and route tracking.

본 발명에 의하면, 엔드-투-엔드 학습된 인공신경망을 이용하여 자율 운항을 할 수 있다.According to the present invention, autonomous navigation can be performed using an end-to-end learned artificial neural network.

본 발명의 효과가 상술한 효과로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-described effects, and effects that are not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.

도 1은 일 실시예에 따른 자율 운항 방법에 관한 블록도이다.
도 2는 일 실시예에 따른 인공신경망의 학습 단계에 관한 블록도이다.
도 3은 일 실시예에 따른 인공신경망의 추론 단계에 관한 블록도이다.
도 4는 일 실시예에 따른 선박 센서 시스템에 관한 도면이다.
도 5, 도 6 및 도 7은 일 실시예에 따른 이미지 세그멘테이션의 예시들에 관한 도면이다.
도 8은 일 실시예에 따른 데이터 확장에 관한 도면이다.
도 9는 일 실시예에 따른 인공신경망의 학습 방법에 관한 도면이다.
도 10 및 도 11은 일 실시예에 따른 이미지 픽셀을 이용한 위치 정보 획득에 관한 도면이다.
도 12는 일 실시예에 따른 최종 위치 정보 획득에 관한 블록도이다.
도 13, 도 14 및 도 15는 일 실시예에 따른 최종 위치 정보 획득의 예시들에 관한 도면이다.
도 16 및 도 17은 일 실시예에 따른 경로 계획 단계의 예시들에 관한 블록도이다.
도 18은 일 실시예에 따른 장애물 지도 업데이트 단계에 관한 블록도이다.
도 19는 일 실시예에 따른 장애물 지도에 관한 도면이다.
도 20은 일 실시예에 따른 위치 정보 변환 단계에 관한 블록도이다.
도 21은 일 실시예에 따른 업데이트 영역에 관한 도면이다.
도 22 및 도 23은 일 실시예에 따른 위치 정보의 보정에 관한 도면이다.
도 24는 일 실시예에 따른 장애물의 이동을 고려한 가중치 설정에 관한 도면이다.
도 25는 일 실시예에 따른 운항 규칙을 고려한 가중치 설정에 관한 도면이다.
도 26은 일 실시예에 따른 버퍼 영역을 고려한 가중치 설정에 관한 도면이다.
도 27 및 도 28은 일 실시예에 따른 장애물 지도 업데이트 단계의 예시들에 관한 블록도이다.
도 29는 일 실시예에 따른 경로 생성 단계에 관한 블록도이다.
도 30은 일 실시예에 따른 경로 생성 단계에 관한 도면이다.
도 31은 일 실시예에 따른 경로 추종 단계에 관한 블록도이다.
도 32는 일 실시예에 따른 시각화에 관한 도면이다.
도 33, 도 34 및 도 35는 일 실시예에 따른 이미지 세그멘테이션을 이용한 자율 운항의 예시들에 관한 블록도이다.
도 36은 일 실시예에 따른 제어 신호를 출력하는 인공신경망의 학습 방법에 관한 블록도이다.
도 37은 일 실시예에 따른 인공신경망의 출력에 관한 블록도이다.
1 is a block diagram of an autonomous navigation method according to an embodiment.
2 is a block diagram illustrating a learning step of an artificial neural network according to an embodiment.
3 is a block diagram of an inference step of an artificial neural network according to an embodiment.
4 is a diagram of a ship sensor system according to an embodiment.
5, 6, and 7 are diagrams illustrating examples of image segmentation according to an exemplary embodiment.
8 is a diagram for data expansion according to an embodiment.
9 is a diagram illustrating a method of learning an artificial neural network according to an embodiment.
10 and 11 are diagrams for obtaining location information using image pixels according to an exemplary embodiment.
12 is a block diagram of obtaining final location information according to an embodiment.
13, 14, and 15 are diagrams illustrating examples of obtaining final location information according to an embodiment.
16 and 17 are block diagrams illustrating examples of a path planning step according to an embodiment.
18 is a block diagram illustrating an obstacle map update step according to an embodiment.
19 is a diagram of an obstacle map according to an embodiment.
20 is a block diagram illustrating a step of converting location information according to an embodiment.
21 is a diagram of an update area according to an embodiment.
22 and 23 are diagrams for correction of location information according to an exemplary embodiment.
24 is a diagram for setting a weight in consideration of movement of an obstacle according to an embodiment.
25 is a diagram for setting weights in consideration of a navigation rule according to an embodiment.
26 is a diagram for setting a weight in consideration of a buffer area according to an embodiment.
27 and 28 are block diagrams illustrating examples of an obstacle map update step according to an embodiment.
29 is a block diagram illustrating a path generation step according to an embodiment.
30 is a diagram illustrating a path generation step according to an embodiment.
31 is a block diagram illustrating a path following step according to an embodiment.
32 is a diagram for visualization according to an embodiment.
33, 34, and 35 are block diagrams illustrating examples of autonomous navigation using image segmentation according to an embodiment.
36 is a block diagram of a learning method of an artificial neural network outputting a control signal according to an embodiment.
37 is a block diagram illustrating an output of an artificial neural network according to an embodiment.

본 명세서에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 명확히 설명하기 위한 것이므로, 본 발명이 본 명세서에 기재된 실시예에 의해 한정되는 것은 아니며, 본 발명의 범위는 본 발명의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.The embodiments described in the present specification are intended to clearly explain the spirit of the present invention to those of ordinary skill in the technical field to which the present invention pertains, so the present invention is not limited by the embodiments described herein, and the present invention The scope of should be construed as including modifications or variations that do not depart from the spirit of the present invention.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하여 가능한 현재 널리 사용되고 있는 일반적인 용어를 선택하였으나 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 이와 달리 특정한 용어를 임의의 의미로 정의하여 사용하는 경우에는 그 용어의 의미에 관하여 별도로 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terms used in this specification have been selected as general terms currently widely used in consideration of functions in the present invention, but this varies according to the intention, custom, or the emergence of new technologies of those of ordinary skill in the technical field to which the present invention belongs. I can. However, if a specific term is defined and used in an arbitrary meaning unlike this, the meaning of the term will be separately described. Therefore, the terms used in the present specification should be interpreted based on the actual meaning of the term and the entire contents of the present specification, not a simple name of the term.

본 명세서에 첨부된 도면은 본 발명을 용이하게 설명하기 위한 것으로 도면에 도시된 형상은 본 발명의 이해를 돕기 위하여 필요에 따라 과장되어 표시된 것일 수 있으므로 본 발명이 도면에 의해 한정되는 것은 아니다.The drawings attached to the present specification are for easy explanation of the present invention, and the shapes shown in the drawings may be exaggerated and displayed as necessary to aid understanding of the present invention, so the present invention is not limited by the drawings.

본 명세서에서 본 발명에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략하기로 한다.In the present specification, when it is determined that a detailed description of a well-known configuration or function related to the present invention may obscure the subject matter of the present invention, a detailed description thereof will be omitted as necessary.

본 발명의 일 양상에 따르면 해상 이미지 및 인공신경망을 이용한 선박의 자율 운항 방법에 있어서, 복수의 픽셀값을 포함하는 학습 이미지 및 상기 학습 이미지에 포함된 학습 장애물의 종류 정보 및 거리 정보를 반영하여 결정되는 복수의 라벨링값을 포함하는 라벨링 데이터를 획득하는 단계―상기 학습 이미지 및 상기 라벨링 데이터는 서로 대응됨―; 상기 인공신경망이 상기 학습 이미지를 입력받아 출력 데이터를 출력하는 단계―상기 출력 데이터는 복수의 출력값을 포함하고 상기 라벨링값 및 상기 출력값은 서로 대응됨―; 상기 라벨링값 및 상기 출력값의 차이를 고려한 오차 함수를 이용하여 상기 인공신경망을 학습시키는 단계; 상기 선박에 설치된 카메라로부터 상기 해상 이미지를 획득하는 단계; 상기 인공신경망을 이용하여 상기 해상 이미지에 포함된 장애물의 종류 정보 및 거리 정보를 획득하는 단계―상기 해상 이미지에 포함된 장애물은 복수의 픽셀값을 포함함―; 상기 해상 이미지에 포함된 장애물의 픽셀값의 상기 해상 이미지상에서의 위치에 기초하여 상기 해상 이미지에 포함된 장애물의 방향 정보를 획득하는 단계; 상기 해상 이미지에 포함된 장애물의 거리 정보 및 방향 정보를 이용하여 상기 해상 이미지에 포함된 장애물의 장애물 지도상에서의 위치를 획득하는 단계; 상기 장애물 지도상에서의 위치를 이용하여 상기 장애물 지도를 생성하는 단계; 상기 장애물 지도 및 선박 상태 정보를 이용하여 상기 선박이 추종하는 추종 경로를 생성하는 단계―상기 선박 상태 정보는 상기 선박의 위치 정보 및 자세 정보를 포함함―; 및 상기 추종 경로를 이용해 상기 선박이 상기 추종 경로를 추종하도록 제어 신호를 생성하는 단계―상기 제어 신호는 상기 선박의 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―;를 포함하는 자율 운항 방법이 제공될 수 있다.According to an aspect of the present invention, in a method of autonomous navigation of a ship using a maritime image and an artificial neural network, a learning image including a plurality of pixel values and a learning obstacle type information and distance information included in the learning image are determined to be reflected. Obtaining labeling data including a plurality of labeling values, the training image and the labeling data corresponding to each other; Receiving, by the artificial neural network, the training image and outputting output data, wherein the output data includes a plurality of output values, and the labeling value and the output value correspond to each other; Training the artificial neural network using an error function in consideration of a difference between the labeling value and the output value; Acquiring the sea image from a camera installed on the ship; Acquiring type information and distance information of an obstacle included in the maritime image using the artificial neural network, the obstacle included in the maritime image includes a plurality of pixel values; Acquiring direction information of an obstacle included in the sea image based on a position of the pixel value of the obstacle included in the sea image on the sea image; Acquiring a position of an obstacle included in the sea image on an obstacle map using distance information and direction information of the obstacle included in the sea image; Generating the obstacle map by using the position on the obstacle map; Generating a following path followed by the ship using the obstacle map and ship state information, the ship state information including position information and attitude information of the ship; And generating a control signal so that the ship follows the following path using the following path, the control signal including a propeller control signal and a bow direction control signal of the ship. Can be.

여기서, 상기 라벨링값 및 상기 출력값은 장애물의 종류 정보 및 거리 정보의 조합에 의해 정해지는 복수의 식별값 중에서 선택될 수 있다.Here, the labeling value and the output value may be selected from a plurality of identification values determined by a combination of the type information and distance information of the obstacle.

여기서, 상기 식별값을 정하기 위한 장애물의 거리 정보는 각각 거리 범위를 갖는 복수의 카테고리를 포함할 수 있다.Here, the distance information of the obstacle for determining the identification value may include a plurality of categories each having a distance range.

여기서, 상기 제어 신호는 이전 프레임의 제어 신호, 조류 및 바람 중 적어도 하나에 기초하여 생성될 수 있다.Here, the control signal may be generated based on at least one of a control signal of a previous frame, current, and wind.

여기서, 상기 자율 운항 방법은, 추종 경로를 입력받아 제어 신호를 출력하는 제2 인공신경망을 강화 학습을 통하여 학습시키는 단계;를 더 포함하고, 상기 제어 신호는 이전 프레임의 제어 신호에 기초하여 상기 제2 인공신경망으로부터 생성될 수 있다.Here, the autonomous navigation method further includes the step of learning a second artificial neural network that receives a tracking path and outputs a control signal through reinforcement learning, wherein the control signal is based on the control signal of the previous frame. 2 Can be generated from artificial neural networks.

여기서, 상기 장애물 지도를 생성하는 단계는, 상기 해상 이미지에 포함된 장애물의 움직임에 관한 정보를 더 이용하는 것을 특징으로 할 수 있다.Here, the step of generating the obstacle map may further use information on the movement of the obstacle included in the marine image.

여기서, 상기 해상 이미지를 획득하는 단계는, 상기 카메라로부터 이미지를 획득하는 단계; 및 상기 이미지를 전처리하여 해상 이미지를 생성하는 단계;를 포함하고, 상기 전처리는 상기 이미지에 포함된 안개 제거인 것을 특징으로 할 수 있다.Here, the step of obtaining the marine image may include obtaining an image from the camera; And generating a marine image by pre-processing the image, wherein the pre-processing may be characterized in that the fog included in the image is removed.

본 발명의 다른 양상에 따르면 해상 이미지 및 인공신경망을 이용한 선박의 자율 운항 방법에 있어서, 복수의 픽셀값을 포함하는 학습 이미지 및 상기 학습 이미지에 포함된 학습 장애물의 종류 정보 및 거리 정보를 반영하여 결정되는 복수의 라벨링값을 포함하는 라벨링 데이터를 획득하는 단계―상기 학습 이미지 및 상기 라벨링 데이터는 서로 대응됨―; 상기 인공신경망이 상기 학습 이미지를 입력받아 출력 데이터를 출력하는 단계―상기 출력 데이터는 복수의 출력값을 포함하고 상기 라벨링값 및 상기 출력값은 서로 대응됨―; 상기 라벨링값 및 상기 출력값의 차이를 고려한 오차 함수를 이용하여 제1 인공신경망을 학습시키는 단계; 상기 학습 장애물의 종류 정보 및 거리 정보를 이용하여 제어 신호를 출력하는 제2 인공신경망을 학습시키는 단계; 상기 선박에 설치된 카메라로부터 상기 해상 이미지를 획득하는 단계; 상기 제1 인공신경망을 이용하여 상기 해상 이미지에 포함된 장애물의 종류 정보 및 거리 정보를 획득하는 단계―상기 해상 이미지에 포함된 장애물은 복수의 픽셀값을 포함함―; 상기 해상 이미지에 포함된 장애물의 픽셀값의 상기 해상 이미지상에서의 위치에 기초하여 상기 해상 이미지에 포함된 장애물의 방향 정보를 획득하는 단계; 및 상기 해상 이미지에 포함된 장애물의 종류 정보, 거리 정보, 방향 정보 및 선박 상태 정보를 상기 제2 인공신경망에 입력하여 제어 신호를 생성하는 단계―상기 선박 상태 정보는 상기 선박의 위치 정보 및 자세 정보를 포함하고 상기 제어 신호는 상기 선박의 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―;를 포함하는 자율 운항 방법이 제공될 수 있다.According to another aspect of the present invention, in a method of autonomous navigation of a ship using a maritime image and an artificial neural network, a learning image including a plurality of pixel values and a learning obstacle type information and distance information included in the learning image are determined to be reflected. Obtaining labeling data including a plurality of labeling values, the training image and the labeling data corresponding to each other; Receiving, by the artificial neural network, the training image and outputting output data, wherein the output data includes a plurality of output values, and the labeling value and the output value correspond to each other; Training a first artificial neural network using an error function in consideration of a difference between the labeling value and the output value; Learning a second artificial neural network that outputs a control signal using the learning obstacle type information and distance information; Acquiring the sea image from a camera installed on the ship; Acquiring type information and distance information of an obstacle included in the maritime image using the first artificial neural network, the obstacle included in the maritime image includes a plurality of pixel values; Acquiring direction information of an obstacle included in the sea image based on a position of the pixel value of the obstacle included in the sea image on the sea image; And generating a control signal by inputting type information, distance information, direction information, and ship state information of the obstacle included in the maritime image to the second artificial neural network.- The ship state information includes position information and attitude information of the ship. And the control signal includes a propeller control signal and a bow direction control signal of the ship.

본 발명의 또 다른 양상에 따르면 엔드-투-엔드 학습을 이용한 선박의 자율 운항 방법에 있어서, 학습 데이터 및 라벨링 데이터를 이용하여 제1 인공신경망을 학습하는 단계―상기 학습 데이터는 이미지, 위치 정보 및 자세 정보를 포함하고 상기 라벨링 데이터는 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―; 상기 선박에 설치된 카메라로부터 해상 이미지를 획득하는 단계; 상기 선박의 위치 정보 및 자세 정보를 포함하는 선박 상태 정보를 획득하는 단계; 및 상기 제1 인공신경망을 이용하여 제어 신호를 생성하는 단계―상기 제어 신호는 상기 선박의 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―;를 포함하고, 상기 제1 인공신경망은, 장애물에 대한 객체 정보―상기 객체 정보는 장애물의 거리 정보를 포함함―, 장애물 지도에 대한 정보 및 선박이 추종하는 경로에 대한 정보 중 적어도 하나를 포함하는 자율 운항 방법이 제공될 수 있다.According to another aspect of the present invention, in the autonomous navigation method of a ship using end-to-end learning, the step of learning a first artificial neural network using learning data and labeling data-The learning data includes images, location information, and Including attitude information and the labeling data includes a propeller control signal and a bow direction control signal; Acquiring a sea image from a camera installed on the ship; Acquiring ship state information including position information and attitude information of the ship; And generating a control signal using the first artificial neural network, wherein the control signal includes a propeller control signal and a bow direction control signal of the ship, wherein the first artificial neural network is configured for an obstacle. An autonomous navigation method including at least one of object information—the object information includes distance information of an obstacle—, information on an obstacle map, and information on a path followed by a ship may be provided.

여기서, 제2 인공신경망을 이용하여 상기 제1 인공신경망으로부터 상기 객체 정보, 상기 장애물 지도에 대한 정보 및 상기 선박이 추종하는 경로에 대한 정보 중 적어도 하나를 획득하는 단계;를 더 포함할 수 있다.Here, using a second artificial neural network, obtaining at least one of the object information, information on the obstacle map, and information on a path followed by the ship from the first artificial neural network.

이하에서는 일 실시예에 따른 이미지 세그멘테이션을 이용한 자율 운항 방법에 대하여 설명한다.Hereinafter, an autonomous navigation method using image segmentation according to an exemplary embodiment will be described.

일 실시예에 따른 이동체의 자율 주행을 위하여, 이동체는 주변 환경 감지, 경로 계획 및 경로 추종의 단계를 수행할 수 있다. 이동체는 주변 환경 감지를 통해 주변의 장애물 및/또는 주행 가능 영역을 판단하고, 이를 바탕으로 경로를 생성한 후, 생성된 경로를 추종하여 스스로 주행할 수 있다.For autonomous driving of a moving object according to an exemplary embodiment, the moving object may perform steps of sensing the surrounding environment, planning a route, and following a route. The moving object may determine an obstacle and/or a drivable area in the vicinity through sensing the surrounding environment, generate a route based on this, and then follow the generated route to drive by itself.

도 1은 일 실시예에 따른 자율 주행 방법에 관한 블록도이다. 도 1을 참고하면, 이동체는 주변 환경 감지 단계(S1000)를 통해 객체 정보를 획득하고, 획득한 객체 정보를 바탕으로 경로 계획 단계(S3000)를 통해 추종 경로를 획득하며, 획득한 추종 경로를 바탕으로 경로 추종 단계(S5000)를 통해 제어 신호를 생성하여 자율 주행할 수 있다. 1 is a block diagram of an autonomous driving method according to an embodiment. Referring to FIG. 1, the moving object acquires object information through the surrounding environment detection step (S1000), acquires a following path through the path planning step (S3000) based on the acquired object information, and obtains a following path based on the acquired following path. As a result, a control signal may be generated through the path following step (S5000) to allow autonomous driving.

이동체의 자율 주행을 위하여는 전술한 단계가 연속적으로 수행될 수 있다. 이하에서는 주변 환경 감지 단계(S1000), 경로 계획 단계(S3000) 및 경로 추종 단계(S5000)가 1번 수행되는 것을 1 프레임으로 표현하기로 한다.For autonomous driving of the moving object, the above-described steps may be continuously performed. Hereinafter, the detection of the surrounding environment (S1000), the path planning step (S3000), and the path following step (S5000) are performed once and expressed as one frame.

또한, 이하에서는 이동체의 자율 주행 중 선박의 자율 운항에 대하여 주로 설명하지만, 선박에만 한정되는 것은 아니고 자동차, 드론 등 다양한 이동체에 적용될 수 있음을 미리 밝혀둔다.In addition, the following mainly describes the autonomous operation of the ship during autonomous driving of the mobile body, but it is not limited to the ship, and it is revealed in advance that it can be applied to various mobile bodies such as automobiles and drones.

자율 운항은 인공신경망을 이용하여 수행될 수 있다. 인공신경망이란 인간의 신경망 구조를 본떠 만든 알고리즘의 일종으로, 하나 이상의 노드 또는 뉴런(neuron)을 포함하는 하나 이상의 레이어를 포함할 수 있고 각각의 노드는 시냅스(synapse)를 통해 연결될 수 있다. 인공신경망에 입력된 데이터(입력 데이터)는 시냅스를 통해 노드를 거쳐 출력(출력 데이터)될 수 있고, 이를 통해 정보를 획득할 수 있다.Autonomous navigation can be performed using an artificial neural network. An artificial neural network is a type of algorithm modeled after the structure of a human neural network, and can include one or more nodes or one or more layers including neurons, and each node can be connected through a synapse. Data (input data) input to the artificial neural network may be output (output data) through a node through a synapse, and information may be obtained through this.

인공신경망의 종류로는 필터를 이용해 특징을 추출하는 합성곱신경망(convolution neural network, CNN) 및 노드의 출력이 다시 입력으로 피드백되는 구조를 갖는 순환인공신경망(recurrent neural network, RNN)이 있고, 이 외에도 제한된 볼츠만 머신(restricted Boltzmann machine, RBM), 심층신뢰신경망(deep belief network, DBN), 생성대립신경망(generative adversarial network, GAN), 관계형 네트워크(relation networks, RN) 등 다양한 종류가 존재한다.Types of artificial neural networks include a convolution neural network (CNN) that extracts features using a filter, and a recurrent neural network (RNN) that has a structure in which the output of a node is fed back to the input. In addition, there are various types such as restricted Boltzmann machine (RBM), deep belief network (DBN), generative adversarial network (GAN), and relational networks (RN).

인공신경망을 이용하기 전에 학습시키는 단계가 필요하다. 또는, 인공신경망을 이용하며 학습시킬 수 있다. 이하에서는 인공신경망을 학습시키는 단계를 학습 단계, 이용하는 단계를 추론 단계로 표현하기로 한다. Before using the artificial neural network, a step of learning is necessary. Alternatively, it can be learned by using an artificial neural network. Hereinafter, the step of learning the artificial neural network will be expressed as a learning step, and a step of using the artificial neural network as a reasoning step.

인공신경망의 학습 방법은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning), 모방 학습(imitation learning) 등 다양한 방법이 존재한다. 여기서, 강화 학습은 마코프 결정 과정(Markov decision process)으로 표현될 수 있다. 또는, 강화 학습은 어떤 환경에서 에이전트가 보상이 최대화되도록 행동하는 방법을 의미할 수 있다.There are various methods of learning artificial neural networks such as supervised learning, unsupervised learning, reinforcement learning, and imitation learning. Here, reinforcement learning may be expressed as a Markov decision process. Alternatively, reinforcement learning may refer to a method in which the agent behaves so that the reward is maximized in an environment.

도 2는 일 실시예에 따른 인공신경망의 학습 단계의 일 예에 관한 블록도로 지도 학습을 나타낸다. 도 2를 참고하면, 학습되지 않은 인공신경망이 학습 데이터 또는 훈련 데이터(training data)를 입력받아 출력 데이터를 출력하고, 출력 데이터와 라벨링 데이터(labeling data)를 비교하여 그 오차의 역전파를 통해 인공신경망을 학습시킬 수 있다. 학습 데이터는 이미지를 포함할 수 있고, 라벨링 데이터는 실측 자료(ground truth)를 포함할 수 있다. 또는, 라벨링 데이터는 사용자 또는 프로그램을 통하여 생성된 자료일 수 있다.2 is a block diagram illustrating supervised learning in an example of a learning step of an artificial neural network according to an embodiment. Referring to FIG. 2, an artificial neural network that has not been trained receives training data or training data, outputs output data, compares the output data and labeling data, and backpropagates the error. Neural networks can be trained. The training data may include an image, and the labeling data may include ground truth. Alternatively, the labeling data may be data generated through a user or a program.

도 3은 일 실시예에 따른 인공신경망의 추론 단계에 관한 블록도이다. 도 3을 참고하면, 학습된 인공신경망이 입력 데이터를 입력받아 출력 데이터를 출력할 수 있다. 학습 단계에서의 학습 데이터의 정보에 따라 추론 단계에서 추론 가능한 정보가 달라질 수 있다. 또한, 인공신경망의 학습 정도에 따라 출력 데이터의 정확성이 달라질 수 있다.3 is a block diagram of an inference step of an artificial neural network according to an embodiment. Referring to FIG. 3, the learned artificial neural network may receive input data and output output data. Information that can be inferred in the inference stage may vary according to the information of the learning data in the learning stage. In addition, the accuracy of the output data may vary depending on the learning degree of the artificial neural network.

인공신경망을 이용하여 자율 운항하는 경우, 도 1을 참고하면, 주변 환경 감지 단계(S1000)를 인공신경망으로 수행하거나, 경로 계획 단계(S3000)를 인공신경망으로 수행하거나, 경로 추종 단계(S5000)를 인공신경망으로 수행할 수 있다. 또는, 전술한 단계 중 둘 이상의 단계를 인공신경망으로 수행하거나, 하나의 단계를 복수의 인공신경망으로 수행할 수 있다. 복수의 인공신경망을 이용하는 경우, 인공신경망들은 서로 병렬적 또는 직렬적으로 연결될 수 있다. 예를 들어, 인공신경망들이 직렬적으로 연결되는 경우, 일 인공신경망의 출력이 타 인공신경망의 입력이 될 수 있다.In the case of autonomous navigation using an artificial neural network, referring to FIG. 1, the surrounding environment detection step (S1000) is performed with an artificial neural network, the route planning step (S3000) is performed with an artificial neural network, or a path following step (S5000) is performed. This can be done with an artificial neural network. Alternatively, two or more of the above-described steps may be performed with an artificial neural network, or one step may be performed with a plurality of artificial neural networks. When using a plurality of artificial neural networks, the artificial neural networks may be connected in parallel or in series with each other. For example, when artificial neural networks are connected in series, an output of one artificial neural network may be an input of another artificial neural network.

이하에서는 주변 환경 감지 단계, 경로 계획 단계 및 경로 추종 단계에 대해 구체적으로 살펴본다. 자율 운항 방법의 실시를 위해 후술할 모든 단계를 실시해야 하는 것은 아니고 그중 일부 단계만 실시할 수도 있고, 특정 단계는 반복적으로 실시될 수도 있다.Hereinafter, the surrounding environment sensing step, the path planning step, and the path following step will be described in detail. In order to implement the autonomous navigation method, it is not necessary to perform all the steps to be described later, but only some of them may be performed, and certain steps may be performed repeatedly.

선박의 운항을 위하여는 주변 환경의 감지를 통해 장애물 및/또는 운항 가능 영역을 파악하여야 하고 이는 자율 운항의 경우에도 마찬가지이다. 여기서, 장애물은 지형, 건물, 선박, 부표, 사람 등 운항 시 장애가 될 수 있는 모든 물체를 의미한다. 또한, 주변 환경을 감지한다는 것은 장애물을 감지하는 것뿐만 아니라, 그 외에도 선박 주위의 상황에 대한 정보를 획득하는 것을 포함하는 포괄적인 의미이다. 장애물을 감지한다는 것은 장애물의 유무, 종류, 위치 등에 대한 정보를 획득하는 것을 포함한다.In order to operate a ship, obstacles and/or an operable area must be identified through the detection of the surrounding environment, and this is the same in the case of autonomous navigation. Here, the obstacle refers to all objects that may become obstacles during navigation, such as terrain, buildings, ships, buoys, and people. In addition, sensing the surrounding environment is a comprehensive meaning that includes not only detecting obstacles, but also acquiring information about the situation around the ship. Detecting an obstacle includes acquiring information about the presence, type, and location of the obstacle.

도 4는 일 실시예에 따른 선박 센서 시스템에 관한 도면이다. 도 4를 참고하면, 선박 운항 시 레이더(radar), 라이다(lidar), 초음파 탐지기와 같은 장애물 감지 센서 및 선박자동식별장치(automatic identification system, AIS)를 이용하는 것이 일반적이다.4 is a diagram of a ship sensor system according to an embodiment. Referring to FIG. 4, it is common to use an obstacle detection sensor such as a radar, a lidar, and an ultrasonic detector, and an automatic identification system (AIS) when a ship is operated.

이 외에도 카메라를 이용하여 장애물을 감지할 수 있다. 도 4를 참고하면, 카메라의 예로는 단안 카메라, 쌍안 카메라, 적외선 카메라 및 TOF 카메라가 있지만 이에 한정되는 것은 아니다.In addition to this, obstacles can be detected using a camera. Referring to FIG. 4, examples of the camera include a monocular camera, a binocular camera, an infrared camera, and a TOF camera, but are not limited thereto.

카메라로부터 획득한 이미지를 가지고 장애물을 감지하는 방법 중 하나로 이미지 세그멘테이션을 이용할 수 있다. 이하에서는 이미지 세그멘테이션을 이용하여 주변 환경 감지 단계를 수행하는 것에 대해서 구체적으로 살펴본다.Image segmentation can be used as one of the methods of detecting obstacles with images acquired from a camera. Hereinafter, it will be described in detail with respect to performing the step of detecting the surrounding environment using image segmentation.

이미지 세그멘테이션은 속성별로 이미지의 영역을 분할하는 것을 의미할 수 있다. 또는, 이미지의 각 픽셀 별로 속성값을 할당하는 과정일 수 있다. 예를 들어, 상기 속성은 물체의 종류가 될 수 있다. 이 경우 이미지 세그멘테이션은 이미지에 포함된 물체를 픽셀 별로 분할하는 것을 의미할 수 있다. 또는, 특정 픽셀이 어떤 물체에 대응되는 픽셀인지 나타내는 것을 의미할 수 있다.Image segmentation may mean dividing an image area for each attribute. Alternatively, it may be a process of allocating an attribute value for each pixel of the image. For example, the attribute may be the type of object. In this case, image segmentation may mean dividing an object included in the image for each pixel. Alternatively, it may mean indicating which object a specific pixel corresponds to.

이미지 세그멘테이션은 인공신경망을 이용하여 수행될 수 있다. 하나의 인공신경망을 이용할 수 있고, 복수의 인공신경망을 이용하여 각각의 인공신경망이 이미지 세그멘테이션을 수행하고 이 결과를 조합하여 주변 환경을 감지할 수도 있다. 이미지 세그멘테이션을 위한 인공신경망의 네트워크 구조는 ENet 구조 등 다양한 구조가 적용될 수 있다.Image segmentation can be performed using an artificial neural network. One artificial neural network may be used, and each artificial neural network may perform image segmentation using a plurality of artificial neural networks, and the results may be combined to sense the surrounding environment. The network structure of the artificial neural network for image segmentation can be applied to various structures such as the ENet structure.

이하에서는 도 1의 주변 환경 감지 단계(S1000)를 인공신경망을 이용한 이미지 세그멘테이션을 통해 수행하는 경우에 대해 구체적으로 살펴본다.Hereinafter, a case in which the sensing of the surrounding environment (S1000) of FIG. 1 is performed through image segmentation using an artificial neural network will be described in detail.

주변 환경을 감지하기 위해 이미지 세그멘테이션을 수행하는 인공신경망은 이미지를 입력받아 객체 정보를 출력할 수 있다. 도 2 및 도 3을 참고하면, 학습 데이터 및 입력 데이터의 형태는 이미지가 될 수 있고, 이미지는 복수의 픽셀을 포함할 수 있다. 출력 데이터 및 라벨링 데이터는 객체 정보가 될 수 있다. 추가적으로, 출력 데이터 및 라벨링 데이터를 시각화하여 사용자에게 시각적으로 정보를 전달할 수 있다.An artificial neural network that performs image segmentation to detect the surrounding environment may receive an image and output object information. 2 and 3, the training data and the input data may be in the form of an image, and the image may include a plurality of pixels. Output data and labeling data may be object information. Additionally, by visualizing the output data and labeling data, information can be visually delivered to the user.

이미지 세그멘테이션을 수행하기 위한 이미지의 종류에 제한은 없다. 상기 이미지는 카메라로 촬영된 이미지일 수 있다. 도 4를 참고하면, 단안 카메라, 쌍안 카메라, 적외선 카메라, TOF 카메라 등 다양한 카메라로부터 획득한 이미지를 이용할 수 있다. 또한, 2차원 이미지에만 한정되는 것은 아니고 3차원 이미지 등도 가능하다.There is no limit to the type of image for performing image segmentation. The image may be an image taken with a camera. Referring to FIG. 4, images acquired from various cameras, such as a monocular camera, a binocular camera, an infrared camera, and a TOF camera, may be used. In addition, it is not limited to only two-dimensional images, but three-dimensional images and the like are also possible.

이미지 세그멘테이션을 한 번 수행하는 경우 하나의 이미지만 입력받을 수 있다. 또는, 복수의 이미지를 입력받을 수 있다.When image segmentation is performed once, only one image can be input. Alternatively, a plurality of images may be input.

카메라로 촬영된 이미지를 전처리한 뒤에 인공신경망에 입력할 수 있다. 여기서, 전처리는 촬영된 이미지에 행하여지는 모든 종류의 가공을 의미하고, 이미지 정규화(normalization), 이미지 리사이즈(resize), 잘라내기(crop), 노이즈 제거, 이미지 상에 포함된 안개 제거(defogging), 미세먼지 제거, 소금 제거, 물방울 제거 및 이들의 조합 등을 포함할 수 있다. 전처리의 일 예로 안개 제거에 대해 살펴보면, 안개 제거는 안개 낀 지역을 촬영한 이미지를 전처리를 통해 맑은 지역을 촬영한 이미지로 변환하는 것을 의미할 수 있다. 전처리의 다른 예로 정규화에 대해 살펴보면, 정규화는 RGB 이미지의 전체 픽셀의 RGB 값의 평균을 구하고 이를 RGB 이미지로부터 차감하는 것을 의미할 수 있다. 전처리의 또 다른 예로 물방울 제거에 대해 살펴보면, 물방울 제거는 카메라 전면에 맺힌 물방울 등이 촬영된 이미지에서 전처리를 통해 물방울을 제거하거나 비 오는 날 촬영된 빗물을 전처리를 통해 이미지에서 제거하는 것 등을 의미할 수 있다. 이러한 이미지 전처리를 통해 인공신경망의 성능/정확도가 향상될 수 있다.After pre-processing the image captured by the camera, it can be input into the artificial neural network. Here, pre-processing refers to all kinds of processing performed on the captured image, and image normalization, image resize, cropping, noise removal, and fogging included in the image, It may include removing fine dust, removing salt, removing water droplets, and combinations thereof. Looking at the fog removal as an example of the pre-processing, the fog removal may mean converting an image of a foggy area into an image of a clear area through pre-processing. Looking at normalization as another example of preprocessing, normalization may mean obtaining an average of RGB values of all pixels of an RGB image and subtracting this from the RGB image. Looking at the removal of water droplets as another example of pre-processing, water droplet removal refers to removing water droplets through pre-treatment from images captured such as water droplets condensed on the front of the camera, or removing rainwater from the image through pre-processing on a rainy day. can do. Through such image pre-processing, the performance/accuracy of the artificial neural network can be improved.

이상에서는 이미지를 전처리한 후에 인공신경망에 입력하는 방법에 대해 살펴보았다. 이와 다르게, 전처리 과정을 포함한 인공신경망을 학습시켜 이용할 수 있다. 예를 들어, 안개 낀 지역을 촬영한 이미지를 인공신경망의 입력으로 하여도 맑은 지역을 촬영한 이미지를 입력으로 한 경우와 마찬가지의 출력을 얻을 수 있도록 인공신경망을 학습시킬 수 있다.In the above, we have looked at the method of preprocessing the image and then inputting it into the artificial neural network. Alternatively, artificial neural networks including pre-processing can be learned and used. For example, even if an image of a foggy area is taken as an input of the artificial neural network, the artificial neural network can be trained to obtain the same output as when an image of a clear area is taken as an input.

인공신경망의 출력 데이터/라벨링 데이터는 입력 이미지/학습 이미지와 대응될 수 있다. 또한, 출력 데이터 및 라벨링 데이터는 서로 대응될 수 있다.The output data/labeling data of the artificial neural network may correspond to the input image/learning image. Also, the output data and labeling data may correspond to each other.

출력 데이터 및 라벨링 데이터는 복수의 정보를 포함할 수 있다. 또는, 출력 데이터 및 라벨링 데이터는 복수의 정보를 반영하여 결정될 수 있다. The output data and labeling data may include a plurality of pieces of information. Alternatively, the output data and labeling data may be determined by reflecting a plurality of pieces of information.

출력 데이터 및 라벨링 데이터는 각각 복수의 출력값 및 복수의 라벨링값을 포함할 수 있다. 상기 출력값 및 상기 라벨링값은 복수의 정보를 포함할 수 있다. 또는, 상기 출력값 및 상기 라벨링값은 복수의 정보를 반영하여 결정될 수 있다.The output data and labeling data may each include a plurality of output values and a plurality of labeling values. The output value and the labeling value may include a plurality of pieces of information. Alternatively, the output value and the labeling value may be determined by reflecting a plurality of pieces of information.

출력값 및 라벨링값은 인공신경망에 입력되는 이미지의 픽셀과 대응될 수 있다. 또한, 상기 출력값 및 상기 라벨링값은 서로 대응될 수 있다.The output value and the labeling value may correspond to pixels of an image input to the artificial neural network. In addition, the output value and the labeling value may correspond to each other.

출력값 및 라벨링값의 개수는 입력 이미지의 픽셀 개수와 동일할 수 있다. 예를 들어, 256 x 256 픽셀의 이미지를 입력하는 경우 출력값 및 라벨링값의 개수 또한 256 x 256 = 65536개일 수 있다. 또는, 출력값 및 라벨링값의 개수는 입력 이미지 픽셀 개수의 정수배일 수 있다. 이하에서는 주로 입력 이미지의 픽셀 개수와 출력값 및 라벨링값의 개수가 동일한 경우에 대해 설명하나, 이에 한정되는 것은 아니고 상기 픽셀 개수와 상기 출력값 및 상기 라벨링값의 개수가 상이할 수 있다.The number of output values and labeling values may be the same as the number of pixels in the input image. For example, when an image of 256 x 256 pixels is input, the number of output values and labeling values may also be 256 x 256 = 65536. Alternatively, the number of output values and labeling values may be an integer multiple of the number of input image pixels. Hereinafter, a case where the number of pixels of the input image and the number of output values and labeling values are the same is mainly described, but the present invention is not limited thereto, and the number of pixels, the output value, and the number of labeling values may be different.

출력 데이터 및 라벨링 데이터는 객체 정보일 수 있다. 여기서, 객체 정보는 이미지에 포함된 객체(object)의 속성에 관한 정보를 의미하고, 객체에 관한 정보라면 그 제한이 없다.The output data and labeling data may be object information. Here, the object information refers to information on the property of an object included in the image, and there is no limitation if it is information on the object.

객체는 지형, 건물, 선박, 부표, 사람 등 장애물뿐만 아니라 해양과 같이 선박이 운항할 수 있는 지역 및 하늘과 같이 선박의 운항과 관련이 없을 수 있는 지역을 포함할 수 있다. 정보는 객체의 유무, 종류, 위치, 이동 방향, 이동 속도, 항로 표지 정보 등 그 제한이 없다. 여기서, 항로 표지 정보는 측방 표지, 방위 표지, 고립 장해 표지, 안전수역 표지, 특수 표지, 기타 표지 등을 포함할 수 있다. 또한, 객체의 위치는 객체까지의 거리 및 방향을 포함할 수 있고, 상대적인 위치 또는 절대적인 위치일 수 있다. 객체 정보는 상기 객체 및 상기 정보에 대해 그 일부만 포함할 수 있고, 그 전부를 포함할 수도 있다. 일 예로, 객체 중 장애물에 대한 정보는 장애물 정보라 할 수 있다.The object may include not only obstacles such as terrain, buildings, ships, buoys, people, etc., but also an area that the ship can navigate, such as the ocean, and an area that may not be related to the operation of the ship, such as sky. The information is not limited in the presence or absence of an object, its type, location, movement direction, movement speed, and route marker information. Here, the route sign information may include a side sign, a bearing sign, an isolated obstacle sign, a safe zone sign, a special sign, and other signs. In addition, the location of the object may include a distance and a direction to the object, and may be a relative location or an absolute location. The object information may include only a part of the object and the information, or may include all of the object. For example, information on an obstacle among objects may be referred to as obstacle information.

이하에서는 객체 정보 중 위치 정보에 대해 구체적으로 살펴본다. Hereinafter, location information among object information will be described in detail.

인공신경망의 학습 단계에서 위치 정보를 학습하는 경우 위치 정보를 추론할 수 있다. 여기서, 위치 정보는 객체의 위치와 관련된 정보를 의미한다. 예를 들어, 위치 정보는 거리 및/또는 방향일 수 있다. 또는, 객체가 존재하는 좌표일 수 있다.When location information is learned in the learning stage of the artificial neural network, location information can be inferred. Here, the location information means information related to the location of the object. For example, the location information may be a distance and/or a direction. Alternatively, it may be a coordinate in which the object exists.

객체의 거리 정보는 이미지를 촬영한 카메라로부터 객체까지의 거리일 수 있다. 또는, 임의의 지점으로부터 객체까지의 거리일 수 있다. 객체의 방향 정보는 이미지를 촬영한 카메라와 객체 사이의 각도일 수 있다. 또는, 임의의 지점과 객체 사이의 각도일 수 있다.The distance information of the object may be a distance from the camera that captured the image to the object. Alternatively, it may be a distance from an arbitrary point to an object. The direction information of the object may be an angle between the object and the camera that captured the image. Alternatively, it may be an angle between an arbitrary point and an object.

위치 정보는 물체의 상대적인 위치를 의미할 수 있고, 절대적인 위치를 의미할 수도 있다.The location information may refer to a relative position of an object or may refer to an absolute position.

이미지 세그멘테이션을 통해 이미지에 포함된 물체까지의 위치 정보를 획득할 수 있다. 또는, 이미지의 픽셀 별 또는 픽셀 그룹별 위치 정보를 획득할 수 있다. 도 5는 일 실시예에 따른 이미지 세그멘테이션에 관한 도면이다. 도 5를 참고하면, 이미지 세그멘테이션을 통해 입력 이미지(110)가 특정 속성별로 분할된 출력 데이터(130)를 획득할 수 있다. 입력 이미지(110)는 2대의 선박, 바다 및 육지를 포함하는 객체를 포함하고, 인공신경망에 상기 입력 이미지(110)를 입력하여 상기 객체가 종류 및 거리에 따라 분할된 출력 데이터(130)를 획득할 수 있다. 예를 들어, 상기 출력 데이터(130)에서 서로 다른 거리 정보를 갖는 2대의 선박은 다르게 표현될 수 있다. Position information to an object included in the image may be obtained through image segmentation. Alternatively, location information for each pixel or pixel group of the image may be obtained. 5 is a diagram illustrating image segmentation according to an exemplary embodiment. Referring to FIG. 5, through image segmentation, output data 130 obtained by dividing an input image 110 according to a specific attribute may be obtained. The input image 110 includes an object including two ships, sea, and land, and by inputting the input image 110 to an artificial neural network, the object is divided according to the type and distance to obtain the output data 130 can do. For example, in the output data 130, two ships having different distance information may be expressed differently.

도 5는 이미지 세그멘테이션을 통한 위치 정보 표현 방법의 일 예이다. 이 외에도 다양한 방식으로 위치 정보를 표현할 수 있다. 상기 위치 정보는 거리 정보만 포함할 수도 있고, 거리 정보에 더하여 방향 정보, 물체의 존재 여부, 물체의 종류 등 다른 객체 정보도 함께 포함할 수 있다.5 is an example of a method of expressing location information through image segmentation. In addition to this, location information can be expressed in various ways. The location information may include only distance information, or other object information such as direction information, existence of an object, and type of an object in addition to the distance information.

도 6 및 도 7은 일 실시예에 따른 이미지 세그멘테이션에 관한 도면들이다. 이하에서는 위치 정보를 표현하는 실시예들에 대해 도 6 및 도 7을 참고하여 살펴보나, 표현 방법이 이에 한정되는 것은 아니다.6 and 7 are diagrams of image segmentation according to an exemplary embodiment. Hereinafter, exemplary embodiments for expressing location information will be described with reference to FIGS. 6 and 7, but a method of expressing the location information is not limited thereto.

위치 정보는 일정 범위를 갖는 복수의 카테고리로 표현될 수 있다. 예를 들어, 거리 정보는 근거리, 중거리 및 원거리 등으로 표현될 수 있고, 방향 정보는 좌측 방향, 정면 방향 및 우측 방향 등으로 표현될 수 있다. 이를 조합하여 좌측 근거리, 우측 원거리 등으로 표현하는 것도 가능할 것이다.The location information may be expressed in a plurality of categories having a certain range. For example, distance information may be expressed in a short distance, a medium distance, a far distance, and the like, and the direction information may be expressed in a left direction, a front direction, a right direction, and the like. It will be possible to combine these and express them in the near-left or far-right distance.

상기 카테고리는 숫자를 이용하여 표현될 수 있다. 예를 들어, 거리 정보 중 근거리는 -1로, 중거리는 0으로, 원거리는 +1로 표현할 수 있다. 도 6을 참고하면, 256 x 256 픽셀의 이미지를 학습 이미지 및 입력 이미지(110)로 사용하는 경우, 출력 데이터 및 라벨링 데이터는 256 x 256 크기의 행렬일 수 있고, 행렬의 각 원소는 거리 정보에 따라 -1, 0, +1 중 어느 하나의 값을 가질 수 있다.The category can be expressed using numbers. For example, of the distance information, a short distance may be expressed as -1, a medium distance may be expressed as 0, and a long distance may be expressed as +1. Referring to FIG. 6, when an image of 256 x 256 pixels is used as the training image and the input image 110, output data and labeling data may be a matrix having a size of 256 x 256, and each element of the matrix corresponds to distance information. Accordingly, it may have any one of -1, 0, and +1.

위치 정보는 실제 거리값 및 방향값으로 표현될 수 있다. 예를 들어, 거리 정보는 미터(m) 단위로 표현되고, 방향 정보는 도(degree) 단위로 표현될 수 있다. 도 6을 참고하면, 거리 정보를 표현하는 출력 데이터 및 라벨링 데이터 행렬의 각 원소는 10m, 15m 등 미터 단위의 거리값을 가질 수 있다.The location information may be expressed as an actual distance value and a direction value. For example, distance information may be expressed in meters (m), and direction information may be expressed in degrees. Referring to FIG. 6, each element of a matrix of output data and labeling data representing distance information may have a distance value in units of meters, such as 10 m and 15 m.

실제 거리값 및 방향값을 일정 범위의 값으로 변환하여 위치 정보를 표현할 수 있다. 위치 정보는 균일하게 정규화될 수도 있고, 로그 함수나 지수 함수 등을 이용하여 불균일하게 정규화될 수도 있다. 예를 들어, 거리 정보는 0~1 사이의 값으로 정규화하여 표현될 수 있다. 도 6을 참고하면, 거리 정보를 표현하는 출력 데이터 및 라벨링 데이터 행렬의 각 원소는 0~1 사이의 값을 가질 수 있다.Position information can be expressed by converting actual distance values and direction values into values in a certain range. The location information may be uniformly normalized, or may be non-uniformly normalized using a log function or an exponential function. For example, distance information may be expressed by normalizing to a value between 0 and 1. Referring to FIG. 6, each element of an output data representing distance information and a labeling data matrix may have a value between 0 and 1.

위치 정보를 RGB 값으로 표현할 수 있다. 이 경우, 출력 데이터 및 라벨링 데이터가 RGB 이미지가 되어 별도의 시각화 단계 없이도 사용자가 위치 정보를 쉽게 확인할 수 있다. 도 7을 참고하면, 라벨링 데이터 및 출력 데이터(130)에 포함된 선박 및 지형은 서로 다른 거리 정보로 인해 서로 다른 RGB 값에 대응되어 서로 다른 색으로 표현될 수 있다. 도 6과 비교하여 행렬 관점으로 살펴보면, 라벨링 데이터 및 출력 데이터(130)는 256 x 256 x 3 크기의 행렬일 수 있다.Position information can be expressed as an RGB value. In this case, the output data and labeling data become RGB images, so that the user can easily check the location information without a separate visualization step. Referring to FIG. 7, ships and terrain included in the labeling data and the output data 130 may correspond to different RGB values due to different distance information and may be represented in different colors. In comparison with FIG. 6, in terms of a matrix, the labeling data and the output data 130 may be a matrix having a size of 256 x 256 x 3.

위치 정보 및 그 외의 객체 정보를 함께 표현할 수 있다. 이하에서는 위치 정보 외의 객체 정보를 추가 정보라 한다.Location information and other object information can be expressed together. In the following, object information other than location information is referred to as additional information.

위치 정보와 독립적으로 추가 정보를 표현할 수 있다. 또는, 위치 정보와 추가 정보를 동시에 반영하여 표현할 수 있다.Additional information can be expressed independently of location information. Alternatively, location information and additional information can be simultaneously reflected and expressed.

위치 정보와 추가 정보를 독립적으로 표현하는 경우, 위치 정보와 추가 정보는 별도의 데이터 세트로 표현될 수 있다. 예를 들어, 256 x 256 픽셀의 이미지를 인공신경망에 입력하는 경우, 위치 정보는 256 x 256 크기의 행렬이고 추가 정보는 256 x 256 크기의 행렬 n 개일 수 있다. 여기서, n은 추가 정보의 개수일 수 있다.When the location information and the additional information are independently expressed, the location information and the additional information may be expressed as separate data sets. For example, when an image of 256 x 256 pixels is input to the artificial neural network, location information may be a matrix having a size of 256 x 256 and additional information may be n matrices having a size of 256 x 256. Here, n may be the number of additional information.

위치 정보와 추가 정보를 동시에 반영하여 표현하는 경우, 위치 정보와 추가 정보가 하나의 데이터 세트로 표현될 수 있다. 예를 들어, 전술한 위치 정보를 일정 범위를 갖는 복수의 카테고리로 표현하는 방법에 장애물 종류를 함께 고려하여 표현할 수 있다. 표 1은 일 실시예에 따른 거리 정보 및 장애물 종류를 함께 고려한 표현 방법이다. 표 1을 참고하면, 거리 정보 및 장애물 종류를 함께 고려하여 클래스를 설정하고, 각 클래스 별로 식별값을 할당할 수 있다. 예를 들어, 거리 정보인 근거리와 장애물 종류 정보인 지형을 함께 고려하여 1번 식별값을 할당할 수 있다. 표 1 및 도 6을 참고하면, 출력 데이터 및 라벨링 데이터 행렬의 각 원소는 1 내지 10의 식별값 중 어느 한 값을 가질 수 있다. 표 1은 거리 정보와 장애물 종류 정보를 함께 고려한 경우의 일 예이고, 이 외에 방향 정보, 장애물 이동 방향, 속도, 항로 표지 등 다른 추가 정보 또한 함께 고려할 수 있다. 또한, 모든 식별값이 복수의 정보를 포함해야 하는 것은 아니고, 같은 종류의 정보를 포함해야 하는 것도 아니다. 예를 들어, 특정 식별값은 거리 정보만 포함하고 다른 식별값은 장애물 종류 정보만 포함하며 또 다른 식별값은 거리 정보와 장애물 종류 정보를 모두 포함하는 등 경우에 따라 다양한 방식으로 표현될 수 있다.When the location information and the additional information are simultaneously reflected and expressed, the location information and the additional information may be expressed as one data set. For example, the method of expressing the above-described position information in a plurality of categories having a predetermined range may be expressed by considering the type of obstacle together. Table 1 is a representation method in which distance information and an obstacle type are considered together according to an embodiment. Referring to Table 1, a class may be set in consideration of distance information and an obstacle type together, and an identification value may be allocated for each class. For example, the identification value 1 may be assigned in consideration of a short distance, which is distance information, and a terrain, which is obstacle type information, together. Referring to Tables 1 and 6, each element of the output data and labeling data matrix may have any one of 1 to 10 identification values. Table 1 is an example of a case in which distance information and obstacle type information are considered together, and other additional information such as direction information, obstacle movement direction, speed, and route indicator may also be considered. In addition, not all identification values must include a plurality of pieces of information, and not all of the identification values must include the same type of information. For example, a specific identification value includes only distance information, another identification value includes only obstacle type information, and another identification value includes both distance information and obstacle type information.

식별값Identification value 클래스class 1One 근거리 + 지형Close range + terrain 22 중거리 + 지형Medium range + terrain 33 원거리 + 지형Ranged + Terrain 44 근거리 + 고정 장애물Close range + fixed obstacle 55 중거리 + 고정 장애물Medium range + fixed obstacle 66 원거리 + 고정 장애물Ranged + Fixed Obstacles 77 근거리 + 동적 장애물Close range + dynamic obstacles 88 중거리 + 동적 장애물Medium range + dynamic obstacles 99 원거리 + 동적 장애물Ranged + dynamic obstacles 1010 기타Etc

인공신경망의 정확성을 위해서는 그 학습 과정이 중요하다. 인공신경망은 지도 학습, 비지도 학습, 강화 학습, 모방 학습 등 방법에 제한이 없이 다양한 방식으로 학습될 수 있다.The learning process is important for the accuracy of artificial neural networks. Artificial neural networks can be learned in a variety of ways without any restrictions on methods such as supervised learning, unsupervised learning, reinforcement learning, and imitation learning.

인공신경망의 정확성 향상을 위하여는 다양한 학습 이미지의 확보가 필요할 수 있다. 다양한 학습 이미지를 이용한 인공신경망의 학습을 통해 다양한 입력 이미지에 대응할 수 있다. 예를 들어, 안개 낀 이미지로부터 이미지 세그멘테이션을 통하여 정보를 획득하기 위해 안개 낀 학습 이미지가 필요할 수 있다. 또는, 비 오는 날의 이미지로 정확한 이미지 세그멘테이션 결과를 얻기 위해 비 오는 날의 이미지를 학습 이미지로 사용하는 것이 필요할 수 있다. In order to improve the accuracy of the artificial neural network, it may be necessary to secure various learning images. It is possible to respond to various input images through learning of the artificial neural network using various learning images. For example, a misty training image may be needed to obtain information from a misty image through image segmentation. Alternatively, it may be necessary to use an image of a rainy day as a learning image in order to obtain an accurate image segmentation result with an image of a rainy day.

해상 이미지의 경우 선박을 타고 나가 촬영해야 하는 등의 문제로 인해 학습 이미지 확보가 어려울 수 있다. 특히, 인공신경망의 정확도 향상을 위해 다양한 해상 상황을 고려해야 하므로 더욱 어려울 수 있다. 여기서, 해상 상황으로는 해무, 안개, 해면 불요 반사파(sea clutter), 눈, 비 등이 있을 수 있다.In the case of maritime images, it may be difficult to secure a learning image due to problems such as having to take a picture while boarding a ship. In particular, it may be more difficult because various maritime situations must be considered in order to improve the accuracy of the artificial neural network. Here, as a maritime situation, there may be sea fog, fog, sea clutter, snow, rain, and the like.

직접 선박을 타고 나가 학습 이미지를 확보하는 방법 외에 데이터 확장(data augmentation)을 통해 학습 이미지를 확보할 수 있다. 여기서, 데이터 확장이란 학습 이미지를 직접 촬영하여 얻는 방법 외의 모든 방법을 의미한다. 일 예로, 프로그램 등을 이용하여 맑은 날의 이미지에 안개를 덧입혀 안개 낀 날의 이미지를 학습 이미지로 확보할 수 있다. 다른 예로, 바다의 색을 임의로 변경하여 지역에 따라 서로 다른 바다의 색을 고려한 학습 이미지를 생성할 수 있다. 도 8은 일 실시예에 따른 데이터 확장에 관한 도면이다. 도 8을 참고하면, 맑은 날의 해상 이미지로부터 안개 낀 날의 이미지, 비 오는 날의 이미지 및 안개 낀 비 오는 날의 이미지를 확보할 수 있다.In addition to the method of acquiring a learning image by going out on a ship, it is possible to acquire a learning image through data augmentation. Here, data expansion refers to all methods other than a method of directly capturing and obtaining a training image. As an example, fog may be added to an image of a sunny day using a program or the like to secure an image of a foggy day as a learning image. As another example, the color of the sea may be arbitrarily changed to generate a learning image that considers different colors of the sea according to regions. 8 is a diagram for data expansion according to an embodiment. Referring to FIG. 8, an image of a misty day, an image of a rainy day, and an image of a misty and rainy day can be obtained from the maritime image on a clear day.

인공신경망의 학습 방법에 따라 학습 이미지에 대응되는 라벨링 데이터가 필요한 경우가 존재한다. 예를 들어, 지도 학습의 경우 라벨링 데이터가 필요할 수 있다. 라벨링 데이터는 학습 이미지로부터 생성될 수 있다. There are cases in which labeling data corresponding to the training image is required according to the learning method of the artificial neural network. For example, for supervised learning, labeling data may be required. Labeling data can be generated from the training image.

라벨링 데이터는 인공신경망을 학습시키는 목적에 따라 다양한 종류의 정보를 포함할 수 있다. 일 예로, 라벨링 데이터는 이미지의 픽셀 별 및/또는 픽셀 그룹별로 대응되는 위치 정보를 포함하거나, 이미지의 영역별 대응되는 위치 정보를 포함할 수 있다. 또는, 이미지에 포함된 물체의 위치 정보를 포함할 수 있다. 전술한 위치 정보를 표현하는 방법에 따라 라벨링 데이터의 표현 방법이 달라질 수 있으므로 이를 고려하여 라벨링 데이터를 생성해야 할 수 있다.The labeling data may include various types of information according to the purpose of training the artificial neural network. For example, the labeling data may include location information corresponding to each pixel and/or pixel group of the image, or may include location information corresponding to each area of the image. Alternatively, it may include location information of an object included in the image. Since the method of expressing the labeling data may vary according to the method of expressing the above-described location information, it may be necessary to generate the labeling data in consideration of this.

거리 정보를 포함하는 라벨링 데이터의 획득에 대해 보다 구체적으로 살펴본다. 거리 정보는 깊이 카메라(depth camera)를 이용하여 획득할 수 있다. 여기서, 깊이 카메라는 스테레오 방식(stereo type), 구조화된 패턴 방식(structured pattern type), 비행시간 방식(TOF type) 등일 수 있고, 이 중 둘 이상의 방식을 혼합하여 사용할 수도 있다. 깊이 카메라로부터 이미지의 각 픽셀 별 거리 정보를 획득하여 하나의 라벨링 데이터를 생성할 수 있다. 이 외에도 거리 정보를 얻을 수 있는 다양한 방법이 이용될 수 있다.The acquisition of labeling data including distance information will be described in more detail. Distance information may be obtained using a depth camera. Here, the depth camera may be a stereo type, a structured pattern type, a time-of-flight method (TOF type), or the like, and two or more of them may be mixed and used. One labeling data may be generated by obtaining distance information for each pixel of the image from the depth camera. In addition to this, various methods for obtaining distance information may be used.

거리 정보 외에 추가 정보를 더 포함하도록 라벨링 데이터를 생성할 수 있다. 거리 정보와 추가 정보를 독립적으로 포함하는 라벨링 데이터를 생성하는 경우에는 전술한 방법을 그대로 사용할 수 있다. 거리 정보와 추가 정보를 함께 고려하여 하나의 값으로 표현하는 경우에는 표 1과 같이 깊이 카메라 등을 통하여 획득한 거리 정보 및 추가 정보가 함께 고려된 변형된 자료가 라벨링 데이터가 될 수 있다. Labeling data may be generated to further include additional information in addition to distance information. In the case of generating labeling data independently including distance information and additional information, the above-described method can be used as it is. When the distance information and the additional information are considered together and expressed as a single value, as shown in Table 1, the modified data in which the distance information acquired through a depth camera and the additional information are considered together may be the labeling data.

라벨링 데이터는 사용자에 의해 수동으로 생성될 수 있다. 또는, 라벨링 데이터는 이를 생성하는 인공신경망이나 기타 알고리즘을 통해 생성될 수 있다. 예를 들어, 이미 학습된 제1 인공신경망의 출력을 학습시키려는 제2 인공신경망의 라벨링 데이터로 이용할 수 있다. 도 9는 일 실시예에 따른 제1 인공신경망의 출력을 라벨링 데이터로 이용하여 제2 인공신경망을 학습시키는 방법에 관한 도면이다. 도 9를 참고하면, 가시광선 이미지를 입력받아 이미지 세그멘테이션을 수행하는 학습된 제1 인공신경망 및 적외선 이미지를 입력받아 이미지 세그멘테이션을 수행하는 학습되지 않은 제2 인공신경망이 존재할 수 있다. 동일한 장면에 대해 가시광선 이미지 및 적외선 이미지를 획득하고 이를 각각 제1 인공신경망 및 제2 인공신경망에 입력하는 경우 제1 인공신경망의 출력은 정확한 세그멘테이션 결과이고 제2 인공신경망의 출력은 부정확한 결과일 수 있다. 제1 인공신경망의 출력을 제2 인공신경망의 라벨링 데이터로 하여 제2 인공신경망의 출력과 비교하고 그 오차를 제2 인공신경망에 역전파 하여 제2 인공신경망을 학습시킬 수 있다.Labeling data can be created manually by the user. Alternatively, the labeling data may be generated through an artificial neural network or other algorithm that generates it. For example, the output of the first artificial neural network that has already been learned may be used as labeling data of the second artificial neural network to be trained. 9 is a diagram illustrating a method of training a second artificial neural network using an output of a first artificial neural network as labeling data according to an exemplary embodiment. Referring to FIG. 9, there may be a learned first artificial neural network that receives a visible ray image and performs image segmentation, and an untrained second artificial neural network that receives an infrared image and performs image segmentation. When a visible ray image and an infrared image are acquired for the same scene and inputted to the first artificial neural network and the second artificial neural network, respectively, the output of the first artificial neural network is an accurate segmentation result, and the output of the second artificial neural network is an inaccurate result. I can. The second artificial neural network can be trained by comparing the output of the first artificial neural network with the output of the second artificial neural network by using the output of the first artificial neural network as labeling data of the second artificial neural network and backpropagating the error to the second artificial neural network.

자동 생성된 정보는 차후에 보정되어 라벨링 데이터로 이용될 수 있다. 예를 들어, 깊이 카메라로부터 획득한 각 픽셀 별 거리 정보를 보정한 후 이 보정된 자료를 바탕으로 라벨링 데이터를 생성할 수 있다. 여기서, 정보의 보정은 더욱 정확한 값을 의미할 수 있다. 일 예로, 거리 정보의 보정은 더욱 정확한 거리값을 의미할 수 있다.The automatically generated information can be corrected later and used as labeling data. For example, after correcting distance information for each pixel acquired from a depth camera, labeling data may be generated based on the corrected data. Here, the correction of information may mean more accurate values. For example, correction of distance information may mean more accurate distance values.

의도적으로 정보를 왜곡하여 라벨링 데이터를 생성할 수 있다. 예를 들어, 깊이 카메라로부터 획득한 거리 정보를 의도적으로 왜곡하여 라벨링 데이터에 반영할 수 있다. 부표 등과 같은 작은 장애물의 경우 실제 크기보다 크게 라벨링 할 수 있다. 이로 인해 인공신경망이 작은 장애물을 잘 감지할 수 있도록 학습될 수 있다.Labeling data can be created by intentionally distorting information. For example, distance information obtained from a depth camera may be intentionally distorted and reflected in labeling data. Small obstacles such as buoys can be labeled larger than their actual size. Due to this, the artificial neural network can be learned to detect small obstacles well.

인공신경망의 정확성 향상을 위한 다른 방법은 적절한 오차 역전파 방법을 채택하는 것일 수 있다. 오차(손실, loss)란 인공신경망의 정확성을 나타낼 수 있는 척도로, 인공신경망의 출력 데이터 및 라벨링 데이터의 차이를 의미할 수 있다.Another method for improving the accuracy of the artificial neural network may be to adopt an appropriate error backpropagation method. The error (loss) is a measure that can indicate the accuracy of the artificial neural network, and may mean the difference between the output data of the artificial neural network and the labeling data.

출력 데이터의 총 오차는 출력 데이터의 출력값 당 오차를 이용해 산출될 수 있다. 또는, 출력 데이터의 총 오차는 출력 데이터의 출력값 당 오차의 함수로 표현될 수 있다. 오차는 평균제곱오차(mean squared error), 교차 엔트로피 오차(cross entropy error) 등 다양한 방식으로 정의될 수 있다. 예를 들어, 상기 총 오차는 상기 출력값 당 오차의 합일 수 있다. 또는, 상기 총 오차는 상기 출력값 당 오차에 일정한 값(가중치)을 고려하여 산출될 수 있다. 일 예로, 상기 출력값 당 오차에 가중치를 곱한 값의 합으로 상기 총 오차를 산출할 수 있다. The total error of the output data may be calculated using the error per output value of the output data. Alternatively, the total error of the output data may be expressed as a function of the error per output value of the output data. The error can be defined in various ways, such as a mean squared error and a cross entropy error. For example, the total error may be a sum of errors per output value. Alternatively, the total error may be calculated by considering a constant value (weight) to the error per output value. For example, the total error may be calculated as a sum of a value obtained by multiplying the error per output value by a weight.

출력 데이터에 포함된 정보를 반영하여 총 오차를 산출할 수 있다. 예를 들어, 출력 데이터에 포함된 객체의 종류 정보를 반영하여 총 오차를 산출할 수 있다. 아래 식 1은 표 1과 같이 객체의 종류 정보를 반영하여 산출된 총 오차의 일 예이다.The total error can be calculated by reflecting the information included in the output data. For example, the total error may be calculated by reflecting the type information of the object included in the output data. Equation 1 below is an example of the total error calculated by reflecting the object type information, as shown in Table 1.

식 1Equation 1

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
이고, Pclass는 객체를 구성하는 픽셀의 개수, c는 하이퍼 파라미터(hyper parameter), Ec는 식별값이다.here,
Figure pat00002
, P class is the number of pixels constituting an object, c is a hyper parameter, and E c is an identification value.

총 오차 계산 시 모든 출력값의 오차를 고려할 수 있다. 또는, 총 오차 계산 시 일부 출력값의 오차만 고려하고 다른 출력값의 오차는 고려하지 않을 수 있다. 예를 들어, 출력값이 객체의 종류에 대한 정보를 포함하는 경우 일부 객체의 오차만 고려하고 다른 객체의 오차는 고려하지 않을 수 있다. 여기서, 고려되는 객체는 운항에 필요한 객체이고 고려되지 않는 객체는 운항에 필요하지 않은 객체일 수 있다. 또한, 운항에 필요한 객체는 장애물일 수 있고 운항에 필요하지 않은 객체는 하늘일 수 있다.When calculating the total error, the error of all output values can be considered. Alternatively, when calculating the total error, only errors of some output values may be considered and errors of other output values may not be considered. For example, when the output value includes information on the type of object, only errors of some objects may be considered and errors of other objects may not be considered. Here, the object to be considered may be an object necessary for navigation, and an object that is not considered may be an object that is not required for navigation. In addition, an object required for navigation may be an obstacle, and an object not required for navigation may be a sky.

인공신경망의 정확성 향상을 위한 또 다른 방법으로 조건에 따라 다른 인공신경망을 사용할 수 있다. 예를 들어, 바다의 색에 따라 이용되는 인공신경망을 달리할 수 있다. 또는, 지역에 따라 인공신경망을 달리할 수 있다. 인공신경망의 선택은 사용자에 의해 수동으로 이루어지거나 자동으로 이루어질 수 있다. 예를 들어, GPS를 이용하여 지역을 탐지한 뒤에 지역에 따라 자동으로 인공신경망을 변경할 수 있다. 또는, 바다의 색을 센서 등으로 감지하여 자동으로 인공신경망을 변경할 수 있다.As another method for improving the accuracy of the artificial neural network, different artificial neural networks can be used depending on the conditions. For example, the artificial neural network used can be different depending on the color of the sea. Alternatively, the artificial neural network may be different depending on the region. The selection of the artificial neural network can be made manually or automatically by the user. For example, after detecting an area using GPS, the artificial neural network can be automatically changed according to the area. Alternatively, the artificial neural network can be automatically changed by detecting the color of the sea with a sensor or the like.

학습 이미지/입력 이미지를 획득하기 위하여 선박에 카메라를 설치할 수 있다. 상기 선박은 운항하는 선박 또는 자율 운항하는 선박일 수 있다. 또는, 상기 선박은 운항하는 선박이나 자율 운항하는 선박 이외의 선박일 수 있다. 또한, 카메라는 선박 외에 항만, 육지 등 그 위치에 제한없이 설치될 수도 있다. Cameras can be installed on the ship to acquire learning images/input images. The vessel may be an operating vessel or an autonomously operating vessel. Alternatively, the vessel may be a vessel other than an operating vessel or an autonomously operating vessel. In addition, the camera may be installed in a port, land, etc., in addition to a ship, without limitation.

카메라가 선박에 설치되는 경우, 카메라가 설치되는 위치에 제한은 없다. 카메라는 선박의 전면, 측면, 후면 등 임의의 위치에 설치될 수 있다. 또한, 카메라는 선박의 전방을 향하여 설치될 수 있고, 측방이나 후방을 향하여 설치될 수도 있다.When the camera is installed on the ship, there is no restriction on the location where the camera is installed. The camera can be installed in any position such as the front, side, and rear of the ship. In addition, the camera may be installed toward the front of the ship, and may be installed toward the side or rear.

카메라에 따라 감지 범위가 달라질 수 있다. 예를 들어, 카메라의 렌즈 및/또는 초점 거리에 따라 카메라가 감지할 수 있는 거리 및/또는 각도(시야각, field of view, FOV)가 달라질 수 있다. 선박의 크기, 목적 등에 따라 카메라의 감지 범위가 달라질 수 있다. 일 예로, 대형 선박의 경우 소형 선박에 비해 감지 거리가 먼 카메라가 설치될 수 있다.The detection range may vary depending on the camera. For example, the distance and/or angle (field of view, FOV) that can be detected by the camera may vary according to the lens and/or focal length of the camera. The detection range of the camera may vary depending on the size and purpose of the ship. For example, in the case of a large ship, a camera having a longer sensing distance than a small ship may be installed.

선박에는 단일한 카메라가 설치될 수 있다. 또는, 복수의 카메라가 설치될 수 있다. 복수의 카메라를 사용함에 따라 단일한 카메라를 사용하는 경우보다 감지 범위가 증가할 수 있다. 예를 들어, FOV가 넓어지거나 탐지 영역이 증가할 수 있다. 또는, 복수의 카메라를 사용함에 따라 주변 환경 감지의 정확도가 향상될 수 있다.A single camera can be installed on the ship. Alternatively, a plurality of cameras may be installed. As a plurality of cameras are used, the detection range may increase compared to the case of using a single camera. For example, the FOV may be wider or the detection area may be increased. Alternatively, as a plurality of cameras are used, the accuracy of sensing the surrounding environment may be improved.

복수의 카메라는 서로 다른 위치에 설치될 수 있다. 예를 들어, 제1 카메라는 선박의 전면에, 제2 카메라는 선박의 후면에 설치될 수 있다. 또는, 복수의 카메라는 서로 높이를 달리하여 설치될 수 있다. 예를 들어, 제1 카메라의 상부에 제2 카메라가 설치될 수 있다.A plurality of cameras may be installed at different locations. For example, the first camera may be installed at the front of the ship and the second camera may be installed at the rear of the ship. Alternatively, a plurality of cameras may be installed at different heights. For example, a second camera may be installed above the first camera.

복수의 카메라의 감지 영역은 서로 다를 수 있다. 이로 인해 단일한 카메라를 설치하는 경우보다 주변 환경 감지에 효과적일 수 있다. 일 예로, 제1 카메라는 선박 근처의 영역을 감지하고, 제2 카메라는 선박에서 먼 영역을 감지할 수 있다. 구체적 예시로, 광각 렌즈가 탑재되어 근거리(예를 들어, 0~150m)를 감지하는 제1 카메라 및 줌 렌즈가 탑재되어 원거리(예를 들어, 150~300m)를 감지하는 제2 카메라를 함께 이용하면 근거리 및 원거리(예를 들어, 0~300m)를 모두 감지할 수 있다. 다른 예로, 제1 카메라는 선박 전방 영역을 감지하고, 제2 카메라는 선박 측방 영역을 감지하며, 제3 카메라는 선박 후방 영역을 감지할 수 있다. 또 다른 예로, 제1 카메라는 선박의 좌측 전방 영역을 감지하고, 제2 카메라는 선박의 우측 전방 영역을 감지할 수 있다. 복수의 카메라의 감지 범위는 일부 중첩될 수 있다.The detection areas of the plurality of cameras may be different from each other. For this reason, it can be more effective in detecting the surrounding environment than when a single camera is installed. For example, the first camera may detect an area near the ship, and the second camera may detect an area far from the ship. As a specific example, a first camera that detects a short distance (for example, 0 to 150 m) with a wide-angle lens and a second camera that detects a distance (for example, 150 to 300 m) with a zoom lens are used together. If you do, both near and far (for example, 0 to 300m) can be detected. As another example, the first camera may detect the area in front of the ship, the second camera may detect the area lateral to the ship, and the third camera may detect the area behind the ship. As another example, the first camera may detect the left front area of the ship, and the second camera may detect the right front area of the ship. The detection ranges of the plurality of cameras may partially overlap.

복수의 카메라를 이용하는 경우, 복수의 카메라 각각이 생성하는 이미지를 하나의 이미지로 정합한 후에 인공신경망에 입력하여 이미지 세그멘테이션을 수행할 수 있다. 또는, 복수의 카메라 각각이 생성하는 이미지 중 일부를 정합한 후 이미지 세그멘테이션을 수행할 수 있다.In the case of using a plurality of cameras, an image generated by each of the plurality of cameras may be matched into one image and then input to an artificial neural network to perform image segmentation. Alternatively, image segmentation may be performed after some of the images generated by each of the plurality of cameras are matched.

또는, 복수의 카메라 각각이 생성하는 이미지를 개별적으로 인공신경망에 입력하여 이미지 세그멘테이션을 수행할 수 있다. 거리 정보를 근거리, 중거리 및 원거리로 표현하는 이미지 세그멘테이션을 예로 들면, 0~150m 거리를 감지하는 제1 카메라가 생성한 제1 이미지 및 150~300m 거리를 감지하는 제2 카메라가 생성한 제2 이미지로 이미지 세그멘테이션을 수행하는 경우, 제1 이미지로부터 근거리(예를 들어, 0~50m), 중거리(예를 들어, 50~100m) 및 원거리(예를 들어, 100~150m) 결과를 획득하고 제2 이미지로부터 근거리(예를 들어, 150~200m), 중거리(예를 들어, 200~250m) 및 원거리(예를 들어, 250~300m) 결과를 획득하여 총 6단계의 거리 범위를 산출하는 이미지 세그멘테이션 결과를 획득할 수 있다.Alternatively, image segmentation may be performed by individually inputting images generated by each of the plurality of cameras into the artificial neural network. For example, image segmentation that expresses distance information in short, medium, and long distances, for example, is a first image generated by a first camera that detects a distance of 0 to 150m and a second image that is generated by a second camera that detects a distance of 150 to 300m. When performing image segmentation with the first image, a short distance (eg, 0 to 50 m), a medium distance (eg, 50 to 100 m) and a far distance (eg, 100 to 150 m) results are obtained from the first image, and the second An image segmentation result that obtains short distance (e.g., 150-200m), medium-distance (e.g., 200-250m), and long-distance (e.g., 250-300m) results from an image and calculates a total distance range of 6 steps. Can be obtained.

선박의 크기, 목적 등에 따라 설치되는 카메라의 개수가 달라질 수 있다. 예를 들어, 대형 선박의 경우 소형 선박보다 더 많은 개수의 카메라가 설치될 수 있다.The number of cameras installed may vary depending on the size and purpose of the ship. For example, in the case of a large ship, a larger number of cameras may be installed than a small ship.

선박에 카메라를 설치하는 경우 선박의 종류, 카메라의 설치 위치 등 다양한 이유로 인해 초기 세팅이 필요할 수 있다. 여기서, 초기 세팅이란 카메라 영상/이미지에 나오는 픽셀이나 인공신경망을 이용한 이미지 세그멘테이션의 결과가 정상이 되도록 설정하는 것을 의미할 수 있다.When installing a camera on a ship, initial setting may be required for various reasons, such as the type of ship and the location of the camera. Here, the initial setting may mean setting so that the result of image segmentation using pixels or artificial neural networks appearing in the camera image/image is normal.

초기 세팅의 방법으로, 사용자에게 적당한 설치 가이드를 준 뒤에 AIS/레이더의 결과값과 오차를 비교하여 모듈이 자체적으로 카메라의 위치 및 오리엔테이션을 파악하도록 할 수 있다.As a method of initial setting, after giving the user an appropriate installation guide, the module can determine the camera's position and orientation by comparing the result value and the error of the AIS/Radar.

또는, 일단 카메라를 설치한 후 시험 주행의 결과에 따라 오차를 최소화하는 방향으로 카메라의 세팅값을 산출하고 이후 이를 주변 환경 감지에 이용할 수 있다. 특히, 전자해도의 지형지물 등과 이미지 세그멘테이션의 결과값 간의 상관관계 등에 기초하여 오차를 최소화하는 방향으로 세팅값을 찾아갈 수 있다. 이후 찾아진 결과값이 예를 들어, 카메라가 너무 하방으로 설치되어 충분한 거리를 보지 못하는 경우 등에는 경고를 주고 재설치를 유도할 수 있다.Alternatively, after the camera is installed, a setting value of the camera may be calculated in a direction that minimizes an error according to the result of the test run, and thereafter, it may be used to detect the surrounding environment. In particular, it is possible to find a setting value in a direction that minimizes an error based on a correlation between the topographic features of the electronic chart and the result value of image segmentation. If the result value found after that is, for example, if the camera is installed too downward and cannot see a sufficient distance, a warning can be given and re-installation can be induced.

카메라가 촬상한 이미지를 이미지 세그멘테이션의 입력 이미지로 이용하는 경우의 처리 방법에 대해 살펴본다.A processing method when an image captured by a camera is used as an input image for image segmentation will be described.

카메라는 일정 시간 간격으로 이미지를 촬영할 수 있다. 상기 시간 간격은 고정될 수 있고, 다이나믹하게 변경될 수도 있다.The camera can take images at regular intervals. The time interval may be fixed or may be dynamically changed.

카메라의 이미지 획득 주기와 이미지 세그멘테이션의 동작 주기가 다를 수 있다. 예를 들어, 이미지 세그멘테이션은 카메라를 통해 획득되는 이미지 중 일부에 대해서만 수행될 수 있다. 카메라가 초당 60프레임의 이미지를 획득하는 경우 이미지 세그멘테이션은 이 중 10프레임의 이미지에 기초하여 수행될 수 있다. 일부의 이미지를 선택하는 방법으로 임의의 이미지를 선택하는 방법이 이용될 수 있다. 또는, 촬영된 이미지 중 선명한 이미지를 선택할 수 있다. 또는, 복수 프레임의 이미지를 합성하여 하나의 이미지로 변환한 후 이미지 세그멘테이션을 수행할 수 있다. 예를 들어, 고조도 이미지와 저조도 이미지를 합성한 이미지로 세그멘테이션을 수행할 수 있다.The image acquisition period of the camera and the operation period of image segmentation may be different. For example, image segmentation may be performed on only some of the images acquired through the camera. When the camera acquires an image of 60 frames per second, image segmentation may be performed based on an image of 10 frames. As a method of selecting some images, a method of selecting an arbitrary image may be used. Alternatively, you can select a clear image from among the captured images. Alternatively, images of a plurality of frames may be synthesized and converted into one image, and then image segmentation may be performed. For example, segmentation can be performed with an image obtained by combining a high-light image and a low-light image.

한 번의 이미지 세그멘테이션을 수행하기 위해 하나의 이미지가 사용될 수 있지만, 복수의 이미지가 사용될 수도 있다. 여기서, 복수의 이미지는 동일한 카메라 또는 서로 다른 카메라로 촬상한 이미지일 수 있다.One image may be used to perform one image segmentation, but a plurality of images may be used. Here, the plurality of images may be images captured by the same camera or different cameras.

서로 다른 카메라로 촬상한 이미지를 이용하여 이미지 세그멘테이션을 수행하는 경우, 각 카메라의 감지 범위는 서로 다를 수 있다. 예를 들어, 제1 카메라는 근거리, 제2 카메라는 원거리를 촬상할 수 있다.When image segmentation is performed using images captured by different cameras, the detection ranges of each camera may be different. For example, a first camera may capture an image at a short distance and a second camera may capture an image at a distance.

이미지 세그멘테이션 외에 다른 방식으로 주변 환경을 감지할 수 있다. 예를 들어, 레이더, 라이다, 초음파 탐지기 등 장애물 감지 센서를 이용해 주변 환경을 감지하거나, 상기 장애물 감지 센서로 획득한 정보를 인공신경망을 통해 가공하여 주변 환경을 감지할 수 있다. 이하에서는 이미지 세그멘테이션 결과 획득한 위치 정보는 제1 위치 정보, 이 외의 방식으로 획득한 위치 정보는 제2 위치 정보라 한다.In addition to image segmentation, the surrounding environment can be detected in other ways. For example, the surrounding environment may be sensed using an obstacle detection sensor such as a radar, a lidar, or an ultrasonic detector, or information obtained by the obstacle detection sensor may be processed through an artificial neural network to detect the surrounding environment. Hereinafter, the location information obtained as a result of image segmentation is referred to as first location information, and the location information obtained by other methods is referred to as second location information.

카메라로 촬상된 이미지의 경우, 카메라의 종류 및 위치(높이, 각도 등) 등을 포함하는 세팅 정보를 이용하여 이미지의 픽셀당 위치 정보를 획득할 수 있다. 획득한 위치 정보는 카메라의 위치 또는 임의의 기준에 대한 상대적인 위치일 수 있고, 절대적인 위치일 수도 있다.In the case of an image captured by a camera, position information per pixel of the image may be obtained using setting information including the type and position (height, angle, etc.) of the camera. The acquired location information may be a location of a camera or a location relative to an arbitrary reference, or may be an absolute location.

도 10은 일 실시예에 따른 이미지 픽셀을 이용한 위치 정보 획득에 관한 도면이다. 도 10을 참고하면, 이미지의 좌우 방향은 픽셀의 각도, 상하 방향은 픽셀까지의 거리에 대응될 수 있다. 픽셀 A의 경우 좌측으로 약 30°, 거리는 약 15m 떨어진 것으로 볼 수 있고, 픽셀 B의 경우 우측으로 약 10°, 거리는 약 20m 떨어진 것으로 볼 수 있다.10 is a diagram for obtaining location information using image pixels according to an exemplary embodiment. Referring to FIG. 10, a left-right direction of an image may correspond to an angle of a pixel, and an up-down direction may correspond to a distance to a pixel. In the case of Pixel A, it can be seen that the distance is about 30° to the left, and the distance is about 15m, and in the case of Pixel B, it can be seen as about 10° to the right and the distance is about 20m.

카메라의 자세에 따라 전술한 위치 정보의 오차가 발생할 수 있다. 예를 들어, 카메라의 초기 설치 자세가 차후에 변경되어 오차가 발생할 수 있다. 카메라의 설치 자세를 반영하여 상기 위치 정보를 보정할 수 있다.Depending on the camera's posture, an error in the above-described location information may occur. For example, the initial installation posture of the camera may be changed later, resulting in an error. The location information may be corrected by reflecting the installation posture of the camera.

카메라가 설치된 물체의 움직임(자세)에 따라 위치 정보의 오차가 발생할 수 있다. 예를 들어, 카메라가 선박에 설치된 경우 선박의 롤(roll), 피치(pitch) 등에 따라 이미지의 픽셀당 위치 정보가 달라질 수 있다. 정확한 위치 정보의 획득을 위해 선박의 자세와 같은 카메라가 설치된 물체의 자세를 고려할 수 있다. 예를 들어, 선박에 탑재된 관성 측정 장치(inertial measurement unit, IMU)로부터 선박의 선수 방향(heading 또는 yaw), 피치, 롤 등 선박의 자세에 관한 정보를 획득하고 이를 반영하여 이미지의 픽셀당 위치 정보를 획득할 수 있다. 도 11은 일 실시예에 따른 선박의 자세를 반영한 위치 정보 획득에 관한 도면이다. 도 11에서는 선박의 피치만 고려하였다. 선박의 선수가 위 방향을 보는 경우와 아래 방향을 보는 경우를 비교하면 이미지 상의 동일한 위치이더라도 대응되는 거리가 달라질 수 있다. 도 11을 참고하면, 픽셀 A와 픽셀 B 모두 이미지의 중앙부이나 픽셀 A의 거리는 40m, 픽셀 B의 거리는 10m로 차이 날 수 있다. 따라서, 관성 측정 장치 등을 통해 선박의 피치를 고려하지 않는 경우 거리 정보가 부정확할 수 있다.An error in location information may occur depending on the movement (position) of the object on which the camera is installed. For example, when a camera is installed on a ship, position information per pixel of an image may vary according to a roll, pitch, etc. of the ship. In order to obtain accurate location information, it is possible to consider the attitude of an object on which a camera is installed, such as the attitude of a ship. For example, information about the ship's attitude, such as heading or yaw, pitch, roll, etc., is acquired from the inertial measurement unit (IMU) mounted on the ship, and the position per pixel of the image is reflected. Information can be obtained. 11 is a diagram for obtaining location information reflecting the attitude of a ship according to an embodiment. In FIG. 11, only the pitch of the ship was considered. When comparing the case where the ship's bow is looking upward and downward, the corresponding distance may be different even at the same position on the image. Referring to FIG. 11, both the pixel A and the pixel B may be different from the center of the image, but the distance between the pixel A and the pixel B is 40 m and the distance between the pixel B and the pixel B are 10 m. Therefore, distance information may be inaccurate if the pitch of the ship is not considered through an inertial measurement device or the like.

이미지 세그멘테이션 및 이미지 세그멘테이션 외의 방법을 융합하여 주변 환경을 감지할 수 있다. 또는, 이미지 세그멘테이션 외의 방법을 통해 이미지 세그멘테이션으로 획득한 정보를 보정할 수 있다. 여기서, 보정한다는 의미는 절대적으로 정확한 정보를 얻는다는 뜻으로 한정되는 것은 아니고, 정보가 변한다는 의미를 포함한다.The surrounding environment can be detected by combining methods other than image segmentation and image segmentation. Alternatively, information acquired through image segmentation may be corrected through a method other than image segmentation. Here, the meaning of correction is not limited to the meaning of obtaining absolutely accurate information, but includes the meaning that the information changes.

이하에서는 제1 위치 정보 및 제2 위치 정보의 융합에 대해 구체적으로 살펴본다.Hereinafter, the fusion of the first location information and the second location information will be described in detail.

도 12는 일 실시예에 따른 최종 위치 정보 획득에 관한 블록도이다. 도 12를 참고하면, 이미지 세그멘테이션(S1500)을 통해 제1 위치 정보를 획득하고, 그 외의 방법으로 제2 위치 정보를 획득한 후 이를 고려하여 최종 위치 정보를 획득할 수 있다.12 is a block diagram of obtaining final location information according to an embodiment. Referring to FIG. 12, after acquiring first location information through image segmentation S1500 and acquiring second location information by other methods, final location information may be obtained by taking this into account.

이미지 세그멘테이션의 출력 데이터의 모든 출력값에 대하여 위치 정보를 융합해야 하는 것은 아니다. 일부 출력값은 제1 위치 정보와 제2 위치 정보를 이용하여 최종 위치 정보를 획득하고, 다른 출력값은 제1 위치 정보 및 제2 위치 정보 중 어느 하나만을 이용하여 최종 위치 정보를 획득할 수 있다. 예를 들어, 이미지 세그멘테이션을 통하여 얻은 물체의 종류에 따라 위치 정보 융합 여부를 결정할 수 있다. 장애물에 대하여는 위치 정보를 융합하고, 바다와 같은 운항 가능 영역에 대하여는 위치 정보를 융합하지 않을 수 있다.It is not necessary to fuse the location information for all the output values of the image segmentation output data. Some output values may obtain final location information using first location information and second location information, and other output values may obtain final location information using only one of the first location information and second location information. For example, it is possible to determine whether to fusion of location information according to the type of an object obtained through image segmentation. Location information may be fused with respect to obstacles, and location information may not be fused with a navigable area such as the sea.

제1 위치 정보 및 제2 위치 정보의 종류는 다를 수 있다. 예를 들어, 제1 위치 정보는 거리 정보, 제2 위치 정보는 방향 정보만 담고 있을 수 있다. 이 경우 제1 위치 정보 및 제2 위치 정보를 합하여 최종 위치 정보를 획득할 수 있다.The types of the first location information and the second location information may be different. For example, the first location information may contain distance information, and the second location information may contain only direction information. In this case, final location information may be obtained by adding the first location information and the second location information.

제1 위치 정보 및 제2 위치 정보가 동일한 종류의 정보를 포함하고 있을 수 있다. 이 경우 제1 위치 정보 및 제2 위치 정보가 정합할 수 있고, 정합하지 않을 수 있다. The first location information and the second location information may include the same type of information. In this case, the first location information and the second location information may or may not match.

위치 정보가 정합하는 경우는 제1 위치 정보와 제2 위치 정보가 동일하거나 비슷한 경우, 또는 오차 범위 이내인 경우일 수 있다. 예를 들어, 제1 위치 정보가 거리 영역으로 표현되고, 제2 위치 정보가 제1 위치 정보의 거리 영역 내에 포함되는 경우일 수 있다. 최종 위치 정보는 제1 위치 정보 및 제2 위치 정보 중 어느 하나일 수 있다. 또는, 최종 위치 정보는 제1 위치 정보를 제2 위치 정보로 보정한 값일 수 있다. The case where the location information matches may be a case where the first location information and the second location information are the same or similar, or within an error range. For example, the first location information may be expressed as a distance area, and the second location information may be included in the distance area of the first location information. The final location information may be one of first location information and second location information. Alternatively, the final location information may be a value obtained by correcting the first location information with the second location information.

도 13은 일 실시예에 따른 위치 정보가 정합하는 경우의 최종 위치 정보 획득에 관한 도면이다. 제1 위치 정보는 거리 영역으로 표현되고, 출력값이 -1인 경우 10m 미만의 거리, 0인 경우 10m 이상 20m 이하의 거리, 1인 경우 20m 초과의 거리를 의미하며, 제2 위치 정보는 m 단위의 거리값으로 표현된다. 최종 위치 정보는 제1 위치 정보 및 제2 위치 정보를 반영하여 거리 영역으로 표현된다. 일 예로, 제1 위치 정보는 최종 위치 정보의 최대값을 결정하고, 제2 위치 정보는 최종 위치 정보의 최소값을 결정할 수 있다. 중앙의 출력값을 보면, 제1 위치 정보는 0, 제2 위치 정보는 14m이고, 제1 위치 정보에 의해 최대값 20m가 결정되고, 제2 위치 정보에 의해 최소값 14m가 결정되어, 최종 위치 정보는 14~20m의 거리 범위일 수 있다. 13 is a diagram for obtaining final location information when location information is matched according to an embodiment. The first location information is expressed as a distance area, and if the output value is -1, it means a distance of less than 10m, if it is 0, it means a distance of 10m or more and less than 20m, and if it is 1, it means a distance of more than 20m, and the second location information is in units of m. It is expressed as the distance value of. The final location information is expressed as a distance area by reflecting the first location information and the second location information. For example, the first location information may determine a maximum value of the final location information, and the second location information may determine a minimum value of the final location information. Looking at the central output value, the first location information is 0, the second location information is 14m, the maximum value is 20m is determined by the first location information, the minimum value is 14m is determined by the second location information, and the final location information is It may be in the range of 14 to 20 m.

다른 예로, 제1 위치 정보 및 제2 위치 정보 모두 거리값으로 표현되고 상기 제1 위치 정보 및 상기 제2 위치 정보가 정합하는 경우가 있을 수 있다. 이때 최종 위치 정보는 제1 위치 정보 및 제2 위치 정보 중 어느 하나일 수 있다. 또는, 최종 위치 정보는 제1 위치 정보 및 제2 위치 정보의 평균일 수 있다. 이 외에도 제1 위치 정보 및 제2 위치 정보를 특정 비율로 섞는 등 다양한 방법이 이용될 수 있다.As another example, there may be a case where both the first location information and the second location information are expressed as a distance value, and the first location information and the second location information match. In this case, the final location information may be any one of first location information and second location information. Alternatively, the final location information may be an average of the first location information and the second location information. In addition, various methods such as mixing the first location information and the second location information at a specific ratio may be used.

위치 정보가 정합하지 않는 경우는 제1 위치 정보와 제2 위치 정보가 다른 경우, 또는 오차 범위 밖인 경우일 수 있다. 이때 최종 위치 정보는 제1 위치 정보 및 제2 위치 정보 중 어느 하나일 수 있다. 예를 들어, 최종 위치 정보는 제1 위치 정보 및 제2 위치 정보 중 더 작은 값일 수 있다. 또는, 위치 정보가 부정합 하는 출력값에 대하여 해당 출력값의 위치 정보를 모르는 값(unknown value)으로 둘 수 있다. 또는, 위치 정보가 부정합 하는 출력값이 존재하는 경우 해당 출력 데이터의 모든 출력값에 대해 위치 정보를 모르는 값으로 둘 수 있다.When the location information does not match, the first location information and the second location information may be different or outside the error range. In this case, the final location information may be any one of first location information and second location information. For example, the final location information may be a smaller value of the first location information and the second location information. Alternatively, for an output value in which the location information is mismatched, the location information of the corresponding output value may be set as an unknown value. Alternatively, if there is an output value in which the location information is inconsistent, the location information may be set as an unknown value for all output values of the corresponding output data.

도 14는 일 실시예에 따른 위치 정보가 부정합 하는 경우의 최종 위치 정보 획득에 관한 도면이다. 도 14는 도 13과 같은 방식으로 제1 위치 정보 및 제2 위치 정보를 표현하였다. 도 14를 참고하면, 왼쪽 위의 하이라이트 된 출력값이 부정합하고, 제1 위치 정보를 우선시하여 최종 위치 정보로 선택하였다.14 is a diagram for obtaining final location information when location information is mismatched according to an embodiment. 14 shows first location information and second location information in the same manner as in FIG. 13. Referring to FIG. 14, the highlighted output value on the upper left is mismatched, and the first location information is prioritized and selected as the final location information.

이미지 세그멘테이션을 수행하는 경우 제2 위치 정보를 이미지와 함께 입력 데이터로 사용할 수 있다. 도 15는 일 실시예에 따른 최종 위치 정보 획득에 관한 도면이다. 도 15를 참고하면, 이미지 세그멘테이션(S1500)의 입력으로 이미지 및 제2 위치 정보를 이용하여 최종 위치 정보를 획득할 수 있다. 인공신경망으로 이미지 세그멘테이션(S1500)을 수행하는 경우, 제2 위치 정보는 이미지와 같은 단계에서 입력될 수도 있고, 다른 단계에서 입력될 수도 있다. 예를 들어, 인공신경망이 순차적인 복수의 레이어를 포함하는 경우, 이미지는 첫 레이어부터 입력되고, 제2 위치 정보는 다른 레이어부터 입력될 수 있다. 그 결과, 이미지에 대하여는 모든 레이어의 연산이 수행되고, 제2 위치 정보에 대하여는 하나 이상의 레이어에 대한 연산 수행이 제외될 수 있다.When performing image segmentation, the second location information may be used as input data along with the image. 15 is a diagram for obtaining final location information according to an embodiment. Referring to FIG. 15, final location information may be obtained using an image and second location information as an input of the image segmentation S1500. When the image segmentation S1500 is performed using an artificial neural network, the second location information may be input at the same stage as the image or at another stage. For example, when the artificial neural network includes a plurality of sequential layers, an image may be input from a first layer, and second location information may be input from another layer. As a result, operations for all layers may be performed for an image, and operations for one or more layers may be excluded for the second location information.

이상에서는 하나의 최종 위치 정보를 얻기 위해 하나의 제1 위치 정보와 하나의 제2 위치 정보를 사용하는 경우에 대해 설명하였으나 이에 한정되는 것은 아니고 하나의 최종 위치 정보를 얻기 위해 복수의 제1 위치 정보 및/또는 복수의 제2 위치 정보를 사용할 수 있다. 또한, 제2 위치 정보가 실제 거리값으로 표현된다고 가정하고 설명하였으나 이에 한정되는 것은 아니다. In the above, the case of using one first location information and one second location information to obtain one final location information has been described, but is not limited thereto, and a plurality of first location information is used to obtain one final location information. And/or a plurality of second location information may be used. In addition, the description is made on the assumption that the second location information is expressed as an actual distance value, but the present disclosure is not limited thereto.

경로 계획 단계는 객체 정보를 입력받아 선박이 추종해야 하는 경로(이하 '추종 경로'라 함)를 출력하는 단계를 의미할 수 있다. 도 16은 일 실시예에 따른 경로 계획 단계에 관한 블록도이다. 도 16을 참고하면, 객체 정보 외에 선박의 출발점, 도착점, 선박 상태 정보, 기상 환경 정보 및 운항 규칙 등을 입력받아 경로 계획 단계(S3000)를 통해 추종 경로를 출력할 수 있다.The path planning step may refer to a step of receiving object information and outputting a path (hereinafter referred to as a'following path') that the ship should follow. 16 is a block diagram of a path planning step according to an embodiment. Referring to FIG. 16, in addition to object information, it is possible to output a following route through a route planning step (S3000) by receiving input of a starting point, an arrival point of a vessel, vessel condition information, weather environment information, and navigation rules.

출발점과 도착점은 선박의 최초 출발 위치 및 최종 도착 위치일 수 있지만 이에 한정되는 것은 아니다. 예를 들어, 출발점 및 도착점은 해상에서의 임의의 위치일 수 있다. 또는, 출발점은 선박의 현재 위치, 도착점은 최종 도착 위치일 수 있다. 또는, 출발점은 선박의 현재 위치, 도착점은 장애물 지도상의 임의의 위치일 수 있다.The starting point and the arrival point may be the initial departure position and the final arrival position of the ship, but are not limited thereto. For example, the starting point and the ending point may be any location on the sea. Alternatively, the starting point may be a current position of the ship, and the arrival point may be a final arrival position. Alternatively, the starting point may be the current position of the ship, and the arrival point may be an arbitrary position on the obstacle map.

선박 상태 정보는 선박의 위치, 속력, 자세 정보 등 선박에 관한 정보를 의미한다. 여기서, 자세 정보는 선수 방향, 피치, 롤 등 선박의 자세에 관한 정보를 의미한다.The ship status information means information about the ship, such as the ship's position, speed, and attitude information. Here, the attitude information means information about the attitude of the ship, such as the bow direction, pitch, and roll.

기상 환경 정보는 조류, 바람, 파도 등과 같은 기상 환경과 관련된 정보를 의미한다.The meteorological environment information refers to information related to the meteorological environment such as tide, wind, and waves.

운항 규칙은 선박 운항 시 지켜야 하는 약속이나 법규 등을 의미한다. 일 예로, 운항 규칙은 국제해상충돌예방규칙(international regulations for preventing collisions at sea, COLREG) 일 수 있다.Operation rules refer to promises or laws and regulations that must be observed when operating a ship. For example, the operating rules may be international regulations for preventing collisions at sea (COLREG).

추종 경로는 선박이 추종하는 경로로, 선박이 지나가는 위치를 나타내는 중간 지점(waypoint) 일 수 있다. 또는, 선박이 지나가는 경로일 수 있다.The following path is a path that the ship follows, and may be a waypoint indicating a position through which the ship passes. Alternatively, it may be a path through which the ship passes.

항로 표시의 정보를 반영하여 추종 경로를 생성할 수 있다. 여기서, 항로 표시는 이미지 세그멘테이션 등 주변 환경 감지를 통해 획득할 수 있다.It is possible to create a following route by reflecting the information of the route indication. Here, the route indication may be obtained through sensing the surrounding environment such as image segmentation.

전술한 입력 정보는 일 예로, 경로 계획 단계에서 입력받는 정보는 전술한 정보를 모두 포함할 수도 있고, 그중 일부만 포함할 수도 있으며, 그 외의 정보를 포함할 수도 있다.The above-described input information is an example, and the information received in the route planning step may include all of the above-described information, only a part of the information, or other information.

경로 계획 단계는 하나의 알고리즘 또는 인공신경망을 통해 구현될 수 있다. 예를 들어, 객체 정보를 입력하면 추종 경로를 출력하는 인공신경망을 학습시켜 이용할 수 있다. 또는, 복수의 알고리즘 또는 인공신경망을 이용할 수도 있다.The path planning step can be implemented through a single algorithm or artificial neural network. For example, when object information is input, an artificial neural network that outputs a tracking path can be trained and used. Alternatively, a plurality of algorithms or artificial neural networks may be used.

경로 계획 단계는 장애물 지도 업데이트 단계 및 경로 생성 단계를 포함할 수 있다. 도 17은 일 실시예에 따른 경로 계획 단계에 관한 블록도이다. 장애물 지도 업데이트 단계(S3500)는 객체 정보를 입력받아 장애물 지도(obstacle map)를 출력하고, 경로 생성 단계(S3700)는 장애물 지도를 입력받아 추종 경로를 출력할 수 있다.The path planning step may include an obstacle map update step and a path generation step. 17 is a block diagram of a path planning step according to an embodiment. The obstacle map update step S3500 may receive object information and output an obstacle map, and the path generation step S3700 may receive an obstacle map and output a following path.

도 18은 일 실시예에 따른 장애물 지도 업데이트 단계에 관한 블록도이다. 도 18을 참고하면, 객체 정보, 조류, 바람 등과 같은 기상 환경 정보 및 운항 규칙을 고려하여 장애물 지도를 업데이트할 수 있다.18 is a block diagram illustrating an obstacle map update step according to an embodiment. Referring to FIG. 18, an obstacle map may be updated in consideration of weather environment information such as object information, tide, wind, etc. and navigation rules.

객체 정보는 이미지 세그멘테이션을 통해 획득한 것에 한정되는 것은 아니고, 레이더, 라이다 등 다른 센서를 통해 획득한 객체 정보 또한 장애물 지도 업데이트 단계의 입력이 될 수 있다. 이들의 일부 또는 전부가 조합되는 것도 가능하다.The object information is not limited to that obtained through image segmentation, and object information obtained through other sensors such as radar and lidar may also be input to the obstacle map update step. It is also possible for some or all of these to be combined.

장애물 지도는 객체 정보를 표현하는 수단을 의미한다. 일 예로, 장애물 지도는 격자 지도(grid map) 일 수 있다. 상기 격자 지도는 공간을 단위 영역으로 나누고 각 단위 영역별로 객체 정보를 표시할 수 있다. 다른 예로, 장애물 지도는 벡터 지도(vector map) 일 수 있다. 장애물 지도는 2차원에만 한정되는 것은 아니고 3차원 장애물 지도 등도 가능하다. 한편, 장애물 지도는 출발 지점부터 도착 지점까지 선박의 운항과 관련된 모든 지역을 표현하는 전역 지도(global map) 또는 선박 주변의 일정 지역을 표현하는 지역 지도(local map) 일 수 있다.The obstacle map refers to a means of expressing object information. For example, the obstacle map may be a grid map. The grid map may divide a space into unit areas and display object information for each unit area. As another example, the obstacle map may be a vector map. Obstacle maps are not limited to two-dimensional, but three-dimensional obstacle maps are also possible. Meanwhile, the obstacle map may be a global map expressing all areas related to the operation of the ship from the starting point to the arrival point or a local map expressing a certain area around the ship.

장애물 지도는 복수의 단위 영역을 포함할 수 있다. 상기 복수의 단위 영역은 분류 기준에 따라 다양하게 표현될 수 있다. 예를 들어, 장애물 지도는 운항 가능 영역, 운항 불가 영역 및 운항 가부를 판단할 수 없는 미확인 영역을 포함할 수 있다. 구체적으로, 운항 가능 영역은 장애물이 존재하지 않는 지역이거나 장애물이 존재할 가능성이 낮은 지역에 대응되는 영역일 수 있고, 운항 불가 영역은 장애물이 존재하는 지역이거나 장애물이 존재할 가능성이 높은 지역에 대응되는 영역일 수 있다. 또는, 운항 가능 영역은 운항에 적합한 지역에 대응되는 영역일 수 있고, 운항 불가 영역은 운항에 부적합한 지역에 대응되는 영역일 수 있다. 미확인 영역은 운항 가능 영역 및 운항 불가 영역을 제외한 영역일 수 있다.The obstacle map may include a plurality of unit areas. The plurality of unit areas may be expressed in various ways according to classification criteria. For example, the obstacle map may include a navigable area, a navigable area, and an unconfirmed area in which navigation is impossible. Specifically, the operable area may be an area where there is no obstacle or an area corresponding to an area where there is a low probability of an obstacle, and the non-operable area is an area where an obstacle exists or an area corresponding to an area where there is a high probability of an obstacle. Can be Alternatively, the operable area may be an area corresponding to an area suitable for navigation, and the non-operable area may be an area corresponding to an area unsuitable for navigation. The unconfirmed area may be an area excluding an operable area and a non-operable area.

다른 예로, 장애물 지도는 카메라나 장애물 감지 센서 등의 감지 범위에 속하는 지역에 대응되는 영역 및 대응되지 않는 영역을 포함할 수 있다. 여기서, 카메라의 감지 범위는 시야각으로 표현할 수도 있다. 상기 감지 범위에 속하는 지역에 대응되는 영역은 탐지 영역 및 그 외의 영역인 미 탐지 영역을 포함할 수 있다. 단위 영역은 카메라나 장애물 감지 센서 등으로 객체 정보를 획득할 수 있는지에 따라 탐지 영역과 미 탐지 영역으로 나뉠 수 있다. 또는, 단위 영역은 카메라나 장애물 감지 센서 등으로 획득되는 개체 정보의 정확도에 따라 탐지 영역과 미 탐지 영역으로 나뉠 수 있다. 예를 들어, 장애물에 의해 폐색된(occluded) 지역은 미 탐지 영역에 대응될 수 있다.As another example, the obstacle map may include an area corresponding to an area belonging to a detection range such as a camera or an obstacle detection sensor and an area that does not correspond to it. Here, the detection range of the camera may be expressed as a viewing angle. An area corresponding to an area belonging to the detection range may include a detection area and an undetected area other than the detection area. The unit area can be divided into a detection area and a non-detection area according to whether object information can be acquired by a camera or an obstacle detection sensor. Alternatively, the unit area may be divided into a detection area and a non-detection area according to the accuracy of object information acquired by a camera or an obstacle detection sensor. For example, an area occluded by an obstacle may correspond to an undetected area.

또는, 장애물 지도는 업데이트 여부에 따라 업데이트 영역 및 그 외의 영역을 포함할 수 있다.Alternatively, the obstacle map may include an update area and other areas according to whether or not to update.

장애물 지도의 각 단위 영역에는 가중치가 할당될 수 있다. 상기 가중치는 운항 적합도를 반영할 수 있다. 예를 들어, 바다와 같이 운항하기에 적합한 지역에 대응되는 단위 영역의 경우 높은 값의 가중치가 할당되고, 선박 등과 같은 장애물이 존재하여 운항하기에 부적합한 지역에 대응되는 단위 영역의 경우 낮은 값의 가중치가 할당될 수 있다. 이와 반대로 운항 적합도가 높을수록 낮은 가중치를 할당할 수도 있다.A weight may be assigned to each unit area of the obstacle map. The weight may reflect flight suitability. For example, in the case of a unit area corresponding to an area suitable for navigation, such as the sea, a high weight value is assigned, and in the case of a unit area corresponding to an area unsuitable for navigation due to the presence of an obstacle such as a ship, a low value weight Can be assigned. Conversely, a lower weight may be assigned as the flight suitability increases.

이하에서는 주로 2차원 격자 지도 상에 장애물이 표현되는 것을 중점적으로 설명하지만 이에 한정되는 것은 아니다.Hereinafter, mainly describing the representation of obstacles on the 2D grid map, but is not limited thereto.

또한, 업데이트라는 용어는 생성을 포함하는 개념으로 해석될 수 있다. 예를 들어, 현재 프레임의 장애물 지도를 업데이트하는데 이전 프레임의 장애물 지도가 없는 경우, 장애물 지도를 업데이트한다는 것은 장애물 지도를 생성한다고 해석될 수 있다.Also, the term update can be interpreted as a concept including generation. For example, when an obstacle map of a current frame is updated and there is no obstacle map of a previous frame, updating the obstacle map may be interpreted as generating an obstacle map.

장애물 지도에는 객체 정보가 표현될 수 있다. 예를 들어, 객체의 존재 여부에 대하여 표시할 수 있다. 또한, 객체의 종류, 위치, 이동 방향, 속도, 항로 표지 정보 등 다양한 정보를 표현할 수 있다. 장애물 지도상에 장애물에 대하여만 표시할 수도 있다. 장애물의 존부로 표현할 수 있고, 장애물 존재 확률로 표현할 수도 있다. 또는, 일정 범위의 숫자를 이용하여 가중치로 표현할 수도 있다.Object information may be expressed on the obstacle map. For example, the existence of an object can be displayed. In addition, various types of information such as object type, location, movement direction, speed, and route marker information can be expressed. It is also possible to mark only obstacles on the obstacle map. It can be expressed as the presence or absence of an obstacle, or it can be expressed as the probability of the existence of an obstacle. Alternatively, it may be expressed as a weight by using a number of a certain range.

장애물을 가중치로 표현하는 경우, 가중치를 복수의 수치 범위로 분류할 수 있다. 각 수치 범위는 운항 가능 영역, 운항 불가 영역 및 미확인 영역에 대응될 수 있다. 도 19는 일 실시예에 따른 장애물 지도에 관한 도면이다. 도 19는 2차원 격자 지도의 일 예로, 도 19(a)를 참고하면, 각 격자/단위 영역에 장애물의 존재 여부/운항 적합 여부를 0~255 사이의 정수를 가중치로 하여 표현하였다. 값이 작을수록 장애물 존재 확률이 높거나 운항에 부적합한 것을 의미하고, 값이 없는 단위 영역은 255의 가중치를 갖는 영역이다. 운항 불가 영역은 0~a, 미확인 영역은 a+1~b, 운항 가능 영역은 b+1~255의 가중치에 대응될 수 있다. 여기서, a 및 b는 0≤a<b≤254를 만족하는 정수이다. 예를 들어, 운항 불가 영역은 가중치 0에, 운항 가능 영역은 가중치 255에, 미확인 영역은 1~254의 가중치에 대응될 수 있다. 또는, 운항 불가 영역은 0~50, 미확인 영역은 51~200, 운항 가능 영역은 201~255에 대응될 수 있다. 도 19(b)를 참고하면, 가중치로 표현된 장애물 지도를 시각화할 수 있다. 예를 들어, 무채색의 명도를 조절하여 장애물 지도를 표현할 수 있다. 도 19(b)에서는 가중치가 작을수록 명도를 낮게 하여 표현하였다. 단위 영역에 가중치를 할당하는 구체적인 방법에 대하여는 후술하기로 한다.When the obstacle is expressed as a weight, the weight can be classified into a plurality of numerical ranges. Each numerical range may correspond to an operable area, an unoperable area, and an unconfirmed area. 19 is a diagram of an obstacle map according to an embodiment. FIG. 19 is an example of a two-dimensional grid map. Referring to FIG. 19(a), the presence or absence of an obstacle in each grid/unit area/operation suitability is expressed by using an integer between 0 and 255 as a weight. The smaller the value, the higher the probability of the existence of an obstacle or unsuitable for navigation, and the unit area without a value is an area with a weight of 255. The non-operable area may correspond to a weight of 0~a, the unconfirmed area a+1~b, and the operable area b+1~255. Here, a and b are integers satisfying 0≦a<b≦254. For example, a non-operable area may correspond to a weight of 0, an operable area may correspond to a weight of 255, and an unconfirmed area may correspond to a weight of 1 to 254. Alternatively, the non-operable area may correspond to 0 to 50, the unconfirmed area may correspond to 51 to 200, and the operable area may correspond to 201 to 255. Referring to FIG. 19(b), an obstacle map expressed by weights can be visualized. For example, an obstacle map can be expressed by adjusting the brightness of an achromatic color. In Fig. 19(b), the smaller the weight, the lower the brightness. A detailed method of allocating weights to the unit area will be described later.

장애물 지도 업데이트를 위한 객체 정보는 상기 객체 정보를 획득한 수단의 속성에 기초한 정보일 수 있다. 예를 들어, 이미지 세그멘테이션을 통해 획득한 장애물의 위치 정보는 상기 이미지 세그멘테이션에 입력되는 이미지를 촬영한 카메라에 대한 상대적인 위치 정보일 수 있다. 상기 상대적인 위치 정보는 장애물 지도에 반영되기 위하여 장애물 지도상에서의 위치 정보로 변환될 수 있다. 상대적인 위치 정보 및 장애물 지도상에서의 위치 정보 모두 장애물 지도 업데이트 시 이용될 수 있고, 이 중 하나만 이용될 수도 있다. 이하에서는 장애물 지도상에서의 좌표를 절대 좌표라 한다.The object information for updating the obstacle map may be information based on an attribute of a means for obtaining the object information. For example, the location information of an obstacle acquired through image segmentation may be relative location information of a camera that has captured an image input to the image segmentation. The relative location information may be converted into location information on the obstacle map to be reflected on the obstacle map. Both the relative location information and the location information on the obstacle map may be used when updating the obstacle map, and only one of them may be used. Hereinafter, the coordinates on the obstacle map are referred to as absolute coordinates.

GPS, IMU, 선박/카메라의 방향 정보 등을 이용해 절대 좌표를 획득할 수 있다. 도 20은 일 실시예에 따른 위치 정보 변환 단계에 관한 블록도이다. 도 20을 참고하면, 선박에 설치된 GPS로 산출된 선박의 위치/카메라의 위치, IMU를 통한 선박의 자세 정보 및 카메라 설치 정보를 통한 카메라 자세 정보를 통해 장애물의 위치 정보를 절대 좌표로 변환할 수 있다.Absolute coordinates can be obtained using GPS, IMU, and ship/camera direction information. 20 is a block diagram illustrating a step of converting location information according to an embodiment. Referring to FIG. 20, the position information of the obstacle can be converted into absolute coordinates through the position of the ship/the position of the camera calculated by GPS installed on the ship, the position information of the ship through the IMU, and the camera position information through the camera installation information. have.

장애물 지도를 업데이트하는 경우 전체 장애물 지도를 업데이트할 수 있다. 또는, 장애물 지도의 일부 영역에 대하여만 업데이트할 수 있다.When updating the obstacle map, the entire obstacle map can be updated. Alternatively, it is possible to update only a partial area of the obstacle map.

업데이트 영역은 업데이트 거리 및 업데이트 각도에 기초하여 정의될 수 있다. 도 21은 일 실시예에 따른 업데이트 영역에 관한 도면으로, 출발점 A, 도착점 B 및 선박의 현재 위치 C를 포함하는 전역 지도(310) 및 지역 지도(330)를 나타낸다. 지역 지도(330) 중 업데이트 거리 r 및 업데이트 각도 θ에 의해 업데이트 영역(331)을 정의할 수 있다.The update area may be defined based on the update distance and the update angle. FIG. 21 is a diagram of an update area according to an embodiment, and shows a global map 310 and an area map 330 including a starting point A, a destination point B, and a current location C of a ship. The update area 331 may be defined by the update distance r and the update angle θ of the area map 330.

업데이트 영역은 선박의 위치, 선수 방향 등에 따라 결정될 수 있다. 또는, 업데이트 영역은 카메라, 레이더, 라이다 등 장애물 감지 센서에 따라 결정될 수 있다. 예를 들어, 업데이트 영역은 카메라의 화각 및/또는 최대 관측 거리에 의해 결정될 수 있다. 카메라의 화각에 의해 업데이트 각도가 결정되고 최대 관측 거리에 의해 업데이트 거리가 결정될 수 있다. 또는, 업데이트 영역은 선박 주위의 일정 영역일 수 있다. 업데이트 영역은 장애물 발견 후 회피 기동을 하기 위한 최소 영역보다 큰 것이 바람직할 수 있다.The update area may be determined according to the position of the ship, the direction of the bow, and the like. Alternatively, the update area may be determined according to an obstacle detection sensor such as a camera, a radar, or a lidar. For example, the update area may be determined by the angle of view and/or the maximum viewing distance of the camera. The update angle may be determined by the angle of view of the camera, and the update distance may be determined by the maximum viewing distance. Alternatively, the update area may be a predetermined area around the ship. It may be desirable that the update area is larger than the minimum area for evasive maneuvering after obstacle discovery.

이하에서는 장애물 지도상에 장애물의 존재 여부/운항 적합 여부를 가중치로 표현하는 경우에 대해 구체적으로 살펴본다. 가중치가 낮을 경우 장애물의 존재 확률이 높거나 운항하기 부적합한 것으로 보고 설명하나 이에 한정되는 것은 아니다.Hereinafter, a case of expressing whether or not there is an obstacle on the obstacle map/whether suitable for operation is expressed as a weight will be described in detail. If the weight is low, the probability of the existence of an obstacle is high or it is described as being unsuitable for navigation, but is not limited thereto.

객체의 종류 정보를 고려하여 가중치를 달리할 수 있다. 예를 들어, 장애물로써 선박과 부표를 감지한 경우, 선박의 가중치를 부표의 가중치보다 낮게 설정할 수 있다. 다른 예로, 고정체와 이동체를 감지한 경우, 고정체의 가중치를 이동체의 가중치보다 낮게 설정할 수 있다.The weight can be different in consideration of the type information of the object. For example, when detecting a ship and a buoy as an obstacle, the weight of the ship may be set lower than the weight of the buoy. As another example, when detecting the fixed body and the moving body, the weight of the fixed body may be set lower than the weight of the moving body.

객체의 종류 정보를 고려하여 보정된 객체의 위치 정보에 기초하여 가중치를 설정할 수 있다. 또는, 객체의 종류 정보에 기초하여 감지되지 않은 영역의 가중치를 설정할 수 있다.The weight may be set based on position information of the corrected object in consideration of the type information of the object. Alternatively, a weight of an undetected area may be set based on the object type information.

도 22는 일 실시예에 따른 위치 정보의 보정에 관한 블록도이다. 도 22를 참고하면, 이미지 세그멘테이션을 통해 이미지에 포함된 객체의 종류 정보 및 위치 정보를 획득할 수 있고, 획득한 위치 정보에 종류 정보를 반영하여 장애물 지도를 업데이트할 수 있다.22 is a block diagram illustrating correction of location information according to an exemplary embodiment. Referring to FIG. 22, type information and location information of an object included in an image may be acquired through image segmentation, and an obstacle map may be updated by reflecting the type information to the acquired location information.

일 예로, 객체의 종류 정보에 기초하여 상기 객체의 크기를 산출하고 이를 이용해 장애물 지도상에서 상기 객체에 대응되는 단위 영역을 계산하여 가중치를 설정할 수 있다. 여기서, 상기 단위 영역은 상기 객체의 방향 등에 따라 달라질 수 있다.For example, a weight may be set by calculating the size of the object based on the type information of the object, and calculating a unit area corresponding to the object on an obstacle map using this. Here, the unit area may vary according to the direction of the object.

다른 예로, 이미지 세그멘테이션을 통해 얻은 거리 정보는 객체까지의 최단 거리만을 포함할 수 있다. 객체의 종류 정보를 반영하면 최단 거리뿐만 아니라 최장 거리를 획득할 수 있고, 이에 기초하여 가중치를 설정할 수 있다.As another example, distance information obtained through image segmentation may include only the shortest distance to an object. When the object type information is reflected, not only the shortest distance but also the longest distance can be obtained, and a weight can be set based on this.

도 23은 일 실시예에 따른 가중치 설정에 관한 도면이다. 도 23(a)의 이미지를 입력받아 이미지 세그멘테이션을 통해 획득한 거리 정보는 장애물까지의 최단 거리만을 포함할 수 있다. 이 경우, 도 23(b)를 참고하면, 장애물의 존재 여부를 알 수 없는, 이미지에서 탐지되지 않은 지역(351)이 발생할 수 있다. 장애물 지도상에서 상기 탐지되지 않은 지역(351)을 장애물이 존재하는 영역으로 처리하거나, 장애물이 존재하지 않는 영역으로 처리할 수 있다. 또는, 일부는 장애물이 존재하는 영역으로, 일부는 장애물이 존재하지 않는 영역으로 처리할 수 있다.23 is a diagram for setting weights according to an embodiment. The distance information obtained through image segmentation by receiving the image of FIG. 23(a) may include only the shortest distance to the obstacle. In this case, referring to FIG. 23B, a region 351 that is not detected in the image may occur in which the presence or absence of an obstacle is unknown. On the obstacle map, the undetected area 351 may be treated as an area in which an obstacle exists or as an area in which an obstacle does not exist. Alternatively, some may be treated as an area in which an obstacle exists, and some as an area in which an obstacle does not exist.

장애물의 종류 정보를 이용하여 장애물의 존재 여부를 알 수 없는 지역(351)에 대응되는 장애물 지도상에서의 단위 영역을 줄일 수 있다. 예를 들어, 도 23(c)에 도시된 바와 같이, 장애물의 종류 정보로부터 상기 장애물의 크기를 산출하여 이에 대응되는 장애물 지도상에서의 영역을 운항 불가 영역으로 처리할 수 있다. 또는, 상기 장애물의 크기에 대응되는 장애물 지도상에서의 영역에 일정 단위 영역을 더하여 운항 불가 영역으로 처리할 수 있다. 여기서, 상기 일정 단위 영역의 가중치는 상기 장애물의 크기에 대응되는 장애물 지도상에서의 영역의 가중치와 다를 수 있다. 장애물의 크기는 장애물의 정확한 크기이거나, 장애물의 종류에 기초하여 결정될 수 있다. 또는, 장애물의 크기는 장애물의 종류에 따라 미리 정해진 값일 수 있다.The unit area on the obstacle map corresponding to the area 351 in which the presence or absence of the obstacle is not known may be reduced by using the type information of the obstacle. For example, as shown in FIG. 23(c), the size of the obstacle is calculated from information on the type of the obstacle, and an area on the obstacle map corresponding thereto may be processed as a non-navigation area. Alternatively, a predetermined unit area may be added to the area on the obstacle map corresponding to the size of the obstacle to be processed as a non-navigation area. Here, the weight of the predetermined unit region may be different from the weight of the region on the obstacle map corresponding to the size of the obstacle. The size of the obstacle may be an exact size of the obstacle or may be determined based on the type of the obstacle. Alternatively, the size of the obstacle may be a predetermined value according to the type of the obstacle.

도 23(d)를 참고하면, 장애물의 종류 정보로부터 장애물의 크기를 획득하는 경우에도 장애물의 존재 여부를 알 수 없는 지역이 존재할 수 있다. 상기 지역은 장애물에 의해 가려져 보이지 않는 폐색된(occluded) 지역일 수 있다. 상기 폐색된 지역에 대한 위치 정보는 부정확한 정보일 수 있다. 상기 폐색된 지역에 대응되는 장애물 지도상에서의 단위 영역의 가중치는 장애물이 존재하는 단위 영역의 가중치 및 장애물이 존재하지 않는 단위 영역의 가중치의 사이에 위치하는 값으로 할당될 수 있다.Referring to FIG. 23D, even when the size of the obstacle is obtained from information on the type of the obstacle, there may be an area where the existence of the obstacle is unknown. The area may be an occluded area that is obscured by an obstacle and is not visible. The location information on the occluded area may be inaccurate information. The weight of the unit area on the obstacle map corresponding to the occluded area may be assigned as a value located between the weight of the unit area where the obstacle exists and the weight of the unit area where the obstacle does not exist.

보정된 위치 정보로부터 가중치를 산출하여 장애물 지도를 업데이트할 수 있다. 또는, 보정 전 위치 정보로 가중치를 산출하여 장애물 지도를 업데이트한 후 종류 정보를 고려해 가중치를 보정할 수 있다.The obstacle map may be updated by calculating weights from the corrected location information. Alternatively, the weight may be calculated based on location information before correction, and the obstacle map may be updated, and then the weight may be corrected in consideration of the type information.

객체의 이동 방향 및 속도를 고려하여 가중치를 설정할 수 있다. 예를 들어, 객체가 이동하려는 방향의 가중치를 낮게 설정할 수 있다. 또는, 객체의 이동 속도가 클수록 가중치를 낮게 설정할 수 있다. 도 24는 일 실시예에 따른 장애물의 이동을 고려한 가중치 설정에 관한 도면으로, 이동 방향 및 속도를 고려하여 도 19의 객체 정보 표현 방법에 따라 가중치를 표현하였다. 도 24(a)를 참고하면, 장애물인 선박이 정지한 경우 장애물 지도는 상기 선박에 대응되는 운항 불가 영역(353) 및 바다에 대응되는 운항 가능 영역(355)으로 나뉠 수 있다. 상기 선박이 좌측으로 이동하는 경우, 도 24(b)를 참고하면, 장애물 지도상 상기 선박의 좌측에 위치하는 이동 예상 영역(357)의 가중치를 운항 불가 영역(353)의 가중치와 운항 가능 영역(355)의 가중치의 사이에 위치하는 값으로 설정할 수 있다. 도 24(c)를 참고하면, 상기 선박의 이동 속도가 증가할수록 이동 예상 영역(357)의 가중치는 감소할 수 있다. 또는, 상기 선박의 이동 속도가 증가함에 따라 이동 예상 영역(357)의 면적이 증가할 수 있다.The weight can be set in consideration of the moving direction and speed of the object. For example, the weight of the direction in which the object is to move can be set to be low. Alternatively, as the moving speed of the object increases, the weight may be set lower. FIG. 24 is a diagram for setting a weight in consideration of movement of an obstacle according to an embodiment, and a weight is expressed according to the object information expression method of FIG. 19 in consideration of a movement direction and speed. Referring to FIG. 24(a), when a ship, which is an obstacle, is stopped, the obstacle map may be divided into a non-navigation area 353 corresponding to the ship and a navigable area 355 corresponding to the sea. When the ship moves to the left, referring to FIG. 24(b), the weight of the movement predicted area 357 located on the left side of the ship on the obstacle map is determined by the weight of the non-navigation area 353 and the navigable area ( It can be set to a value located between the weights of 355). Referring to FIG. 24C, as the moving speed of the ship increases, the weight of the movement predicted area 357 may decrease. Alternatively, as the moving speed of the ship increases, the area of the expected movement area 357 may increase.

객체의 위험도를 판단하여 가중치를 달리 설정할 수 있다. 예를 들어, 위험도가 높은 객체일수록 가중치를 낮게 설정할 수 있다. 상기 위험도는 객체의 종류, 이동 방향 및 속도 등 객체 정보를 고려하여 산출될 수 있다.The weight can be set differently by judging the risk of the object. For example, an object with a higher risk may set a lower weight. The risk level may be calculated in consideration of object information such as the type of the object, the direction of movement, and the speed.

조류나 바람 등과 같은 기상 환경 정보를 고려하여 가중치를 설정할 수 있다. 예를 들어, 조류, 바람 등을 거슬러 가는 방향이라 가기 어려운 단위 영역은 가중치를 낮게 설정하고 조류, 바람 등을 타고 가는 방향이라 가기 쉬운 단위 영역은 가중치를 높게 설정할 수 있다. 조류, 바람 등에 관한 데이터는 별도의 센서를 통해 획득할 수 있다. 또는 지역이나 시간에 따른 조류/바람 정보를 미리 저장하여 사용할 수 있다. 또는 이에 관한 정보를 실시간으로 외부로부터 받을 수 있다.Weights can be set in consideration of weather environment information such as tide or wind. For example, a unit area that is difficult to go in a direction that goes against tide or wind may have a low weight, and a unit area that is easy to go due to a direction going through the tide or wind may have a high weight. Data on tide, wind, etc. can be acquired through a separate sensor. Alternatively, current/wind information according to region or time can be stored and used in advance. Alternatively, information about this can be received from outside in real time.

지형의 경우 주변 환경 감지 단계를 통해 장애물 지도에 표현될 수 있지만, 해도 등을 참고하여 주변 환경 감지 없이 장애물 지도에 표현될 수 있다. 해도 정보와 주변 환경 감지 결과를 함께 이용할 수도 있다. 지형은 장애물 지도상에 운항 불가 영역으로 설정될 수 있다.In the case of the terrain, it may be expressed on an obstacle map through the detection of the surrounding environment, but may be expressed on an obstacle map without sensing the surrounding environment by referring to a chart. Chart information and surrounding environment detection results can also be used together. The terrain may be set as a non-navigation area on the obstacle map.

COLREG와 같은 운항 규칙을 고려하여 가중치 설정할 수 있다. 운항 규칙에 따라 선박이 운항해야 하는 영역의 가중치를 증가시키거나 선박이 운항하면 안 되는 영역의 가중치를 감소시킬 수 있다. 예를 들어, 선박이 마주 오는 경우 COLREG에 의해 이동 방향의 우측으로 우회해야 하는 경우가 발생할 수 있다. 이 경우 우측 단위 영역의 가중치를 증가시키거나 좌측 단위 영역의 가중치를 감소시켜 선박이 COLREG를 만족하며 운항하도록 할 수 있다. 도 25는 일 실시예에 따른 운항 규칙을 고려한 가중치 설정에 관한 도면이다. COLREG를 고려하지 않는 경우, 장애물 지도상에는 마주 오는 선박에 대응되는 단위 영역만 운항 불가 영역(353)으로 표시될 수 있다. COLREG를 만족시키기 위하여 장애물 지도의 좌측 단위 영역인 운항 규칙 반영 영역(359)의 가중치를 감소시킬 수 있다. 여기서, 상기 운항 규칙 반영 영역(359)의 가중치는 운항 가능 영역(355)의 가중치와 운항 불가 영역(353)의 가중치의 사이에 위치하는 값으로 설정할 수 있다. 운항 규칙 반영 영역(359)에 의해 마주 오는 선박의 우측으로 우회하는 경로가 생성될 수 있다.Weight can be set in consideration of flight rules such as COLREG. According to the operating rules, the weight of the area in which the ship must be operated can be increased or the weight of the area in which the ship should not be operated can be decreased. For example, when a ship comes to the side, it may be necessary to detour to the right of the moving direction by COLREG. In this case, it is possible to increase the weight of the right unit area or decrease the weight of the left unit area so that the ship satisfies COLREG and operates. 25 is a diagram for setting weights in consideration of a navigation rule according to an embodiment. When COLREG is not considered, only a unit area corresponding to an oncoming ship may be displayed as a non-navigation area 353 on the obstacle map. In order to satisfy COLREG, the weight of the navigation rule reflection area 359, which is the left unit area of the obstacle map, may be reduced. Here, the weight of the navigation rule reflection area 359 may be set to a value located between the weight of the navigational area 355 and the weight of the non-navigation area 353. A route detouring to the right side of an oncoming ship may be generated by the navigation rule reflection area 359.

운항 불가 영역 및/또는 운항 가능 영역 주변에 임의의 가중치를 갖는 버퍼 영역을 둘 수 있다. 버퍼 영역의 가중치는 운항 가능 영역의 가중치와 운항 불가 영역의 가중치의 사이에 위치하는 값으로 설정될 수 있다. 또는, 버퍼 영역의 가중치는 운항 불가 영역 및/또는 운항 가능 영역으로부터의 거리를 고려하여 가중치를 결정할 수 있다. 예를 들어, 운항 가능 영역에 가까운 영역의 가중치는 운항 불가 영역에 가까운 영역의 가중치보다 클 수 있다. 도 26은 일 실시예에 따른 버퍼 영역을 고려한 가중치 설정에 관한 도면이다. 도 19의 객체 정보 표현 방법에 따라 지역 지도(330)를 표현하였고, 업데이트 영역(331) 내에 운항 불가 영역(353), 운항 가능 영역(355) 및 버퍼 영역(358)을 도시하였다.A buffer area having an arbitrary weight may be placed around the non-navigation area and/or the navigable area. The weight of the buffer area may be set to a value located between the weight of the navigable area and the weight of the non-navable area. Alternatively, the weight of the buffer area may be determined in consideration of a distance from the non-navigation area and/or the navigable area. For example, the weight of the area close to the navigable area may be greater than the weight of the area close to the non-navable area. 26 is a diagram for setting a weight in consideration of a buffer area according to an embodiment. An area map 330 is expressed according to the object information expression method of FIG. 19, and a non-navigation area 353, a navigable area 355 and a buffer area 358 are shown in the update area 331.

객체 정보를 이용하여 업데이트 영역에 대해 장애물 지도를 업데이트할 수 있다. 장애물 지도에 장애물의 존부를 업데이트할 수 있다. 예를 들어, 장애물이 발견되면 장애물을 표시할 수 있다. 또는, 장애물 지도에 가중치를 업데이트할 수 있다. 예를 들어, 객체 정보를 이용해 가중치를 산출하고 이를 이용해 장애물 지도를 업데이트할 수 있다.The obstacle map can be updated for the update area using the object information. You can update the presence or absence of obstacles on the obstacle map. For example, if an obstacle is found, the obstacle can be marked. Alternatively, the weights may be updated on the obstacle map. For example, a weight can be calculated using object information and an obstacle map can be updated using this.

이하에서는 도 19의 객체 정보 표현 방법에 따른 장애물 지도 업데이트에 대해 살펴보나, 장애물 지도 업데이트 방법은 이에 한정되는 것은 아니고 가중치의 범위가 다른 경우 및 장애물 존재 확률로 장애물 지도를 표현하는 경우 등에도 적용될 수 있다.Hereinafter, an obstacle map update according to the object information expression method of FIG. 19 will be described, but the obstacle map update method is not limited thereto, and may be applied to a case where a range of weights is different and an obstacle map is expressed with a probability of existence of an obstacle. have.

이전 프레임의 객체 정보를 무시하고 현재 프레임에서 획득한 객체 정보만을 바탕으로 장애물 지도를 업데이트할 수 있다. 예를 들어, 전술한 가중치 설정을 통해 획득한 정보만으로 장애물 지도를 생성할 수 있다.The obstacle map can be updated based on only the object information acquired in the current frame, ignoring the object information of the previous frame. For example, an obstacle map may be generated only with information obtained through the above-described weight setting.

또는, 이전 프레임 및 현재 프레임의 객체 정보를 모두 고려하여 장애물 지도를 업데이트할 수 있다. 예를 들어, 전술한 가중치 설정을 통해 획득한 현재 프레임의 가중치 및 이전 프레임의 가중치 또는 장애물 지도를 고려하여 장애물 지도를 업데이트할 수 있다.Alternatively, the obstacle map may be updated in consideration of both the object information of the previous frame and the current frame. For example, the obstacle map may be updated in consideration of the weight of the current frame acquired through the above-described weight setting, the weight of the previous frame, or the obstacle map.

도 27은 일 실시예에 따른 장애물 지도 업데이트 단계에 관한 블록도이다. 도 27을 참고하면, 이전 단계의 장애물 지도를 고려하여 현재 단계의 장애물 지도를 생성할 수 있다(S3500). 예를 들어, 이전 프레임의 장애물 지도와 현재 프레임의 장애물 지도를 일정 비율로 더하여 현재 프레임에서의 최종 장애물 지도를 생성할 수 있다. 여기서, 복수의 이전 프레임을 사용하여 최종 장애물 지도를 생성할 수 있다.27 is a block diagram illustrating an obstacle map update step according to an embodiment. Referring to FIG. 27, the obstacle map of the current step may be generated in consideration of the obstacle map of the previous step (S3500). For example, a final obstacle map in the current frame may be generated by adding the obstacle map of the previous frame and the obstacle map of the current frame at a predetermined ratio. Here, a final obstacle map may be generated using a plurality of previous frames.

현재 프레임의 해상 이미지에 의해 탐지된 영역은 이전 프레임을 무시하고, 탐지되지 않은 영역은 이전 프레임을 고려하여 장애물 지도를 업데이트할 수 있다. 예를 들어, 현재 프레임에서 장애물로 판단된 단위 영역의 가중치는 0으로, 운항 가능 영역의 가중치는 255로 설정하고, 미 탐지 영역의 가중치는 이전 프레임의 가중치와 현재 프레임의 가중치를 일정 비율로 고려하여 설정할 수 있다. 여기서, 미 탐지 영역의 가중치는 시간이 지남에 따라 특정 값으로 수렴할 수 있다. 또한, 상기 특정 값은 객체의 종류에 따라 상이할 수 있다. 예를 들어, 고정 장애물의 경우 동적 장애물에 비해 낮은 가중치로 수렴할 수 있다. 또는, 미 탐지 영역의 경우 가중치를 갱신하지 않을 수 있다. The area detected by the resolution image of the current frame ignores the previous frame, and the area not detected may update the obstacle map in consideration of the previous frame. For example, the weight of the unit area determined as an obstacle in the current frame is set to 0, the weight of the navigable area is set to 255, and the weight of the undetected area considers the weight of the previous frame and the weight of the current frame as a certain ratio. Can be set. Here, the weight of the undetected area may converge to a specific value over time. In addition, the specific value may be different according to the type of object. For example, in the case of a fixed obstacle, it may converge with a lower weight than that of a dynamic obstacle. Alternatively, in the case of an undetected area, the weight may not be updated.

현재 프레임의 해상 이미지의 시야각에 속하지 않는 지역에 대응되는 단위 영역에 대하여 전술한 미 탐지 영역과 동일하게 처리할 수 있다.A unit area corresponding to an area that does not belong to the viewing angle of the resolution image of the current frame may be processed in the same manner as the above-described undetected area.

특정 영역에 대하여는 가중치를 업데이트하지 않을 수 있다. 예를 들어, 일 영역에 움직이지 않는 고정 장애물이 감지된 경우 해당 영역의 가중치는 0과 같은 특정 값으로 고정하여 시간이 지나도 변하지 않을 수 있다. 여기서, 고정 장애물은 육지, 섬, 암초 등일 수 있다.Weights may not be updated for a specific area. For example, when a stationary obstacle that does not move in a region is detected, the weight of the region may be fixed to a specific value such as 0 and may not change even after time. Here, the fixed obstacle may be land, island, reef, or the like.

도 28은 일 실시예에 따른 장애물 지도 업데이트 단계에 관한 블록도이다. 도 28을 참고하면, 선박에 설치된 GPS로 산출된 선박의 위치/카메라의 위치, IMU를 통한 선박의 자세 정보 및 카메라 설치 정보를 통한 카메라 자세 정보를 통해 장애물의 위치 정보를 절대 좌표로 변환할 수 있다(S3100). 변환된 객체 정보, 기상 환경 정보 및 운항 규칙을 이용하여 가중치를 설정하고(S3300), 이전 프레임의 장애물 지도 및 장애물 지도상에 설정된 업데이트 영역(S3600)을 이용하여 현재 프레임의 최종 장애물 지도를 출력할 수 있다(S3500).28 is a block diagram illustrating an obstacle map update step according to an embodiment. Referring to FIG. 28, the position information of the obstacle can be converted into absolute coordinates through the position of the ship/the position of the camera calculated by the GPS installed on the ship, the position of the ship through the IMU, and the camera posture information through the camera installation information. Yes (S3100). The weight is set using the converted object information, weather environment information, and navigation rules (S3300), and the final obstacle map of the current frame is output using the obstacle map of the previous frame and the update area set on the obstacle map (S3600). Can be (S3500).

경로 생성 단계는 선박이 항해할 수 있는 경로를 생성하는 단계이다. 선박의 이동 거리, 이동 시간, 운항 비용 등을 고려하여 경로를 생성할 수 있다. 또한, 조류, 바람 등 외부 환경을 고려하여 경로 생성할 수 있고, COLREG 등 운항 규칙을 고려할 수도 있다.The path creation step is a step of creating a path through which the ship can navigate. A route can be created in consideration of the movement distance, travel time, and operation cost of the ship. In addition, a route can be created in consideration of external environments such as tide and wind, and navigation rules such as COLREG can be considered.

최단 거리, 최소 시간, 최소 비용, 위험도 등을 고려하여 경우에 따라 서로 다른 경로를 생성할 수 있다. 예를 들어, 연안에서는 사람이 있을 가능성이 원안보다 높으므로 안전한 운항을 위해 안전도가 높은 모드로 경로를 생성할 수 있다. 원안이나 대형 선박의 경우 연료 소모를 줄이기 위해 에너지 효율이 높은 모드로 경로를 생성할 수 있다. 복수의 변수들을 적절한 비율로 고려하여 최적화된 방식으로 경로를 생성할 수도 있다. 이러한 모드는 수동/자동으로 선택할 수 있다. 일 예로, GPS 등의 선박 위치 정보를 이용하여 연안에서는 안전도 높은 모드로, 원안에서는 에너지 효율 높은 모드로 자동으로 변경되어 경로를 생성할 수 있다. 다른 예로, 장애물이 많이 감지될 경우 안전도가 높은 모드로 자동 변경되어 경로를 생성할 수 있다.Different routes can be created depending on the case by considering the shortest distance, minimum time, minimum cost, and risk. For example, because people are more likely to be present on the coast than the original one, it is possible to create a route in a high-safety mode for safe operation. In the case of original or large ships, a route can be created in an energy-efficient mode to reduce fuel consumption. It is also possible to create a path in an optimized manner by considering a plurality of variables in an appropriate ratio. These modes can be selected manually or automatically. For example, by using vessel location information such as GPS, a route may be automatically changed to a mode having high safety on the coast and a mode having high energy efficiency on the far shore to generate a route. As another example, when a large number of obstacles are detected, the mode is automatically changed to a high safety mode to generate a path.

도 29는 일 실시예에 따른 경로 생성 단계에 관한 블록도이다. 도 29를 참고하면, 장애물 지도, 출발점, 도착점, 선박 상태 정보, 기상 환경 정보, 운항 규칙 등을 입력으로 하여 추종 경로를 생성할 수 있다(S3700). 입력되는 정보는 전술한 정보를 모두 포함할 수도 있고, 그중 일부만 포함할 수도 있으며, 전술한 정보 이외의 정보 또한 포함될 수 있다.29 is a block diagram illustrating a path generation step according to an embodiment. Referring to FIG. 29, a following route may be generated by inputting an obstacle map, a starting point, an arrival point, ship condition information, weather environment information, and a navigation rule (S3700). The input information may include all of the above-described information, or only part of the information, and information other than the above-described information may also be included.

추종 경로는 인공신경망을 이용하여 생성될 수 있다. 예를 들어, 장애물 지도 등을 입력으로 하여 추종 경로를 출력하는 인공신경망을 학습시켜 경로 생성 단계에서 사용할 수 있다.The following path can be created using an artificial neural network. For example, an artificial neural network that outputs a following path by inputting an obstacle map or the like may be trained and used in the path generation step.

인공신경망 이외의 알고리즘을 이용하여 추종 경로를 생성할 수 있다. 다익스트라(Dijkstra) 알고리즘, A* 알고리즘, D* 알고리즘, theta* 알고리즘 등 경로 생성 알고리즘이라면 제한 없이 사용할 수 있다.A tracking path can be created using an algorithm other than an artificial neural network. Any path generation algorithm such as Dijkstra algorithm, A* algorithm, D* algorithm, and theta* algorithm can be used without any restrictions.

선수 방향, 선박의 최대 타각(rudder angle) 등을 고려하여 경로를 생성할 수 있다. 도 30은 일 실시예에 따른 경로 생성 단계에 관한 도면이다. 도 30을 참고하면, 선박(371)은 특정 선수 방향(373)을 보고 있다. 선박(371)의 선수 방향(373) 및 최대 타각을 고려하지 않은 경우 실선과 같은 경로가 생성되고, 이를 고려한 경우 점선과 같은 경로가 생성될 수 있다. 상기 경로는 중간 지점(375)으로 표현될 수 있다. 상기 실선과 같은 경로는 실제 선박이 추종할 수 없거나 추종하기 어려운 경로일 수 있다. 반면, 상기 점선과 같은 경로는 실제 선박이 추종하기 쉽거나 추종 가능한 경로일 수 있다. 이러한 선박 특화 알고리즘을 이용하여 경로 추종에 유용한 경로를 생성할 수 있다.The path can be created in consideration of the bow direction and the maximum rudder angle of the ship. 30 is a diagram illustrating a path generation step according to an embodiment. Referring to FIG. 30, the ship 371 is looking at a specific bow direction 373. When the bow direction 373 and the maximum steering angle of the ship 371 are not considered, a path such as a solid line is generated, and when this is considered, a path such as a dotted line may be generated. The path may be expressed as an intermediate point 375. A path such as the solid ship may be a path that an actual ship cannot follow or is difficult to follow. On the other hand, a path such as the dotted line may be a path that an actual ship can easily follow or can follow. Using such a ship-specific algorithm, it is possible to create a useful path for path tracking.

경로 추종 단계는 선박이 계획된 경로를 추종하도록 제어 신호를 생성하는 단계이다. 도 31은 일 실시예에 따른 경로 추종 단계에 관한 블록도이다. 도 31을 참고하면, 경로 추종 단계(S5000)에서는 추종 경로, 선박 상태 정보, 기상 환경 정보, 운항 규칙 등을 입력받아 선박의 제어 신호를 출력할 수 있다. 입력되는 정보는 전술한 정보를 모두 포함할 수도 있고, 그중 일부만 포함할 수도 있으며, 전술한 정보 이외의 정보 또한 포함될 수 있다.The path following step is a step of generating a control signal so that the ship follows the planned path. 31 is a block diagram illustrating a path following step according to an embodiment. Referring to FIG. 31, in the path following step (S5000), a following path, ship condition information, weather environment information, and navigation rules may be input and a control signal of a ship may be output. The input information may include all of the above-described information, or only part of the information, and information other than the above-described information may also be included.

제어 신호는 속도 제어 신호 및 선수 방향 제어 신호를 포함한다. 속도 제어 신호는 프로펠러의 회전 속도를 조절하는 신호일 수 있다. 또는, 속도 제어 신호는 프로펠러의 단위 시간당 회전수를 조절하는 신호일 수 있다. 선수 방향 제어 신호는 방향타(rudder)를 조절하는 신호일 수 있다. 또는, 선수 방향 제어 신호는 키(wheel, helm)를 조절하는 신호일 수 있다.The control signal includes a speed control signal and a bow direction control signal. The speed control signal may be a signal for adjusting the rotational speed of the propeller. Alternatively, the speed control signal may be a signal for adjusting the number of revolutions per unit time of the propeller. The bow direction control signal may be a signal for controlling a rudder. Alternatively, the bow direction control signal may be a signal for controlling a key (wheel, helm).

또한, 이전 프레임의 제어 신호를 현재 프레임의 경로 추종 단계에서 사용할 수 있다.In addition, the control signal of the previous frame can be used in the path following step of the current frame.

인공신경망을 이용하여 경로 추종 단계를 수행할 수 있다. 이 경우, 지도 학습, 비지도 학습, 강화 학습, 모방 학습 등 인공신경망을 학습시키는 방법에는 제한이 없다. The path following step can be performed using an artificial neural network. In this case, there are no restrictions on the method of learning the artificial neural network, such as supervised learning, unsupervised learning, reinforcement learning, and imitation learning.

강화 학습을 통해 인공신경망을 학습시키는 경우, 운항 시간, 운항 거리, 안전도, 에너지 효율 등을 리워드로 하여 인공신경망을 학습시킬 수 있다. 예를 들어, 운항 시간이 짧은 경우 리워드를 크게 할 수 있다. 또는, 운항 거리가 짧은 경우 리워드를 크게 할 수 있다. 또는, 장애물과의 충돌 횟수가 적을수록 리워드를 크게 할 수 있다. 또는, 사용된 연료가 적을수록 리워드를 크게 할 수 있다. 이 외에도 다양하게 리워드를 정할 수 있고, 하나의 변수만 고려하는 것이 아닌 복수의 변수를 고려하여 리워드를 줄 수도 있다. 예를 들어, 운항 시간과 에너지 효율을 모두 고려한 리워드 설정 방법을 택할 수 있다.In the case of learning an artificial neural network through reinforcement learning, the artificial neural network can be trained with rewards such as flight time, flight distance, safety level, and energy efficiency. For example, if the flight time is short, the reward can be increased. Alternatively, the reward can be increased if the operating distance is short. Alternatively, as the number of collisions with an obstacle decreases, the reward may be increased. Alternatively, the less fuel used, the larger the reward. In addition to this, various rewards can be set, and rewards can be given by considering multiple variables rather than considering only one variable. For example, you can choose a reward setting method that considers both flight time and energy efficiency.

그 외의 경로 추종 알고리즘을 이용하여 경로 추종 단계를 수행할 수 있다. 예를 들어, 현재 시점부터 임의의 T 시간 동안 추종해야 할 위치를 입력받아 최적의 제어 신호를 생성하는 기술인 모델 예측 제어(model predictive control, MPC), 순수 추적 제어(pure pursuit), 스탠리 방법(Stanley method), 벡터 추적 제어(vector pursuit) 등의 알고리즘을 이용할 수 있다. A path following step may be performed using other path tracking algorithms. For example, model predictive control (MPC), pure pursuit, Stanley's method, which is a technology that generates an optimal control signal by receiving a position to be followed for an arbitrary T time from the current point of time. method), vector pursuit, etc. algorithms can be used.

자율 운항 중에도 사람이 선박을 모니터링하기 위한 정보가 필요할 수 있다. 이러한 정보는 시각화를 통해 사람에게 전달될 수 있다. 전술한 주변 환경 감지, 경로 계획 및 경로 추종 단계에서 이용되거나 생성되는 결과물을 가공하여 시각화할 수 있다.Even during autonomous navigation, humans may need information to monitor the vessel. This information can be communicated to a person through visualization. The results used or generated in the above-described surrounding environment detection, path planning, and path following steps may be processed and visualized.

하나의 이미지로부터 시각화 데이터를 생성할 수 있다. 또는, 복수의 이미지로부터 시각화 데이터를 생성할 수 있다. 여기서, 복수의 이미지는 동일한 카메라로부터 획득한 이미지뿐만 아니라 서로 다른 카메라로부터 획득한 이미지일 수 있다.Visualization data can be generated from a single image. Alternatively, visualization data may be generated from a plurality of images. Here, the plurality of images may be images acquired from different cameras as well as images acquired from the same camera.

복수의 이미지를 이용하여 시각화하는 경우, 각 이미지가 표현하는 지역은 서로 다를 수 있다. 이 경우 복수의 이미지를 정합하여 시각화할 수 있다. 예를 들어, 선박 주변 지역을 나타내는 복수의 이미지를 정합하여 어라운드 뷰 모니터링이 가능할 수 있다. 여기서, 어라운드 뷰 모니터링은 선박 주변 환경을 버드 아이 뷰(bird's eye view)로 제공하는 것을 의미할 수 있다.When visualizing using a plurality of images, regions represented by each image may be different from each other. In this case, a plurality of images can be matched and visualized. For example, around-view monitoring may be possible by matching a plurality of images representing an area around a ship. Here, the around view monitoring may mean providing the environment around the ship as a bird's eye view.

이미지 세그멘테이션의 결과를 시각화하는 경우, 디스플레이 패널을 통해 이미지 세그멘테이션으로 검출한 객체를 표시한 결과를 출력할 수 있다. 예를 들어, 이미지에 포함된 바다, 선박, 지형, 항로 표지 등을 서로 다른 색상으로 표현할 수 있다.When visualizing the result of image segmentation, the result of displaying the object detected by the image segmentation may be output through the display panel. For example, seas, ships, terrain, route signs, etc. included in the image can be expressed in different colors.

또한, 장애물의 거리, 속도, 위험도, 크기, 충돌 확률 등을 포함하는 장애물 특성을 출력할 수 있다. 색상을 이용하여 장애물 특성을 출력할 수 있고, 색상은 장애물의 거리, 속도, 위험도, 크기, 충돌 확률 등에 따라 달라질 수 있다.In addition, obstacle characteristics including distance, speed, risk, size, collision probability, and the like of the obstacle may be output. Obstacle characteristics may be output using color, and the color may vary depending on the distance, speed, risk, size, and collision probability of the obstacle.

장애물 센서로부터 감지한 장애물 특성을 함께 출력할 수 있다. 예를 들어, 이미지 세그멘테이션으로 관찰되는 영역에 대해서는 그 결과를 출력하고, 관찰되지 않는 영역에 대해서는 장애물 센서로부터 감지한 결과를 출력할 수 있다.Obstacle characteristics detected from the obstacle sensor can be output together. For example, a result may be output for an area observed by image segmentation, and a result detected by an obstacle sensor may be output for an area not observed.

장애물 지도, 추종 경로 및/또는 경로 히스토리 등을 시각화할 수 있다. 예를 들어, 선박 중심의 장애물 지도, 기존 경로 및 장애물 회피 경로를 조감도 형식으로 출력할 수 있다.Obstacle maps, following routes and/or route history can be visualized. For example, a ship-centered obstacle map, an existing path, and an obstacle avoidance path may be output in a bird's eye view format.

도 32는 일 실시예에 따른 시각화에 관한 도면이다. 도 32를 참고하면, 디스플레이 패널은 선박의 현재 위치를 기준으로 장애물의 상대적 위치 및 특성 등을 출력할 수 있다. 예를 들어, 검은색 영역(610)은 미리 정해진 거리보다 가까이 있는 제1 장애물을 나타내며, 회색 영역(630)은 상기 미리 정해진 거리보다 멀리 있는 제2 장애물을 나타낼 수 있다. 또는, 검은색 영역(610)은 위험도가 높은 영역을 나타내고 회색 영역(630)은 위험도가 보통인 영역을 나타내며 흰색 영역(650)은 위험도가 낮은 영역을 나타낼 수 있다.32 is a diagram for visualization according to an embodiment. Referring to FIG. 32, the display panel may output a relative position and characteristics of an obstacle based on a current position of a ship. For example, the black area 610 may indicate a first obstacle that is closer than a predetermined distance, and the gray area 630 may indicate a second obstacle that is farther than the predetermined distance. Alternatively, a black area 610 may indicate a high-risk area, a gray area 630 may indicate a normal-risk area, and a white area 650 may indicate a low-risk area.

도 33은 일 실시예에 따른 이미지 세그멘테이션을 이용한 자율 운항 방법에 관한 블록도이다. 도 33을 참고하면, 카메라로 이미지를 촬영하여 촬영 이미지를 획득하고(S1100), 촬영 이미지의 전처리 과정을 통해 전처리 이미지를 획득하고(S1300), 전처리 이미지의 세그멘테이션을 통해 제1 객체 정보를 획득하고(S1500), 상기 제1 객체 정보 및 장애물 센서 등을 통해 획득한 제2 객체 정보를 이용해 장애물 지도를 업데이트하고(S3500), 상기 장애물 지도, 출발점, 도착점 및 선박 상태 정보를 이용하여 추종 경로를 생성하고(S3700), 상기 추종 경로, 선박 상태 정보 및 이전 프레임의 제어 신호를 이용하여 현재 프레임의 제어 신호를 생성할 수 있다(S5000). 여기서, 이미지 세그멘테이션(S1500)은 인공신경망을 이용하여 수행하고, 나머지 단계는 인공신경망이 아닌 전술한 알고리즘을 이용하여 수행할 수 있다. 또는, 인공신경망을 이용하여 이미지 세그멘테이션을 수행하고(S1500), 경로 계획 단계(S3500, S3700)는 비인공신경망 알고리즘을 이용하며, 경로 추종 단계(S5000)는 인공신경망을 이용할 수 있다.33 is a block diagram of an autonomous navigation method using image segmentation according to an embodiment. Referring to FIG. 33, a photographed image is obtained by photographing an image with a camera (S1100), a pre-processed image is obtained through a pre-processing process of the photographed image (S1300), and first object information is obtained through segmentation of the pre-processed image. (S1500), the obstacle map is updated using the first object information and the second object information acquired through the obstacle sensor (S3500), and a following path is created using the obstacle map, starting point, arrival point, and ship status information. Then (S3700), a control signal of the current frame may be generated by using the following path, the ship state information, and the control signal of the previous frame (S5000). Here, the image segmentation S1500 may be performed using an artificial neural network, and the remaining steps may be performed using the above-described algorithm, not the artificial neural network. Alternatively, image segmentation is performed using an artificial neural network (S1500), path planning steps (S3500, S3700) use a non-artificial neural network algorithm, and path following step (S5000) may use an artificial neural network.

1 프레임 내에서 특정 단계가 복수회 반복된 후 다음 단계가 진행될 수 있다. 예를 들어, 여러 번의 이미지 세그멘테이션(S1500)을 수행한 후 경로 계획(S3500, S3700) 및 경로 추종(S5000)을 할 수 있다. 또는, 여러 번의 이미지 세그멘테이션(S1500) 후 장애물 지도 업데이트(S3500)가 진행될 수 있다.After the specific step is repeated a plurality of times within one frame, the next step may proceed. For example, after performing image segmentation (S1500) several times, path planning (S3500, S3700) and path following (S5000) may be performed. Alternatively, an obstacle map update (S3500) may be performed after several image segmentation (S1500).

또한, 반드시 한 프레임이 모두 실행되고 다음 프레임이 실행되어야 하는 것은 아니다. 예를 들어, 한 프레임의 경로 생성 단계(S3700)가 실행됨과 함께 다음 프레임의 이미지 세그멘테이션(S1500)이 실행될 수 있다. 또는, 한 프레임의 경로 추종 단계(S5000), 다음 프레임의 경로 생성 단계(S3700) 및 그다음 프레임의 이미지 세그멘테이션 단계(S1500)가 함께 실행될 수 있다.Also, it is not necessary to execute all of one frame and execute the next frame. For example, while the path generation step (S3700) of one frame is executed, the image segmentation (S1500) of the next frame may be performed. Alternatively, a path following step of one frame (S5000), a path generation step of the next frame (S3700), and an image segmentation step of the next frame (S1500) may be performed together.

도 33의 실시예는 주변 환경 감지, 경로 계획 및 경로 추종 각 단계를 별도로 수행한다. 이와 다르게, 주변 환경 감지, 경로 계획 및 경로 추종 단계 중 적어도 어느 두 단계가 하나의 인공신경망을 통해 수행될 수 있다. 이하에서는 경로 계획 및 경로 추종이 하나의 인공신경망을 통해 수행되는 경우 및 주변 환경 감지, 경로 계획 및 경로 추종 전부가 하나의 인공신경망을 통해 수행되는 경우에 대해 살펴보나 이에 한정되는 것은 아니다.The embodiment of FIG. 33 separately performs each step of sensing the surrounding environment, planning a route, and following a route. Alternatively, at least any two of the steps of sensing the surrounding environment, planning a path, and following a path may be performed through a single artificial neural network. Hereinafter, a case in which path planning and path tracking are performed through a single artificial neural network and a case in which all of the surrounding environment detection, path planning, and path tracking are performed through a single artificial neural network will be described, but is not limited thereto.

도 34는 일 실시예에 따른 이미지 세그멘테이션을 이용한 자율 운항에 관한 블록도이다. 도 34를 참고하면, 카메라로 이미지를 촬영하여 촬영 이미지를 획득하고(S1100), 촬영 이미지의 전처리 과정을 통해 전처리 이미지를 획득하고(S1300), 전처리 이미지의 세그멘테이션을 통해 제1 객체 정보를 획득하고(S1500), 상기 제1 객체 정보, 장애물 센서 등을 통해 획득한 제2 객체 정보, 출발점, 도착점, 선박 상태 정보 및 이전 프레임의 제어 신호를 이용하여 현재 프레임의 제어 신호를 생성할 수 있다(S7000).34 is a block diagram of autonomous navigation using image segmentation according to an embodiment. Referring to FIG. 34, a photographed image is obtained by photographing an image with a camera (S1100), a pre-processed image is obtained through a pre-processing process of the photographed image (S1300), and first object information is obtained through segmentation of the pre-processed image. (S1500), the control signal of the current frame may be generated by using the second object information obtained through the first object information, the obstacle sensor, etc., the starting point, the arrival point, the ship status information, and the control signal of the previous frame (S7000) ).

도 33의 자율 운항 방법의 일 예에 의하면, 이미지 세그멘테이션을 수행하는 제1 인공신경망, 경로 계획을 수행하는 제2 인공신경망 및 경로 추종을 수행하는 제3 인공신경망을 각각 별도로 학습시킨 뒤 이를 추론 단계에 이용할 수 있다. 이와 달리 이미지 세그멘테이션, 경로 계획 및 경로 추종 모두를 수행하는 하나의 인공신경망을 한 번에 학습시켜 이용할 수 있다. 이러한 인공신경망의 학습을 엔드-투-엔드 학습(end-to-end learning)이라 한다.According to an example of the autonomous navigation method of FIG. 33, a first artificial neural network for performing image segmentation, a second artificial neural network for path planning, and a third artificial neural network for path following are separately trained and then inferred. Can be used for Unlike this, one artificial neural network that performs all of image segmentation, path planning, and path tracking can be trained and used at a time. Learning of such artificial neural networks is called end-to-end learning.

도 35는 일 실시예에 따른 이미지 세그멘테이션을 이용한 자율 운항에 관한 블록도이다. 도 35를 참고하면, 주변 환경 감지, 경로 계획 및 경로 추종을 하나의 인공신경망을 이용하여 수행할 수 있다. 예를 들어, 이미지, 장애물 감지 센서로부터의 객체 정보, 선박 상태 정보(GPS로부터의 선박의 위치 및 속력, IMU로부터의 선박의 선수 방향 등), 출발점, 도착점, 중간 지점, 조류, 바람, 운항 규칙, 제어 신호 등의 정보를 입력받아 선박 제어 신호를 출력하는 인공신경망을 학습시켜 자율 운항에 사용할 수 있다. 전술한 입력 정보는 일 예이고, 그 전부가 사용될 수 있고, 그중 일부만 사용될 수도 있으며, 그 외의 정보가 사용될 수도 있다.35 is a block diagram of autonomous navigation using image segmentation according to an embodiment. Referring to FIG. 35, detection of the surrounding environment, path planning, and path tracking may be performed using a single artificial neural network. For example, images, object information from obstacle detection sensors, ship status information (ship's position and speed from GPS, ship's bow direction from IMU, etc.), starting point, arrival point, intermediate point, tide, wind, navigation rules It can be used for autonomous navigation by learning an artificial neural network that receives information such as control signals and outputs ship control signals. The above-described input information is an example, all of them may be used, only some of them may be used, and other information may be used.

도 36은 일 실시예에 따른 제어 신호를 출력하는 인공신경망의 학습 방법에 관한 블록도이다. 제어 신호를 학습 데이터로 확보하기 어려운 경우에 유용할 수 있는 학습 방법이다. 추론 단계에서는 전역 인공신경망을 이용한다. 전역 인공신경망의 학습을 위해 지역 인공신경망을 이용한다. 지역 인공신경망은 선형성을 대응할 수 있고, 전역 인공신경망은 비선형성을 대응할 수 있다. 지역 인공신경망은 경로 및 이미지를 입력받아 제어 신호를 출력할 수 있다. 경로 예측 인공신경망은 경로, 이미지 및 제어 신호를 입력받아 다음 경로를 출력할 수 있다. 지역 인공신경망이 출력하는 제어 신호 및 경로 예측 인공신경망이 출력하는 다음 경로에 기초한 오차 학습을 통해 지역 인공신경망을 학습시킬 수 있다. 전역 인공신경망은 경로 및 이미지를 입력받아 제어 신호를 출력하고, 지역 인공신경망이 출력하는 제어 신호 및 전역 인공신경망이 출력하는 제어 신호를 이용하는 분류기를 통해 전역 인공신경망을 학습시킬 수 있다. 지역 인공신경망 및 경로 예측 인공신경망은 복수일 수 있다. 전역 인공신경망은 여러 개의 지역 인공신경망과의 오차를 학습하여 단일 네트워크로 모든 입출력에 대응할 수 있다. 36 is a block diagram of a learning method of an artificial neural network outputting a control signal according to an embodiment. This is a learning method that can be useful when it is difficult to secure a control signal as learning data. In the inference stage, a global artificial neural network is used. A local artificial neural network is used for learning of the global artificial neural network. Local artificial neural networks can cope with linearity, and global artificial neural networks can cope with non-linearity. The local artificial neural network can receive a path and an image and output a control signal. The path prediction artificial neural network may receive a path, an image, and a control signal and output a next path. The local artificial neural network can be trained through error learning based on the next path output from the control signal and path prediction output from the local artificial neural network. The global artificial neural network receives paths and images, outputs a control signal, and trains the global artificial neural network through a classifier using a control signal output from a local artificial neural network and a control signal output from the global artificial neural network. There may be a plurality of local artificial neural networks and path prediction artificial neural networks. The global artificial neural network can respond to all inputs and outputs with a single network by learning errors with several local artificial neural networks.

도 37은 일 실시예에 따른 인공신경망의 출력에 관한 블록도로, 도 35의 인공신경망의 출력만을 나타낸 도면이다. 도 35와 비교하면, 시각화를 위해 인공신경망으로부터 객체 정보, 장애물 지도, 추종 경로 등을 획득할 수 있다. 이하에서는 이를 중간 출력 정보라 한다. 상기 중간 출력 정보는 전술한 시각화 방법을 통해 시각화될 수 있다.37 is a block diagram illustrating an output of the artificial neural network according to an embodiment, and is a diagram illustrating only the output of the artificial neural network of FIG. 35. Compared with FIG. 35, object information, an obstacle map, and a following path may be obtained from an artificial neural network for visualization. Hereinafter, this is referred to as intermediate output information. The intermediate output information may be visualized through the above-described visualization method.

중간 출력 정보를 획득하기 위하여 별도의 인공신경망이 이용될 수 있다. 도 37의 인공신경망(이하 "자율 운항 인공신경망"이라 함)에서 시각화를 위한 인공신경망(이하 "시각화 인공신경망"이라 함)을 거쳐 중간 출력 정보를 획득할 수 있다. 예를 들어, 시각화 인공신경망은 자율 운항 인공신경망으로부터 출력되는 정보를 입력받아 객체 정보, 장애물 지도 및 추종 경로 등을 출력할 수 있. 하나의 인공신경망으로 여러 개의 중간 출력 정보를 획득할 수 있다. 또는, 각 중간 출력 정보마다 별개의 인공신경망을 이용할 수 있다.A separate artificial neural network may be used to obtain intermediate output information. In the artificial neural network of FIG. 37 (hereinafter referred to as “autonomous artificial neural network”), intermediate output information may be obtained through an artificial neural network for visualization (hereinafter referred to as “visualized artificial neural network”). For example, the visualization artificial neural network may receive information output from the autonomously operating artificial neural network and output object information, an obstacle map, and a tracking path. Multiple intermediate output information can be obtained with one artificial neural network. Alternatively, a separate artificial neural network may be used for each intermediate output information.

시각화 인공신경망은 자율 운항 인공신경망과 별도로 학습될 수 있다. 또는, 자율 운항 인공신경망과 함께 학습될 수 있다.The visualization artificial neural network can be learned separately from the autonomous navigation artificial neural network. Alternatively, it can be learned with an autonomous navigation artificial neural network.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 상술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한, 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. 나아가, 각 실시예를 구성하는 단계들은 다른 실시예를 구성하는 단계들과 개별적으로 또는 조합되어 이용될 수 있다.The present invention described above is capable of various substitutions, modifications, and changes within the scope of the technical spirit of the present invention to those of ordinary skill in the technical field to which the present invention pertains. It is not limited by the drawings. Further, the embodiments described in this document are not limitedly applicable, but all or part of each of the embodiments may be selectively combined so that various modifications may be made. Furthermore, steps constituting each embodiment may be used individually or in combination with steps constituting other embodiments.

110: 입력 이미지 130: 출력 데이터
310: 전역 지도 330: 지역 지도
331: 업데이트 영역 351: 미 탐지 영역
353: 운항 불가 영역 355: 운항 가능 영역
357: 이동 예상 영역 358: 버퍼 영역
359: 운항 규칙 반영 영역 371: 선박
373: 선수 방향 375: 중간 지점
110: input image 130: output data
310: global map 330: regional map
331: update area 351: undetected area
353: non-operable area 355: operational area
357: expected movement area 358: buffer area
359: Area for reflecting the rules of operation 371: Vessel
373: forward direction 375: midpoint

Claims (1)

해상 이미지 및 인공신경망을 이용한 선박의 자율 운항 방법에 있어서,
복수의 픽셀값을 포함하는 학습 이미지 및 상기 학습 이미지에 포함된 학습 장애물의 종류 정보 및 거리 정보를 반영하여 결정되는 복수의 라벨링값을 포함하는 라벨링 데이터를 획득하는 단계―상기 학습 이미지 및 상기 라벨링 데이터는 서로 대응됨―;
상기 인공신경망이 상기 학습 이미지를 입력받아 출력 데이터를 출력하는 단계―상기 출력 데이터는 복수의 출력값을 포함하고 상기 라벨링값 및 상기 출력값은 서로 대응됨―;
상기 라벨링값 및 상기 출력값의 차이를 고려한 오차 함수를 이용하여 상기 인공신경망을 학습시키는 단계;
상기 선박에 설치된 카메라로부터 상기 해상 이미지를 획득하는 단계;
상기 인공신경망을 이용하여 상기 해상 이미지에 포함된 장애물의 종류 정보 및 거리 정보를 획득하는 단계―상기 해상 이미지에 포함된 장애물은 복수의 픽셀값을 포함함―;
상기 해상 이미지에 포함된 장애물의 픽셀값의 상기 해상 이미지상에서의 위치에 기초하여 상기 해상 이미지에 포함된 장애물의 방향 정보를 획득하는 단계;
상기 해상 이미지에 포함된 장애물의 거리 정보 및 방향 정보를 이용하여 상기 해상 이미지에 포함된 장애물의 장애물 지도상에서의 위치를 획득하는 단계;
상기 장애물 지도상에서의 위치를 이용하여 상기 장애물 지도를 생성하는 단계;
상기 장애물 지도 및 선박 상태 정보를 이용하여 상기 선박이 추종하는 추종 경로를 생성하는 단계―상기 선박 상태 정보는 상기 선박의 위치 정보 및 자세 정보를 포함함―; 및
상기 추종 경로를 이용해 상기 선박이 상기 추종 경로를 추종하도록 제어 신호를 생성하는 단계―상기 제어 신호는 상기 선박의 프로펠러 제어 신호 및 선수 방향 제어 신호를 포함함―;를 포함하는
자율 운항 방법.
In the autonomous navigation method of a ship using maritime images and artificial neural networks,
Acquiring labeling data including a learning image including a plurality of pixel values and a plurality of labeling values determined by reflecting type information and distance information of a learning obstacle included in the learning image-the learning image and the labeling data Correspond to each other―;
Receiving, by the artificial neural network, the training image and outputting output data, wherein the output data includes a plurality of output values, and the labeling value and the output value correspond to each other;
Training the artificial neural network using an error function in consideration of a difference between the labeling value and the output value;
Acquiring the sea image from a camera installed on the ship;
Acquiring type information and distance information of an obstacle included in the maritime image using the artificial neural network, the obstacle included in the maritime image includes a plurality of pixel values;
Acquiring direction information of an obstacle included in the sea image based on a position of the pixel value of the obstacle included in the sea image on the sea image;
Acquiring a position of an obstacle included in the maritime image on an obstacle map using distance information and direction information of the obstacle included in the maritime image;
Generating the obstacle map by using the position on the obstacle map;
Generating a following path followed by the ship using the obstacle map and ship state information, the ship state information including position information and attitude information of the ship; And
Generating a control signal so that the ship follows the following path using the following path, wherein the control signal includes a propeller control signal and a bow direction control signal of the ship.
How to operate autonomously.
KR1020210046441A 2018-09-04 2021-04-09 Autonomous navigation method using image segmentation KR102466804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220148408A KR102604969B1 (en) 2018-09-04 2022-11-09 Autonomous navigation method using image segmentation

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862726913P 2018-09-04 2018-09-04
US62/726,913 2018-09-04
US201862741394P 2018-10-04 2018-10-04
US62/741,394 2018-10-04
KR1020180165857A KR102240839B1 (en) 2018-09-04 2018-12-20 Autonomous navigation method using image segmentation

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180165857A Division KR102240839B1 (en) 2018-09-04 2018-12-20 Autonomous navigation method using image segmentation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220148408A Division KR102604969B1 (en) 2018-09-04 2022-11-09 Autonomous navigation method using image segmentation

Publications (2)

Publication Number Publication Date
KR20210044197A true KR20210044197A (en) 2021-04-22
KR102466804B1 KR102466804B1 (en) 2022-11-17

Family

ID=84233317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210046441A KR102466804B1 (en) 2018-09-04 2021-04-09 Autonomous navigation method using image segmentation

Country Status (1)

Country Link
KR (1) KR102466804B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114666372A (en) * 2022-04-01 2022-06-24 江苏科技大学 Data receiving and transmitting method between ship and control platform
KR20230081373A (en) * 2021-11-30 2023-06-07 (주)시정 Image analysis visibility system that calculates dominant visibility using panoramic images and artificial intelligence
KR20230082255A (en) * 2021-12-01 2023-06-08 주식회사 포딕스시스템 Object Image standardization apparatus and method thereof
KR102542896B1 (en) * 2022-12-02 2023-06-14 (주)케이랩스 Autonomous Boat, Autonomous System, And Method Of Controlling Autonomous System

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180065411A (en) * 2016-12-07 2018-06-18 한국해양과학기술원 System and method for automatic tracking of marine objects

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180065411A (en) * 2016-12-07 2018-06-18 한국해양과학기술원 System and method for automatic tracking of marine objects

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230081373A (en) * 2021-11-30 2023-06-07 (주)시정 Image analysis visibility system that calculates dominant visibility using panoramic images and artificial intelligence
KR20230082255A (en) * 2021-12-01 2023-06-08 주식회사 포딕스시스템 Object Image standardization apparatus and method thereof
CN114666372A (en) * 2022-04-01 2022-06-24 江苏科技大学 Data receiving and transmitting method between ship and control platform
CN114666372B (en) * 2022-04-01 2023-08-22 江苏科技大学 Method for receiving and transmitting data between ship and control platform
KR102542896B1 (en) * 2022-12-02 2023-06-14 (주)케이랩스 Autonomous Boat, Autonomous System, And Method Of Controlling Autonomous System

Also Published As

Publication number Publication date
KR102466804B1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
KR102240839B1 (en) Autonomous navigation method using image segmentation
US10803360B2 (en) Situation awareness method and device using image segmentation
US11514668B2 (en) Method and device for situation awareness
KR102231286B1 (en) Ship surrounding monitoring device and ship surrounding monitoring method
KR102466804B1 (en) Autonomous navigation method using image segmentation
US10604156B2 (en) System and method for adjusting a road boundary
KR102235787B1 (en) Device and method for monitoring a berthing
US20220024549A1 (en) System and method for measuring the distance to an object in water
US20220351523A1 (en) Method and device for monitoring port and ship in consideration of sea level
KR102265980B1 (en) Device and method for monitoring ship and port
KR20220055555A (en) Method and device for monitoring harbor and ship
KR20240080189A (en) Distance measurement method and distance measurement device using the same
KR20220055556A (en) Device and method for monitoring ship and port
Kim et al. Field experiment of autonomous ship navigation in canal and surrounding nearshore environments
US11776250B2 (en) Method and device for situation awareness
Friebe et al. Situational awareness and obstacle avoidance for a wind propelled marine research ASV
CN111241948A (en) Method and system for identifying ship in all weather
KR102670260B1 (en) Distance measurement method and distance measurement device using the same
US20230073225A1 (en) Marine driver assist system and method
WO2023031129A1 (en) A method of providing an electronic map for a marine vessel
Wang et al. AN AUTONOMOUS OBSTACLE AVOIDANCE METHODOLOGY FOR UNCREWED SURFACE VEHICLES FACILITATED BY DEEP-LEARNING BASED OBJECT DETECTION.
Yang et al. Design of a LiDAR-based Point cloud data image Program for Ship safety domain Visualization
SE2250688A1 (en) A marine surround sensing system
CN118159873A (en) Navigation system and method for continuously updating ML

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant