KR20240036529A - Device and method for monitoring ship and port - Google Patents

Device and method for monitoring ship and port Download PDF

Info

Publication number
KR20240036529A
KR20240036529A KR1020240031171A KR20240031171A KR20240036529A KR 20240036529 A KR20240036529 A KR 20240036529A KR 1020240031171 A KR1020240031171 A KR 1020240031171A KR 20240031171 A KR20240031171 A KR 20240031171A KR 20240036529 A KR20240036529 A KR 20240036529A
Authority
KR
South Korea
Prior art keywords
ship
lidar
image
points
area
Prior art date
Application number
KR1020240031171A
Other languages
Korean (ko)
Inventor
박별터
김한근
김동훈
구정모
Original Assignee
씨드로닉스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 씨드로닉스(주) filed Critical 씨드로닉스(주)
Priority to KR1020240031171A priority Critical patent/KR20240036529A/en
Publication of KR20240036529A publication Critical patent/KR20240036529A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Ocean & Marine Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 선박 및 항만 모니터링 장치 및 방법에 관한 것으로, 일 실시예에 따르면 컴퓨팅 수단에 의해 수행되는 항만 모니터링 방법으로, 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되는 인공 신경망을 준비하는 단계 - 상기 객체 정보는 객체의 유형이 선박임을 나타내는 제1 인덱스 및 객체의 유형이 바다임을 나타내는 제2 인덱스를 갖고, 상기 제1 인덱스는 상기 복수의 훈련 이미지 내의 상기 선박의 영역에 대응하는 픽셀들에 라벨링되고, 상기 제2 인덱스는 상기 복수의 훈련 이미지 내의 상기 바다의 영역에 대응하는 픽셀들에 라벨링됨-, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 인공 신경망을 이용하여 상기 획득한 이미지로부터 타겟 선박에 대응하는 타겟 선박 영역을 검출하는 단계, 상기 타겟 선박 영역을 특정 기준 평면으로 투영하여 변환 이미지를 생성하는 단계, 상기 변환 이미지의 투영된 상기 타겟 선박 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 상기 타겟 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들을 선택하는 단계, 상기 선택된 라이다 포인트들을 이용하여 추정 라이다 포인트들을 생성하는 단계, 상기 선택된 라이다 포인트들 및 상기 생성된 추정 라이다 포인트들 중 상기 타겟 선박의 특징 포인트를 결정하는 단계 및 상기 특징 포인트를 이용하여 상기 타겟 선박과 다른 객체와의 거리를 계산하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.The present invention relates to a ship and port monitoring device and method. According to one embodiment, a port monitoring method performed by computing means includes a plurality of training images and object information labeled in pixels of the plurality of training images. Preparing an artificial neural network that is learned using a learning set - the object information has a first index indicating that the type of the object is a ship and a second index indicating that the type of the object is a sea, and the first index is the plurality of pixels corresponding to the area of the ship in the training images are labeled, and the second index is labeled to the pixels corresponding to the area of the sea in the plurality of training images - obtaining images captured by a camera. Obtaining LiDAR data including a plurality of LiDAR points obtained by a LiDAR sensor having a viewing angle that at least partially overlaps the viewing angle of the camera, using the artificial neural network to select a target from the acquired image Detecting a target ship area corresponding to a ship, generating a converted image by projecting the target ship area onto a specific reference plane, taking into account pixel positions of pixels included in the projected target ship area of the converted image. Selecting LiDAR points related to the LiDAR beam reflected from the target vessel, generating estimated LiDAR points using the selected LiDAR points, the selected LiDAR points and the generated estimated LiDAR points Among these, a port monitoring method may be provided, including determining a feature point of the target ship and calculating a distance between the target ship and another object using the feature point.

Description

선박 및 항만 모니터링 장치 및 방법{DEVICE AND METHOD FOR MONITORING SHIP AND PORT}Ship and port monitoring device and method {DEVICE AND METHOD FOR MONITORING SHIP AND PORT}

본 발명은 선박 및 항만 모니터링 장치 및 방법에 관한 것으로, 구체적으로 카메라 이미지를 이용하여 선박과 관련된 라이다 데이터를 추정하는 선박 및 항만 모니터링 장치 및 방법에 관한 것이다.The present invention relates to a ship and port monitoring device and method, and specifically to a ship and port monitoring device and method that estimates LiDAR data related to a ship using a camera image.

선박의 운항 및 항만 내에서의 접안, 이안에 있어 많은 사고가 발생하고 있으며, 그 사고의 주요 원인은 사람의 운항 부주의로 알려져 있다. 여기서, 운항 부주의는 주로 선박 주변이나 항만 내의 상황을 육안을 통해서 정확하게 모니터링하지 못한다는 점에 의해 발생한다. 현재 다양한 종류의 장애물 센서 등을 이용해 이를 보완하고 있으나 아직까지는 한계점이 존재하는 상황이다.Many accidents occur during the operation of ships and berthing and berthing in ports, and the main cause of these accidents is known to be human negligence in navigation. Here, negligence in navigation is mainly caused by the inability to accurately monitor the situation around the ship or within the port through the naked eye. Currently, this is being supplemented using various types of obstacle sensors, but there are still limitations.

최근에는 영상을 통해 선박 주변이나 항만 내의 상황을 모니터링하는 기술이 개발되고 있으나, 라이다를 함께 사용하여 모니터링의 정확도 향상을 도모하고 있다. 하지만, 항만에 사용되는 라이다의 경우 비용 문제로 저성능이며, 모니터링의 대상인 선박의 크기가 크기 때문에 모니터링을 위해 필요한 최소한의 라이다 데이터도 획득하기가 어렵다는 문제점이 있었다. Recently, technology has been developed to monitor situations around ships or in ports through video, but LiDAR is also used to improve the accuracy of monitoring. However, LiDAR used in ports has low performance due to cost issues, and because the size of the vessel that is the target of monitoring is large, there is a problem that it is difficult to obtain the minimum LiDAR data required for monitoring.

따라서, 획득된 라이다 데이터로부터 모니터링을 위해 필요한 부가 라이다 데이터를 추정하는 기술에 대한 기술 개발이 필요한 실정이다.Therefore, there is a need to develop technology for estimating additional LIDAR data needed for monitoring from acquired LIDAR data.

본 출원의 해결하고자 하는 일 과제는, 카메라 및 라이다의 데이터를 효율적으로 융합하는 선박 및 항만 모니터링 장치 및 방법을 제공하는 것에 있다.The problem to be solved by this application is to provide a ship and port monitoring device and method that efficiently fuses data from cameras and lidar.

본 출원의 해결하고자 하는 일 과제는, 카메라 이미지를 이용하여 선박과 관련된 라이다 데이터를 추정하는 선박 및 항만 모니터링 장치 및 방법을 제공하는 것에 있다.The problem to be solved by this application is to provide a ship and port monitoring device and method for estimating LiDAR data related to a ship using a camera image.

본 출원의 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by this application is not limited to the problems described above, and problems not mentioned can be clearly understood by those skilled in the art from this specification and the attached drawings. .

일실시예에 따르면 컴퓨팅 수단에 의해 수행되는 항만 모니터링 방법으로, 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되는 인공 신경망을 준비하는 단계 - 상기 객체 정보는 객체의 유형이 선박임을 나타내는 제1 인덱스 및 객체의 유형이 바다임을 나타내는 제2 인덱스를 갖고, 상기 제1 인덱스는 상기 복수의 훈련 이미지 내의 상기 선박의 영역에 대응하는 픽셀들에 라벨링되고, 상기 제2 인덱스는 상기 복수의 훈련 이미지 내의 상기 바다의 영역에 대응하는 픽셀들에 라벨링됨-, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 인공 신경망을 이용하여 상기 획득한 이미지로부터 타겟 선박에 대응하는 타겟 선박 영역을 검출하는 단계, 상기 타겟 선박 영역을 특정 기준 평면으로 투영하여 변환 이미지를 생성하는 단계, 상기 변환 이미지의 투영된 상기 타겟 선박 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 상기 타겟 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들을 선택하는 단계, 상기 선택된 라이다 포인트들을 이용하여 추정 라이다 포인트들을 생성하는 단계, 상기 선택된 라이다 포인트들 및 상기 생성된 추정 라이다 포인트들 중 상기 타겟 선박의 특징 포인트를 결정하는 단계 및 상기 특징 포인트를 이용하여 상기 타겟 선박과 다른 객체와의 거리를 계산하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to one embodiment, a port monitoring method performed by computing means includes preparing an artificial neural network that is learned using a learning set including a plurality of training images and object information labeled pixels of the plurality of training images. - The object information has a first index indicating that the type of object is a ship and a second index indicating that the type of object is a sea, and the first index is in pixels corresponding to the area of the ship in the plurality of training images. Obtaining an image taken by a camera, wherein the second index labels pixels corresponding to the area of the ocean in the plurality of training images, a field of view that at least partially overlaps the field of view of the camera. Obtaining LiDAR data including a plurality of LiDAR points obtained by a LiDAR sensor having a, detecting a target ship area corresponding to the target ship from the acquired image using the artificial neural network, the target Generating a converted image by projecting a vessel area onto a specific reference plane; LiDAR points related to a LiDAR beam reflected from the target vessel considering pixel positions of pixels included in the projected target vessel area of the converted image; selecting the selected LiDAR points, generating estimated LiDAR points using the selected LiDAR points, determining a feature point of the target ship among the selected LiDAR points and the generated estimated LiDAR points, and A port monitoring method may be provided including calculating the distance between the target ship and another object using feature points.

일 실시예에 따르면 컴퓨팅 수단에 의해 수행되는 항만 모니터링 방법으로, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지로부터 세그멘테이션 이미지를 생성하는 단계 -상기 세그멘테이션 이미지는 선박에 대응하는 선박 영역을 포함하고, 상기 선박 영역은 상기 선박의 측면에 대응하는 측면 영역 및 상기 선박의 갑판 영역에 대응하는 갑판 영역을 포함함-, 상기 선박 영역을 임의의 제1 기준 평면 및 제2 기준 평면에 투영하여 제1 변환 이미지 또는 제2 변환 이미지 중 적어도 하나를 생성하는 단계 - 상기 제1 기준 평면 및 상기 제2 기준 평면의 높이는 서로 상이한, 상기 복수의 라이다 포인트 중 상기 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들을 상기 제1 변환 이미지 및 상기 제2 변환 이미지 중 적어도 하나에 정렬하는 단계, 상기 제1 변환 이미지 및 상기 제2 변환 이미지 중 적어도 하나에서 투영된 상기 선박 영역의 형상에 따라 상기 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들을 내삽 및/또는 외삽하여 추정 라이다 포인트를 생성하는 단계, 상기 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들 및 상기 추정 라이다 포인트 중 선박의 특징 포인트를 결정하는 단계 및 상기 특징 포인트를 이용하여 상기 타겟 선박과 다른 객체와의 거리를 계산하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to one embodiment, a port monitoring method performed by computing means, comprising the steps of acquiring an image captured by a camera, a plurality of LIDAR obtained by a LiDAR sensor having a viewing angle that at least partially overlaps the viewing angle of the camera Acquiring LIDAR data including points, generating a segmentation image from the image - the segmentation image includes a ship area corresponding to a ship, the ship area includes a side area corresponding to a side of the ship, and comprising a deck area corresponding to a deck area of the ship; projecting the ship area onto an arbitrary first reference plane and a second reference plane to generate at least one of a first transformed image and a second transformed image; Among the plurality of LiDAR points, the heights of the first reference plane and the second reference plane are different from each other, LiDAR points related to the LiDAR beam reflected from the ship are selected from at least one of the first converted image and the second converted image. Aligning to one, interpolating and/or extrapolating LiDAR points associated with a LiDAR beam reflected from the vessel according to the shape of the vessel area projected in at least one of the first transformed image and the second transformed image. Generating an estimated LiDAR point, determining LiDAR points related to a LiDAR beam reflected from the ship and a feature point of the ship among the estimated LiDAR points, and using the feature point to determine a different point from the target ship. A port monitoring method may be provided that includes calculating a distance to an object.

일 실시예에 따르면, 컴퓨팅 수단에 의해 수행되는 항만 모니터링 방법으로, 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되는 인공 신경망을 준비하는 단계 - 상기 객체 정보는 객체의 유형이 선박임을 나타내는 제1 인덱스 및 객체의 유형이 바다임을 나타내는 제2 인덱스를 갖고, 상기 제1 인덱스는 상기 복수의 훈련 이미지 내의 상기 선박의 영역에 대응하는 픽셀들에 라벨링되고, 상기 제2 인덱스는 상기 복수의 훈련 이미지 내의 상기 바다의 영역에 대응하는 픽셀들에 라벨링됨-, 상기 갑판이 서로 상이한 높이에 위치하는 제1 선박 및 제2 선박을 포함하는 해상 이미지를 획득하는 단계, 상기 인공 신경망을 이용하여 상기 획득한 해상 이미지로부터 상기 제1 선박에 대응하는 제1 선박 영역 및 상기 제2 선박에 대응하는 제2 선박 영역을 검출하는 단계, 상기 제1 선박의 갑판 높이에 대응하는 제1 높이 및 상기 제2 선박의 갑판 높이에 대응하는 제2 높이에 기초하여 상기 제1 선박의 위치 및 상기 제2 선박의 위치를 획득하는 단계 및 상기 제1 선박의 위치 및 상기 제2 선박의 위치에 기초하여 상기 제1 선박 및 상기 제2 선박 사이의 거리를 계산하는 단계;를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to one embodiment, a port monitoring method performed by computing means prepares an artificial neural network that is learned using a learning set including a plurality of training images and object information labeled pixels of the plurality of training images. Step - The object information has a first index indicating that the type of object is a ship and a second index indicating that the type of object is a sea, and the first index is pixels corresponding to the area of the ship in the plurality of training images. is labeled, and the second index is labeled with pixels corresponding to the area of the sea in the plurality of training images - a maritime image including a first ship and a second ship whose decks are located at different heights from each other. Obtaining, detecting a first ship area corresponding to the first ship and a second ship area corresponding to the second ship from the acquired maritime image using the artificial neural network, of the first ship Obtaining a position of the first ship and a position of the second ship based on a first height corresponding to the deck height and a second height corresponding to the deck height of the second ship, and a position of the first ship and A port monitoring method including calculating a distance between the first ship and the second ship based on the location of the second ship may be provided.

본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The means for solving the problem of the present invention are not limited to the above-mentioned solution means, and the solution methods not mentioned will be clearly understood by those skilled in the art from this specification and the attached drawings. You will be able to.

본 출원의 일 실시예에 의하면, 카메라 및 라이다의 데이터를 효율적으로 융합하여 선박의 특징 포인트를 추출하고, 이를 이용하여 모니터링을 위한 정보를 정확하게 제공할 수 있다. According to an embodiment of the present application, feature points of the ship can be extracted by efficiently fusing data from cameras and lidar, and information for monitoring can be accurately provided using this.

본 출원의 다른 일 실시예에 의하면, 카메라 이미지를 이용하여 선박과 관련된 라이다 데이터를 추정하여 라이다 데이터의 부족 문제를 해결할 수 있다.According to another embodiment of the present application, the problem of lack of LiDAR data can be solved by estimating LiDAR data related to a ship using a camera image.

본 출원의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present application are not limited to the effects described above, and effects not mentioned can be clearly understood by those skilled in the art from this specification and the attached drawings.

도 1은 일 실시예에 따른 항만 모니터링 장치에 관한 도면이다.
도 2 및 도 3은 일 실시예에 따른 모니터링 장치의 실시예에 관한 도면이다.
도 4는 일 실시예에 따른 시야각 및 피사계 심도에 관한 도면이다.
도 5 및 도 6은 일 실시예에 따른 센서 모듈의 설치 위치에 관한 도면이다.
도 7 내지 도 9는 일 실시예에 따른 오브젝트 인식 단계에 관한 도면이다.
도 10 및 도 11은 일 실시예에 따른 인공 신경망의 학습 단계 및 추론 단계에 관한 도면이다.
도 12는 일 실시예에 따른 접안 가이드 정보를 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 선박과 안벽 사이의 접안 가이드 정보를 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 접안 가이드 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 15는 일 실시예에 따른 시점 변환에 관한 도면이다.
도 16은 일 실시예에 따른 선박의 특징 포인트에 기초한 거리 산출 방법의 순서도이다.
도 17은 일 실시예에 따른 센서 데이터의 획득의 일 예시이다.
도 18은 일 실시예에 따른 시점이 변환된 이미지를 이용한 선박의 특징 포인트 생성 방법의 순서도이다.
도 19는 일 실시예에 따른 변환 이미지의 예시이다.
도 20은 일 실시예에 따른 선박 사이의 거리 계산을 설명하기 위한 도면이다.
도 21은 일 실시예에 따른 라이다 포인트 추정 방법의 순서도이다.
도 22는 일 실시예에 따른 카메라 이미지 및 라이다 데이터의 정합의 예시이다.
도 23은 일 실시예에 따른 추정 라이다 포인트를 고려한 선박의 특징 포인트 생성 방법의 순서도이다.
도 24는 일 실시예에 따른 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 일 예시이다.
도 25 및 도 26은 일 실시예에 따른 기준 평면에 투영된 선박 영역에 정합된 라이다 포인트를 이용한 추정 라이다 포인트의 생성을 설명하기 위한 도면이다.
도 27은 일 실시예에 따른 선박 영역이 복수의 기준 평면에 투영된 이미지들을 이용한 선박의 특징 포인트 획득 방법의 순서도이다.
도 28 및 도 29는 일 실시예에 따른 서로 상이한 임의의 기준 평면에 투영된 이미지들의 정렬을 설명하기 위한 도면이다.
1 is a diagram of a port monitoring device according to an embodiment.
2 and 3 are diagrams of a monitoring device according to an embodiment of the present invention.
Figure 4 is a diagram of viewing angle and depth of field according to one embodiment.
5 and 6 are diagrams of the installation location of the sensor module according to one embodiment.
7 to 9 are diagrams of object recognition steps according to an embodiment.
10 and 11 are diagrams of a learning step and an inference step of an artificial neural network according to an embodiment.
Figure 12 is a diagram for explaining eyepiece guide information according to an embodiment.
Figure 13 is a diagram for explaining berthing guide information between a ship and a quay wall according to an embodiment.
Figure 14 is a diagram for explaining a method of obtaining eyepiece guide information according to an embodiment.
Figure 15 is a diagram related to viewpoint conversion according to one embodiment.
Figure 16 is a flowchart of a distance calculation method based on feature points of a ship according to an embodiment.
Figure 17 is an example of acquisition of sensor data according to an embodiment.
Figure 18 is a flowchart of a method for generating feature points of a ship using an image whose viewpoint has been converted according to an embodiment.
Figure 19 is an example of a converted image according to an embodiment.
Figure 20 is a diagram for explaining calculation of the distance between ships according to an embodiment.
Figure 21 is a flowchart of a lidar point estimation method according to an embodiment.
Figure 22 is an example of matching camera images and LIDAR data according to one embodiment.
Figure 23 is a flowchart of a method for generating feature points of a ship considering estimated LiDAR points according to an embodiment.
Figure 24 is an example of LiDAR points related to a LiDAR beam reflected from a ship according to an embodiment.
Figures 25 and 26 are diagrams for explaining the creation of an estimated LiDAR point using a LiDAR point registered to a ship area projected on a reference plane according to an embodiment.
Figure 27 is a flowchart of a method for obtaining feature points of a ship using images in which the ship area is projected onto a plurality of reference planes according to an embodiment.
Figures 28 and 29 are diagrams for explaining the alignment of images projected onto different arbitrary reference planes according to an embodiment.

본 명세서에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 명확히 설명하기 위한 것이므로, 본 발명이 본 명세서에 기재된 실시예에 의해 한정되는 것은 아니며, 본 발명의 범위는 본 발명의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.The embodiments described in this specification are intended to clearly explain the spirit of the present invention to those skilled in the art to which the present invention pertains. Therefore, the present invention is not limited to the embodiments described in this specification, and the present invention The scope of should be construed to include modifications or variations that do not depart from the spirit of the present invention.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하여 가능한 현재 널리 사용되고 있는 일반적인 용어를 선택하였으나 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 이와 달리 특정한 용어를 임의의 의미로 정의하여 사용하는 경우에는 그 용어의 의미에 관하여 별도로 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terms used in this specification are general terms that are currently widely used as much as possible in consideration of their function in the present invention, but this may vary depending on the intention, custom, or the emergence of new technology of a person skilled in the art in the technical field to which the present invention pertains. You can. However, if a specific term is defined and used with an arbitrary meaning, the meaning of the term will be described separately. Therefore, the terms used in this specification should be interpreted based on the actual meaning of the term and the overall content of this specification, not just the name of the term.

본 명세서에 첨부된 도면은 본 발명을 용이하게 설명하기 위한 것으로 도면에 도시된 형상은 본 발명의 이해를 돕기 위하여 필요에 따라 과장되어 표시된 것일 수 있으므로 본 발명이 도면에 의해 한정되는 것은 아니다.The drawings attached to this specification are intended to easily explain the present invention, and the shapes shown in the drawings may be exaggerated as necessary to aid understanding of the present invention, so the present invention is not limited by the drawings.

본 명세서에서 본 발명에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략하기로 한다.In this specification, if it is determined that a detailed description of a known configuration or function related to the present invention may obscure the gist of the present invention, the detailed description thereof will be omitted as necessary.

본 명세서에서 해수면 높이란 절대적인 해수면의 높이뿐만 아니라, 상대적인 해수면의 높이, 특정 바다의 영역의 평균적인 해수면 높이와 비교된 상대적인 해수면 높이 등을 포함하도록 넓게 해석되어야 한다. 예를 들어, 해수면 높이는 해수면과 안벽 사이의 거리, 해수면과 모니터링 장치(예를 들어, 이미지 생성 유닛) 사이의 거리, 해수면 위로 노출된 오브젝트의 길이 등 해수면의 높이 변화에 따라 달라질 수 있는 다양한 정보를 포함할 수도 있다.In this specification, sea level height should be broadly interpreted to include not only the absolute sea level height, but also the relative sea level height, and the relative sea level height compared to the average sea level height of a specific ocean area. For example, sea level height captures a variety of information that can vary depending on changes in sea level, such as the distance between the sea level and the quay, the distance between the sea level and a monitoring device (e.g. an image generation unit), and the length of objects exposed above sea level. It may also be included.

본 명세서에서 모니터링이란 주변 상황을 파악하거나 인식하는 것으로, 일정 영역이나 특정 오브젝트 등 감지 대상을 각종 센서를 이용하여 감지하고 그 감지 결과를 사용자에게 제공하는 것뿐만 아니라 감지 결과를 바탕으로 연산 등을 통해 추가적인 정보를 제공하는 것 등을 포함하도록 넓게 해석되어야 한다.In this specification, monitoring refers to understanding or recognizing the surrounding situation. It not only detects a detection target such as a certain area or a specific object using various sensors and provides the detection result to the user, but also performs calculations based on the detection result. It should be interpreted broadly to include providing additional information.

이미지 기반 모니터링이란 이미지에 기초하여 주변 상황을 파악하거나 인식하는 것을 의미할 수 있다. 예를 들어, 모니터링은 선박의 운항 시 선박 주변 이미지를 획득하여 이로부터 다른 선박이나 장애물 등을 인식하거나, 선박의 접안 또는 이안 시 접안 가이드 정보를 산출하기 위한 정보를 획득하는 것을 의미할 수 있다. Image-based monitoring may mean identifying or recognizing surrounding situations based on images. For example, monitoring may mean acquiring images around the ship when operating a ship, recognizing other ships or obstacles from these images, or obtaining information to calculate berthing guide information when a ship docks or unberths.

접안 가이드 정보란 다른 선박이나 장애물 등의 인식, 항만 상황 파악, 선석에 접근 가능한지 여부, 안벽과의 거리 및 속도, 다른 선박과의 거리 및 속도, 운항 경로 상 장애물 존재 여부 파악 등 환경에 대한 정보를 의미할 수 있다. 본 명세서에서는 주로 선박 및 항만에서 접안이 수행되는 경우의 모니터링에 대해 설명하나, 이에 한정되는 것은 아니고 차량의 주행, 비행체의 운항 등의 경우에도 적용될 수 있을 것이다.Berthing guide information refers to information about the environment, such as recognition of other vessels or obstacles, understanding the port situation, whether the berth is accessible, distance and speed from the quay wall, distance and speed from other vessels, and identification of the presence of obstacles in the navigation route. It can mean. This specification mainly describes monitoring in cases where berthing is performed at ships and ports, but is not limited to this and may also be applied to driving of vehicles, operation of aircraft, etc.

본 발명의 일 양상에 따르면, 컴퓨팅 수단에 의해 수행되는 항만 모니터링 방법으로, 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되는 인공 신경망을 준비하는 단계 - 상기 객체 정보는 객체의 유형이 선박임을 나타내는 제1 인덱스 및 객체의 유형이 바다임을 나타내는 제2 인덱스를 갖고, 상기 제1 인덱스는 상기 복수의 훈련 이미지 내의 상기 선박의 영역에 대응하는 픽셀들에 라벨링되고, 상기 제2 인덱스는 상기 복수의 훈련 이미지 내의 상기 바다의 영역에 대응하는 픽셀들에 라벨링됨-, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 인공 신경망을 이용하여 상기 획득한 이미지로부터 타겟 선박에 대응하는 타겟 선박 영역을 검출하는 단계, 상기 타겟 선박 영역을 특정 기준 평면으로 투영하여 변환 이미지를 생성하는 단계, 상기 변환 이미지의 투영된 상기 타겟 선박 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 상기 타겟 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들을 선택하는 단계, 상기 선택된 라이다 포인트들을 이용하여 추정 라이다 포인트들을 생성하는 단계, 상기 선택된 라이다 포인트들 및 상기 생성된 추정 라이다 포인트들 중 상기 타겟 선박의 특징 포인트를 결정하는 단계 및 상기 특징 포인트를 이용하여 상기 타겟 선박과 다른 객체와의 거리를 계산하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to one aspect of the present invention, a port monitoring method performed by computing means includes an artificial neural network learned using a learning set including a plurality of training images and object information labeled pixels of the plurality of training images. Preparing - The object information has a first index indicating that the type of object is a ship and a second index indicating that the type of object is a sea, and the first index corresponds to the area of the ship in the plurality of training images. labeling pixels, the second index labeling pixels corresponding to an area of the ocean in the plurality of training images, obtaining an image captured by a camera, at least in part at a field of view of the camera; Obtaining LiDAR data including a plurality of LiDAR points obtained by a LiDAR sensor having an overlapping viewing angle, and detecting a target ship area corresponding to the target ship from the acquired image using the artificial neural network. , generating a converted image by projecting the target ship area onto a specific reference plane, considering the pixel position of a pixel included in the projected target ship area of the converted image and relating the lidar beam reflected from the target ship. Selecting LiDAR points, generating estimated LiDAR points using the selected LiDAR points, and determining feature points of the target ship among the selected LiDAR points and the generated estimated LiDAR points. A port monitoring method may be provided including the step of calculating the distance between the target ship and another object using the feature point.

일 실시예에서, 상기 특정 기준 평면은 해수면에서의 기준 평면을 포함할 수 있다. In one embodiment, the specific reference plane may include a reference plane at sea level.

일 실시예에서, 상기 추정 라이다 포인트는 상기 선택된 라이다 포인트들 중 상기 변환 이미지에서 상기 타겟 선박과 상기 해수면이 접하는 라인에 위치한 라이다 포인트들로부터 생성될 수 있다.In one embodiment, the estimated LiDAR point may be generated from LiDAR points located on a line where the target ship and the sea surface contact in the converted image among the selected LiDAR points.

일 실시예에서, 상기 추정 라이다 포인트는 상기 타겟 선박과 상기 해수면이 접하는 상기 라인에 위치한 상기 라이다 포인트들의 상대적인 위치를 고려하여 외삽 및/또는 내삽하여 생성될 수 있다.In one embodiment, the estimated LiDAR point may be generated by extrapolating and/or interpolating considering the relative positions of the LiDAR points located on the line where the target ship and the sea surface contact.

일 실시예에서, 상기 특정 기준 평면은 상기 타겟 선박의 갑판 높이에서의 기준 평면을 포함할 수 있다.In one embodiment, the specific reference plane may include a reference plane at deck level of the target vessel.

일 실시예에서, 상기 추정 라이다 포인트는 상기 선택된 라이다 포인트들 중 상기 변환 이미지에서 상기 타겟 선박의 측면과 갑판이 접하는 라인에 위치한 라이다 포인트들로부터 생성될 수 있다.In one embodiment, the estimated LiDAR point may be generated from LiDAR points located on a line where the side and deck of the target ship are in contact in the converted image among the selected LiDAR points.

일 실시예에서, 상기 추정 라이다 포인트는 상기 타겟 선박의 측면과 갑판이 접하는 상기 라인에 위치한 상기 라이다 포인트들의 상대적인 위치를 고려하여 외삽 및/또는 내삽하여 생성될 수 있다.In one embodiment, the estimated LiDAR point may be generated by extrapolating and/or interpolating considering the relative positions of the LiDAR points located on the line where the side and deck of the target ship are in contact.

일 실시예에서, 상기 특정 기준 평면은 임의의 제1 기준 평면 및 제2 기준 평면을 포함하고, 상기 변환 이미지는 제1 변환 이미지 및 제2 변환 이미지를 포함하고, 상기 제1 변환 이미지는 상기 타겟 선박 영역을 상기 제1 기준 평면에 투영하여 생성되고, 상기 제2 변환 이미지는 상기 타겟 선박 영역을 상기 제2 기준 평면에 투영하여 생성될 수 있다.In one embodiment, the specific reference plane includes an arbitrary first reference plane and a second reference plane, the transformed image includes a first transformed image and a second transformed image, and the first transformed image includes the target It may be generated by projecting the ship area onto the first reference plane, and the second converted image may be generated by projecting the target ship area onto the second reference plane.

일 실시예에서, 상기 제1 변환 이미지 및 상기 제2 변환 이미지는 상기 복수의 라이다 포인트의 위치에 기초하여 정렬될 수 있다.In one embodiment, the first converted image and the second converted image may be aligned based on the positions of the plurality of lidar points.

일 실시예에서, 상기 타겟 선박의 특징 포인트는 상기 타겟 선박의 선수 및 선미 중 적어도 하나에 대응하는 포인트를 포함할 수 있다.In one embodiment, the feature points of the target ship may include points corresponding to at least one of the bow and the stern of the target ship.

일 실시예에서, 상기 타겟 선박의 특징 포인트는 상기 변환 이미지의 상기 타겟 선박과 해수면이 접하는 라인에 위치한 라이다 포인트들 중 적어도 하나의 임의의 포인트를 포함할 수 있다.In one embodiment, the feature point of the target ship may include at least one arbitrary point among LiDAR points located on a line where the target ship and the sea surface in the converted image meet.

일 실시예에서, 상기 타겟 선박의 특징 포인트는 상기 변환 이미지의 상기 타겟 선박 영역의 양 끝단에 위치한 라이다 포인트들을 포함할 수 있다.In one embodiment, the feature points of the target ship may include LiDAR points located at both ends of the target ship area of the converted image.

일 실시예에서, 상기 인공 신경망은 객체의 유형이 선박의 측면임을 나타내는 제3 인덱스, 객체의 유형이 선박의 갑판임을 나타내는 제4 인덱스를 추가로 포함할 수 있다.In one embodiment, the artificial neural network may further include a third index indicating that the type of object is the side of a ship, and a fourth index indicating that the type of object is the deck of a ship.

본 발명의 다른 일 양상에 따르면 컴퓨팅 수단에 의해 수행되는 항만 모니터링 방법으로, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지로부터 세그멘테이션 이미지를 생성하는 단계 -상기 세그멘테이션 이미지는 선박에 대응하는 선박 영역을 포함하고, 상기 선박 영역은 상기 선박의 측면에 대응하는 측면 영역 및 상기 선박의 갑판 영역에 대응하는 갑판 영역을 포함함-, 상기 선박 영역을 임의의 제1 기준 평면 및 제2 기준 평면에 투영하여 제1 변환 이미지 또는 제2 변환 이미지 중 적어도 하나를 생성하는 단계 - 상기 제1 기준 평면 및 상기 제2 기준 평면의 높이는 서로 상이한, 상기 복수의 라이다 포인트 중 상기 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들을 상기 제1 변환 이미지 및 상기 제2 변환 이미지 중 적어도 하나에 정렬하는 단계, 상기 제1 변환 이미지 및 상기 제2 변환 이미지 중 적어도 하나에서 투영된 상기 선박 영역의 형상에 따라 상기 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들을 내삽 및/또는 외삽하여 추정 라이다 포인트를 생성하는 단계, 상기 선박으로부터 반사되는 라이다 빔과 관련된 라이다 포인트들 및 상기 추정 라이다 포인트 중 선박의 특징 포인트를 결정하는 단계 및 상기 특징 포인트를 이용하여 상기 타겟 선박과 다른 객체와의 거리를 계산하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another aspect of the present invention, there is a port monitoring method performed by computing means, comprising the steps of acquiring an image captured by a camera, plurality of images obtained by a LiDAR sensor having a viewing angle that at least partially overlaps the viewing angle of the camera. acquiring LiDAR data including LiDAR points, generating a segmentation image from the image - the segmentation image includes a vessel area corresponding to a vessel, and the vessel area corresponds to a side of the vessel. comprising a side area and a deck area corresponding to a deck area of the vessel, by projecting the vessel area onto any first and second reference planes to generate at least one of a first transformed image or a second transformed image. Step - The first converted image and the second converted LiDAR points related to the LiDAR beam reflected from the ship among the plurality of LiDAR points, the heights of the first reference plane and the second reference plane being different from each other. Aligning to at least one of the images, interpolating LiDAR points associated with a LiDAR beam reflected from the vessel according to the shape of the vessel area projected in at least one of the first converted image and the second converted image, and/ Or generating an estimated LiDAR point by extrapolation, determining a feature point of the ship among LiDAR points related to a LiDAR beam reflected from the ship and the estimated LiDAR point, and using the feature point to determine the target A port monitoring method may be provided that includes calculating the distance between a vessel and another object.

본 발명의 다른 일 양상에 따르면, 컴퓨팅 수단에 의해 수행되는 항만 모니터링 방법으로, 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되는 인공 신경망을 준비하는 단계 - 상기 객체 정보는 객체의 유형이 선박임을 나타내는 제1 인덱스 및 객체의 유형이 바다임을 나타내는 제2 인덱스를 갖고, 상기 제1 인덱스는 상기 복수의 훈련 이미지 내의 상기 선박의 영역에 대응하는 픽셀들에 라벨링되고, 상기 제2 인덱스는 상기 복수의 훈련 이미지 내의 상기 바다의 영역에 대응하는 픽셀들에 라벨링됨-, 상기 갑판이 서로 상이한 높이에 위치하는 제1 선박 및 제2 선박을 포함하는 해상 이미지를 획득하는 단계, 상기 인공 신경망을 이용하여 상기 획득한 해상 이미지로부터 상기 제1 선박에 대응하는 제1 선박 영역 및 상기 제2 선박에 대응하는 제2 선박 영역을 검출하는 단계, 상기 제1 선박의 갑판 높이에 대응하는 제1 높이 및 상기 제2 선박의 갑판 높이에 대응하는 제2 높이에 기초하여 상기 제1 선박의 위치 및 상기 제2 선박의 위치를 획득하는 단계 및 상기 제1 선박의 위치 및 상기 제2 선박의 위치에 기초하여 상기 제1 선박 및 상기 제2 선박 사이의 거리를 계산하는 단계;를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another aspect of the present invention, a port monitoring method performed by computing means, an artificial neural network learned using a learning set including a plurality of training images and object information labeled pixels of the plurality of training images. Preparing - the object information has a first index indicating that the type of object is a ship and a second index indicating that the type of object is a sea, and the first index corresponds to an area of the ship in the plurality of training images. pixels are labeled, and the second index is labeled pixels corresponding to the area of the sea in the plurality of training images, including a first ship and a second ship whose decks are located at different heights from each other. acquiring a sea image, detecting a first ship area corresponding to the first ship and a second ship area corresponding to the second ship from the acquired sea image using the artificial neural network, 1. Obtaining a position of the first ship and a position of the second ship based on a first height corresponding to the deck height of the ship and a second height corresponding to the deck height of the second ship, and the first ship A port monitoring method including a step of calculating a distance between the first ship and the second ship based on the position of and the position of the second ship may be provided.

일 실시예에서, 상기 제1 선박의 위치 및 상기 제2 선박의 위치를 획득하는 단계는 상기 제1 선박 영역을 상기 제1 높이에서의 기준 평면에 투영하여 제1 변환 이미지를 생성하는 단계, 상기 제1 변환 이미지를 이용하여 상기 제1 선박의 위치를 획득하는 단계, 상기 제2 선박 영역을 상기 제2 높이에서의 기준 평면에 투영하여 제2 변환 이미지를 생성하는 단계, 및 상기 제2 변환 이미지를 이용하여 상기 제2 선박의 위치를 획득하는 단계를 포함할 수 있다.In one embodiment, obtaining the position of the first ship and the position of the second ship includes generating a first transformed image by projecting the first ship area onto a reference plane at the first height, Obtaining the position of the first vessel using a first transformed image, generating a second transformed image by projecting the second vessel area onto a reference plane at the second height, and generating the second transformed image. It may include obtaining the location of the second ship using .

일 실시예에서, 상기 제1 선박의 위치를 획득하는 단계는 상기 제1 변환 이미지에서 투영된 상기 제1 선박 영역의 픽셀 위치를 이용하여 상기 제1 선박의 선수 및 선미 중 적어도 하나의 제1 위치를 획득하는 단계를 포함하고, 상기 제2 선박의 위치를 획득하는 단계는 상기 제2 변환 이미지에서 투영된 상기 제2 선박 영역의 픽셀 위치를 이용하여 상기 제2 선박의 선수 및 선미 중 적어도 하나의 제2 위치를 획득하는 단계를 포함할 수 있다.In one embodiment, the step of obtaining the location of the first vessel includes determining at least one of the bow and stern of the first vessel using a pixel position of the first vessel area projected in the first converted image. Comprising the step of acquiring, wherein the step of acquiring the position of the second ship includes at least one of the bow and the stern of the second ship using the pixel position of the second ship area projected in the second converted image. It may include obtaining a second location.

본 발명의 다른 일 양상에 따르면 상술한 방법들을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공될 수 있다.According to another aspect of the present invention, a computer-readable recording medium on which a program for performing the above-described methods is recorded can be provided.

이하에서는 일 실시예에 따른 선박 및 항만 모니터링 장치 및 방법에 대하여 설명한다.Hereinafter, a ship and port monitoring device and method according to an embodiment will be described.

도 1은 일 실시예에 따른 항만 모니터링 장치에 관한 도면이다.1 is a diagram of a port monitoring device according to an embodiment.

도 1을 참고하면, 모니터링 장치(10)는 센서 모듈(100), 제어 모듈(200) 및 통신 모듈(300)을 포함할 수 있다.Referring to FIG. 1 , the monitoring device 10 may include a sensor module 100, a control module 200, and a communication module 300.

센서 모듈(100)은 선박이나 선박 주변 및 항만에 대한 정보를 센싱할 수 있다. 센서 모듈(100)은 선박자동식별장치(automatic identification system, AIS), 이미지 생성 유닛, 라이다(LIDAR) 센서, 위치 측정 유닛, 자세 측정 유닛, 케이싱 등을 포함할 수 있다.The sensor module 100 can sense information about the ship, its surroundings, and the port. The sensor module 100 may include an automatic identification system (AIS), an image generation unit, a LIDAR sensor, a position measurement unit, an attitude measurement unit, a casing, etc.

이미지 생성 유닛은 이미지를 생성할 수 있다. 이미지 생성 유닛은 카메라, 레이더, 초음파 탐지기 등을 포함할 수 있다. 카메라의 예로는 단안 카메라, 쌍안 카메라, 가시광선 카메라, IR 카메라, depth 카메라가 있지만 이에 한정되는 것은 아니다.The image generation unit may generate an image. The image generation unit may include a camera, radar, ultrasonic detector, etc. Examples of cameras include, but are not limited to, monocular cameras, binocular cameras, visible light cameras, IR cameras, and depth cameras.

라이다 센서는 레이저를 이용하여 대상체의 거리 및 위치를 탐지하기 위한 센서이다. 예를 들어, 라이다 센서와 대상체와의 거리 및 라이다 센서를 기준으로 한 대상체의 위치는 3차원 좌표계로 나타낼 수 있다. 예를 들어, 라이다 센서와 대상체와의 거리 및 라이다 센서를 기준으로 한 대상체의 위치는 직교좌표계, 구면좌표계, 원통좌표계 등으로 나타낼 수 있다. 라이다 센서는 수직 또는 수평 방향으로 복수의 채널을 가질 수 있고, 일 예로 32개 또는 64개의 채널을 갖는 라이다 센서일 수 있다.A LiDAR sensor is a sensor that uses a laser to detect the distance and location of an object. For example, the distance between the LiDAR sensor and the object and the position of the object based on the LiDAR sensor can be expressed in a three-dimensional coordinate system. For example, the distance between the LiDAR sensor and the object and the position of the object based on the LiDAR sensor can be expressed in a Cartesian coordinate system, a spherical coordinate system, a cylindrical coordinate system, etc. A LiDAR sensor may have a plurality of channels in a vertical or horizontal direction. For example, it may be a LiDAR sensor with 32 or 64 channels.

라이다 센서는 대상체와의 거리(R)를 결정하기 위하여, 대상체로부터 반사된 레이저를 이용할 수 있다. 예를 들어, 라이다 센서는 대상체와의 거리를 결정하기 위해 출사된 레이저와 감지된 레이저의 시간차이인 비행시간(TOF: Time Of Flight)을 이용할 수 있다. 이를 위해, 라이다 센서는 레이저를 출력하는 레이저 출력부와 반사된 레이저를 감지하는 수신부를 포함할 수 있다. 라이다 센서는 레이저 출력부에서 레이저가 출력된 시간을 확인하고, 대상체로부터 반사된 레이저를 수신부에서 감지한 시간을 확인하여, 출사된 시간과 감지된 시간의 차이에 기초하여 대상체와의 거리를 판단할 수 있다. 물론, 라이다 센서는 대상체와의 거리(R)를 결정하기 위해 감지된 레이저의 감지 위치를 기초로 삼각측량법, 감지된 레이저의 위상변화(Phase shift)를 이용하는 등 다른 방식으로 대상체와의 거리(R)를 결정하여도 무방하다. The LiDAR sensor can use a laser reflected from an object to determine the distance (R) to the object. For example, a LIDAR sensor can use time of flight (TOF), which is the time difference between an emitted laser and a detected laser, to determine the distance to an object. To this end, the LIDAR sensor may include a laser output unit that outputs a laser and a receiver that detects the reflected laser. The LiDAR sensor checks the time when the laser is output from the laser output unit, checks the time when the laser reflected from the object is detected by the receiver, and determines the distance to the object based on the difference between the emitted time and the detected time. can do. Of course, the LiDAR sensor uses other methods such as triangulation based on the detection position of the detected laser to determine the distance (R) to the object, and using the phase shift of the detected laser ( It is okay to decide R).

라이다 센서는 조사되는 레이저의 각도를 이용하여 대상체의 위치를 결정할 수 있다. 예를 들어, 라이다 센서에서 라이다 센서의 스캔영역을 향해 조사된 하나의 레이저의 조사 각도를 알 수 있는 경우, 상기 스캔영역상에 존재하는 대상체로부터 반사된 레이저가 수신부에서 감지된다면, 라이다 센서는 조사된 레이저의 조사 각도로 상기 대상체의 위치를 결정할 수 있다. The LiDAR sensor can determine the location of the object using the angle of the irradiated laser. For example, when the irradiation angle of a single laser irradiated toward the scan area of the LiDAR sensor can be known from the LiDAR sensor, if the laser reflected from the object existing on the scan area is detected by the receiver, the LiDAR sensor The sensor can determine the position of the object based on the irradiation angle of the irradiated laser.

라이다 센서는 주변의 임의의 대상체의 위치를 탐지하기 위해 대상체를 포함하는 스캔영역을 가질 수 있다. 여기서 스캔영역은 탐지 가능한 영역을 한 화면으로 표현한 것으로 1프레임동안 한 화면을 형성하는 점, 선, 면의 집합을 의미할 수 있다. 또한 스캔영역은 라이다 센서에서 조사된 레이저의 조사영역을 의미할 수 있으며, 조사영역은 1프레임 동안 조사된 레이저가 같은 거리(R)에 있는 구면과 만나는 점, 선, 면의 집합을 의미할 수 있다. 또한 시야각(FOV, Field of view)은 탐지 가능한 영역을 의미하며, 라이다 센서를 원점으로 보았을 때 스캔영역이 가지는 각도 범위로 정의될 수 있다.A LIDAR sensor may have a scan area that includes an object in order to detect the location of any object in the surrounding area. Here, the scan area represents the detectable area on one screen and can refer to a set of points, lines, and surfaces that form one screen during one frame. Additionally, the scan area may refer to the irradiation area of the laser irradiated from the LiDAR sensor, and the irradiation area may refer to a set of points, lines, and surfaces where the laser irradiated during one frame meets a sphere at the same distance (R). You can. Additionally, the field of view (FOV) refers to the detectable area and can be defined as the angular range of the scan area when looking at the LiDAR sensor as the origin.

위치 측정 유닛은 센서 모듈(100)이나 이미지 생성 유닛 등 센서 모듈(100)에 포함된 구성의 위치를 측정할 수 있다. 일 예로, 위치 측정 유닛은 GPS(Global Positioning System)일 수 있다. 특히, 위치 측정의 정확도 향상을 위해 RTK-GPS(Real-Time Kinematic GPS)가 이용될 수도 있다.The position measurement unit can measure the positions of components included in the sensor module 100, such as the sensor module 100 or an image generation unit. As an example, the location measurement unit may be a Global Positioning System (GPS). In particular, Real-Time Kinematic GPS (RTK-GPS) may be used to improve the accuracy of location measurement.

위치 측정 유닛은 미리 정해진 시간 간격마다 위치 정보를 획득할 수 있다. 여기서, 상기 시간 간격은 센서 모듈(100)의 설치 위치에 따라 달라질 수 있다. 예를 들어, 센서 모듈(100)이 선박 등 이동체에 설치된 경우 위치 측정 유닛은 짧은 시간 간격마다 위치 정보를 획득할 수 있다. 반면, 센서 모듈(100)이 항만 등 고정체에 설치된 경우 위치 측정 유닛은 긴 시간 간격마다 위치 정보를 획득할 수 있다. 위치 측정 유닛의 위치 정보 획득을 위한 시간 간격은 변경될 수 있다.The location measurement unit may acquire location information at predetermined time intervals. Here, the time interval may vary depending on the installation location of the sensor module 100. For example, when the sensor module 100 is installed on a moving object such as a ship, the position measurement unit may acquire position information at short time intervals. On the other hand, when the sensor module 100 is installed on a fixture such as a port, the position measurement unit can acquire position information at long time intervals. The time interval for acquiring location information of the location measurement unit may be changed.

자세 측정 유닛은 센서 모듈(100)이나 이미지 생성 유닛 등 센서 모듈(100)에 포함된 구성의 자세를 측정할 수 있다. 일 예로, 자세 측정 유닛은 관성측정장비(Inertial Measurement Unit, IMU)일 수 있다.The posture measurement unit may measure the posture of components included in the sensor module 100, such as the sensor module 100 or the image generation unit. As an example, the attitude measurement unit may be an inertial measurement unit (IMU).

자세 측정 유닛은 미리 정해진 시간 간격마다 자세 정보를 획득할 수 있다. 여기서, 상기 시간 간격은 센서 모듈의 설치 위치에 따라 달라질 수 있다. 예를 들어, 센서 모듈(100)이 선박 등 이동체에 설치된 경우 자세 측정 유닛은 짧은 시간 간격마다 자세 정보를 획득할 수 있다. 반면, 센서 모듈(100)이 항만 등 고정체에 설치된 경우 자세 측정 유닛은 긴 시간 간격마다 자세 정보를 획득할 수 있다. 자세 측정 유닛의 자세 정보 획득을 위한 시간 간격은 변경될 수 있다.The posture measurement unit may acquire posture information at predetermined time intervals. Here, the time interval may vary depending on the installation location of the sensor module. For example, when the sensor module 100 is installed on a moving object such as a ship, the posture measurement unit may acquire posture information at short time intervals. On the other hand, when the sensor module 100 is installed on a fixture such as a port, the attitude measurement unit can acquire attitude information at long time intervals. The time interval for acquiring posture information of the posture measurement unit may be changed.

케이싱은 이미지 생성 유닛, 위치 측정 유닛, 자세 측정 유닛 등 센서 모듈을 보호할 수 있다.The casing can protect sensor modules such as the image generation unit, position measurement unit, and attitude measurement unit.

케이싱의 내부에는 이미지 생성 유닛, 위치 측정 유닛, 자세 측정 유닛 중 적어도 하나가 존재할 수 있다. 케이싱은 내부에 존재하는 이미지 생성 유닛 등의 장비가 염수에 의해 부식되는 것을 방지할 수 있다. 또는, 케이싱은 내부에 존재하는 장비에 가해지는 충격을 방지하거나 완화시켜 이를 보호할 수 있다.At least one of an image generation unit, a position measurement unit, and an attitude measurement unit may exist inside the casing. The casing can prevent equipment such as the image generation unit present inside from being corroded by salt water. Alternatively, the casing can protect the equipment present inside by preventing or alleviating impact on it.

내부에 이미지 생성 유닛 등을 포함하기 위하여 케이싱의 내부에 공동이 형성될 수 있다. 예를 들어, 케이싱은 내부가 비어있는 직육면체 형상일 수 있지만, 이에 한정되는 것은 아니고 내부에 이미지 생성 유닛 등이 배치될 수 있는 다양한 형상으로 제공될 수 있다.A cavity may be formed inside the casing to include an image generating unit, etc. therein. For example, the casing may have a rectangular parallelepiped shape with an empty interior, but the casing is not limited to this and may be provided in various shapes in which an image generating unit, etc. can be placed therein.

케이싱의 내부에 이미지 생성 유닛이 배치되는 경우, 이미지 생성 유닛의 시야 확보를 위해 케이싱의 일 영역에 개폐구가 형성되거나 케이싱의 일 영역을 유리 등 투명한 물질로 형성할 수 있다. 이미지 생성 유닛은 상기 개폐구 또는 투명한 영역을 통해 선박 주변 및 항만을 촬상할 수 있다.When the image generating unit is disposed inside the casing, an opening and closing opening may be formed in one area of the casing to ensure visibility of the image generating unit, or one area of the casing may be formed of a transparent material such as glass. The image generating unit can capture images of the ship's surroundings and the port through the opening or transparent area.

케이싱은 이미지 생성 유닛 등을 외부 충격으로부터 보호하기 위해 강인한 소재로 제공될 수 있다. 또는, 케이싱은 염분으로 인한 부식을 방지하기 위하여 해수용 합금 등의 소재로 제공될 수 있다.The casing may be made of a strong material to protect the image generation unit, etc. from external shock. Alternatively, the casing may be made of a material such as a seawater alloy to prevent corrosion due to salt.

케이싱은 이미지 생성 유닛의 이물질을 제거하기 위한 장비를 포함할 수 있다. 일 예로, 케이싱에 포함된 와이퍼를 통해 이미지 생성 유닛의 표면에 달라붙은 이물질을 물리적으로 제거할 수 있다. 여기서, 상기 와이퍼는 이물질을 제거하려는 표면에 밀착할 수 있도록 상기 표면과 동일하거나 유사한 곡률을 갖는 선형 또는 판형으로 제공될 수 있다. 다른 예로, 케이싱에 포함된 액체 스프레이를 통해 물이나 워셔액을 도포하여 이물질을 제거하거나 도포 후 와이퍼를 이용하여 이물질을 물리적으로 제거할 수 있다.The casing may include equipment for removing foreign matter from the image generating unit. For example, foreign substances adhering to the surface of the image generating unit can be physically removed using a wiper included in the casing. Here, the wiper may be provided in a linear or plate shape with the same or similar curvature as the surface so that it can come into close contact with the surface from which foreign substances are to be removed. As another example, foreign substances can be removed by applying water or washer fluid through a liquid spray included in the casing, or the foreign substances can be physically removed using a wiper after application.

이물질 제거 장비는 수동으로 가동될 수 있지만, 자동으로도 가동될 수 있다. 예를 들어, 미리 정해진 시간 간격으로 이물질 제거 장비가 동작할 수 있다. 또는, 이미지 생성 유닛에 이물질이 달라 붙었는지 여부를 감지하는 센서를 이용하여 이물질 제거 장비를 동작시킬 수 있다. 또는, 이미지 생성 유닛이 촬상한 이미지를 이용하여, 상기 이미지에 이물질이 촬상되었는지 여부를 판단한 후, 이물질이 존재한다고 판단되는 경우에 이물질 제거 장비를 동작시킬 수 있다. 여기서, 이미지에 이물질이 촬상되었는지 여부는 인공 신경망(artificial neural network)을 통하여 판단될 수도 있을 것이다.Debris removal equipment can be operated manually, but can also be operated automatically. For example, foreign matter removal equipment may operate at predetermined time intervals. Alternatively, foreign matter removal equipment can be operated using a sensor that detects whether foreign matter is attached to the image generating unit. Alternatively, the image generation unit may use an image captured to determine whether a foreign substance has been captured in the image, and then, if it is determined that a foreign substance exists, the foreign substance removal equipment may be operated. Here, whether a foreign substance is captured in the image may be determined through an artificial neural network.

하나의 센서 모듈(100)은 2개 이상의 동일한 카메라를 포함하는 등 복수의 동일한 장비를 포함할 수도 있다.One sensor module 100 may include a plurality of identical equipment, such as two or more identical cameras.

제어 모듈(200)은 이미지 분석을 수행할 수 있다. 또한, 센서 모듈(100)을 통해 각종 데이터를 수신하는 동작, 출력 장치를 통해 각종 출력을 출력하는 동작, 메모리에 각종 데이터를 저장하거나 메모리로부터 각종 데이터를 획득하는 동작 등이 제어 모듈(200)의 제어에 의해 수행될 수 있다. 이하에서는 본 명세서의 실시예로 개시되는 각종 동작이나 단계들은 별도의 언급이 없는 이상 제어 모듈(200)에 의해 수행되거나 제어 모듈(200)의 제어에 의해 수행되는 것으로 해석될 수 있다.The control module 200 may perform image analysis. In addition, operations of receiving various data through the sensor module 100, operations of outputting various outputs through an output device, operations of storing various data in memory or obtaining various data from memory, etc. are performed by the control module 200. It can be done by control. Hereinafter, various operations or steps disclosed in the embodiments of the present specification may be interpreted as being performed by the control module 200 or under the control of the control module 200, unless otherwise specified.

제어 모듈(200)의 예로는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU), 디지털 신호 처리 장치(Digital Signal Processor, DSP), 상태 기계(state machine), 주문형 반도체(Application Specific Integrated Circuit, ASIC), 무선 주파수 집적 회로(Radio-Frequency Integrated Circuit, RFIC) 및 이들의 조합 등이 있을 수 있다.Examples of the control module 200 include a central processing unit (CPU), graphics processing unit (GPU), digital signal processor (DSP), state machine, and on-demand There may be semiconductors (Application Specific Integrated Circuit, ASIC), Radio-Frequency Integrated Circuit (RFIC), and combinations thereof.

통신 모듈(300)은 장치(10)로부터 외부로 정보를 송신하거나 외부로부터 정보를 수신할 수 있다. 통신 모듈(300)은 유선 또는 무선 통신을 수행할 수 있다. 통신 모듈(300)은 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다. 예를 들어, 장치(10)는 통신 모듈(300)을 통해 외부 출력 장치로 정보를 전달하여 제어 모듈(200)이 수행한 제어 결과를 외부 출력 장치를 통해 출력할 수 있다. 또한, 통신 모듈(300)은 선박을 관제하는 해상교통관제시스템(VTS, Vessel Traffic Service)으로부터 선박과 관련된 VTS 정보 또는 CITS(Costal Intelligent Transport System) 정보를 수신할 수 있다.The communication module 300 may transmit information from the device 10 to the outside or receive information from the outside. The communication module 300 can perform wired or wireless communication. The communication module 300 can perform bi-directional or unidirectional communication. For example, the device 10 may transmit information to an external output device through the communication module 300 and output the control results performed by the control module 200 through the external output device. Additionally, the communication module 300 may receive VTS information or Costal Intelligent Transport System (CITS) information related to the ship from a Vessel Traffic Service (VTS) that controls the ship.

센서 모듈(100), 제어 모듈(200) 및 통신 모듈(300)은 제어부를 포함할 수 있다. 제어부는 모듈 내에서 각종 정보의 처리와 연산을 수행하고, 모듈을 구성하는 다른 구성 요소를 제어할 수 있다. 제어부는 물리적으로는 전기 신호를 처리하는 전자 회로 형태로 제공될 수 있다. 모듈은 물리적으로 단일한 제어부만을 포함할 수도 있으나, 이와 달리 복수의 제어부를 포함할 수도 있다. 일 예로, 제어부는 하나의 컴퓨팅 수단에 탑재되는 하나 또는 복수의 프로세서(processor)일 수 있다. 다른 예로, 제어부는 물리적으로 이격된 서버(server)와 터미널(terminal)에 탑재되어 통신을 통해 협업하는 프로세서들로 제공될 수도 있다. 제어부의 예로는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU), 디지털 신호 처리 장치(Digital Signal Processor, DSP), 상태 기계(state machine), 주문형 반도체(Application Specific Integrated Circuit, ASIC), 무선 주파수 집적 회로(Radio-Frequency Integrated Circuit, RFIC) 및 이들의 조합 등이 있을 수 있다.The sensor module 100, control module 200, and communication module 300 may include a control unit. The control unit can process and calculate various information within the module and control other components that make up the module. The control unit may be physically provided in the form of an electronic circuit that processes electrical signals. A module may physically include only a single control unit, but alternatively, it may include a plurality of control units. For example, the control unit may be one or more processors mounted on one computing device. As another example, the control unit may be provided by processors mounted on physically separated servers and terminals and collaborating through communication. Examples of control units include Central Processing Unit (CPU), Graphics Processing Unit (GPU), Digital Signal Processor (DSP), state machine, and application specific semiconductor (Application Specific). There may be Integrated Circuit (ASIC), Radio-Frequency Integrated Circuit (RFIC), and combinations thereof.

센서 모듈(100), 제어 모듈(200) 및 통신 모듈(300)은 통신부를 포함할 수 있다. 상기 모듈들은 통신부를 통해 정보를 송수신할 수 있다. 예를 들어, 센서 모듈(100)은 외부로부터 획득한 정보를 그 통신부를 통해 송신하고, 제어 모듈(200)은 그 통신부를 통해 센서 모듈(100)이 송신한 정보를 수신할 수 있다. 통신부는 유선 또는 무선 통신을 수행할 수 있다. 통신부는 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다.The sensor module 100, control module 200, and communication module 300 may include a communication unit. The modules can transmit and receive information through the communication unit. For example, the sensor module 100 may transmit information acquired from the outside through the communication unit, and the control module 200 may receive information transmitted by the sensor module 100 through the communication unit. The communication unit may perform wired or wireless communication. The communication unit can perform bi-directional or unidirectional communication.

센서 모듈(100), 제어 모듈(200) 및 통신 모듈(300)은 메모리를 포함할 수 있다. 메모리는 각종 프로세싱 프로그램, 프로그램의 프로세싱을 수행하기 위한 파라미터 또는 이러한 프로세싱 결과 데이터 등을 저장할 수 있다. 예를 들어, 메모리는 학습 및/또는 추론에 필요한 데이터, 학습이 진행중이거나 학습된 인공 신경망 등을 저장할 수 있다. 메모리는 비휘발성 반도체 메모리, 하드 디스크, 플래시 메모리, RAM(Random Access Memory), ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 또는 그 외에 유형의(tangible) 비휘발성의 기록 매체 등으로 구현될 수 있다.The sensor module 100, control module 200, and communication module 300 may include memory. The memory may store various processing programs, parameters for processing the programs, or data resulting from such processing. For example, the memory may store data required for learning and/or inference, artificial neural networks that are in progress or have been trained, etc. Memory refers to non-volatile semiconductor memory, hard disk, flash memory, RAM (Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), or other tangible non-volatile recording media. It can be implemented as follows.

모니터링 장치(10)는 2개 이상의 센서 모듈(100)을 포함하는 등 복수의 동일한 모듈을 포함할 수도 있다. 예를 들어, 하나의 장치(10)가 2개의 센서 모듈(100)을 포함하고, 각 센서 모듈(100)이 다시 2개의 카메라를 포함할 수도 있다.The monitoring device 10 may include a plurality of identical modules, such as two or more sensor modules 100. For example, one device 10 may include two sensor modules 100, and each sensor module 100 may include two cameras.

도 2 및 도 3은 일 실시예에 따른 모니터링 장치의 실시예에 관한 도면이다.2 and 3 are diagrams of a monitoring device according to an embodiment of the present invention.

도 2를 참고하면, 모니터링 장치(10)는 센서 모듈(100) 및 제어 모듈(200)을 포함할 수 있다. 센서 모듈(100)은 카메라(130)를 통해 이미지를 생성하고, 통신부(110)를 통해 이미지를 제어 모듈(200)로 송신할 수 있다. 또한, 센서 모듈(100)의 제어부(120)는 후술할 시점 변환을 수행하여 이미지의 시점을 변환시킬 수 있다. 제어 모듈(200)은 통신부(210)를 통해 센서 모듈(100)로부터 이미지를 수신하고, 제어부(220)를 통해 후술할 위치/이동 정보 추정 및 이미지 정합 등 이미지 분석을 수행할 수 있다. 또한, 제어 모듈(200)은 통신부(210)를 통해 클라우드 서버로 위치/이동 정보 및 정합된 이미지 등 분석 결과를 송신할 수 있다. 클라우드 서버는 제어 모듈(200)로부터 수신한 분석 결과를 스마트폰, 태블릿, PC 등 사용자 단말로 전송하거나 사용자 단말로부터 인스트럭션을 수신할 수 있다.Referring to FIG. 2, the monitoring device 10 may include a sensor module 100 and a control module 200. The sensor module 100 may generate an image through the camera 130 and transmit the image to the control module 200 through the communication unit 110. Additionally, the control unit 120 of the sensor module 100 may convert the viewpoint of the image by performing viewpoint conversion, which will be described later. The control module 200 may receive an image from the sensor module 100 through the communication unit 210 and perform image analysis, such as location/movement information estimation and image matching, which will be described later, through the control unit 220. Additionally, the control module 200 may transmit analysis results such as location/movement information and matched images to the cloud server through the communication unit 210. The cloud server can transmit the analysis results received from the control module 200 to a user terminal such as a smartphone, tablet, or PC, or receive instructions from the user terminal.

도 3을 참고하면, 모니터링 장치(10)는 센서 모듈(100)을 포함할 수 있다. 센서 모듈(100)은 카메라(130)를 통해 이미지를 생성하고, 통신부(110)를 통해 클라우드 서버로 이미지를 전송할 수 있다. 또한, 센서 모듈(100)의 제어부(120)는 후술할 시점 변환을 수행하여 이미지의 시점을 변환시킬 수 있다. 클라우드 서버는 센서 모듈(100)로부터 이미지를 수신하고, 후술할 위치/이동 정보 추정 및 이미지 정합 등 이미지 분석을 수행할 수 있다. 또한, 클라우드 서버는 이미지 분석의 결과를 스마트폰, 태블릿, PC 등 사용자 단말로 전송하거나 사용자 단말로부터 인스트럭션을 수신할 수 있다.Referring to FIG. 3 , the monitoring device 10 may include a sensor module 100. The sensor module 100 may generate an image through the camera 130 and transmit the image to a cloud server through the communication unit 110. Additionally, the control unit 120 of the sensor module 100 may convert the viewpoint of the image by performing viewpoint conversion, which will be described later. The cloud server may receive an image from the sensor module 100 and perform image analysis, such as location/movement information estimation and image matching, which will be described later. Additionally, the cloud server can transmit the results of image analysis to a user terminal such as a smartphone, tablet, or PC, or receive instructions from the user terminal.

도 1 내지 도 3에서 도시하는 장치(10)는 예시에 불과하며 장치(10)의 구성이 이에 한정되지는 않는다.The device 10 shown in FIGS. 1 to 3 is merely an example, and the configuration of the device 10 is not limited thereto.

일 예로, 장치(10)는 출력 모듈(400)을 포함할 수 있다. 출력 모듈(400)은 제어 모듈(200)에 의해 수행된 연산의 결과 등을 출력할 수 있다. 예를 들어, 출력 모듈(400)은 분석 결과를 출력할 수 있다. 출력 모듈(400)은 예시적으로 디스플레이, 스피커, 신호 출력 회로 등일 수 있으나 이에 한정되는 것은 아니다. 이 경우 정보를 사용자 단말 등 외부 출력 장치로 전달하여 외부 출력 장치가 정보를 출력하는 것 외에 출력 모듈(400)을 통해 정보를 출력할 수도 있을 것이다.As an example, device 10 may include an output module 400. The output module 400 may output the results of operations performed by the control module 200, etc. For example, the output module 400 may output analysis results. The output module 400 may be, for example, a display, a speaker, a signal output circuit, etc., but is not limited thereto. In this case, in addition to transmitting the information to an external output device such as a user terminal and the external output device outputting the information, the information may also be output through the output module 400.

다른 예로, 장치(10)는 센서 모듈을 포함하지 않을 수도 있다. 이 경우 제어 모듈(200)은 외부 센서 장치로부터 정보를 전달받아 이미지 분석을 수행하는 등 이미지 기반 모니터링 동작을 수행할 수 있을 것이다. 예를 들어, 제어 모듈(200)은 선박이나 항만에 이미 설치된 AIS, 카메라, 라이다, 레이다 등으로부터 정보를 전달받아 이미지 분석을 수행할 수 있다.As another example, device 10 may not include a sensor module. In this case, the control module 200 may receive information from an external sensor device and perform image-based monitoring operations, such as performing image analysis. For example, the control module 200 may perform image analysis by receiving information from AIS, cameras, lidar, radar, etc. already installed on a ship or port.

또한, 도 1 내지 도 3의 각 구성이 수행하는 단계는 반드시 해당 구성이 수행해야 하는 것은 아니고 다른 구성에 의해 수행될 수 있다. 예를 들어, 위의 도 2에서는 센서 모듈(100)의 제어부(120)가 시점 변환을 수행하는 것으로 기재하였으나, 제어 모듈(200)의 제어부(220) 또는 클라우드 서버가 시점 변환을 수행할 수도 있다.Additionally, the steps performed by each component in FIGS. 1 to 3 are not necessarily performed by the corresponding component and may be performed by another component. For example, in FIG. 2 above, the control unit 120 of the sensor module 100 is described as performing viewpoint conversion, but the control unit 220 of the control module 200 or the cloud server may also perform viewpoint conversion. .

이하에서는 모니터링 장치(10) 및 방법에 대해 보다 구체적으로 살펴본다.Below, we will look at the monitoring device 10 and method in more detail.

이미지 기반 모니터링을 위한 이미지 획득은 센서 모듈(100)을 통해 수행될 수 있다. 예를 들어, 센서 모듈(100)에 포함된 이미지 생성 유닛을 통해 이미지를 획득할 수 있다. 또는, 전술한 바와 같이 외부 센서 장치로부터 이미지를 획득할 수도 있다. 선박 및 항만 모니터링을 위한 이미지는 바다, 선박, 부표, 장애물, 지형, 항만, 하늘, 건물 등을 포함하는 것이 일반적일 것이다. 이하에서는 주로 가시광선 카메라를 통해 획득한 이미지를 분석하여 모니터링하는 것에 대해 설명하나 이에 한정되는 것은 아니다.Image acquisition for image-based monitoring may be performed through the sensor module 100. For example, an image may be acquired through an image generating unit included in the sensor module 100. Alternatively, the image may be acquired from an external sensor device as described above. Images for ship and port monitoring will typically include the sea, ships, buoys, obstacles, terrain, ports, sky, buildings, etc. Hereinafter, analysis and monitoring of images obtained through a visible light camera will be explained, but the method is not limited to this.

이미지 생성 유닛에 따라 시야각(FOV, Field of View) 및 피사계 심도(depth of field)가 달라질 수 있다. 도 4는 일 실시예에 따른 시야각 및 피사계 심도에 관한 도면이다. 도 4를 참고하면, 시야각(FOV)은 좌우 또는 상하로 어느 정도의 범위까지 이미지에 포함되는지를 의미할 수 있고, 일반적으로는 각도(angle, degree)로 표현된다. 시야각이 더 크다는 의미는 좌우로 더 큰 폭의 영역을 포함하는 이미지를 생성하거나, 상하로 더 큰 폭의 영역을 포함하는 이미지를 생성하는 것을 의미할 수 있다. 피사계 심도는 이미지의 초점이 맞은 것으로 인식되는 거리 범위를 의미할 수 있고, 피사계 심도가 깊다는 의미는 이미지의 초점이 맞은 것으로 인식되는 거리 범위가 넓다는 것을 의미할 수 있다. 도 4를 참고하면, 피사계 심도(DOF)에 따라 이미지는 초점이 맞은 것으로 인식되는 영역(A1) 및 그 외의 영역(A2)을 포함할 수 있다. 이하에서는 이미지가 포함하고 있는 영역을 촬상 영역(A1 + A2), 초점이 맞은 것으로 인식되는 영역을 유효 영역(A1)이라 하고, 이미지 분석 및 모니터링은 유효 영역에 기초하여 수행될 수 있지만 촬상 영역 전체에 기초하여 수행되거나 촬상 영역의 일부에 기초하여 수행될 수도 있으므로, 이미지 분석 및 모니터링을 수행하기 위해 이용되는 영역을 모니터링 영역이라고 한다.Depending on the image generation unit, the field of view (FOV) and depth of field may vary. Figure 4 is a diagram of viewing angle and depth of field according to one embodiment. Referring to FIG. 4, the field of view (FOV) can mean the extent to which the image includes left and right or up and down, and is generally expressed as an angle (degree). A larger viewing angle may mean creating an image that includes a larger area left and right, or creating an image that includes a larger area up and down. Depth of field may mean the distance range at which an image is recognized as being in focus, and a deep depth of field may mean that the distance range at which the image is perceived as being in focus is wide. Referring to FIG. 4, depending on the depth of field (DOF), the image may include an area (A1) that is recognized as being in focus and an area (A2) that is not recognized as being in focus. Hereinafter, the area included in the image is referred to as the imaging area (A1 + A2), and the area recognized as being in focus is referred to as the effective area (A1). Image analysis and monitoring can be performed based on the effective area, but the entire imaging area is referred to as the effective area (A1). Since it may be performed based on or based on a portion of the imaging area, the area used to perform image analysis and monitoring is called a monitoring area.

시야각이 크고 피사계 심도가 얕은 카메라의 예로 광각 카메라가 있다. 시야각이 작고 피사계 심도가 깊은 카메라의 예로는 고배율 카메라, 줌 카메라가 있다.An example of a camera with a large viewing angle and shallow depth of field is a wide-angle camera. Examples of cameras with a small viewing angle and deep depth of field include high-magnification cameras and zoom cameras.

센서 모듈(100)은 항만 내의 조명탑, 크레인, 선박 등 그 위치나 자세에 제한이 없이 설치될 수 있고, 그 개수에도 제한이 없다. 다만, 센서 모듈(100)의 종류 및 성능 등 특성에 따라 그 설치 위치나 개수가 달라질 수 있다. 예를 들어, 센서 모듈(100)이 카메라인 경우, 센서 모듈(100)은 효율적인 모니터링을 위해 수면에서 15m 이상의 고도에 설치되거나, 서로 다른 촬상 영역을 갖도록 복수가 설치될 수 있다. 또한, 센서 모듈(100)의 위치 및 자세는 설치 시 또는 설치 후에 수동 또는 자동으로 조절될 수도 있다.The sensor module 100 can be installed without limitation in its location or posture, such as on a lighting tower, crane, or ship within a port, and there is no limitation in its number. However, the installation location or number may vary depending on the characteristics such as the type and performance of the sensor module 100. For example, when the sensor module 100 is a camera, the sensor module 100 may be installed at an altitude of 15 m or more above the water for efficient monitoring, or a plurality of sensor modules 100 may be installed to have different imaging areas. Additionally, the position and posture of the sensor module 100 may be adjusted manually or automatically during or after installation.

라이다의 시야각은 이미지 생성 유닛(일 예로, 카메라)의 시야각과 적어도 부분적으로 오버랩될 수 있다. 예를 들어, 라이다의 시야각(FOV)은 카메라의 시야각보다 작을 수 있다. 후술하겠지만, 이러한 경우 라이다 데이터가 획득되지 않은 라이다의 시야각 밖의 라이다 데이터는 카메라로부터 획득된 이미지를 이용하여 추정될 수 있다. The viewing angle of the LIDAR may at least partially overlap with the viewing angle of the image generating unit (eg, a camera). For example, a lidar's field of view (FOV) may be smaller than that of a camera. As will be described later, in this case, LiDAR data outside the viewing angle of the LiDAR for which LiDAR data has not been acquired can be estimated using the image acquired from the camera.

도 5 및 도 6은 일 실시예에 따른 센서 모듈의 설치 위치에 관한 도면이다. 도 5 및 도 6을 참고하면, 센서 모듈(100)은 항만 또는 육지와 같이 고정된 위치에 설치되거나, 선박 등과 같이 이동하는 물체에 설치될 수 있다. 여기서, 센서 모듈(100)이 선박에 설치되는 경우, 도 6과 같이 모니터링의 대상이 되는 선박(이하 “타겟 선박”이라 함)에 설치될 수 있고, 도 5와 같이 타겟 선박의 접안 또는 이안을 보조하는 예인선 등 모니터링의 대상이 아닌 제3의 선박에 설치될 수도 있다. 이 외에도, 센서 모듈(100)은 드론 등에 설치되어 타겟 선박을 모니터링할 수 있다.5 and 6 are diagrams of the installation location of the sensor module according to one embodiment. Referring to FIGS. 5 and 6 , the sensor module 100 may be installed in a fixed location such as a port or land, or may be installed on a moving object such as a ship. Here, when the sensor module 100 is installed on a ship, it can be installed on a ship that is the subject of monitoring (hereinafter referred to as “target ship”) as shown in FIG. 6, and can be installed at or near the berth of the target ship as shown in FIG. 5. It may be installed on a third vessel that is not subject to monitoring, such as an auxiliary tugboat. In addition, the sensor module 100 can be installed on a drone, etc. to monitor the target ship.

모니터링 장치(10)의 다른 구성 요소는 센서 모듈(100)과 함께 또는 이와 별도의 장소에 설치될 수 있다. Other components of the monitoring device 10 may be installed together with the sensor module 100 or in a separate location.

전술한 바와 같이 이미지 기반 모니터링을 위한 이미지 분석은 오브젝트 특성을 획득하는 것을 포함할 수 있다. 오브젝트의 예로는 선박, 항만, 부표, 바다, 지형, 하늘, 건물, 사람, 동물, 불, 연기 등이 있을 수 있다. 오브젝트 특성의 예로는 오브젝트의 종류, 오브젝트의 위치, 오브젝트까지의 거리, 오브젝트의 절대적 및 상대적인 속력 및 속도 등이 있을 수 있다.As described above, image analysis for image-based monitoring may include obtaining object characteristics. Examples of objects may include ships, ports, buoys, the sea, terrain, sky, buildings, people, animals, fire, smoke, etc. Examples of object characteristics may include the type of object, the location of the object, the distance to the object, and the absolute and relative speed and velocity of the object.

이미지 기반 모니터링을 위한 이미지 분석은 주변 상황을 인식/판단하는 것을 포함할 수 있다. 예를 들어, 이미지 분석은 항만에 불이 난 이미지로부터 화재 상황이 발생한 것을 판단하거나, 예정되지 않은 시간에 항만에 들어온 사람이 촬상된 이미지로부터 침입자가 들어온 것을 판단하는 것일 수 있다. 다른 예를 들어, 이미지 분석은 연기가 존재하는 이미지로부터 화재를 감지하는 것을 포함할 수 있다.Image analysis for image-based monitoring may include recognizing/determining the surrounding situation. For example, image analysis may determine whether a fire situation has occurred from an image of a fire in a port, or determine whether an intruder has entered the port from an image captured of a person entering the port at an unscheduled time. As another example, image analysis may include detecting a fire from an image in which smoke is present.

이미지 기반 모니터링을 위한 이미지 분석은 제어 모듈(200)이나 각 모듈(100, 200)에 포함된 제어부(120, 220)를 통해 수행될 수 있다.Image analysis for image-based monitoring may be performed through the control module 200 or the control units 120 and 220 included in each module 100 and 200.

장치(10)는 오브젝트를 인식할 수 있다. 예를 들어, 장치(10)는 이미지에 포함된 오브젝트를 인식할 수 있다. 일 예로, 장치(10)는 이미지에 선박, 예인선, 바다, 항만 등의 오브젝트가 포함되어 있는지 여부를 판단할 수 있다. 여기서, 오브젝트 인식은 이미지의 어떤 위치에 오브젝트가 존재하는지를 판단하는 것일 수 있다.The device 10 can recognize objects. For example, the device 10 may recognize an object included in an image. As an example, the device 10 may determine whether the image includes objects such as a ship, a tugboat, the sea, or a port. Here, object recognition may be determining where an object exists in the image.

도 7 내지 도 9는 일 실시예에 따른 오브젝트 인식 단계에 관한 도면이다.7 to 9 are diagrams of object recognition steps according to an embodiment.

도 7은 카메라가 촬상한 이미지이고, 오브젝트 인식 단계를 통해 도 8 또는 도 9와 같이 오브젝트를 인식할 수 있다. Figure 7 is an image captured by a camera, and through the object recognition step, the object can be recognized as shown in Figure 8 or Figure 9.

구체적으로, 도 8은 이미지의 각 픽셀 별로 해당 픽셀이 어떠한 오브젝트에 대응되는지를 나타낸 것으로, 세그멘테이션(segmentation)이라고도 한다. 이 경우 오브젝트 인식 단계는 세그멘테이션 단계를 의미할 수 있을 것이다. 세그멘테이션을 통해 이미지로부터 이미지상의 픽셀에 대응되는 특성을 할당하거나 산출할 수 있다. 이는 픽셀에 특성이 할당 또는 라벨링(labelling)되었다고 얘기할 수도 있을 것이다. 도 7 및 도 8을 참고하면, 도 7 의 카메라로 촬상된 이미지에 기초한 세그멘테이션을 수행하여 도 8과 같은 세그멘테이션 이미지를 획득할 수 있다. 도 8에서, 제1 픽셀 영역(P1)은 선박에 대응되는 픽셀의 이미지상의 영역이고, 제2 픽셀 영역(P2)은 바다, 제3 픽셀 영역(P3)은 항만의 안벽, 제4 픽셀 영역(P4)은 지형, 제5 픽셀 영역(P5)은 하늘에 대응되는 픽셀의 이미지상의 영역이다.Specifically, Figure 8 shows which object each pixel in the image corresponds to, which is also called segmentation. In this case, the object recognition step may mean a segmentation step. Through segmentation, characteristics corresponding to pixels in the image can be assigned or calculated from the image. This could also be said to have properties assigned or labeled to pixels. Referring to FIGS. 7 and 8 , a segmentation image like that of FIG. 8 can be obtained by performing segmentation based on the image captured by the camera of FIG. 7 . In Figure 8, the first pixel area (P1) is an area on the image of a pixel corresponding to a ship, the second pixel area (P2) is the sea, the third pixel area (P3) is the quay wall of the port, and the fourth pixel area ( P4) is the terrain, and the fifth pixel area (P5) is the area on the image of the pixel corresponding to the sky.

도 8 에서는 세그멘테이션을 수행하여 이미지상의 각 픽셀에 대응되는 오브젝트의 종류에 대한 정보를 산출하는 것을 도시하였으나, 세그멘테이션을 통해 획득할 수 있는 정보가 이에 한정되는 것은 아니다. 예를 들어, 오브젝트의 위치, 좌표, 거리, 방향 등의 특성 또한 세그멘테이션을 통해 획득할 수 있을 것이다. 이 경우 서로 다른 특성은 독립적으로 표현될 수도 있고, 동시에 반영하여 표현될 수도 있다.Although FIG. 8 illustrates calculating information about the type of object corresponding to each pixel in the image by performing segmentation, the information that can be obtained through segmentation is not limited to this. For example, characteristics such as location, coordinates, distance, and direction of an object may also be obtained through segmentation. In this case, different characteristics may be expressed independently or reflected simultaneously.

표 1은 일 실시예에 따른 오브젝트의 종류 및 거리에 대한 정보를 동시에 반영한 라벨링에 관한 표이다. 표 1을 참고하면, 오브젝트의 종류 및 거리에 대한 정보를 함께 고려하여 클래스를 설정하고, 각 클래스 별로 식별값을 할당할 수 있다. 예를 들어, 오브젝트의 종류에 대한 정보인 지형과 거리에 대한 정보인 근거리를 함께 고려하여 2번 식별값을 할당할 수 있다. 표 1은 종류에 대한 정보와 거리에 대한 정보를 함께 고려한 경우의 일 예이고, 이 외에 방향 정보, 장애물 이동 방향, 속도, 항로 표지 등 다른 정보 또한 함께 고려될 수 있다. 또한, 모든 식별값이 복수의 정보를 포함해야 하는 것은 아니고, 같은 종류의 정보를 포함해야 하는 것도 아니다. 예를 들어, 특정 식별값은 종류에 대한 정보만 포함하고(예를 들어, 식별값 1은 거리에 대한 정보를 포함하지 않음) 다른 식별값은 종류 및 거리에 대한 정보를 포함하는 등 경우에 따라 다양한 방식으로 표현될 수 있다. 다른 예를 들어, 클래스는 예인선, 밧줄, 선박의 측면 및 갑판 등 다른 클래스가 추가되거나 다른 클래스로 수정되어도 무방하다.Table 1 is a table regarding labeling that simultaneously reflects information on the type and distance of an object according to an embodiment. Referring to Table 1, classes can be set by considering information about the type and distance of the object, and an identification value can be assigned to each class. For example, identification value 2 can be assigned by considering both terrain, which is information about the type of object, and short distance, which is information about distance. Table 1 is an example of a case where information on type and information on distance are considered together, and other information such as direction information, obstacle movement direction, speed, and route signs can also be considered. Additionally, not all identification values must include a plurality of information, nor must they include the same type of information. For example, certain identifiers only contain information about type (e.g., identifier 1 contains no information about distance), while other identifiers contain information about type and distance, etc. It can be expressed in various ways. For example, a class may be modified to include other classes such as tugboats, ropes, ship sides and decks, etc.

식별값identification value 클래스class 00 하늘 및 기타sky and other 1One 바다ocean 22 지형 + 근거리terrain + close range 33 지형 + 중거리terrain + medium range 44 지형 + 원거리terrain + range 55 고정 장애물 + 근거리Fixed obstacle + close range 66 고정 장애물 + 중거리Fixed obstacle + medium distance 77 고정 장애물 + 원거리Fixed obstacle + long distance 88 동적 장애물 + 근거리Dynamic Obstacle + Close Range 99 동적 장애물 + 중거리Dynamic Obstacle + Medium Distance 1010 동적 장애물 + 원거리Dynamic Obstacle + Ranged

도 9는 이미지의 어떤 위치에 오브젝트가 존재하는지를 바운딩 박스(bounding box)로 표시한 것으로, 디텍션(detection)이라고도 한다. 이 경우 오브젝트 인식 단계는 디텍션 단계를 의미할 수 있을 것이다. 세그멘테이션과 비교하면, 디텍션은 이미지의 각 픽셀 별로 특성을 산출하는 것이 아닌 오브젝트가 어느 위치에 포함되어 있는지를 박스 형태로 검출하는 것으로 볼 수 있다. 도 7 및 도 9를 참고하면, 도 7 의 카메라로 촬상된 이미지에 기초한 디텍션을 수행하여 도 9와 같은 디텍션 이미지를 획득할 수 있다. 도 9에서, 이미지상에서 선박을 검출하고 선박의 위치를 사각형의 바운딩 박스(BB)로 표현한 것을 볼 수 있다. 도 9에는 하나의 오브젝트만을 디텍션하는 것으로 도시하였으나, 하나의 이미지로부터 2 이상의 오브젝트를 디텍션할 수도 있다.Figure 9 shows where an object exists in the image as a bounding box, which is also called detection. In this case, the object recognition step may mean the detection step. Compared to segmentation, detection can be seen as detecting where an object is contained in the form of a box rather than calculating characteristics for each pixel of the image. Referring to FIGS. 7 and 9 , a detection image like that of FIG. 9 can be obtained by performing detection based on the image captured by the camera of FIG. 7 . In Figure 9, you can see that a ship is detected on an image and the position of the ship is expressed as a square bounding box (BB). Although FIG. 9 shows that only one object is detected, two or more objects can be detected from one image.

세그멘테이션 및 디텍션은 인공 신경망을 이용하여 수행될 수 있다. 하나의 인공 신경망을 통해 세그멘테이션/디텍션을 수행할 수도 있고, 복수의 인공 신경망을 이용하여 각각의 인공 신경망이 세그멘테이션/디텍션을 수행하고 이 결과를 조합하여 최종 결과를 산출할 수도 있다.Segmentation and detection can be performed using artificial neural networks. Segmentation/detection may be performed using a single artificial neural network, or multiple artificial neural networks may be used, with each artificial neural network performing segmentation/detection and the results combined to produce the final result.

인공 신경망이란 인간의 신경망 구조를 본떠 만든 알고리즘의 일종으로, 하나 이상의 노드 또는 뉴런(neuron)을 포함하는 하나 이상의 레이어를 포함할 수 있고 각각의 노드는 시냅스(synapse)를 통해 연결될 수 있다. 인공 신경망에 입력된 데이터(입력 데이터)는 시냅스를 통해 노드를 거쳐 출력(출력 데이터)될 수 있고, 이를 통해 정보를 획득할 수 있다.An artificial neural network is a type of algorithm modeled after the structure of a human neural network. It may include one or more layers containing one or more nodes or neurons, and each node may be connected through a synapse. Data input to the artificial neural network (input data) can be output (output data) through a node through a synapse, and information can be obtained through this.

인공 신경망의 종류로는 필터를 이용해 특징을 추출하는 합성곱신경망(convolution neural network, CNN) 및 노드의 출력이 다시 입력으로 피드백 되는 구조를 갖는 순환인공신경망(recurrent neural network, RNN)이 있고, 제한된 볼츠만 머신(restricted Boltzmann machine, RBM), 심층신뢰신경망(deep belief network, DBN), 생성대립신경망(generative adversarial network, GAN), 관계형 네트워크(relation networks, RN) 등 다양한 구조가 적용될 수 있고 제한이 있는 것은 아니다.Types of artificial neural networks include a convolution neural network (CNN), which extracts features using filters, and a recurrent neural network (RNN), which has a structure in which the output of a node is fed back to the input. Various structures such as restricted Boltzmann machine (RBM), deep belief network (DBN), generative adversarial network (GAN), and relational networks (RN) can be applied and have limitations. That is not the case.

인공 신경망을 이용하기 전에 학습시키는 단계가 필요하다. 또는, 인공 신경망을 이용하며 학습시킬 수 있다. 이하에서는 인공신경망을 학습시키는 단계를 학습 단계, 이용하는 단계를 추론 단계로 표현하기로 한다. Before using an artificial neural network, a learning step is necessary. Alternatively, it can be trained using an artificial neural network. Hereinafter, the step of learning the artificial neural network will be expressed as the learning step, and the step of using it will be expressed as the inference step.

인공 신경망은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning), 모방 학습(imitation learning) 등 다양한 방법을 통해 학습될 수 있다.Artificial neural networks can be learned through various methods such as supervised learning, unsupervised learning, reinforcement learning, and imitation learning.

도 10 및 도 11은 일 실시예에 따른 인공 신경망의 학습 단계 및 추론 단계에 관한 도면이다.10 and 11 are diagrams of a learning step and an inference step of an artificial neural network according to an embodiment.

도 10은 인공 신경망의 학습 단계의 일 실시예로, 학습되지 않은 인공 신경망이 학습 데이터 또는 훈련 데이터(training data)를 입력 받아 출력 데이터를 출력하고, 출력 데이터와 라벨링 데이터(labelling data)를 비교하여 그 오차의 역전파를 통해 인공 신경망을 학습시킬 수 있다. 학습 데이터, 출력 데이터, 라벨링 데이터는 이미지일 수 있다. 라벨링 데이터는 실측 자료(ground truth)를 포함할 수 있다. 또는, 라벨링 데이터는 사용자 또는 프로그램을 통하여 생성된 자료일 수 있다.Figure 10 is an example of the learning step of an artificial neural network, in which an untrained artificial neural network receives learning data or training data, outputs output data, and compares the output data with labeling data. An artificial neural network can be trained through backpropagation of the error. Training data, output data, and labeling data may be images. Labeling data may include ground truth. Alternatively, labeling data may be data generated by a user or a program.

도 11은 인공 신경망의 추론 단계의 일 실시예로, 학습된 인공 신경망이 입력 데이터를 입력 받아 출력 데이터를 출력할 수 있다. 학습 단계에서의 학습 데이터의 정보에 따라 추론 단계에서 추론 가능한 정보가 달라질 수 있다. 또한, 인공 신경망의 학습 정도에 따라 출력 데이터의 정확성이 달라질 수 있다.Figure 11 is an example of an inference step of an artificial neural network, in which a learned artificial neural network receives input data and outputs output data. Information that can be inferred in the inference step may vary depending on the information in the learning data in the learning step. Additionally, the accuracy of output data may vary depending on the degree of learning of the artificial neural network.

오브젝트의 인식은 상술한 기재에 한정되지 않고 다른 방식으로 구현되어도 무방하다. 예를 들어, 설명의 편의를 위해 오브젝트의 인식에 식별값이 사용되는 것으로 설명하였으나, 식별값은 인덱스의 하나의 종류로 사용되는 것에 불과하다. 일 예로, 오브젝트의 인식에는 값이 아닌 벡터 형태의 인덱스가 사용될 수 있고, 인공 신경망의 학습 데이터, 출력 데이터, 라벨링 데이터는 벡터 형태의 데이터일 수 있다. Object recognition is not limited to the above description and may be implemented in other ways. For example, for convenience of explanation, it has been explained that an identification value is used to recognize an object, but the identification value is merely used as a type of index. For example, a vector-type index, rather than a value, may be used to recognize an object, and the training data, output data, and labeling data of an artificial neural network may be vector-type data.

일 실시예에 따르면, 장치(10)는 선박에 대한 접안 가이드 정보를 제공할 수 있다. 접안 가이드 정보는 선박의 접안에 이용될 수 있고 도선사나 선장 등 사용자의 접안을 보조하거나 가이드하기 위한 정보를 의미할 수 있다. 접안 가이드 정보는 거리/속도에 대한 정보를 포함할 수 있다. 거리/속도에 대한 정보의 예로는 좌표와 같은 절대적 위치, 특정 기준으로부터의 상대적 위치, 임의의 지점으로부터의 거리, 거리 범위, 방향, 절대적 속도, 상대적 속도, 속력 등이 있으나 이에 한정되는 것은 아니다.According to one embodiment, device 10 may provide berthing guide information for a vessel. Berthing guide information can be used for berthing of a ship and may refer to information to assist or guide berthing of users such as pilots or captains. The berthing guide information may include information about distance/speed. Examples of information about distance/speed include, but are not limited to, absolute position such as coordinates, relative position from a specific reference, distance from an arbitrary point, distance range, direction, absolute speed, relative speed, speed, etc.

거리/속도에 대한 정보는 소정의 영역이나 포인트를 기준으로 추정될 수 있다. 일 예로, 선박과 안벽 사이의 거리는 선박의 일 포인트와 안벽의 일 포인트 사이의 거리를 산출함으로써 추정되거나, 선박의 일 포인트와 안벽과의 최단 거리를 산출함으로써 추정될 수 있다. 다른 예로, 선박 사이의 간격은 제1 선박의 일 포인트와 제2 선박의 일 포인트 사이의 거리를 산출함으로써 추정될 수 있다. 선박의 일 포인트는 바다와 접하는 선박의 일 지점에 대응되거나 선박의 선수 또는 선미에 대응될 수 있지만, 이에 한정되는 것은 아니다. Information about distance/speed can be estimated based on a predetermined area or point. For example, the distance between a ship and a quay wall can be estimated by calculating the distance between a point on the ship and a point on the quay wall, or by calculating the shortest distance between a point on the ship and the quay wall. As another example, the spacing between ships can be estimated by calculating the distance between a point on a first ship and a point on a second ship. One point of the ship may correspond to a point of the ship in contact with the sea, or may correspond to the bow or stern of the ship, but is not limited thereto.

거리/속도에 대한 정보는 소정의 거리값, 방향값 및 속도값 등으로 표현될 수 있다. 예를 들어, 거리 정보는 1m, 2m 등으로 표현될 수 있고, 방향 정보는 10°, 20° 등으로 표현될 수 있고, 속도 정보는 5cm/s, 10cm/s 등으로 표현될 수 있다. Information about distance/speed may be expressed as a predetermined distance value, direction value, and speed value. For example, distance information may be expressed as 1m, 2m, etc., direction information may be expressed as 10°, 20°, etc., and speed information may be expressed as 5cm/s, 10cm/s, etc.

거리/속도에 대한 정보는 일정 범위를 갖는 복수의 카테고리에 대응되는 인덱스(index)로 표현될 수 있다. 예를 들어, 거리 정보는 근거리, 중거리 및 원거리 등으로 표현될 수 있고, 방향 정보는 좌측 방향, 정면 방향 및 우측 방향 등으로 표현될 수 있고, 속도 정보는 저속, 중속, 고속 등으로 표현될 수 있다. 이를 조합하여 좌측 근거리, 우측 원거리 등으로 표현하는 것도 가능할 것이다.Information about distance/speed can be expressed as an index corresponding to a plurality of categories with a certain range. For example, distance information can be expressed as near, middle, and far distances, direction information can be expressed as left, front, and right directions, and speed information can be expressed as low, medium, and high speeds. there is. It would also be possible to combine these to express left near distance, right far distance, etc.

도 12는 일 실시예에 따른 접안 가이드 정보를 설명하기 위한 도면이다. 도 12의 (a)를 참고하면, 접안 가이드 정보는 선박(OBJ1)과 안벽(OBJ2) 사이의 접안 가이드 정보(f1, f2) 및 선박(OBJ1)과 다른 선박(OBJ3, OBJ4) 사이의 접안 가이드 정보(f3, f4)를 포함할 수 있다. 구체적으로, 선박(OBJ1)과 안벽(OBJ2) 사이의 접안 가이드 정보(f1, f2)는 선박(OBJ1)의 안벽(OBJ2)과의 거리/속도에 대한 정보를 포함할 수 있고, 선박(OBJ1)과 다른 선박(OBJ3, OBJ4) 사이의 접안 가이드 정보(f3, f4)는 선박(OBJ1)의 다른 선박(OBJ3, OBJ4)과의 거리/속도에 대한 정보를 포함할 수 있다. 도 12의 (b)를 참고하면, 선박(OBJ1)과 안벽(OBJ2) 사이의 접안 가이드 정보(f1, f2)는 선박(OBJ1)의 해수면과 접하는 영역에 대응되는 영역인 경계 영역과 안벽(OBJ2) 사이의 정보일 수 있다. 경계 영역은 선박과 해수면이 접하는 라인 또는 포인트뿐만 아니라 그 근방의 일정 영역을 포함할 수 있다. 또한, 선박(OBJ1)과 다른 선박(OBJ3, OBJ4) 사이의 접안 가이드 정보는 선박(OBJ1, OBJ3, OBJ4)의 선수/선미에 대응되는 소정의 영역 사이의 정보일 수 있고, 여기서 상기 소정의 영역은 선박(OBJ1, OBJ3, OBJ4)의 선수/선미 포인트뿐만 아니라 그 근방의 일정 영역을 의미할 수도 있다.Figure 12 is a diagram for explaining eyepiece guide information according to an embodiment. Referring to (a) of FIG. 12, the berthing guide information includes berthing guide information (f1, f2) between the ship (OBJ1) and the quay wall (OBJ2) and berthing guides between the ship (OBJ1) and other ships (OBJ3, OBJ4). May include information (f3, f4). Specifically, the berthing guide information (f1, f2) between the ship (OBJ1) and the quay (OBJ2) may include information about the distance/speed of the ship (OBJ1) with the quay (OBJ2), and the ship (OBJ1) Berthing guide information (f3, f4) between and other vessels (OBJ3, OBJ4) may include information about the distance/speed of the vessel (OBJ1) to other vessels (OBJ3, OBJ4). Referring to (b) of FIG. 12, the berthing guide information (f1, f2) between the ship (OBJ1) and the quay wall (OBJ2) is the boundary area corresponding to the area in contact with the sea level of the ship (OBJ1) and the quay wall (OBJ2). ) may be information between. The boundary area may include a line or point where the ship and the sea surface contact, as well as a certain area nearby. Additionally, the berthing guide information between the ship OBJ1 and other ships OBJ3 and OBJ4 may be information between a predetermined area corresponding to the bow/stern of the ship OBJ1, OBJ3, and OBJ4, where the predetermined area may mean not only the bow/stern points of the ship (OBJ1, OBJ3, OBJ4) but also a certain area nearby.

선박(OBJ1)과 안벽(OBJ2) 사이의 접안 가이드 정보(f1, f2)는 도 12에 도시된 바와 같이 두 개의 접안 가이드 정보를 포함할 수 있지만 이에 한정되는 것은 아니고 하나의 접안 가이드 정보 또는 셋 이상의 접안 가이드 정보를 포함할 수 있다. 또한, 선박(OBJ1)과 다른 선박(OBJ3, OBJ4) 사이의 접안 가이드 정보(f3, f4)는 도 12에 도시된 바와 같이 두 선박 사이에 하나의 접안 가이드 정보를 포함할 수 있지만 이에 한정되는 것은 아니고 두 선박 사이에 둘 이상의 접안 가이드 정보를 포함할 수 있다. 전술한 정보는 선박의 이안에 이용되는 경우 이안 가이드 정보라 지칭될 수도 있을 것이다.The berthing guide information (f1, f2) between the ship (OBJ1) and the quay wall (OBJ2) may include two berthing guide information as shown in FIG. 12, but is not limited to this and may include one berthing guide information or three or more. Berthing guide information may be included. In addition, the berthing guide information (f3, f4) between the ship (OBJ1) and other ships (OBJ3, OBJ4) may include one berthing guide information between the two ships as shown in FIG. 12, but is not limited to this. Alternatively, more than one berthing guide information may be included between the two vessels. The above-mentioned information may be referred to as rip-off guide information when used for rip-roaring of a ship.

도 13은 일 실시예에 따른 선박과 안벽 사이의 접안 가이드 정보를 설명하기 위한 도면이다.Figure 13 is a diagram for explaining berthing guide information between a ship and a quay wall according to an embodiment.

상기 접안 가이드 정보는 해수면 높이/해수면 상에서의 정보일 수 있다. 예를 들어, 접안 가이드 정보(f5)는 해수면 높이에서의 선박(OBJ1)과 안벽(OBJ2) 사이의 거리/속도에 대한 정보를 포함할 수 있다.The berthing guide information may be information on sea level height/sea level. For example, the berthing guide information f5 may include information about the distance/speed between the ship OBJ1 and the quay wall OBJ2 at sea level.

상기 접안 가이드 정보는 지면 높이(또는 안벽 높이)에서의 정보일 수 있다. 예를 들어, 접안 가이드 정보(f6)는 안벽(OBJ2) 높이에서의 선박(OBJ1)과 안벽(OBJ2) 사이의 거리/속도에 대한 정보를 포함할 수 있다.The berthing guide information may be information at ground level (or quay wall height). For example, the berthing guide information f6 may include information about the distance/speed between the ship OBJ1 and the quay wall OBJ2 at the height of the quay wall OBJ2.

상기 접안 가이드 정보는 소정의 높이에서의 정보일 수 있다. 여기서, 소정의 높이는 도 13에 도시된 접안 가이드 정보(f7)와 같이 해수면 높이와 안벽 높이 사이일 수 있으나 이에 한정되는 것은 아니다.The eyepiece guide information may be information at a predetermined height. Here, the predetermined height may be between the sea level height and the quay wall height, as in the berthing guide information f7 shown in FIG. 13, but is not limited thereto.

선박과 안벽 사이의 접안 가이드 정보는 선박(OBJ1)과 안벽(OBJ2)에 설치된 방충재(fender, OBJ6) 사이의 정보(f8)일 수 있다. 선박(OBJ1)은 접안 시 방충재(OBJ6)와 충돌하거나 정박 시 방충재(OBJ6)와 접하므로 선박(OBJ1)과 방충재(OBJ6) 사이의 거리/속도에 대한 정보(f8)를 획득하는 것이 유리할 수 있다. 도 13에서는 방충재(OBJ6)가 해수면보다 높은 위치에 설치된 것으로 도시되었으나, 방충재(OBJ6)의 적어도 일부가 바다(OBJ5)에 잠기도록 설치될 수 있고, 이 경우 접안 가이드 정보는 해수면 높이에서의 선박과 방충재 사이의 거리/속도에 대한 정보를 포함할 수 있을 것이다.The berthing guide information between the ship and the quay wall may be information (f8) between the fender (OBJ6) installed on the ship (OBJ1) and the quay wall (OBJ2). Since the ship (OBJ1) collides with the insect repellent (OBJ6) when berthing or comes into contact with the insect repellent (OBJ6) when anchored, it is important to obtain information (f8) about the distance/speed between the ship (OBJ1) and the insect repellent (OBJ6). It can be advantageous. In FIG. 13, the insect repellent (OBJ6) is shown as being installed at a position higher than sea level, but at least a portion of the insect repellent (OBJ6) may be installed so as to be submerged in the sea (OBJ5), and in this case, the berthing guide information is provided at the sea level level. Information on the distance/speed between the vessel and the fender could be included.

선박과 다른 선박 사이의 접안 가이드 정보는 해수면 높이에서의 선박과 다른 선박 사이의 거리/속도에 대한 정보를 포함할 수 있다. 선박과 다른 선박 사이의 접안 가이드 정보는 소정의 높이에서의 선박과 다른 선박 사이의 거리/속도에 대한 정보를 포함할 수 있다. 여기서, 소정의 높이는 선체의 형태를 고려하여 결정될 수 있다. 예를 들어, 소정의 높이는 선박이 다른 선박 방향으로 돌출된 영역의 높이일 수 있다. 이 경우 선박 사이의 충돌 가능성을 보다 정확히 파악하여 접안 가이드에 유리할 수 있다.Berthing guide information between a vessel and another vessel may include information about the distance/speed between the vessel and the other vessel at sea level. Berthing guide information between a ship and another ship may include information about the distance/speed between the ship and the other ship at a predetermined height. Here, the predetermined height may be determined considering the shape of the hull. For example, the predetermined height may be the height of an area where a ship protrudes in the direction of another ship. In this case, it can be advantageous for berthing guidance by more accurately identifying the possibility of collision between ships.

일 실시예에 따르면, 장치(10)는 접안 가이드 정보를 라이다 데이터에 기초하여 산출할 수 있다. 예를 들어, 장치(10)는 획득된 라이다 데이터에 포함된 라이다 포인트들의 3차원 좌표를 이용하여 오브젝트와의 거리/속도를 산출할 수 있다. 오브젝트의 예로는 선박, 바다 및 육지, 항만, 안벽, 부표, 지형, 하늘, 건물, 사람, 동물 등이 있을 수 있다. According to one embodiment, the device 10 may calculate eyepiece guide information based on LIDAR data. For example, the device 10 may calculate the distance/speed to the object using the 3D coordinates of the LiDAR points included in the acquired LiDAR data. Examples of objects may include ships, sea and land, ports, quay walls, buoys, terrain, sky, buildings, people, and animals.

일 실시예에 따르면, 접안 가이드 정보는 이미지에 기초하여 산출될 수 있다. 여기서, 이미지는 카메라와 같은 이미지 생성 유닛이 생성한 이미지이거나 이로부터 이미지 세그멘테이션 등을 통해 처리된 이미지일 수 있다. 예를 들어, 오브젝트로써 선박, 바다 및 육지를 포함하는 이미지에 기초하여 선박의 거리/속도에 대한 정보를 산출하거나 상기 이미지로부터 세그멘테이션을 통해 생성된 세그멘테이션 이미지에 기초하여 선박의 거리/속도에 대한 정보를 산출할 수 있다. 오브젝트의 예로는 선박, 바다 및 육지 외에 항만, 안벽, 부표, 지형, 하늘, 건물, 사람, 동물 등이 있을 수 있다. According to one embodiment, eyepiece guide information may be calculated based on the image. Here, the image may be an image generated by an image generating unit such as a camera, or may be an image processed therefrom through image segmentation, etc. For example, information about the distance/speed of a ship is calculated based on an image that includes a ship, the sea, and land as objects, or information about the distance/speed of a ship is based on a segmentation image created through segmentation from the image. can be calculated. Examples of objects may include ships, seas, and land, as well as harbors, quay walls, buoys, terrain, sky, buildings, people, and animals.

이하에서는 접안 가이드 정보를 추정하는 오브젝트를 타겟 오브젝트라 한다. 예를 들어, 위의 예에서는 선박이 타겟 오브젝트일 수 있다. 또한, 타겟 오브젝트는 복수일 수 있다. 예를 들어, 이미지에 포함된 복수의 선박 각각에 대해 그 거리나 속도 등을 추정하는 경우 복수의 선박이 타겟 오브젝트일 수 있다.Hereinafter, the object for which eyepiece guide information is estimated is referred to as a target object. For example, in the example above, a ship may be the target object. Additionally, there may be multiple target objects. For example, when estimating the distance or speed of each of a plurality of ships included in an image, the plurality of ships may be target objects.

일 실시예에 따르면, 접안 가이드 정보는 이미지 픽셀을 기반으로 산출될 수 있다. 전술한 바와 같이 포인트를 기준으로 접안 가이드 정보를 산출하는 경우, 이미지 상에서 포인트는 픽셀에 대응될 수 있다. 따라서, 접안 가이드 정보는 이미지 픽셀 사이의 간격에 기초하여 산출될 수 있다. According to one embodiment, eyepiece guide information may be calculated based on image pixels. As described above, when calculating eyepiece guide information based on a point, the point may correspond to a pixel in the image. Accordingly, eyepiece guide information can be calculated based on the spacing between image pixels.

포인트 사이의 거리에 대한 정보는 픽셀 사이의 간격에 기초하여 산출될 수 있다. 일 예로, 하나의 픽셀 간격마다 일정 거리를 할당하고 픽셀 사이의 간격에 비례하여 포인트 사이의 거리를 산출할 수 있다. 다른 예로, 픽셀의 이미지상에서의 좌표값을 바탕으로 픽셀 사이의 거리를 산출하고 이에 기초하여 포인트 사이의 거리를 산출할 수 있다.Information about the distance between points can be calculated based on the spacing between pixels. For example, a certain distance may be assigned to each pixel interval and the distance between points may be calculated in proportion to the interval between pixels. As another example, the distance between pixels can be calculated based on the coordinate value of the pixel in the image, and the distance between points can be calculated based on this.

포인트 사이의 속도에 대한 정보는 포인트 사이의 거리에 대한 정보의 변화에 기초하여 산출될 수 있다. 이 경우 복수의 이미지 또는 영상 프레임에 기초하여 이동 정보를 산출할 수 있다. 예를 들어, 이전 프레임에서의 포인트 사이의 거리와 현재 프레임에서의 포인트 사이의 거리 및 프레임 사이의 시간 간격에 기초하여 포인트 사이의 속도에 대한 정보를 산출할 수 있다. Information about the speed between points can be calculated based on changes in information about the distance between points. In this case, movement information can be calculated based on a plurality of images or video frames. For example, information about the speed between points can be calculated based on the distance between points in the previous frame, the distance between points in the current frame, and the time interval between frames.

도 14는 일 실시예에 따른 접안 가이드 정보를 획득하는 방법을 설명하기 위한 도면이다. 접안 가이드 정보를 획득하는 단계는 카메라 등 이미지 생성 유닛이 생성한 이미지를 획득하는 단계(도 14의 (a)), 상기 이미지에 대해 이미지 세그멘테이션을 수행하여 세그멘테이션 이미지(또는 세그멘테이션 이미지를 시각화한 이미지)를 생성하는 단계(도 14의 (b)), 상기 세그멘테이션 이미지에 기초하여 접안 가이드 정보를 산출하는 포인트를 찾는 단계(도 14의 (c)) 및 상기 포인트에 대응되는 접안 가이드 정보를 산출하는 단계를 포함할 수 있다. 도 14에서는 세그멘테이션 이미지로부터 접안 가이드 정보를 산출하는 방법에 대해 기재하였으나 이는 실시예에 불과하고 세그멘테이션 이미지를 생성하는 단계 없이 이미지 생성 유닛이 생성한 이미지에 기초하여 포인트를 찾고 접안 가이드 정보를 산출할 수도 있을 것이다.Figure 14 is a diagram for explaining a method of obtaining eyepiece guide information according to an embodiment. The step of acquiring eyepiece guide information is acquiring an image generated by an image generation unit such as a camera ((a) of FIG. 14), and performing image segmentation on the image to obtain a segmentation image (or an image visualizing the segmentation image). A step of generating ((b) in FIG. 14), a step of finding a point for calculating eyepiece guide information based on the segmentation image ((c) of FIG. 14), and a step of calculating eyepiece guide information corresponding to the point. may include. In Figure 14, a method of calculating eyepiece guide information from a segmentation image is described, but this is only an example and it is also possible to find points and calculate eyepiece guide information based on the image generated by the image generation unit without the step of generating a segmentation image. There will be.

접안 가이드 정보를 획득하는 단계는 이미지의 시점을 변환하는 단계를 포함할 수 있다. 예를 들어, 접안 가이드 정보를 획득하는 단계는 이미지 생성 유닛이 생성한 이미지를 획득하는 단계 이후에 상기 이미지에 대해 시점 변환을 수행하는 단계를 거쳐 시점 변환된 이미지에 대해 세그멘테이션을 수행하여 세그멘테이션 이미지를 생성하거나, 세그멘테이션 이미지를 생성하는 단계 이후에 상기 세그멘테이션 이미지에 대해 시점 변환을 수행하는 단계를 거쳐 시점 변환된 세그멘테이션 이미지에 대해 접안 가이드 정보를 산출할 수 있다. 이하에서는 시점 변환에 대해 설명한다.The step of acquiring eyepiece guide information may include converting the viewpoint of the image. For example, the step of acquiring eyepiece guide information includes acquiring an image generated by an image generation unit, performing viewpoint conversion on the image, and then performing segmentation on the viewpoint converted image to create a segmented image. After the step of generating or generating a segmentation image, a step of performing viewpoint conversion on the segmentation image may be performed to calculate eyepiece guide information for the viewpoint-converted segmentation image. Below, viewpoint conversion is explained.

일반적으로 카메라 등 이미지 생성 유닛이 생성하는 이미지는 원근 시점(perspective view)로 나타날 수 있다. 이를 탑 뷰(top view, 평면 시점), 측면 시점(side view), 다른 원근 시점 등으로 변환하는 것을 시점 변환이라 할 수 있다. 물론, 탑 뷰나 측면 시점 이미지를 다른 시점으로 변환할 수도 있으며, 이미지 생성 유닛이 탑 뷰 이미지나 측면 시점 이미지 등을 생성할 수도 있고 이 경우 시점 변환이 수행될 필요가 없을 수도 있다.In general, images generated by an image generation unit such as a camera may appear in a perspective view. Converting this to a top view (planar view), side view, or another perspective view can be called viewpoint conversion. Of course, the top view or side viewpoint image may be converted to another viewpoint, and the image generation unit may generate a top view image or a side viewpoint image, and in this case, viewpoint conversion may not need to be performed.

도 15는 일 실시예에 따른 시점 변환에 관한 도면이다. 도 15의 (a)를 참고하면, 원근 시점 이미지의 시점 변환을 통해 다른 원근 시점 이미지를 획득할 수 있다. 여기서, 안벽(OBJ2)이 이미지 상에서 수평 방향(이미지 상에서 좌우 방향)을 따라 위치하도록 시점 변환을 수행할 수 있다. 도 15의 (b)를 참고하면, 원근 시점 이미지의 시점 변환을 통해 탑 뷰 이미지를 획득할 수 있다. 여기서, 탑 뷰 이미지는 해수면과 수직한 방향에서 해수면을 내려다 본 뷰일 수 있다. 또한, 도 15의 (a)와 마찬가지로 안벽(OBJ2)이 이미지 상에서 수평 방향을 따라 위치하도록 시점 변환을 수행할 수 있다.Figure 15 is a diagram related to viewpoint conversion according to one embodiment. Referring to (a) of FIG. 15, a different perspective view image can be obtained through viewpoint conversion of the perspective view image. Here, viewpoint conversion may be performed so that the quay wall OBJ2 is located along the horizontal direction (left and right directions on the image) on the image. Referring to (b) of FIG. 15, a top view image can be obtained through viewpoint conversion of the perspective view image. Here, the top view image may be a view looking down at the sea level from a direction perpendicular to the sea level. Additionally, as in (a) of FIG. 15 , viewpoint conversion may be performed so that the quay wall OBJ2 is located along the horizontal direction in the image.

시점 변환을 통해 접안 가이드 정보 산출 시 용이성, 편의성 및 정확성 향상을 도모할 수 있다. 예를 들어, 픽셀 기반 거리 산출의 경우 탑 뷰 이미지를 이용하면 픽셀 사이의 간격에 대응되는 거리가 이미지 전체 또는 적어도 일부 영역에 대해 동일해질 수 있다.Through viewpoint conversion, ease of use, convenience, and accuracy can be improved when calculating berthing guide information. For example, in the case of pixel-based distance calculation, if a top view image is used, the distance corresponding to the gap between pixels may be the same for the entire image or at least some areas.

시점 변환의 일 예로 역투영 변환(Inverse Projective Mapping, IPM)을 수행할 수 있다. 2차원 이미지는 3차원 공간 상의 피사체에서 반사된 빛이 카메라의 렌즈를 통해 이미지 센서에 입사되어 생성되고, 2차원과 3차원의 관계는 이미지 센서와 렌즈에 의존하며, 예를 들어 수학식 1과 같이 표현될 수 있다.As an example of viewpoint transformation, inverse projective mapping (IPM) can be performed. A two-dimensional image is created when light reflected from a subject in three-dimensional space is incident on the image sensor through the lens of the camera, and the relationship between two dimensions and three dimensions depends on the image sensor and lens. For example, Equation 1 and can be expressed together.

여기서, 좌변의 행렬은 2차원 이미지 좌표, 우변의 첫 번째 행렬은 내부 파라미터(intrinsic parameter), 두 번째 행렬은 외부 파라미터(extrinsic parameter), 세 번째 행렬은 3차원 좌표를 의미한다. 구체적으로, fx 및 fy는 초점 거리(focal length), cx 및 cy는 주점(principal point), r 및 t는 각각 회전 및 평행이동 변환 파라미터를 의미한다.Here, the matrix on the left side means two-dimensional image coordinates, the first matrix on the right side means intrinsic parameters, the second matrix means extrinsic parameters, and the third matrix means three-dimensional coordinates. Specifically, fx and fy are focal lengths, cx and cy are principal points, and r and t are rotation and translation transformation parameters, respectively.

2차원 이미지를 역투영 변환을 통해 3차원 상의 임의의 평면에 투영시켜 그 시점을 변경시킬 수 있다. 예를 들어, 원근 시점 이미지를 역투영 변환을 통해 탑 뷰 이미지로 변환하거나, 다른 원근 시점 이미지로 변환할 수 있다.The viewpoint can be changed by projecting a two-dimensional image onto an arbitrary three-dimensional plane through back projection transformation. For example, a perspective view image can be converted to a top view image through back projection transformation, or converted to another perspective view image.

시점 변환을 위해서 내부 파라미터가 필요할 수 있다. 내부 파라미터를 구하는 방법의 일 예로 Zhang 방법을 이용할 수 있다. Zhang 방법은 다항식 모델(polynomial model)의 일종으로 격자의 크기를 알고 있는 격자판을 다양한 각도와 거리에서 촬영하여 내부 파라미터를 획득하는 방법이다.Internal parameters may be required for viewpoint conversion. As an example of a method for obtaining internal parameters, the Zhang method can be used. The Zhang method is a type of polynomial model and is a method of obtaining internal parameters by photographing a grid of known grid size at various angles and distances.

시점 변환을 위해서 이미지를 촬상한 이미지 생성 유닛/센서 모듈의 위치 및/또는 자세에 대한 정보가 필요할 수 있다. 이러한 정보는 위치 측정 유닛 및 자세 측정 유닛으로부터 획득될 수 있다.For viewpoint conversion, information about the location and/or posture of the image generation unit/sensor module that captured the image may be required. This information may be obtained from a position measurement unit and an attitude measurement unit.

또는, 이미지에 포함된 고정체의 위치에 기초하여 위치 및/또는 자세에 대한 정보를 획득할 수 있다. 예를 들어, 제1 시점에 이미지 생성 유닛은 제1 위치 및/또는 제1 자세로 배치되고, 지형이나 건물 등과 같이 고정된 객체인 타겟 고정체를 포함하는 제1 이미지를 생성할 수 있다. 이 후, 제2 시점에 이미지 생성 유닛은 상기 타겟 고정체를 포함하는 제2 이미지를 생성할 수 있다. 제1 이미지 상에서의 타겟 고정체의 위치 및 제2 이미지 상에서의 타겟 고정체의 위치를 비교하여 제2 시점에서의 이미지 생성 유닛의 위치 및/또는 자세인 제2 위치 및/또는 제2 자세를 산출할 수 있다.Alternatively, information about the location and/or posture may be obtained based on the location of the fixture included in the image. For example, at a first viewpoint, the image generating unit may be placed in a first position and/or a first posture and generate a first image including a target fixture, which is a fixed object such as terrain or a building. Afterwards, at a second time point, the image generating unit may generate a second image including the target fixture. Compare the position of the target fixture on the first image and the position of the target fixture on the second image to calculate a second position and/or posture, which is the position and/or posture of the image generating unit at the second viewpoint. can do.

시점 변환을 위한 위치 및/또는 자세에 대한 정보의 획득은 미리 정해진 시간 간격으로 수행될 수 있다. 여기서, 상기 시간 간격은 이미지 생성 유닛/센서 모듈의 설치 위치에 의존할 수 있다. 예를 들어, 이미지 생성 유닛/센서 모듈이 선박 등 이동체에 설치된 경우 짧은 시간 간격마다 위치 및/또는 자세에 대한 정보가 획득되어야 할 필요성이 존재할 수 있다. 반면, 이미지 생성 유닛/센서 모듈이 항만 등 고정체에 설치된 경우 상대적으로 긴 시간 간격으로 위치 및/또는 자세에 대한 정보를 획득하거나 초기에 한 번만 획득할 수도 있다. 크레인과 같이 이동과 고정이 반복되는 경우, 이동 후에만 위치 및/또는 자세에 대한 정보를 획득하는 방식으로 구현될 수도 있을 것이다. 또한, 이러한 위치 및/또는 자세에 대한 정보 획득을 위한 시간 간격은 변경될 수도 있다.Acquisition of information on location and/or posture for viewpoint conversion may be performed at predetermined time intervals. Here, the time interval may depend on the installation location of the image generating unit/sensor module. For example, when an image generation unit/sensor module is installed on a moving object such as a ship, there may be a need to obtain information about location and/or posture at short time intervals. On the other hand, if the image generation unit/sensor module is installed in a fixture such as a port, information on location and/or posture may be acquired at relatively long time intervals or may be acquired only once initially. In cases where movement and fixation are repeated, such as a crane, it may be implemented in a way that information on location and/or posture is obtained only after movement. Additionally, the time interval for acquiring information about the location and/or posture may be changed.

장치(10)는 기준 평면에 기초하여 이미지를 시점 변환할 수 있다. 예를 들어, 장치(10)는 안벽이 위치하고, 해수면과 평행인 평면을 기준 평면으로 이미지를 시점 변환할 수 있다. 여기서, 기준 평면은 산출되는 해수면 높이에 의존할 수 있다. 물론, 장치(10)는 상술한 기재에 한정되지 않으며, 해수면, 안벽이 위치한 평면 외의 선박의 일부분(일예로 갑판 높이의 기준 평면) 등 다른 평면을 기준 평면으로 이미지를 시점 변환해도 무방하다.The device 10 may convert the image viewpoint based on the reference plane. For example, the device 10 may convert the image to a viewpoint using a plane parallel to the sea level, where the quay wall is located, as a reference plane. Here, the reference plane may depend on the sea level height from which it is calculated. Of course, the device 10 is not limited to the above-described description, and may convert the image to a reference plane from another plane, such as sea level or a part of the ship other than the plane where the quay wall is located (for example, a reference plane for deck height).

장치(10)는 해수면 높이를 고려하여 이미지를 시점 변환할 수 있다. 예를 들어, 장치(10)는 라이다 센서 또는 카메라로부터 획득한 데이터를 이용하여 해수면 높이를 산출하고, 산출된 해수면 높이를 고려하여 이미지를 시점 변환할 수 있다. The device 10 can convert the image viewpoint by considering the sea level height. For example, the device 10 may calculate the sea level height using data obtained from a lidar sensor or camera, and convert the image viewpoint by considering the calculated sea level height.

전술한 시점 변환 방법은 예시에 불과하고 이와 다른 방법으로 시점 변환을 수행할 수도 있으며, 시점 변환 정보는 전술한 식 1의 행렬, 파라미터, 좌표, 위치 및/또는 자세에 대한 정보 등 시점 변환을 위해 필요한 정보를 포함한다.The above-described viewpoint conversion method is only an example, and viewpoint conversion may be performed in a different way. The viewpoint conversion information includes the matrix of Equation 1, parameters, coordinates, location, and/or posture information, etc. for viewpoint conversion. Includes necessary information.

장치(10)는 선박 및/또는 항만 모니터링을 위해 다른 선박 및/또는 안벽과의 거리를 산출할 수 있다. 예를 들어, 장치(10)는 센서 데이터로부터 거리 산출을 위한 선박의 특징 포인트를 생성하고, 생성한 특징 포인트에 기초하여 다른 선박 및/또는 안벽과의 거리를 산출할 수 있다. Device 10 may calculate distances to other vessels and/or quay walls for vessel and/or port monitoring. For example, the device 10 may generate feature points of a ship for calculating distance from sensor data, and calculate the distance to another ship and/or a quay wall based on the generated feature points.

선박의 특징 포인트는 이미지 내의 특정 포인트, 라이다 데이터의 특정 라이다 포인트 등을 포함하는 개념으로, 특징 포인트는 일예로, 선박의 일단에 대응하는 포인트, 선박의 선수에 대응하는 포인트, 선박의 선미에 대응하는 포인트, 선박과 해수면이 접하는 부분에 대응하는 포인트 등을 포함할 수 있다. The feature point of a ship is a concept that includes a specific point in an image, a specific LiDAR point in LiDAR data, etc. Feature points include, for example, a point corresponding to one end of the ship, a point corresponding to the bow of the ship, and the stern of the ship. It may include points corresponding to points, points corresponding to the contact area between the ship and the sea surface, etc.

도 16은 일 실시예에 따른 선박의 특징 포인트에 기초한 거리 산출 방법의 순서도이다. Figure 16 is a flowchart of a distance calculation method based on feature points of a ship according to an embodiment.

도 16을 참고하면 일 실시예에 따른 선박의 특징 포인트에 기초한 거리 산출 방법은 센서 데이터를 획득하는 단계(S1000), 선박의 특징 포인트를 생성하는 단계(S2000) 및 특징 포인트에 기초하여 거리를 계산하는 단계(S2000)를 포함할 수 있다.Referring to FIG. 16, the distance calculation method based on feature points of a ship according to an embodiment includes acquiring sensor data (S1000), generating feature points of the ship (S2000), and calculating the distance based on the feature points. It may include a step (S2000).

장치(10)는 센서 데이터를 획득할 수 있다(S1000). The device 10 may acquire sensor data (S1000).

일 실시예에 따르면, 장치(10)는 카메라로부터 이미지를 획득할 수 있다. 예를 들어, 장치(10)는 바다 쪽을 향해 선석에 설치된 카메라로부터 이미지를 획득할 수 있다. 일 예로, 장치(10)는 바다에 대한 이미지를 획득할 수 있고, 선박이 있는 경우에는 선박에 대한 이미지도 함께 획득할 수 있다.According to one embodiment, device 10 may acquire an image from a camera. For example, device 10 may acquire images from a camera installed on a berth facing toward the sea. As an example, the device 10 can acquire an image of the sea, and if there is a ship, it can also acquire an image of the ship.

일 실시예에 따르면, 장치(10)는 라이다 센서로부터 라이다 데이터를 획득할 수 있다. 예를 들어, 장치(10)는 바다 쪽을 향해 선석에 설치된 라이다 센서로부터 라이다 데이터를 획득할 수 있다. 일 예로, 장치(10)는 바다에 대한 라이다 데이터를 획득할 수 있고, 선박이 선석에 진입하는 경우에는 선박에 대한 라이다 데이터도 함께 획득할 수 있다.According to one embodiment, the device 10 may acquire LiDAR data from a LiDAR sensor. For example, the device 10 may acquire LiDAR data from a LiDAR sensor installed on a berth toward the sea. As an example, the device 10 can acquire LiDAR data about the sea, and when a ship enters the berth, it can also acquire LiDAR data about the ship.

일 실시예에 따르면 라이다 센서는 이미지를 획득하는 카메라가 촬상하는 영역과 대응되는 영역에 대하여 라이다 데이터를 획득할 수 있다. 예를 들어, 라이다 센서는 이미지를 획득하는 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 가질 수 있다. According to one embodiment, the LiDAR sensor may acquire LiDAR data for an area corresponding to the area captured by the camera that acquires the image. For example, the LIDAR sensor may have a viewing angle that at least partially overlaps the viewing angle of the camera that acquires the image.

도 17은 일 실시예에 따른 센서 데이터의 획득의 일 예시이다. 도 17을 참고하면, 일 실시예에 따른 장치(10)는 선석 주변에 설치된 라이다 및 카메라로부터 동일한 영역에 대한 센서 데이터를 획득할 수 있다. 예를 들어, 라이다 및 카메라는 선석을 향해 또는 선석을 바라보며 부두에 설치되어 선석이 위치하는 영역에 대한 데이터를 획득할 수 있다. 여기서, 라이다의 시야각은 카메라의 시야각과 적어도 부분적으로 오버랩될 수 있다.Figure 17 is an example of acquisition of sensor data according to an embodiment. Referring to FIG. 17, the device 10 according to an embodiment may acquire sensor data for the same area from a lidar and a camera installed around the berth. For example, LIDAR and cameras can be installed on a dock facing or looking at a berth to obtain data about the area where the berth is located. Here, the viewing angle of the lidar may at least partially overlap with the viewing angle of the camera.

도 17(a)를 참고하면, 장치(10)는 바다에 대한 이미지를 획득할 수 있고, 선박이 있는 경우에는 선박에 대한 이미지도 함께 획득할 수 있다. 장치(10)는 선박과 다른 선박 사이의 거리 및/또는 선박과 안벽 사이의 거리를 계산하는데 획득한 카메라 이미지를 이용할 수 있다. Referring to FIG. 17(a), the device 10 can acquire an image of the sea, and if there is a ship, it can also acquire an image of the ship. Device 10 may use the acquired camera images to calculate the distance between the vessel and another vessel and/or the distance between the vessel and the quay wall.

도 17(b)를 참고하면, 장치(10)는 바다에 대한 라이다 데이터를 획득할 수 있고, 선박이 선석에 진입하는 경우에는 선박에 대한 라이다 데이터도 함께 획득할 수 있다. 라이다 데이터는 라이다 센서에 의해 캡쳐된 복수의 라이다 포인트를 포함할 수 있다. 예를 들어, 라이다 데이터는 수직 또는 수평 채널별 복수의 라이다 포인트들을 포함할 수 있다. 장치(10)는 선박과 다른 선박 사이의 거리 및/또는 선박과 안벽 사이의 거리를 계산하는데 획득한 라이다 데이터를 이용할 수 있다.Referring to FIG. 17(b), the device 10 can acquire LiDAR data for the sea, and when a ship enters the berth, it can also acquire LiDAR data for the ship. LiDAR data may include multiple LiDAR points captured by a LiDAR sensor. For example, LiDAR data may include multiple LiDAR points for each vertical or horizontal channel. Device 10 may use the acquired LIDAR data to calculate the distance between the vessel and another vessel and/or the distance between the vessel and the quay wall.

다시 도 16으로 돌아와 설명하도록 한다.Let us return to Figure 16 again for explanation.

장치(10)는 선박의 특징 포인트를 생성할 수 있다(S2000).The device 10 may generate feature points of the ship (S2000).

장치(10)는 획득한 센서 데이터를 이용하여 선박과 다른 물체와의 거리 계산에 이용되는 선박의 특징 포인트를 생성할 수 있다. 예를 들어, 장치(10)는 바다 쪽을 향해 선석에 설치된 카메라 및 라이다 센서로부터 얻은 센서 데이터 중 적어도 하나를 이용하여 선박의 특징 포인트를 생성할 수 있다. 일예로, 장치(10)는 카메라 이미지로부터 선박의 영역을 검출하고, 검출된 선박의 영역에 기초하여 선박의 특징 포인트를 생성할 수 있다. 일예로, 장치(10)는 라이다 데이터로부터 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 검출하고, 검출된 상기 라이다 포인트들에 기초하여 선박의 특징 포인트를 생성할 수 있다. 장치(10)는 상술한 기재에 한정되지 않으며, 카메라 이미지 및 라이다 데이터를 융합하는 등 다른 방식으로 선박의 특징 포인트를 생성해도 무방하다. 선박의 특징 포인트의 생성에 대한 다양한 실시예에 대해서는 후술하기로 한다.The device 10 may use the acquired sensor data to generate feature points of the ship that are used to calculate the distance between the ship and other objects. For example, the device 10 may generate feature points of a ship using at least one of sensor data obtained from a camera and a LiDAR sensor installed on a berth facing the sea. As an example, the device 10 may detect the area of a ship from a camera image and generate feature points of the ship based on the detected area of the ship. As an example, the device 10 may detect LiDAR points related to a LiDAR beam reflected from a ship from LiDAR data and generate feature points of the ship based on the detected LiDAR points. The device 10 is not limited to the above-described description, and may generate feature points of the ship in other ways, such as fusing camera images and LiDAR data. Various embodiments of generating feature points of a ship will be described later.

장치(10)는 선박의 특징 포인트에 기초하여 선박과 다른 물체와의 거리를 계산할 수 있다(S3000).The device 10 may calculate the distance between the ship and another object based on the characteristic points of the ship (S3000).

장치(10)는 선박의 특징 포인트에 기초하여 선박과 다른 선박 사이의 거리 및/또는 선박과 안벽 사이의 거리를 계산할 수 있다. 예를 들어, 장치(10)는 선박의 선수 및 선미 중 적어도 하나에 대응하는 포인트의 위치에 기초하여 선박과 다른 선박 사이의 거리를 계산할 수 있다. 다른 예를 들어, 장치(10)는 선박과 해수면이 접하는 부분에 대응하는 포인트의 위치에 기초하여 선박과 안벽 사이의 거리를 계산할 수 있다. 일예로, 카메라 이미지를 이용한 거리 계산은 이미지 픽셀 사이의 간격에 기초하여 산출될 수 있고, 라이다 데이터를 이용한 거리 계산은 라이다 데이터의 좌표값에 기초하여 산출될 수 있으며 이에 대해서는 상술한 내용이 적용될 수 있어 자세한 내용은 생략하기로 한다.Device 10 may calculate the distance between a vessel and another vessel and/or a distance between a vessel and a quay wall based on feature points of the vessel. For example, device 10 may calculate the distance between a vessel and another vessel based on the location of a point corresponding to at least one of the bow and stern of the vessel. As another example, the device 10 may calculate the distance between the ship and the quay wall based on the location of a point corresponding to the contact point between the ship and the sea surface. For example, distance calculation using a camera image can be calculated based on the spacing between image pixels, and distance calculation using LiDAR data can be calculated based on the coordinate values of the LiDAR data, which are described above. Since it can be applied, detailed information will be omitted.

일 실시예에 따르면 장치(10)는 카메라 이미지로부터 획득한 선박의 특징 포인트를 이용하여 선박과 다른 오브젝트 사이의 거리를 계산할 수 있다. 예를 들어, 장치(10)는 카메라 이미지로부터 획득한 선박의 특징 포인트를 이용하여 선박과 다른 선박 또는 안벽 사이의 거리를 계산할 수 있다. According to one embodiment, the device 10 may calculate the distance between the ship and another object using feature points of the ship obtained from a camera image. For example, the device 10 may calculate the distance between a ship and another ship or a quay wall using feature points of the ship obtained from a camera image.

일 실시예에 따르면, 장치(10)는 시점이 변환된 이미지를 이용하여 선박의 특징 포인트를 생성할 수 있다. 예를 들어, 장치(10)는 이미지 내의 선박 영이 기준 평면에 투영된 변환 이미지를 이용하여 선박의 특징 포인트를 생성할 수 있다. According to one embodiment, the device 10 may generate feature points of a ship using an image whose viewpoint has been converted. For example, the device 10 may generate feature points of a ship using a converted image in which the ship spirit in the image is projected onto a reference plane.

도 18은 일 실시예에 따른 시점이 변환된 이미지를 이용한 선박의 특징 포인트 생성 방법의 순서도이다. 도 18을 참고하면 일 실시예에 따른 시점이 변환된 이미지를 이용한 선박의 특징 포인트 생성 방법은 카메라 이미지로부터 선박 영역을 검출하는 단계(S2010), 기준 평면에 선박 영역을 투영하여 변환 이미지를 생성하는 단계(S2020) 및 변환 이미지에서 선박의 특징 포인트를 획득하는 단계(S2030)를 포함할 수 있다.Figure 18 is a flowchart of a method for generating feature points of a ship using an image whose viewpoint has been converted according to an embodiment. Referring to FIG. 18, a method of generating feature points of a ship using an image whose viewpoint has been converted according to an embodiment includes detecting a ship area from a camera image (S2010), and generating a converted image by projecting the ship area on a reference plane. It may include a step (S2020) and a step of acquiring feature points of the ship from the converted image (S2030).

장치(10)는 카메라 이미지로부터 선박 영역을 검출할 수 있다(S2010). The device 10 can detect the vessel area from the camera image (S2010).

예를 들어, 장치(10)는 인공신경망을 이용하여 이미지 내에서 선박에 대응하는 영역을 검출할 수 있다. 일 예로, 장치(10)는 인공신경망을 이용하여 이미지로부터 세그멘테이션 이미지를 생성하고, 객체 유형이 선박을 나타내는 객체 정보로 라벨링된 픽셀이 위치한 영역을 선박에 대응하는 영역으로 검출할 수 있다. 장치(10)는 상술한 기재에 한정되지 않으며, 이미지 디텍션을 통해 선박에 대응하는 영역을 결정하는 등 다른 방식으로 이미지 내의 선박에 대응하는 영역을 검출해도 무방하다.For example, the device 10 can detect an area corresponding to a ship within an image using an artificial neural network. As an example, the device 10 may generate a segmentation image from an image using an artificial neural network, and detect an area where a pixel labeled with object information whose object type represents a ship is located as an area corresponding to the ship. The device 10 is not limited to the above-described description, and may detect the area corresponding to the ship in the image in other ways, such as determining the area corresponding to the ship through image detection.

장치(10)는 기준 평면에 선박 영역을 투영하여 변환 이미지를 생성할 수 있다(S2020). The device 10 may generate a converted image by projecting the vessel area on the reference plane (S2020).

예를 들어, 장치(10)는 선박의 갑판 높이에서의 기준 평면으로, 선박의 영역이 투영된 변환 이미지를 생성할 수 있다. 일 예로, 장치(10)는 인공신경망을 이용하여 이미지로부터 세그멘테이션 이미지를 생성하고, 객체 유형이 선박의 갑판 또는 선박의 측면을 나타내는 객체 정보로 라벨링된 픽셀이 위치한 영역들에 기초하여 선박의 측면과 갑판이 접하는 부분의 위치를 획득할 수 있고 획득한 갑판의 위치를 기준 평면으로 선박의 영역을 투영시킬 수 있다. 다른 일예로, 장치(10)는 카메라 이미지에 정합되는 라이다 데이터를 이용하여 이미지 내의 선박의 갑판의 위치를 획득할 수 있고, 획득한 갑판의 위치를 기준 평면으로 선박의 영역을 투영시킬 수 있다.For example, the device 10 may generate a converted image in which the area of the ship is projected onto a reference plane at the deck height of the ship. As an example, the device 10 generates a segmentation image from an image using an artificial neural network, and the object type is the side and side of the ship based on areas where pixels labeled with object information representing the deck of the ship or the side of the ship are located. The location of the part where the deck touches can be acquired, and the acquired location of the deck can be projected onto the reference plane to project the area of the ship. As another example, the device 10 can acquire the position of the deck of the ship in the image using lidar data matched to the camera image, and project the area of the ship from the acquired position of the deck to the reference plane. .

다른 예를 들어, 장치(10)는 해수면을 기준 평면으로, 선박의 영역이 투영된 변환 이미지를 생성할 수 있다. 일 예로, 장치(10)는 인공신경망을 이용하여 이미지로부터 세그멘테이션 이미지를 생성하고, 객체 유형이 선박 또는 바다를 나타내는 객체 정보로 라벨링된 픽셀이 위치한 영역들에 기초하여 선박과 해수면이 접하는 부분의 위치를 획득할 수 있고 획득한 해수면의 위치를 기준 평면으로 선박의 영역을 투영시킬 수 있다. As another example, the device 10 may generate a converted image in which the area of the ship is projected using the sea level as a reference plane. As an example, the device 10 generates a segmentation image from an image using an artificial neural network, and positions the portion where the ship and the sea surface come into contact based on areas where pixels labeled with object information representing the object type are ships or the sea. can be obtained, and the obtained sea level position can be projected onto the reference plane to project the area of the ship.

장치(10)는 상술한 기재에 한정되지 않으며, 이미지 디텍션을 통해 갑판의 위치를 획득하거나 안벽을 기준 평면으로 선박 영역을 투영시키는 등 다른 방식으로 변환 이미지를 생성해도 무방하다.The device 10 is not limited to the above-described description, and may generate a converted image in other ways, such as acquiring the position of the deck through image detection or projecting the ship area from the quay wall to a reference plane.

장치(10)는 변환 이미지에서 선박의 특징 포인트를 획득할 수 있다(S2030). The device 10 may acquire feature points of the ship from the converted image (S2030).

예를 들어, 장치(10)는 변환 이미지에서 선박들 사이의 거리를 계산하기 위한 선박의 특징 포인트를 결정할 수 있다. 일 예로, 장치(10)는 선박의 갑판 높이에서의 기준 평면으로 선박의 영역이 투영된 변환 이미지에서 선박의 선수 및/또는 선수에 대응하는 포인트를 획득하고, 이를 이용하여 선박들 사이의 거리를 계산할 수 있다. For example, device 10 may determine feature points of ships to calculate distances between ships in the converted image. As an example, the device 10 acquires a point corresponding to the bow and/or bow of the ship in a converted image in which the area of the ship is projected onto a reference plane at the deck height of the ship, and uses this to determine the distance between ships. It can be calculated.

다른 예를 들어, 장치(10)는 변환 이미지에서 선박과 안벽 사이의 거리를 계산하기 위한 선박의 특징 포인트를 결정할 수 있다. 일 예로, 장치(10)는 해수면을 기준 평면으로 선박의 영역이 투영된 변환 이미지에서 선박의 선수 및/또는 선수에 대응하는 포인트를 획득하고, 이를 이용하여 선박과 안벽 사이의 거리를 계산할 수 있다. As another example, device 10 may determine feature points of a ship to calculate the distance between the ship and the quay in the converted image. As an example, the device 10 obtains points corresponding to the bow and/or bow of the ship from a converted image in which the area of the ship is projected on the sea level as a reference plane, and uses this to calculate the distance between the ship and the quay wall. .

장치(10)는 상술한 기재에 한정되지 않으며, 이미지 디텍션을 통해 갑판의 위치를 획득하거나 안벽을 기준 평면으로 선박 영역을 투영시키는 등 다른 방식으로 변환 이미지를 생성해도 무방하다.The device 10 is not limited to the above-described description, and may generate a converted image in other ways, such as acquiring the position of the deck through image detection or projecting the ship area from the quay wall to a reference plane.

도 19는 일 실시예에 따른 변환 이미지의 예시이다. 변환 이미지에서는 기준 평면으로의 선박 영역의 투영으로 인해 왜곡 현상이 발생할 수 있고, 기준 평면과 멀어질수록 왜곡 현상이 심해질 수 있으며, 기준 평면에서는 왜곡이 발생하지 않을 수 있다.Figure 19 is an example of a converted image according to an embodiment. In the converted image, distortion may occur due to the projection of the vessel area onto the reference plane. Distortion may become more severe as the distance from the reference plane increases, and distortion may not occur in the reference plane.

도 19(a)를 참고하면 일 실시예에 따른 장치(10)는 해수면에서의 기준 평면(401)으로 선박의 영역이 투영된 변환 이미지를 생성하고, 이를 이용하여 거리 계산을 위한 선박의 특징 포인트를 결정할 수 있다.Referring to FIG. 19(a), the device 10 according to an embodiment generates a converted image in which the area of the ship is projected onto the reference plane 401 at sea level, and uses this to create feature points of the ship for distance calculation. can be decided.

예를 들어, 장치(10)는 변환 이미지에서의 선박과 해수면이 접하는 라인의 임의의 포인트를 선박의 특징 포인트로 결정할 수 있다. 일예로, 장치(10)는 변환 이미지에서의 선박과 해수면이 접하는 라인의 선수 쪽의 임의의 포인트(403)를 이용하여 선박의 선수와 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. 다른 일예로, 장치(10)는 변환 이미지에서의 선박과 해수면이 접하는 라인의 선미 쪽의 임의의 포인트(402)를 이용하여 선박의 선미와 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. For example, the device 10 may determine an arbitrary point on the line where the ship and the sea surface in the converted image are in contact as the feature point of the ship. As an example, the device 10 may calculate the distance between the bow of the ship and the quay or another ship using an arbitrary point 403 on the bow side of the line where the ship and the sea surface contact in the converted image. As another example, the device 10 may calculate the distance between the stern of the ship and the quay wall or another ship using an arbitrary point 402 on the stern side of the line where the ship and the sea surface meet in the converted image.

다른 예를 들어, 장치(10)는 변환 이미지에서의 선박의 선수 및 선미의 끝단에 위치하는 포인트를 선박의 특징 포인트로 결정할 수 있다. 일예로, 장치(10)는 변환 이미지에서의 선박의 선수 끝단의 포인트(405)를 이용하여 선박과 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. 다른 일예로, 장치(10)는 변환 이미지에서의 선박의 선미 끝단의 포인트(406)를 이용하여 선박과 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다.For another example, the device 10 may determine points located at the ends of the bow and stern of the ship in the converted image as feature points of the ship. As an example, the device 10 may calculate the distance between the vessel and the quay or another vessel using the point 405 of the bow end of the vessel in the converted image. As another example, the device 10 may calculate the distance between the ship and the quay or another ship using the point 406 of the stern end of the ship in the converted image.

장치(10)는 상술한 기재에 한정되지 않으며, 변환 이미지에서의 선박의 영역을 다각형화하여 추출되는 선박의 특징 포인트를 이용하여 선박과 다른 선박 또는 안벽 사이의 거리를 계산하는 등 다른 방식으로 거리 계산을 해도 무방하다. The device 10 is not limited to the above-described description, and may be used in other ways, such as calculating the distance between the ship and another ship or a quay wall using feature points of the ship extracted by polygonizing the area of the ship in the converted image. It is okay to do the calculation.

도 19(b)를 참고하면 일 실시예에 따른 장치(10)는 선박의 갑판 높이에서의 기준 평면(411)으로 선박의 영역이 투영된 변환 이미지를 생성하고, 이를 이용하여 거리 계산을 위한 선박의 특징 포인트를 결정할 수 있다.Referring to FIG. 19(b), the device 10 according to an embodiment generates a converted image in which the area of the ship is projected onto the reference plane 411 at the deck height of the ship, and uses this to calculate the distance between the ship and the ship. The characteristic points of can be determined.

예를 들어, 장치(10)는 변환 이미지에서의 선박의 측면과 선박의 갑판 영역이 접하는 라인의 임의의 포인트를 선박의 특징 포인트로 결정할 수 있다. 일예로, 장치(10)는 변환 이미지에서의 선박의 측면과 선박의 갑판 영역이 접하는 라인의 선수 쪽의 임의의 포인트(413)를 이용하여 선박의 선수와 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. 다른 일예로, 장치(10)는 변환 이미지에서의 선박의 측면과 선박의 갑판 영역이 접하는 라인의 선미 쪽의 임의의 포인트(414)를 이용하여 선박의 선미와 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. For example, the device 10 may determine an arbitrary point on a line where the side of the ship and the deck area of the ship in the converted image are in contact as the feature point of the ship. As an example, the device 10 may calculate the distance between the bow of the ship and the quay or another ship using an arbitrary point 413 on the bow side of the line where the side of the ship and the deck area of the ship are in contact in the converted image. there is. In another example, the device 10 may calculate the distance between the stern of the ship and the quay or another ship using an arbitrary point 414 on the stern side of the line where the side of the ship and the deck area of the ship are in contact in the converted image. You can.

다른 예를 들어, 장치(10)는 변환 이미지에서의 선박의 선수 및 선미의 끝단에 위치하는 포인트를 선박의 특징 포인트로 결정할 수 있다. 일예로, 장치(10)는 변환 이미지에서의 선박의 선수 끝단의 포인트(415)를 이용하여 선박과 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. 다른 일예로, 장치(10)는 변환 이미지에서의 선박의 선미 끝단의 포인트(416)를 이용하여 선박과 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다.For another example, the device 10 may determine points located at the ends of the bow and stern of the ship in the converted image as feature points of the ship. As an example, the device 10 may calculate the distance between the ship and the quay or another ship using the point 415 of the bow end of the ship in the converted image. As another example, the device 10 may calculate the distance between the ship and the quay or another ship using the point 416 of the stern end of the ship in the converted image.

장치(10)는 상술한 기재에 한정되지 않으며, 변환 이미지에서의 선박의 영역을 다각형화하여 추출되는 선박의 특징 포인트를 이용하여 선박과 다른 선박 또는 안벽 사이의 거리를 계산하는 등 다른 방식으로 거리 계산을 해도 무방하다. The device 10 is not limited to the above-described description, and may be used in other ways, such as calculating the distance between the ship and another ship or a quay wall using feature points of the ship extracted by polygonizing the area of the ship in the converted image. It is okay to do the calculation.

도 20은 일 실시예에 따른 선박 사이의 거리 계산을 설명하기 위한 도면이다. 도 20을 참고하면, 장치(10)는 이미지 내의 각 선박의 영역을 서로 다른 기준 평면에 투영시켜 선박 사이의 거리를 계산할 수 있다.Figure 20 is a diagram for explaining calculation of the distance between ships according to an embodiment. Referring to FIG. 20, the device 10 can calculate the distance between ships by projecting the area of each ship in the image onto a different reference plane.

장치(10)는 카메라 이미지로부터 제1 선박 영역(421) 및 제2 선박 영역(422)을 검출할 수 있다. 예를 들어, 장치(10)는 인공 신경망을 이용하여 제1 선박 영역(421) 및 제2 선박 영역(422)을 검출할 수 있다. 이에 대해서는 상술한 설명이 적용될 수 있으므로 자세한 설명은 생략하기로 한다.Device 10 may detect a first vessel area 421 and a second vessel area 422 from the camera image. For example, the device 10 may detect the first vessel area 421 and the second vessel area 422 using an artificial neural network. Since the above description can be applied to this, detailed description will be omitted.

장치(10)는 검출된 제1 선박 영역(421) 및 제2 선박 영역(422)을 각 선박의 갑판 높이에서의 기준 평면 각각에 투영시켜 변환 이미지를 생성할 수 있다. 예를 들어, 장치(10)는 검출된 제1 선박 영역(421)을 제1 선박의 갑판 높이에서의 제1 기준 평면(425)에 투영시켜 제1 변환 이미지(423)를 생성할 수 있고, 장치(10)는 검출된 제2 선박 영역(422)을 제2 선박의 갑판 높이에서의 제2 기준 평면(426)에 투영시켜 제2 변환 이미지(424)를 생성할 수 있다. 이에 대해서는 상술한 설명이 적용될 수 있으므로 자세한 설명은 생략하기로 한다.The device 10 may generate a converted image by projecting the detected first ship area 421 and the second ship area 422 onto each reference plane at the deck height of each ship. For example, the device 10 may generate the first transformed image 423 by projecting the detected first vessel area 421 onto a first reference plane 425 at the deck level of the first vessel, The device 10 may generate a second converted image 424 by projecting the detected second vessel area 422 onto a second reference plane 426 at deck height of the second vessel. Since the above description can be applied to this, detailed description will be omitted.

장치(10)는 변환 이미지들 각각을 이용하여 각 선박의 특징 포인트를 획득할 수 있다. The device 10 may acquire feature points of each ship using each of the converted images.

장치(10)는 제1 변환 이미지(423)에서 제1 선박과 제2 선박과의 거리 계산을 위해 제1 선박의 선수 및/또는 선미에 대응되는 위치의 포인트를 특징 포인트를 결정할 수 있다. 예를 들어, 장치(10)는 제1 변환 이미지(423)에서 제1 선박 영역의 양 끝단의 포인트 중 하나를 특징 포인트로 획득할 수 있다. 여기서, 제1 선박 영역의 양 끝단의 포인트 중 제2 선박과 가까운 쪽에 위치한 포인트(427)를 선박의 특징 포인트로 결정할 수 있다. The device 10 may determine a point at a location corresponding to the bow and/or stern of the first ship as a feature point in the first converted image 423 to calculate the distance between the first ship and the second ship. For example, the device 10 may acquire one of the points at both ends of the first ship area in the first converted image 423 as a feature point. Here, among the points at both ends of the first ship area, the point 427 located on the side closer to the second ship can be determined as the feature point of the ship.

장치(10)는 제2 변환 이미지(424)에서 제2 선박과 제1 선박과의 거리 계산을 위해 제2 선박의 선수 및/또는 선미에 대응되는 위치의 포인트를 특징 포인트를 결정할 수 있다. 예를 들어, 장치(10)는 제2 변환 이미지(424)에서 제2 선박 영역의 양 끝단의 포인트 중 하나를 특징 포인트로 획득할 수 있다. 여기서, 제2 선박 영역의 양 끝단의 포인트 중 제1 선박과 가까운 쪽에 위치한 포인트(428)를 선박의 특징 포인트로 결정할 수 있다. 이에 대해서는 상술한 설명이 적용될 수 있으므로 자세한 설명은 생략하기로 한다.The device 10 may determine a point at a location corresponding to the bow and/or stern of the second ship as a feature point in the second converted image 424 to calculate the distance between the second ship and the first ship. For example, the device 10 may acquire one of the points at both ends of the second ship area in the second converted image 424 as a feature point. Here, among the points at both ends of the second ship area, the point 428 located on the side closer to the first ship can be determined as the feature point of the ship. Since the above description can be applied to this, detailed description will be omitted.

장치(10)는 각 변환 이미지(423, 424)에서 획득한 제1 선박 및 제2 선박의 특징 포인트들을 이용하여 제1 선박과 제2 선박 사이의 거리를 계산할 수 있다. 예를 들어, 장치(10)는 제1 선박 및 제2 선박의 특징 포인트들(427, 428) 사이의 픽셀 수에 기초하여 제1 선박과 제2 선박 사이의 거리를 계산할 수 있다. 다른 예를 들어, 장치(10)는 제1 선박 및 제2 선박의 특징 포인트들(427, 428)에 정합된 라이다 데이터에 기초하여 제1 선박과 제2 선박 사이의 거리를 계산할 수 있다. 이에 대해서는 상술한 설명이 적용될 수 있으므로 자세한 설명은 생략하기로 한다.The device 10 may calculate the distance between the first ship and the second ship using the feature points of the first ship and the second ship obtained from each converted image 423 and 424. For example, device 10 may calculate the distance between the first and second ships based on the number of pixels between the feature points 427 and 428 of the first and second ships. As another example, the device 10 may calculate the distance between the first ship and the second ship based on LiDAR data matched to the feature points 427 and 428 of the first ship and the second ship. Since the above description can be applied to this, detailed description will be omitted.

일 실시예에 따르면 장치(10)는 라이다 데이터로부터 획득한 선박의 특징 포인트를 이용하여 선박과 다른 오브젝트 사이의 거리를 계산할 수 있다. 예를 들어, 장치(10)는 라이다 데이터로부터 획득한 선박의 특징 포인트를 이용하여 선박과 다른 선박 또는 안벽 사이의 거리를 계산할 수 있다. 일예로, 장치(10)는 선박의 양끝단으로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용하여 선박과 다른 선박 사이의 거리를 계산할 수 있다. 다른 일예로, 장치(10)는 선박과 해수면이 접하는 부분으로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용하여 선박과 안벽 사이의 거리를 계산할 수 있다.According to one embodiment, the device 10 may calculate the distance between the ship and another object using feature points of the ship obtained from LIDAR data. For example, the device 10 may calculate the distance between a ship and another ship or a quay wall using feature points of the ship obtained from LIDAR data. As an example, the device 10 may calculate the distance between a ship and another ship using LiDAR points related to LiDAR beams reflected from both ends of the ship. As another example, the device 10 may calculate the distance between the ship and the quay using a LiDAR point related to a LiDAR beam reflected from a portion where the ship and the sea surface come into contact.

다만, 라이다 센서가 저성능이거나 라이다 센서가 설치되는 장소의 제약 등이 있는 경우, 선박 또는 항만의 모니터링을 하기에 불충분한 라이다 데이터를 획득할 수 있다. 이에 선박 또는 항만의 모니터링을 하기에 불충분한 라이다 데이터의 보완이 필요할 수 있다.However, if the LiDAR sensor has low performance or there are restrictions on the location where the LiDAR sensor is installed, insufficient LiDAR data may be obtained for monitoring a ship or port. Accordingly, it may be necessary to supplement lidar data that is insufficient for monitoring ships or ports.

이를 위해 일 실시예에 따르면 장치(10)는 획득한 라이다 데이터로부터 새로운 라이다 데이터를 추정할 수 있다. 예를 들어, 장치(10)는 획득한 라이다 데이터를 이용하여 선박과 관련된 라이다 포인트를 새롭게 추정할 수 있다. 일 예로, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 내삽 또는 외삽하여 선박과 관련된 라이다 포인트를 추정할 수 있다.To this end, according to one embodiment, the device 10 may estimate new LIDAR data from the acquired LIDAR data. For example, the device 10 may newly estimate a LiDAR point related to a ship using the acquired LiDAR data. As an example, the device 10 may estimate the LiDAR point related to the ship by interpolating or extrapolating LiDAR points related to the LiDAR beam reflected from the ship.

도 21은 일 실시예에 따른 라이다 포인트 추정 방법의 순서도이다. 도 21을 참고하면 일 실시예에 따른 라이다 포인트 추정 방법은 카메라 이미지 및 라이다 데이터를 정합하는 단계(S1010) 및 정합된 카메라 이미지 및 라이다 데이터를 이용하여 라이다 포인트를 추정하는 단계(S1020)를 포함할 수 있다.Figure 21 is a flowchart of a lidar point estimation method according to an embodiment. Referring to FIG. 21, the LiDAR point estimation method according to an embodiment includes matching camera images and LiDAR data (S1010) and estimating LiDAR points using the matched camera image and LiDAR data (S1020). ) may include.

장치(10)는 카메라 이미지 및 라이다 데이터를 정합할 수 있다(S1010). The device 10 can match camera images and lidar data (S1010).

일 실시예에 따르면 장치(10)는 정합을 위한 정보를 이용하여 카메라 이미지 및 라이다 데이터를 정합할 수 있다. 예를 들어, 장치(10)는 카메라 이미지 상의 좌표계와 라이다 데이터 상의 좌표계를 일치시켜 카메라 이미지 및 라이다 데이터를 정합할 수 있다. 즉, 카메라 이미지와 라이다 데이터의 좌표계는 서로 변환이 가능할 수 있다.According to one embodiment, the device 10 can match camera images and LIDAR data using information for matching. For example, the device 10 may match the camera image and LiDAR data by matching the coordinate system on the camera image and the coordinate system on the LiDAR data. In other words, the coordinate systems of the camera image and LIDAR data may be converted to each other.

장치(10)는 카메라의 설치 위치, 카메라의 설치 각도, 라이다 센서의 설치 위치, 라이다 센서의 설치 각도 등을 고려하여 카메라 이미지 및 라이다 데이터를 정합할 수 있다. 여기서, 장치(10)는 계산된 해수면 높이를 반영하여 카메라 이미지 및 라이다 데이터를 재정합할 수도 있다. 일 예로, 장치(10)는 라이다 데이터와 카메라 이미지의 정합 시, 계산된 해수면 높이를 데이터 변환의 변수로 사용하여 카메라 이미지 및 라이다 데이터를 재정합할 수도 있다.The device 10 can match camera images and LiDAR data by considering the installation location of the camera, the installation angle of the camera, the installation location of the LiDAR sensor, the installation angle of the LiDAR sensor, etc. Here, the device 10 may re-harmonize the camera image and lidar data by reflecting the calculated sea level height. As an example, when matching LiDAR data and camera images, the device 10 may re-harmonize the camera image and LiDAR data by using the calculated sea level height as a data conversion variable.

도 22는 일 실시예에 따른 카메라 이미지 및 라이다 데이터의 정합의 예시이다. 도 22(a)를 참고하면, 선석에 설치된 카메라로부터 획득한 이미지와 동일한 영역에 대해 스캔하는 라이다 센서로부터 획득한 라이다 데이터가 정합된 것을 볼 수 있다. Figure 22 is an example of matching camera images and LIDAR data according to one embodiment. Referring to FIG. 22(a), you can see that the image acquired from the camera installed on the berth and the LiDAR data obtained from the LiDAR sensor scanning the same area are matched.

일 실시예에 다르면, 장치(10)는 세그멘테이션 이미지를 라이다 데이터와 정합시킬 수 있다. 예를 들어, 장치(10)는 카메라로부터 획득한 이미지로부터 인공신경망을 이용하여 세그멘테이션 이미지를 생성하고, 생성된 세그멘테이션 이미지를 라이다 데이터와 정합시킬 수 있다. 도 22(b)를 참고하면, 선석에 설치된 카메라로부터 획득한 이미지와 동일한 영역에 대해 스캔하는 라이다 센서로부터 획득한 라이다 데이터가 정합된 것을 볼 수 있다.According to one embodiment, device 10 may match segmentation images with LIDAR data. For example, the device 10 may generate a segmentation image using an artificial neural network from an image acquired from a camera and match the generated segmentation image with LIDAR data. Referring to FIG. 22(b), you can see that the image acquired from the camera installed on the berth and the LiDAR data obtained from the LiDAR sensor scanning the same area are matched.

카메라 이미지 및 라이다 데이터의 정합은 상술한 기재에 한정되지 않으며, 인공신경망을 이용하여 디텍션된 이미지와 라이다 데이터가 정합되는 등 다른 방식으로 구현되어도 무방하다.Matching camera images and LiDAR data is not limited to the above description, and may be implemented in other ways, such as matching images detected using an artificial neural network and LiDAR data.

다시 도 21로 돌아와서 설명하도록 한다.Let us return to Figure 21 again for explanation.

장치(10)는 정합된 카메라 이미지 및 라이다 데이터를 이용하여 라이다 포인트를 추정할 수 있다(S1020).The device 10 can estimate the LiDAR point using the matched camera image and LiDAR data (S1020).

일 실시예에 따르면, 장치(10)는 라이다 데이터의 복수의 라이다 포인트 중 라이다 데이터와 정합된 이미지를 이용하여 추정 라이다 포인트를 생성할 수 있다. 예를 들어, 장치(10)는 이미지 내의 바다와 대응하는 영역에 정합된 라이다 포인트를 이용하여 바다와 관련된 추정 라이다 포인트를 새롭게 생성할 수 있다. 다른 예를 들어, 장치(10)는 이미지 내의 선박의 영역에 정합된 라이다 포인트를 이용하여 선박과 관련된 추정 라이다 포인트를 새롭게 생성할 수 있다.According to one embodiment, the device 10 may generate an estimated LiDAR point using an image matched with the LiDAR data among a plurality of LiDAR points of the LiDAR data. For example, the device 10 may generate a new estimated LiDAR point related to the sea using the LiDAR point registered to the area corresponding to the sea in the image. As another example, device 10 may generate a new estimated LiDAR point related to a ship using a LiDAR point registered to an area of the ship in an image.

도 23은 일 실시예에 따른 추정 라이다 포인트를 고려한 선박의 특징 포인트 생성 방법의 순서도이다. 도 23을 참고하면 일 실시예에 따른 추정 라이다 포인트를 고려한 선박의 특징 포인트 생성 방법은 카메라 이미지로부터 선박 영역을 검출하는 단계(S2110), 검출된 선박 영역에 기초하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택하는 단계(S2120), 선택된 라이다 포인트들을 이용하여 선박과 관련된 라이다 포인트를 추정하는 단계(S2130) 및 추정된 라이다 포인트 고려하여 선박의 특징 포인트를 생성하는 단계(S2140)를 포함할 수 있다. Figure 23 is a flowchart of a method for generating feature points of a ship considering estimated LiDAR points according to an embodiment. Referring to FIG. 23, a method of generating feature points of a ship considering an estimated LiDAR point according to an embodiment includes detecting a ship area from a camera image (S2110), a LiDAR beam reflected from the ship based on the detected ship area, A step of selecting LiDAR points related to (S2120), a step of estimating a LiDAR point related to the ship using the selected LiDAR points (S2130), and a step of generating feature points of the ship by considering the estimated LiDAR points ( S2140) may be included.

장치(10)는 카메라 이미지로부터 선박 영역을 검출할 수 있다(S2110). The device 10 can detect the vessel area from the camera image (S2110).

카메라 이미지와 라이다 데이터는 서로 대응할 수 있고, 정합될 수 있다. 이에 대해서는 상술한 내용이 적용될 수 있으며, 자세한 설명은 생략하기로 한다.Camera images and LIDAR data can correspond to each other and be matched. The above-described content can be applied to this, and detailed explanation will be omitted.

장치(10)는 검출된 선박 영역에 기초하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다(S2120).The device 10 may select LiDAR points related to the LiDAR beam reflected from the vessel based on the detected vessel area (S2120).

장치(10)는 검출된 이미지 내의 선박에 대응하는 영역을 이용하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. 예를 들어, 장치(10)는 이미지 내의 선박에 대응하는 영역에 포함된 픽셀들의 픽셀 위치를 고려하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. The device 10 may select LiDAR points related to the LiDAR beam reflected from the vessel using the area corresponding to the vessel in the detected image. For example, the device 10 may select LiDAR points related to the LiDAR beam reflected from the vessel by considering the pixel positions of pixels included in the area corresponding to the vessel in the image.

도 24는 일 실시예에 따른 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 일 예시이다. 도 24(a)를 참고하면, 장치(10)는 이미지와 정합된 라이다 포인트들 중 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(431)을 선택할 수 있다. 예를 들어, 장치(10)는 복수의 라이다 포인트들 중 이미지 내의 선박에 대응하는 영역에 포함된 픽셀들에 정합된 라이다 포인트들을 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(431)로 선택할 수 있다. Figure 24 is an example of LiDAR points related to a LiDAR beam reflected from a ship according to an embodiment. Referring to FIG. 24(a), the device 10 may select the LiDAR points 431 related to the LiDAR beam reflected from the ship among the LiDAR points matched with the image. For example, the device 10 selects LiDAR points matched to pixels included in the area corresponding to the ship in the image among the plurality of LiDAR points as LIDAR points 431 related to the LIDAR beam reflected from the ship. ) can be selected.

도 24(b)를 참고하면, 장치(10)는 세그멘테이션 이미지와 정합된 라이다 포인트들 중 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(432)을 선택할 수도 있다. Referring to FIG. 24(b), the device 10 may select LiDAR points 432 related to the LiDAR beam reflected from the ship among the LiDAR points matched with the segmentation image.

또한 후술하겠지만, 장치(10)는 기준 평면에 선박 영역이 투영된 변환 이미지와 정합된 라이다 포인트들 중 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택하는 것도 가능하다. Additionally, as will be described later, the device 10 is also capable of selecting LiDAR points related to the LiDAR beam reflected from the ship from among the LiDAR points matched with the converted image in which the ship area is projected on the reference plane.

도 24에 한정되지 않고, 디텍션된 이미지가 사용되는 등 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 선택은 상술한 기재에 한정되지 않으며 다른 방식으로 구현되어도 무방하다. 일 실시예에 따르면, 장치(10)는 라이다 데이터만을 이용하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. 예를 들어, 장치(10)는 라이다 데이터의 분포, 개수 등을 고려하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. 24, the selection of LiDAR points related to the LiDAR beam reflected from the ship, such as when a detected image is used, is not limited to the above description and may be implemented in other ways. According to one embodiment, the device 10 may select LiDAR points related to the LiDAR beam reflected from the ship using only LiDAR data. For example, the device 10 may select LiDAR points related to the LiDAR beam reflected from the ship by considering the distribution and number of LiDAR data.

다시 도 23으로 돌아와서 설명하도록 한다.Let us return to Figure 23 again for explanation.

장치(10)는 선택된 라이다 포인트들을 이용하여 선박과 관련된 라이다 포인트를 추정할 수 있다(S2130).The device 10 can estimate the LiDAR point related to the ship using the selected LiDAR points (S2130).

예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 내삽 또는 외삽하여 새로운 라이다 포인트를 추정할 수 있다. 일 예로, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 좌표를 이용하여 상대적인 위치를 고려하여 각 라이다 포인트들을 내삽 또는 외삽하여 새로운 라이다 포인트를 추정할 수 있다For example, the device 10 may estimate a new LiDAR point by interpolating or extrapolating LiDAR points related to the LiDAR beam reflected from the ship. As an example, the device 10 may estimate a new LiDAR point by interpolating or extrapolating each LiDAR point in consideration of its relative position using the coordinates of the LiDAR points related to the LiDAR beam reflected from the ship.

일 실시예에 따르면, 장치(10)는 기준 평면으로 선박 영역이 투영된 변환 이미지를 이용하여 새로운 라이다 포인트를 추정할 수 있다. 예를 들어, 장치(10)는 해수면을 기준 평면으로 선박 영역이 투영된 변환 이미지를 이용하여 새로운 라이다 포인트를 추정할 수 있다. 다른 예를 들어, 장치(10)는 선박의 갑판 높이에서의 영역을 기준 평면으로 선박 영역이 투영된 변환 이미지를 이용하여 새로운 라이다 포인트를 추정할 수 있다.According to one embodiment, the device 10 may estimate a new LiDAR point using a converted image in which the vessel area is projected onto a reference plane. For example, the device 10 may estimate a new LiDAR point using a converted image in which the ship area is projected on the sea level as a reference plane. For another example, the device 10 may estimate a new LiDAR point using a converted image in which the area at the deck height of the ship is projected onto the reference plane.

도 25 및 도 26은 일 실시예에 따른 기준 평면에 투영된 선박 영역에 정합된 라이다 포인트를 이용한 추정 라이다 포인트의 생성을 설명하기 위한 도면이다. Figures 25 and 26 are diagrams for explaining the creation of an estimated LiDAR point using a LiDAR point registered to a ship area projected on a reference plane according to an embodiment.

도 25를 참고하면, 해수면(441)을 기준 평면으로 선박 영역이 투영된 변환 이미지와 라이다 포인트는 서로 정합될 수 있다. 선박과 해수면이 접하는 영역에 위치한 라이다 포인트들(442)은 서로 동일한 높이값을 갖기 때문에, 동일한 상기 영역에 위치한 라이다 포인트들(442)을 내삽 및/또는 외삽하여 추정 라이다 포인트들(443, 444, 445)을 생성할 수 있다. 예를 들어, 장치(10)는 선박과 해수면이 접하는 영역(441)에 위치한 라이다 포인트들(442)을 내삽하여 추정 라이다 포인트(443)를 생성할 수 있다. 다른 예를 들어, 장치(10)는 선박과 해수면이 접하는 영역(441)에 위치한 라이다 포인트들(442)을 외삽하여 추정 라이다 포인트들(444, 445)을 생성할 수 있다. 여기서, 장치(10)는 이미지 내의 선박의 형태를 고려하여 라이다 포인트들을 추정할 수 있다. Referring to FIG. 25, the converted image in which the ship area is projected with the sea level 441 as the reference plane and the lidar point may be matched to each other. Since the LiDAR points 442 located in the area where the ship and the sea surface contact each other have the same height value, the estimated LiDAR points 443 are obtained by interpolating and/or extrapolating the LiDAR points 442 located in the same area. , 444, 445) can be generated. For example, the device 10 may generate an estimated LiDAR point 443 by interpolating LiDAR points 442 located in an area 441 where the ship and the sea surface contact. For another example, the device 10 may generate estimated LiDAR points 444 and 445 by extrapolating the LiDAR points 442 located in the area 441 where the ship and the sea surface contact. Here, the device 10 can estimate LiDAR points by considering the shape of the ship in the image.

도 26을 참고하면, 선박의 갑판 높이에서의 영역(451)을 기준 평면으로 선박 영역이 투영된 변환 이미지와 라이다 포인트는 서로 정합될 수 있다. 선박의 갑판 높이 영역에 위치한 라이다 포인트들(452)은 서로 동일한 높이값을 갖기 때문에, 동일한 상기 영역에 위치한 라이다 포인트들(452)을 내삽 및/또는 외삽하여 추정 라이다 포인트들(453, 454, 455)을 생성할 수 있다. 예를 들어, 장치(10)는 선박의 갑판 높이 영역(451)에 위치한 라이다 포인트들을 내삽하여 추정 라이다 포인트(453)를 생성할 수 있다. 다른 예를 들어, 장치(10)는 선박의 갑판 높이 영역(451)에 위치한 라이다 포인트들을 외삽하여 추정 라이다 포인트들(454, 455)을 생성할 수 있다. 여기서, 장치(10)는 이미지 내의 선박의 형태를 고려하여 라이다 포인트들을 추정할 수 있다.Referring to FIG. 26, the converted image in which the ship area is projected using the area 451 at the deck height of the ship as a reference plane and the lidar point may be matched to each other. Since the LiDAR points 452 located in the deck height area of the ship have the same height value, the estimated LiDAR points 453 are obtained by interpolating and/or extrapolating the LiDAR points 452 located in the same area. 454, 455) can be generated. For example, the device 10 may generate the estimated LiDAR point 453 by interpolating LiDAR points located in the deck height area 451 of the ship. As another example, the device 10 may generate estimated LiDAR points 454 and 455 by extrapolating LiDAR points located in the deck height area 451 of the ship. Here, the device 10 can estimate LiDAR points by considering the shape of the ship in the image.

물론 장치(10)는 상술한 기재에 한정되지 않으며 동일한 높이값을 갖지 않는 영역에 위치한 라이다 포인트들을 추정하는 등 다른 방식으로 추정 라이다 포인트들을 생성해도 무방하다.Of course, the device 10 is not limited to the above description, and may generate estimated LiDAR points in other ways, such as estimating LiDAR points located in areas that do not have the same height value.

다시 도 23으로 돌아와서 설명하도록 한다.Let us return to Figure 23 again for explanation.

장치(10)는 추정된 라이다 포인트 고려하여 선박의 특징 포인트를 생성할 수 있다(S2140).The device 10 may generate feature points of the ship by considering the estimated LiDAR points (S2140).

일 실시예에 따르면, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 기존 라이다 포인트들 및 생성된 추정 라이다 포인트들 중 선박들 사이의 거리를 계산하기 위한 선박의 특징 포인트를 선택할 수 있다. 즉, 장치(10)는 선박의 갑판 높이에서의 기준 평면으로 선박의 영역이 투영된 변환 이미지와 정합된 기존 라이다 포인트들 및 상기 기존 라이다 포인트들을 외삽 및/또는 내삽하여 생성된 추정 라이다 포인트들 중 선박의 선수 및/또는 선수에 대응하는 라이다 포인트를 획득하고, 이를 이용하여 선박들 사이의 거리를 계산할 수 있다.According to one embodiment, the device 10 may select a feature point of a ship for calculating the distance between ships among existing LiDAR points and generated estimated LiDAR points related to the LiDAR beam reflected from the ship. there is. That is, the device 10 is a reference plane at the deck height of the ship and matches existing LIDAR points with a converted image in which the area of the ship is projected, and an estimated LIDAR generated by extrapolating and/or interpolating the existing LIDAR points. Among the points, a LiDAR point corresponding to the bow and/or bow of the ship can be obtained, and the distance between ships can be calculated using this.

일 실시예에 따르면, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 기존 라이다 포인트들 및 생성된 추정 라이다 포인트들 중 선박과 안벽 사이의 거리를 계산하기 위한 선박의 특징 포인트를 결정할 수 있다. 즉, 장치(10)는 해수면을 기준 평면으로 선박의 영역이 투영된 변환 이미지와 정합된 기존 라이다 포인트들 및 상기 기존 라이다 포인트들을 외삽 및/또는 내삽하여 생성된 추정 라이다 포인트들 중 선박의 선수 및/또는 선수에 대응하는 포인트를 획득하고, 이를 이용하여 선박과 안벽 사이의 거리를 계산할 수 있다. According to one embodiment, the device 10 determines a feature point of the ship for calculating the distance between the ship and the quay among the existing LiDAR points and the generated estimated LiDAR points associated with the LiDAR beam reflected from the ship. You can. That is, the device 10 selects a ship among existing LiDAR points matched with a converted image in which the area of the vessel is projected onto the sea level as a reference plane and estimated LiDAR points generated by extrapolating and/or interpolating the existing LiDAR points. Points corresponding to the bow and/or bow can be obtained and used to calculate the distance between the ship and the quay wall.

예를 들어, 장치(10)는 변환 이미지에서의 선박과 해수면이 접하는 라인에 정합된 임의의 라이다 포인트를 선박의 특징 포인트로 결정할 수 있다. 일예로, 장치(10)는 변환 이미지에서의 선박과 해수면이 접하는 라인의 선수 쪽에 정합된 임의의 라이다 포인트를 이용하여 선박의 선수와 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. 다른 일예로, 장치(10)는 변환 이미지에서의 선박과 해수면이 접하는 라인의 선미 쪽에 정합된 임의의 라이다 포인트를 이용하여 선박의 선미와 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. 여기서, 라이다 포인트는 기존 라이다 포인트 및 추정 라이다 포인트를 포함할 수 있다.For example, the device 10 may determine an arbitrary LiDAR point matched to a line where the ship and the sea surface in the converted image are in contact as a feature point of the ship. As an example, the device 10 may calculate the distance between the bow of the ship and the quay or another ship using an arbitrary LiDAR point registered on the bow side of the line where the ship and the sea surface meet in the converted image. As another example, the device 10 may calculate the distance between the stern of the ship and the quay wall or another ship using an arbitrary LiDAR point registered to the stern side of the line where the ship and the sea surface meet in the converted image. Here, the LiDAR points may include existing LiDAR points and estimated LiDAR points.

다른 예를 들어, 장치(10)는 변환 이미지에서의 선박의 선수 및 선미의 끝단에 정합된 라이다 포인트를 선박의 특징 포인트로 결정할 수 있다. 일예로, 장치(10)는 변환 이미지에서의 선박의 선수 끝단에 정합된 라이다 포인트를 이용하여 선박과 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. 다른 일예로, 장치(10)는 변환 이미지에서의 선박의 선미 끝단에 정합된 라이다 포인트를 이용하여 선박과 안벽 또는 다른 선박 사이의 거리를 계산할 수 있다. 여기서, 라이다 포인트는 기존 라이다 포인트 및 추정 라이다 포인트를 포함할 수 있다.For another example, the device 10 may determine LiDAR points registered to the ends of the bow and stern of the ship in the converted image as feature points of the ship. As an example, device 10 may calculate the distance between the ship and the quay or another ship using a LiDAR point registered to the bow end of the ship in the converted image. As another example, the device 10 may calculate the distance between the ship and the quay or another ship using a LiDAR point registered to the stern end of the ship in the converted image. Here, the LiDAR points may include existing LiDAR points and estimated LiDAR points.

장치(10)는 상술한 기재에 한정되지 않으며, 변환 이미지에서의 선박의 영역을 다각형화하고, 이에 정합되는 라이다 포인트를 이용하여 선박과 다른 선박 또는 안벽 사이의 거리를 계산하는 등 다른 방식으로 거리 계산을 해도 무방하다. The device 10 is not limited to the above-described description, and may be used in other ways, such as polygonizing the area of the ship in the converted image and calculating the distance between the ship and other ships or the quay wall using lidar points matched thereto. It is okay to calculate the distance.

장치(10)는 라이다 데이터를 이용하여 선박의 높이(갑판 높이)를 획득하고, 획득한 선박의 갑판 높이를 선박의 특징 포인트를 생성하는데 이용할 수 있다. 하지만 라이다 데이터의 부족으로 인하여 선박의 갑판 높이를 정확하게 획득하지 못하는 경우가 있을 수 있고, 이 때 장치(10)는 카메라 이미지를 어떤 평면을 기준 평면으로 삼아야 할지 결정할 수 없으며, 잘못된 평면을 기준 평면으로 하는 경우 변환 이미지에 왜곡이 심하게 발생할 수 있다. 이에, 일 실시예에 따르는 장치(10)는 선박의 갑판 높이를 정확하게 획득하지 못한 경우, 임의의 기준 평면으로 선박의 영역이 투영된 변환 이미지들을 이용하여 선박의 특징 포인트를 획득할 수 있다. The device 10 can acquire the height (deck height) of the ship using LiDAR data, and use the obtained deck height of the ship to generate characteristic points of the ship. However, there may be cases where the ship's deck height cannot be accurately acquired due to the lack of LiDAR data, and in this case, the device 10 cannot determine which plane the camera image should be used as the reference plane, and uses the wrong plane as the reference plane. If this is done, severe distortion may occur in the converted image. Accordingly, when the device 10 according to one embodiment does not accurately obtain the deck height of the ship, it can acquire feature points of the ship using converted images in which the area of the ship is projected onto an arbitrary reference plane.

일 실시예에 따르면, 장치(10)는 임의의 기준 평면으로 선박의 영역이 투영된 변환 이미지들을 이용하여 선박의 특징 포인트를 획득할 수 있다. 예를 들어, 장치(10)는 이미지 내의 선박의 영역이 서로 상이한 임의의 기준 평면에 투영된 변환 이미지들을 라이다 데이터를 이용하여 정렬시키고, 이를 이용하여 선박의 특징 포인트를 획득할 수 있다. 여기서, 장치(10)는 세그멘테이션 이미지를 사용할 수 있다. According to one embodiment, the device 10 may acquire feature points of the ship using converted images in which the area of the ship is projected onto an arbitrary reference plane. For example, the device 10 may use LIDAR data to align converted images projected onto arbitrary reference planes with different areas of the ship in the image, and use this to obtain feature points of the ship. Here, the device 10 may use a segmentation image.

도 27은 일 실시예에 따른 선박 영역이 복수의 기준 평면에 투영된 이미지들을 이용한 선박의 특징 포인트 획득 방법의 순서도이다. 도 27을 참고하면, 일 실시예에 따른 선박 영역이 복수의 기준 평면에 투영된 이미지들을 이용한 선박의 특징 포인트 획득 방법은 카메라 이미지로부터 선박 영역을 검출하는 단계(S2210), 선박 영역을 서로 상이한 임의의 기준 평면에 투영하는 단계(S2220), 서로 상이한 임의의 기준 평면에 투영된 이미지들을 정렬하는 단계(S2230) 및 정렬된 이미지들 및 라이다 포인트들을 이용하여 선박의 특징 포인트를 생성하는 단계(S2240)를 포함할 수 있다.Figure 27 is a flowchart of a method for obtaining feature points of a ship using images in which the ship area is projected onto a plurality of reference planes according to an embodiment. Referring to FIG. 27, a method of obtaining feature points of a ship using images in which the ship area is projected onto a plurality of reference planes according to an embodiment includes detecting the ship area from a camera image (S2210), and dividing the ship area into different random Projecting to a reference plane (S2220), aligning images projected to arbitrary different reference planes (S2230), and generating feature points of the ship using the aligned images and lidar points (S2240) ) may include.

장치(10)는 카메라 이미지로부터 선박 영역을 검출할 수 있다(S2210). The device 10 can detect the vessel area from the camera image (S2210).

예를 들어, 장치(10)는 인공 신경망을 이용하여 카메라 이미지를 세그멘테이션하여 세그멘테이션 이미지를 생성할 수 있다. 구체적으로, 장치(10)는 선박의 갑판 영역 및 측면 영역을 검출하는 세그멘테이션 이미지를 생성할 수 있다. 일 예로, 장치(10)는 판옵틱 세그멘테이션(Panoptic Segmentation)을 이용하여 세그멘테이션 이미지를 생성할 수 있다.For example, the device 10 may generate a segmented image by segmenting a camera image using an artificial neural network. Specifically, the device 10 may generate a segmentation image that detects the deck area and side area of the ship. As an example, the device 10 may generate a segmentation image using panoptic segmentation.

장치(10)는 선박 영역을 서로 상이한 임의의 기준 평면에 투영할 수 있다(S2220).The device 10 may project the vessel area onto arbitrary different reference planes (S2220).

예를 들어, 장치(10)는 인공 신경망을 이용하여 선박의 갑판 영역 및 측면 영역을 검출하는 세그멘테이션 이미지를 서로 상이한 기준 평면에 투영할 수 있다. 즉, 장치(10)는 세그멘테이션 이미지를 서로 상이한 제1 기준 평면 및 제2 기준 평면에 투영하여 제1 이미지 및 제2 이미지 중 적어도 하나를 생성할 수 있다.For example, the device 10 may project segmentation images that detect the deck area and side area of a ship onto different reference planes using an artificial neural network. That is, the device 10 may generate at least one of the first image and the second image by projecting the segmentation image onto different first and second reference planes.

장치(10)는 서로 상이한 임의의 기준 평면에 투영된 이미지들을 정렬할 수 있다(S2230).The device 10 can align images projected onto arbitrary different reference planes (S2230).

일 실시예에 따르면, 장치(10)는 라이다 데이터를 이용하여 서로 상이한 임의의 기준 평면에 투영된 이미지들을 정렬할 수 있다. 예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 위치에 기초하여 서로 상이한 임의의 기준 평면에 투영된 이미지들 중 적어도 하나를 정렬할 수 있다. 여기서, 투영된 이미지들은 인공 신경망을 이용하여 선박의 갑판 영역 및 측면 영역을 검출하는 세그멘테이션 이미지가 투영된 이미지일 수 있다.According to one embodiment, the device 10 can align images projected onto arbitrary different reference planes using LIDAR data. For example, the device 10 may align at least one of the images projected to arbitrary different reference planes based on the positions of LiDAR points related to the LiDAR beam reflected from the ship. Here, the projected images may be images in which a segmentation image that detects the deck area and side area of the ship using an artificial neural network is projected.

도 28 및 도 29는 일 실시예에 따른 서로 상이한 임의의 기준 평면에 투영된 이미지들의 정렬을 설명하기 위한 도면이다.FIGS. 28 and 29 are diagrams for explaining the alignment of images projected onto different arbitrary reference planes according to an embodiment.

도 28을 참고하면, 장치(10)는 기준 평면을 바꿔가면서 서로 상이한 임의의 기준 평면에 투영된 이미지들과 라이다 포인트를 정렬할 수 있다. 기준 평면이 변경됨에 따라 투영된 이미지들과 정합되는 라이다 포인트의 상대적인 위치도 바뀔 수 있다. 장치(10)는 서로 상이한 임의의 기준 평면에 투영된 이미지들의 특정 영역에 라이다 포인트들이 위치하도록 이미지들과 라이다 포인트를 정렬할 수 있다.Referring to FIG. 28, the device 10 can align the LiDAR points with images projected on arbitrary different reference planes by changing the reference plane. As the reference plane changes, the relative position of the lidar point that matches the projected images may also change. The device 10 may align images and LiDAR points so that the LiDAR points are located in specific areas of images projected on arbitrary different reference planes.

도 28(a)를 참고하면, 선박의 갑판 영역(461) 및 측면 영역(462)을 검출하는 세그멘테이션 이미지가 임의의 제1 기준 평면에 투영된 제1 이미지를 볼 수 있다. 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들이 제1 이미지에서 특정 영역에 위치하도록 라이다 포인트들과 제1 이미지를 정렬할 수 있다. 예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들과 제1 이미지를 정렬하는 경우, 제1 이미지에서 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들이 세그멘테이션 이미지의 선박의 측면 영역(462)에 대응하는 투영된 영역에 위치하도록 라이다 포인트들과 제1 이미지를 정렬할 수 있다. 일 예로, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들 중의 일부가 제1 이미지에서 선박과 해수면이 접하는 영역에 위치하도록 라이다 포인트들과 제1 이미지를 정렬할 수 있다.Referring to FIG. 28(a), a segmentation image detecting the deck area 461 and the side area 462 of the ship can be seen as a first image projected onto an arbitrary first reference plane. The device 10 may align the LiDAR points and the first image so that the LiDAR points related to the LiDAR beam reflected from the ship are located in a specific area in the first image. For example, when the device 10 aligns the LiDAR points associated with the LiDAR beam reflected from the ship and the first image, the LiDAR points associated with the LiDAR beam reflected from the ship in the first image are segmented into the segmented image. The LIDAR points and the first image may be aligned to be located in the projected area corresponding to the side area 462 of the ship. As an example, the device 10 may align the LiDAR points and the first image so that some of the LiDAR points related to the LiDAR beam reflected from the ship are located in the area where the ship and the sea surface contact in the first image. .

도 28(b)를 참고하면, 선박의 갑판 영역(463) 및 측면 영역(464)을 검출하는 세그멘테이션 이미지가 제1 기준 평면과는 상이한 임의의 제2 기준 평면에 투영된 제2 이미지를 볼 수 있다. 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들이 제2 이미지에서 특정 영역에 위치하도록 라이다 포인트들과 제2 이미지를 정렬할 수 있다. 예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들과 제2 이미지를 정렬하는 경우, 제2 이미지에서 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들이 세그멘테이션 이미지의 선박의 갑판 영역(463)에 대응하는 투영된 영역에 위치하도록 라이다 포인트들과 제2 이미지를 정렬할 수 있다. 일 예로, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들 중의 일부가 제2 이미지에서 선박의 갑판이 시작되는 영역에 위치하도록 라이다 포인트들과 제2 이미지를 정렬할 수 있다.Referring to FIG. 28(b), the segmentation image detecting the deck area 463 and the side area 464 of the ship can be seen as a second image projected onto an arbitrary second reference plane different from the first reference plane. there is. The device 10 may align the LiDAR points and the second image so that the LiDAR points related to the LiDAR beam reflected from the ship are located in a specific area in the second image. For example, when the device 10 aligns the LiDAR points associated with the LiDAR beam reflected from the ship and the second image, the LiDAR points associated with the LiDAR beam reflected from the ship in the second image are segmented into the segmented image. The LIDAR points and the second image may be aligned to be located in the projected area corresponding to the deck area 463 of the ship. As an example, device 10 may align the LiDAR points and the second image such that some of the LiDAR points associated with the LiDAR beam reflected from the ship are located in the area where the deck of the ship begins in the second image. there is.

도 29를 참고하면 라이다 포인트의 위치에 기초하여 정렬된 서로 상이한 임의의 기준 평면에 투영된 이미지들이 융합된 것을 볼 수 있다. 장치(10)는 제1 이미지 및 제2 이미지에서의 라이다 포인트의 상대적인 위치에 기초하여 라이다 포인트들과 제1 이미지 및 제2 이미지를 정렬할 수 있다. Referring to FIG. 29, it can be seen that images projected onto different arbitrary reference planes aligned based on the location of the lidar point are fused. The device 10 may align the LiDAR points and the first image and the second image based on the relative positions of the LiDAR points in the first image and the second image.

예를 들어, 장치(10)는 제1 이미지에서 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들이 세그멘테이션 이미지의 선박의 측면 영역(462)에 대응하는 투영된 영역보다 아래에 위치하고, 제2 이미지에서 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들이 세그멘테이션 이미지의 선박의 갑판 영역(463)에 대응하는 투영된 영역에 위치하도록 라이다 포인트들과 제1 이미지 및 제2 이미지를 정렬할 수 있다. For example, device 10 may configure LiDAR points associated with a LiDAR beam reflected from a vessel in the first image to be located below a projected area corresponding to the side area 462 of the vessel in the segmentation image, and in the second image The LiDAR points and the first image and the second image can be aligned so that the LiDAR points related to the LiDAR beam reflected from the ship are located in the projected area corresponding to the deck area 463 of the ship in the segmentation image. .

다시 도 27로 돌아가 설명하도록 한다.Let us return to Figure 27 again for explanation.

장치(10)는 정렬된 이미지들 및 라이다 포인트들을 이용하여 선박의 특징 포인트를 생성할 수 있다(S2240). The device 10 may generate feature points of a ship using aligned images and LiDAR points (S2240).

예를 들어, 장치(10)는 정렬된 라이다 포인트들과 투영된 제1 이미지 및 제2 이미지를 이용하여 다른 물체(일예로, 다른 선박, 안벽 등)와의 거리를 계산하는데 이용되는 선박의 특징 포인트를 획득할 수 있다.For example, the device 10 may use the aligned LIDAR points and the projected first and second images to calculate the distance to another object (e.g., another vessel, quay wall, etc.). You can earn points.

일 실시예에 따르면, 장치(10)는 정렬된 라이다 포인트들과 투영된 제1 이미지 및 제2 이미지를 이용하여 추정되는 라이다 포인트를 고려하여 선박의 특징 포인트를 획득할 수 있다.According to one embodiment, the device 10 may acquire feature points of the ship by considering the LiDAR point estimated using the aligned LiDAR points and the projected first and second images.

예를 들어, 장치(10)는 투영된 제1 이미지 및 제2 이미지와 정렬된 라이다 포인트들을 외삽 및/또는 내삽하여 추정 라이다 포인트를 생성하고, 생성된 추정 라이다 포인트 및 기존 라이다 포인트를 이용하여 선박의 특징 포인트를 획득할 수 있다. 도 29를 참고하면, 장치(10)는 라이다 포인트들을 내삽하여 추정 라이다 포인트(465)를 생성할 수 있고, 라이다 포인트들을 외삽하여 추정 라이다 포인트들(466, 467)을 생성할 수 있다. 라이다 포인트의 추정이나 선박의 특징 포인트의 획득에 대해서는 상술한 내용이 적용될 수 있어 자세한 내용은 생략하기로 한다.For example, device 10 generates an estimated LiDAR point by extrapolating and/or interpolating LiDAR points aligned with the projected first image and the second image, and the generated estimated LiDAR point and the existing LiDAR point. You can obtain the ship's characteristic points using . Referring to FIG. 29, the device 10 can interpolate the LiDAR points to generate an estimated LiDAR point 465, and extrapolate the LiDAR points to generate estimated LiDAR points 466 and 467. there is. Since the above-described information can be applied to the estimation of lidar points or the acquisition of ship characteristic points, detailed information will be omitted.

장치(10)는 선박의 갑판 높이를 다양한 방법으로 획득할 수 있다. The device 10 can obtain the deck height of the ship in various ways.

일 실시예에서, 장치(10)는 센서 데이터를 이용하여 선박의 갑판 높이를 획득할 수 있다. 예를 들어, 장치(10)는 이미지 및 라이다 데이터 중 적어도 하나를 이용하여 선박의 갑판 높이를 획득할 수 있다. 일예로, 장치(10)는 선박의 측면으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 거리값이 급격히 변하는 부분에 대응하는 라이다 포인트의 좌표를 이용하여 선박의 갑판 높이를 획득할 수 있다. 다른 일예로, 장치(10)는 선박의 측면과 갑판 영역을 검출할 수 있는 인공 신경망을 이용하여 선박의 측면과 갑판 영역을 검출하고, 선박의 측면 영역과 갑판 영역이 접하는 부분에 대응하는 라이다 포인트들의 좌표를 이용하여 선박의 갑판 높이를 획득할 수 있다.In one embodiment, device 10 may use sensor data to obtain the deck height of a ship. For example, the device 10 may obtain the deck height of a ship using at least one of image and LiDAR data. As an example, the device 10 may obtain the deck height of a ship using the coordinates of a LiDAR point corresponding to a portion where the distance value of the LiDAR points related to the LiDAR beam reflected from the side of the ship changes rapidly. As another example, the device 10 detects the side and deck area of the ship using an artificial neural network that can detect the side and deck area of the ship, and uses a LIDAR corresponding to the portion where the side area and deck area of the ship are in contact. The deck height of the ship can be obtained using the coordinates of the points.

일 실시예에서, 장치(10)는 통신 모듈(300)을 통해 선박의 갑판 높이를 획득할 수 있다. 예를 들어, 장치(10)는 통신 모듈(300)을 통해 선박의 AIS 정보를 수신하고, 수신한 AIS 정보를 이용하여 선박의 갑판 높이를 획득할 수 있다. 다른 예를 들어, 장치(10)는 통신 모듈(300)을 통해 외부 장치로부터 입력된 선박의 갑판 높이를 수신하여 선박의 갑판 높이를 획득할 수 있다.In one embodiment, device 10 may obtain the deck height of a ship through communication module 300. For example, the device 10 may receive AIS information of a ship through the communication module 300 and obtain the deck height of the ship using the received AIS information. For another example, the device 10 may obtain the deck height of the ship by receiving the deck height of the ship input from an external device through the communication module 300.

물론, 선박의 갑판 높이의 획득은 상술한 기재에 한정되지 않으며 다른 방식으로 획득되는 등 다른 방식으로 구현되어도 무방하다.Of course, the acquisition of the ship's deck height is not limited to the above-described description and may be obtained in other ways and may be implemented in other ways.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

10: 모니터링 장치
100: 센서 모듈
110: 통신부
120: 제어부
130: 카메라
200: 제어 모듈
210: 통신부
220: 제어부
300: 통신 모듈
10: Monitoring device
100: sensor module
110: Department of Communications
120: control unit
130: camera
200: control module
210: Department of Communications
220: control unit
300: Communication module

Claims (9)

컴퓨팅 수단에 의해 수행되는 항만 모니터링 방법으로,
카메라에 의해 촬상된 이미지를 획득함;
상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득함;
상기 이미지로부터 세그멘테이션 이미지를 생성함 - 상기 세그멘테이션 이미지는 선박에 대응하는 선박 영역 및 바다에 대응하는 바다 영역을 포함하며, 상기 선박 영역에 대응하는 픽셀들에는 제1 인덱스가 할당되고, 상기 바다 영역에 대응하는 픽셀들에는 제2 인덱스가 할당되며, 상기 제1 인덱스는 객체 유형이 선박임을 나타내고, 상기 제2 인덱스는 객체 유형이 바다임을 나타냄 -;
상기 라이다 데이터에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택함;
상기 제1 라이다 포인트들 중 상기 선박의 측면에 위치한 라이다 포인트들의 좌표, 상기 선박의 상기 측면에 위치한 라이다 포인트들의 상대적인 위치 및 상기 세그멘테이션 이미지에서 상기 선박 영역이 상기 바다 영역과 접하는 라인을 고려하여 상기 선박과 관련된 제2 라이다 포인트를 생성함;
상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트를 포함하는 선박 라이다 포인트들 중 상기 선박의 특징 포인트를 결정함;
상기 특징 포인트를 이용하여 상기 선박과 다른 객체와의 거리를 계산함;을 포함하는,
항만 모니터링 방법.
A port monitoring method performed by computing means,
Acquire images captured by a camera;
Obtaining LiDAR data including a plurality of LiDAR points obtained by a LiDAR sensor having a viewing angle that at least partially overlaps the viewing angle of the camera;
Generating a segmentation image from the image - the segmentation image includes a ship area corresponding to a ship and a sea area corresponding to the sea, pixels corresponding to the ship area are assigned a first index, and the sea area is assigned a first index. Corresponding pixels are assigned second indices, where the first index indicates that the object type is a ship, and the second index indicates that the object type is a sea;
Selecting first LiDAR points associated with a LiDAR beam reflected from the vessel from the LiDAR data;
Among the first LiDAR points, consider the coordinates of the LiDAR points located on the side of the ship, the relative positions of the LiDAR points located on the side of the ship, and the line where the ship area touches the sea area in the segmentation image. thereby generating a second LiDAR point related to the vessel;
determining a feature point of the ship among ship LiDAR points including the first LiDAR points and the second LiDAR point;
Including, calculating the distance between the ship and other objects using the feature points,
Port monitoring methods.
제1항에 있어서,
상기 선박 라이다 포인트는,
상기 선박의 선수에 대응하는 선수 포인트 및 상기 선박의 선미에 대응하는 선미 포인트를 포함하는,
항만 모니터링 방법.
According to paragraph 1,
The ship lidar point is,
Comprising a bow point corresponding to the bow of the vessel and a stern point corresponding to the stern of the vessel,
Port monitoring methods.
제2항에 있어서,
상기 선수 포인트는, 상기 제1 라이다 포인트에 포함되고,
상기 선미 포인트는, 상기 제2 라이다 포인트에 포함되는,
항만 모니터링 방법.
According to paragraph 2,
The player point is included in the first lidar point,
The stern point is included in the second lidar point,
Port monitoring methods.
제2항에 있어서,
상기 선수 포인트는, 상기 제2 라이다 포인트에 포함되고,
상기 선미 포인트는, 상기 제1 라이다 포인트에 포함되는,
항만 모니터링 방법.
According to paragraph 2,
The player point is included in the second lidar point,
The stern point is included in the first lidar point,
Port monitoring methods.
제2항에 있어서,
상기 특징 포인트는,
상기 선수 포인트 및 상기 선미 포인트 중 적어도 하나를 포함하는,
항만 모니터링 방법.
According to paragraph 2,
The above characteristic points are,
Including at least one of the bow point and the stern point,
Port monitoring methods.
제1항에 있어서,
상기 특징 포인트는,
상기 선박 라이다 포인트들 중 상기 선박이 상기 바다와 접하는 위치에 대응되는 포인트를 포함하는,
항만 모니터링 방법.
According to paragraph 1,
The above characteristic points are,
Among the ship lidar points, including a point corresponding to a position where the ship is in contact with the sea,
Port monitoring methods.
제1항에 있어서,
상기 특징 포인트는,
상기 선박 라이다 포인트들 중 양 끝단에 위치한 포인트를 포함하는,
항만 모니터링 방법.
According to paragraph 1,
The above characteristic points are,
Including points located at both ends of the ship lidar points,
Port monitoring methods.
제1항에 있어서,
상기 제2 라이다 포인트는,
상기 제1 라이다 포인트들을 내삽 및/또는 외삽하여 생성되는,
항만 모니터링 방법.
According to paragraph 1,
The second lidar point is,
Generated by interpolating and/or extrapolating the first LIDAR points,
Port monitoring methods.
상기 제1항 내지 제8항 중 어느 하나의 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.A computer-readable recording medium on which a program for performing the method of any one of claims 1 to 8 is recorded.
KR1020240031171A 2020-10-26 2024-03-05 Device and method for monitoring ship and port KR20240036529A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240031171A KR20240036529A (en) 2020-10-26 2024-03-05 Device and method for monitoring ship and port

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020200139727A KR102535115B1 (en) 2020-10-26 2020-10-26 Device and method for monitoring ship and port
KR1020230063562A KR102645492B1 (en) 2020-10-26 2023-05-17 Device and method for monitoring ship and port
KR1020240031171A KR20240036529A (en) 2020-10-26 2024-03-05 Device and method for monitoring ship and port

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020230063562A Division KR102645492B1 (en) 2020-10-26 2023-05-17 Device and method for monitoring ship and port

Publications (1)

Publication Number Publication Date
KR20240036529A true KR20240036529A (en) 2024-03-20

Family

ID=81583884

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200139727A KR102535115B1 (en) 2020-01-09 2020-10-26 Device and method for monitoring ship and port
KR1020230063562A KR102645492B1 (en) 2020-10-26 2023-05-17 Device and method for monitoring ship and port
KR1020240031171A KR20240036529A (en) 2020-10-26 2024-03-05 Device and method for monitoring ship and port

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020200139727A KR102535115B1 (en) 2020-01-09 2020-10-26 Device and method for monitoring ship and port
KR1020230063562A KR102645492B1 (en) 2020-10-26 2023-05-17 Device and method for monitoring ship and port

Country Status (1)

Country Link
KR (3) KR102535115B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102667099B1 (en) * 2023-03-10 2024-05-20 한화시스템 주식회사 Apparatus for controlling engagement using artificial intelligence, naval vessel having the same and method for controlling engagement
CN116994458B (en) * 2023-09-28 2023-12-01 亿海蓝(北京)数据技术股份公司 Ship arrival/departure monitoring method, device and readable storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110059206A (en) * 2009-11-27 2011-06-02 김영복 Vessel docking guide system
KR101812994B1 (en) * 2016-05-25 2017-12-28 (주)주인정보시스템 Safe docking system of ships using camera image and method thereof
EP3862997A4 (en) * 2018-10-04 2022-08-10 Seadronix Corp. Ship and harbor monitoring device and method
KR102103944B1 (en) * 2019-05-23 2020-04-23 주식회사 모빌테크 Distance and position estimation method of autonomous vehicle using mono camera

Also Published As

Publication number Publication date
KR20220055556A (en) 2022-05-04
KR102645492B1 (en) 2024-03-11
KR102535115B1 (en) 2023-05-23
KR20230074438A (en) 2023-05-30

Similar Documents

Publication Publication Date Title
KR102231286B1 (en) Ship surrounding monitoring device and ship surrounding monitoring method
KR102530691B1 (en) Device and method for monitoring a berthing
KR102240839B1 (en) Autonomous navigation method using image segmentation
KR102530847B1 (en) Method and device for monitoring harbor and ship
KR102645492B1 (en) Device and method for monitoring ship and port
EP4089660A1 (en) Method and device for monitoring port and ship in consideration of sea level
KR102265980B1 (en) Device and method for monitoring ship and port
US11514668B2 (en) Method and device for situation awareness
US20220024549A1 (en) System and method for measuring the distance to an object in water
KR102520844B1 (en) Method and device for monitoring harbor and ship considering sea level
JP2018503913A (en) Ship auxiliary docking method and system
KR102466804B1 (en) Autonomous navigation method using image segmentation
KR20200095888A (en) Method for context awareness of unmanned ship system and apparatus for the same
KR20200039588A (en) Device and method for real-time monitoring of ship and port
US20240193904A1 (en) Method and system for determining a region of water clearance of a water surface
US11776250B2 (en) Method and device for situation awareness
KR102670260B1 (en) Distance measurement method and distance measurement device using the same
JP2023103836A (en) Water area object detection system, and ship and surrounding object detection system
KR20240080189A (en) Distance measurement method and distance measurement device using the same
KR20230068126A (en) Apparatus and method for recognizing the surroundings of a ship based on deep learning

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right