KR102530847B1 - Method and device for monitoring harbor and ship - Google Patents
Method and device for monitoring harbor and ship Download PDFInfo
- Publication number
- KR102530847B1 KR102530847B1 KR1020200139726A KR20200139726A KR102530847B1 KR 102530847 B1 KR102530847 B1 KR 102530847B1 KR 1020200139726 A KR1020200139726 A KR 1020200139726A KR 20200139726 A KR20200139726 A KR 20200139726A KR 102530847 B1 KR102530847 B1 KR 102530847B1
- Authority
- KR
- South Korea
- Prior art keywords
- lidar
- lidar points
- image
- points
- ship
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G3/00—Traffic control systems for marine craft
- G08G3/02—Anti-collision systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
본 발명은 항만 및 선박 모니터링 방법 및 장치에 관한 것으로서, 일 실시예에 따르면 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 바다에 대응하는 제1 영역 및 상기 이미지에서 선박에 대응하는 제2 영역을 검출하는 단계, 상기 복수의 라이다 포인트 중에서 상기 제1 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 제1 라이다 포인트들을 이용하여 제1 추정 해수면 높이를 계산하는 단계, 상기 제2 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계, 상기 제2 라이다 포인트의 높이값에 기초하여 상기 제2 라이다 포인트들로부터 상기 바다와 접하는 상기 선박의 하부 영역으로부터 반사되는 라이다 빔과 관련된 제3 라이다 포인트들을 결정하는 단계, 상기 제3 라이다 포인트들을 이용하여 제2 추정 해수면 높이를 계산하는 단계 및 상기 제1 추정 해수면 높이 및 상기 제2 추정 해수면 높이를 모두 고려하여 해수면 높이를 결정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.The present invention relates to a method and apparatus for monitoring ports and ships, and according to one embodiment, obtaining an image captured by a camera, a plurality of sensors obtained by a lidar sensor having a field of view that at least partially overlaps the field of view of the camera Acquiring lidar data including lidar points of , detecting a first area corresponding to the sea in the image and a second area corresponding to a ship in the image, and the first area corresponding to the sea in the image, the first area corresponding to the sea among the plurality of lidar points Selecting first lidar points related to a lidar beam reflected from the sea in consideration of pixel positions of pixels included in area 1, calculating a first estimated sea level height using the first lidar points, Selecting second lidar points related to the lidar beam reflected from the ship from among the plurality of lidar points in consideration of pixel positions of pixels included in the second area, height of the second lidar point Determining third lidar points related to a lidar beam reflected from a lower area of the ship in contact with the sea from the second lidar points based on the value, using the third lidar points to determine the second lidar points A port monitoring method may include calculating the estimated sea level height and determining the sea level height by considering both the first estimated sea level height and the second estimated sea level height.
Description
본 발명은 항만 및 선박 모니터링 방법 및 장치에 관한 것으로, 구체적으로 해수면 높이를 측정하는 항만 및 선박 모니터링 방법 및 장치에 관한 것이다.The present invention relates to a method and device for monitoring ports and ships, and more particularly, to a method and device for monitoring ports and ships for measuring sea level height.
선박의 운항 및 항만 내에서의 접안, 이안에 있어 많은 사고가 발생하고 있으며, 그 사고의 주요 원인은 사람의 운항 부주의로 알려져 있다. 여기서, 운항 부주의는 주로 선박 주변이나 항만 내의 상황을 육안을 통해서 정확하게 모니터링하지 못한다는 점에 의해 발생한다. 현재 다양한 종류의 장애물 센서 등을 이용해 이를 보완하고 있으나 아직까지는 한계점이 존재하는 상황이다.Many accidents occur in the operation of ships, berthing and unloading in ports, and the main cause of these accidents is known to be carelessness of human operation. Here, negligence in operation is mainly caused by the fact that the situation around the ship or in the port cannot be accurately monitored through the naked eye. Currently, various types of obstacle sensors are used to supplement this, but there are still limitations.
이에, 최근에는 영상을 통해 선박 주변이나 항만 내의 상황을 모니터링하는 기술이 개발되고 있으나, 영상 처리 과정에서 왜곡이 발생한 영상 등의 부정확한 영상을 통한 모니터링은 마찬가지로 사고를 유발할 수 있다. 영상의 시점 변환, 정합 등과 같은 영상 처리 과정에서는 바다의 해수면 높이가 중요한 고려요소가 될 수 있으나, 아직 해수면 높이를 구하는 기술에 대해서는 개발이 미비하다는 문제점이 있다. Accordingly, recently, a technology for monitoring a situation around a ship or in a port through an image has been developed, but monitoring through an inaccurate image, such as an image in which distortion occurs in the image processing process, may cause an accident as well. The sea level height of the sea can be an important factor to consider in image processing processes such as conversion of viewpoints and registration of images, but there is a problem in that the technology for obtaining the sea level height is not well developed.
따라서, 정확한 모니터링을 위해 실질적으로 해수면 높이를 측정하는 기술에 대한 기술 개발이 필요한 실정이다.Therefore, it is necessary to develop a technology for substantially measuring the sea level height for accurate monitoring.
본 출원의 해결하고자 하는 일 과제는, 바다 및 선박으로부터 반사된 라이다 빔과 관련된 라이다 데이터를 이용하여 해수면 높이를 측정하는 항만 및 선박 모니터링 방법 및 장치를 제공하는 것에 있다.One problem to be solved by the present application is to provide a port and ship monitoring method and apparatus for measuring sea level height using lidar data related to lidar beams reflected from the sea and ships.
본 출원의 해결하고자 하는 일 과제는, 카메라 및 라이다의 데이터를 효율적으로 융합하여 해수면 높이를 측정하는 항만 및 선박 모니터링 방법 및 장치를 제공하는 것에 있다.One problem to be solved by the present application is to provide a port and vessel monitoring method and apparatus for measuring sea level height by efficiently converging camera and LIDAR data.
본 출원의 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved in the present application is not limited to the above-described problem, and problems not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings. .
일실시예에 따르면 항만 모니터링 방법으로서 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 바다에 대응하는 제1 영역 및 상기 이미지에서 선박에 대응하는 제2 영역을 검출하는 단계, 상기 복수의 라이다 포인트 중에서 상기 제1 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 제1 라이다 포인트들을 이용하여 제1 추정 해수면 높이를 계산하는 단계, 상기 제2 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계, 상기 제2 라이다 포인트의 높이값에 기초하여 상기 제2 라이다 포인트들로부터 상기 바다와 접하는 상기 선박의 하부 영역으로부터 반사되는 라이다 빔과 관련된 제3 라이다 포인트들을 결정하는 단계, 상기 제3 라이다 포인트들을 이용하여 제2 추정 해수면 높이를 계산하는 단계 및 상기 제1 추정 해수면 높이 및 상기 제2 추정 해수면 높이를 모두 고려하여 해수면 높이를 결정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.Acquiring an image captured by a camera as a harbor monitoring method according to an embodiment, lidar data including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera Obtaining a first area corresponding to the sea in the image and a second area corresponding to a ship in the image Detecting a pixel position of a pixel included in the first area among the plurality of lidar points Selecting first LiDAR points related to the lidar beam reflected from the sea, calculating a first estimated sea level height using the first LiDAR points, pixels of pixels included in the second area Selecting second lidar points related to a lidar beam reflected from the ship from among the plurality of lidar points in consideration of a position, the second lidar point based on a height value of the second lidar point Determining third lidar points related to a lidar beam reflected from a lower area of the ship in contact with the sea from a field, calculating a second estimated sea level height using the third lidar points, and calculating a second estimated sea level height using the third lidar points A port monitoring method may include determining the sea level height by considering both the first estimated sea level height and the second estimated sea level height.
다른 일 실시예에 따르면, 항만 모니터링 방법으로서, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 바다에 대응하는 제1 영역 및 상기 이미지에서 선박에 대응하는 제2 영역을 검출하는 단계, 상기 복수의 라이다 포인트 중에서 상기 제1 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 라이다 포인트들의 특성에 기초하여 상기 제1 라이다 포인트들의 제1 신뢰도를 결정하는 단계, 상기 제2 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계, 상기 이미지로부터 획득되는 선박 정보에 기초하여 상기 제2 라이다 포인트들의 제2 신뢰도를 결정하는 단계 및 상기 제1 신뢰도 및 상기 제2 신뢰도를 고려하여 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 중 적어도 하나를 이용하여 해수면 높이를 추정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another embodiment, a harbor monitoring method comprising: obtaining an image captured by a camera, a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera Acquiring lidar data, detecting a first area corresponding to the sea in the image and a second area corresponding to a ship in the image, and determining the number of pixels included in the first area among the plurality of lidar points. Selecting first lidar points related to a lidar beam reflected from the sea in consideration of a pixel location, determining a first reliability of the first lidar points based on characteristics of the lidar points, the second Selecting second lidar points related to a lidar beam reflected from the vessel from among the plurality of lidar points in consideration of pixel positions of pixels included in the area; Determining a second reliability level of second lidar points, and determining the sea level height using at least one of the first lidar points and the second lidar points in consideration of the first reliability level and the second reliability level. A port monitoring method comprising the step of estimating may be provided.
다른 일 실시예에 따르면, 항만 모니터링 방법으로서, 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 복수의 라이다 포인트 중에서 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계, 상기 제1 라이다 포인트들 및 제2 라이다 포인트들의 수, 높이값의 편차 및 거리값 중 적어도 하나에 기초하여 해수면 높이를 추정하기 위한 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 각각의 신뢰도를 결정하는 단계 및 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들의 상기 신뢰도를 고려하여 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 중 적어도 하나를 이용하여 해수면 높이를 추정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another embodiment, as a port monitoring method, obtaining lidar data including a plurality of lidar points obtained by a lidar sensor, related to lidar beams reflected from the sea among the plurality of lidar points Selecting first lidar points, selecting second lidar points related to the lidar beam reflected from the ship from among the plurality of lidar points, the first lidar points and the second lidar points Determining reliability of each of the first lidar points and the second lidar points for estimating the sea level height based on at least one of the number of points, a deviation of the height value, and a distance value; and A port monitoring method comprising estimating a sea level height using at least one of the first lidar points and the second lidar points in consideration of the reliability of the first lidar points and the second lidar points can be provided.
다른 일 실시예에 따르면, 항만 모니터링 방법으로서, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 선박에 대응하는 선박 영역을 인공 신경망을 이용하여 검출하는 단계, 상기 인공 신경망은 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되고, 상기 복수의 훈련 이미지 중 적어도 일부는 선박 및 바다를 포함하고, 상기 객체 정보는 객체 종류를 반영하고, 상기 선박의 픽셀들은 선박을 지시하는 상기 객체 종류의 상기 객체 정보로 라벨링되고, 상기 선박 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 제1 라이다 포인트의 높이값에 기초하여 상기 제1 라이다 포인트들로부터 상기 바다와 접하는 상기 선박의 하부 영역으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 결정하는 단계 및 상기 제2 라이다 포인트들을 이용하여 해수면 높이를 추정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another embodiment, a harbor monitoring method comprising: obtaining an image captured by a camera, a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera Acquiring lidar data, detecting a ship area corresponding to a ship in the image using an artificial neural network, wherein the artificial neural network generates a plurality of training images and object information labeled on pixels of the plurality of training images. at least some of the plurality of training images include ships and seas, the object information reflects an object type, and the pixels of the ship indicate the object type indicating the ship. Selecting first lidar points related to a lidar beam reflected from the ship from among the plurality of lidar points labeled with object information and considering pixel positions of pixels included in the vessel area; Determining second lidar points related to a lidar beam reflected from a lower area of the ship in contact with the sea from the first lidar points based on height values of lidar points, and the second lidar point A harbor monitoring method comprising the step of estimating the sea level height using the can be provided.
다른 일 실시예에 따르면 항만 모니터링 방법으로서, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 선박에 대응하는 선박 영역을 검출하는 단계, 상기 선박 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 이미지로부터 상기 선박에 관련된 선박 정보를 획득하는 단계, 상기 선박 정보는 상기 선박의 검출, 상기 선박 영역의 크기, 상기 선박까지의 거리 및 상기 선박과 관련된 오클루전의 검출 중 적어도 하나를 포함하고 및 상기 선박 정보에 의해 기설정된 조건이 충족되는 경우, 상기 제1 라이다 포인트를 이용하여 해수면 높이를 추정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another embodiment, a harbor monitoring method comprising: obtaining an image taken by a camera; a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera; Acquiring data, detecting a ship area corresponding to a ship in the image, and a lidar beam reflected from the ship among the plurality of lidar points in consideration of pixel positions of pixels included in the ship area. Selecting first lidar points related to, obtaining ship information related to the ship from the image, the ship information is the detection of the ship, the size of the ship area, the distance to the ship and the ship A port monitoring method may be provided, including at least one of detection of related occlusion and estimating the sea level height using the first lidar point when a predetermined condition is satisfied by the vessel information. there is.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions to the problems of the present invention are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings. You will be able to.
본 출원의 일 실시예에 의하면, 바다 및 선박으로부터 반사된 라이다 빔과 관련된 라이다 데이터를 이용하여 제반상황과 관계없이 해수면 높이를 항상 측정할 수 있다. According to an embodiment of the present application, the sea level height can always be measured regardless of circumstances using lidar data related to lidar beams reflected from the sea and ships.
본 출원의 다른 일 실시예에 의하면, 카메라 및 라이다의 데이터를 효율적으로 융합하여 해수면 높이를 정확하게 측정할 수 있다.According to another embodiment of the present application, it is possible to accurately measure the sea level height by efficiently integrating camera and lidar data.
본 출원의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present application are not limited to the above-mentioned effects, and effects not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings.
도 1은 일 실시예에 따른 항만 모니터링 장치에 관한 도면이다.
도 2 및 도 3은 일 실시예에 따른 모니터링 장치의 실시예에 관한 도면이다.
도 4는 일 실시예에 따른 시야각 및 피사계 심도에 관한 도면이다.
도 5 및 도 6은 일 실시예에 따른 센서 모듈의 설치 위치에 관한 도면이다.
도 7 내지 도 9는 일 실시예에 따른 오브젝트 인식 단계에 관한 도면이다.
도 10 및 도 11은 일 실시예에 따른 인공 신경망의 학습 단계 및 추론 단계에 관한 도면이다.
도 12는 일 실시예에 따른 접안 가이드 정보를 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 선박과 안벽 사이의 접안 가이드 정보를 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 접안 가이드 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 15는 일 실시예에 따른 시점 변환에 관한 도면이다.
도 16은 일 실시예에 따른 해수면 높이 산출 방법의 순서도이다.
도 17은 일 실시예에 따른 센서 데이터의 획득의 일 예시이다.
도 18은 일 실시예에 따른 정합된 카메라 이미지 및 라이다 데이터를 이용한 해수면 높이 산출 방법의 순서도이다.
도 19는 일 실시예에 따른 카메라 이미지 및 라이다 데이터의 정합의 예시이다.
도 20은 일 실시예에 따른 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용한 해수면 높이 산출 방법의 순서도이다.
도 21은 일 실시예에 따른 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 일 예시이다.
도 22는 일 실시예에 따른 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용한 해수면 높이 산출 방법의 순서도이다.
도 23은 일 실시예에 따른 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 일 예시이다.
도 24는 일 실시예에 따르는 추정 해수면 높이를 이용한 해수면 높이 산출 방법의 순서도이다.
도 25는 일 실시예에 따르는 라이다 포인트의 신뢰도를 이용한 해수면 높이 산출 방법의 순서도이다.
도 26은 일 실시예에 따르는 카메라 이미지를 분석한 결과를 이용한 해수면 높이 산출 방법의 순서도이다.
도 27은 일 실시예에 따르는 산출된 해수면 높이를 고려한 선박 모니터링 방법의 순서도이다.
도 28은 서로 다른 기준 평면/기준 높이에서의 시점 변환에 관한 도면이다.
도 29는 일 실시예에 따른 해수면 높이/해수평면 상에서의 접안 가이드 정보 산출을 위한 이미지 보정에 관한 도면이다.1 is a diagram of a port monitoring device according to an embodiment.
2 and 3 are diagrams of an embodiment of a monitoring device according to an embodiment.
4 is a view related to a viewing angle and a depth of field according to an exemplary embodiment.
5 and 6 are diagrams of an installation position of a sensor module according to an embodiment.
7 to 9 are diagrams of an object recognition step according to an exemplary embodiment.
10 and 11 are diagrams of a learning step and an inference step of an artificial neural network according to an embodiment.
12 is a diagram for explaining eyepiece guide information according to an embodiment.
13 is a diagram for explaining berthing guide information between a ship and a quay according to an embodiment.
14 is a diagram for explaining a method of acquiring eyepiece guide information according to an embodiment.
15 is a diagram related to viewpoint conversion according to an exemplary embodiment.
16 is a flowchart of a sea level calculation method according to an embodiment.
17 is an example of acquisition of sensor data according to an embodiment.
18 is a flowchart of a method for calculating sea level height using registered camera images and LIDAR data according to an embodiment.
19 is an example of matching camera images and lidar data according to an embodiment.
20 is a flowchart of a sea level height calculation method using lidar points related to lidar beams reflected from the sea according to an embodiment.
21 is an example of lidar points related to a lidar beam reflected from the sea according to an embodiment.
22 is a flowchart of a sea level height calculation method using lidar points related to lidar beams reflected from ships according to an embodiment.
23 is an example of lidar points related to a lidar beam reflected from a ship according to an embodiment.
24 is a flowchart of a method for calculating sea level height using estimated sea level height according to an embodiment.
25 is a flowchart of a method for calculating sea level height using reliability of lidar points according to an embodiment.
26 is a flowchart of a method for calculating the height of sea level using a result of analyzing a camera image according to an embodiment.
27 is a flowchart of a ship monitoring method considering the calculated sea level height according to an embodiment.
28 is a view related to conversion of viewpoints at different reference planes/reference heights.
29 is a diagram related to image correction for calculating berthing guide information on sea level/sea level according to an embodiment.
본 명세서에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 명확히 설명하기 위한 것이므로, 본 발명이 본 명세서에 기재된 실시예에 의해 한정되는 것은 아니며, 본 발명의 범위는 본 발명의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.The embodiments described in this specification are intended to clearly explain the spirit of the present invention to those skilled in the art to which the present invention belongs, and the present invention is not limited by the embodiments described in this specification, and the present invention The scope of should be construed as including modifications or variations that do not depart from the spirit of the present invention.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하여 가능한 현재 널리 사용되고 있는 일반적인 용어를 선택하였으나 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 이와 달리 특정한 용어를 임의의 의미로 정의하여 사용하는 경우에는 그 용어의 의미에 관하여 별도로 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terms used in this specification have been selected as general terms that are currently widely used as much as possible in consideration of the functions in the present invention, but they may vary depending on the intention, custom, or the emergence of new technologies of those skilled in the art in the technical field to which the present invention belongs. can However, in the case where a specific term is defined and used in an arbitrary meaning, the meaning of the term will be separately described. Therefore, the terms used in this specification should be interpreted based on the actual meaning of the term and the overall content of this specification, not the simple name of the term.
본 명세서에 첨부된 도면은 본 발명을 용이하게 설명하기 위한 것으로 도면에 도시된 형상은 본 발명의 이해를 돕기 위하여 필요에 따라 과장되어 표시된 것일 수 있으므로 본 발명이 도면에 의해 한정되는 것은 아니다.The drawings accompanying this specification are intended to easily explain the present invention, and the shapes shown in the drawings may be exaggerated as necessary to aid understanding of the present invention, so the present invention is not limited by the drawings.
본 명세서에서 본 발명에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략하기로 한다.If it is determined that a detailed description of a known configuration or function related to the present invention in this specification may obscure the gist of the present invention, a detailed description thereof will be omitted if necessary.
본 명세서에서 해수면 높이란 절대적인 해수면의 높이뿐만 아니라, 상대적인 해수면의 높이, 특정 바다의 영역의 평균적인 해수면 높이와 비교된 상대적인 해수면 높이 등을 포함하도록 넓게 해석되어야 한다. 예를 들어, 해수면 높이는 해수면과 안벽 사이의 거리, 해수면과 모니터링 장치(예를 들어, 이미지 생성 유닛) 사이의 거리, 해수면 위로 노출된 오브젝트의 길이 등 해수면의 높이 변화에 따라 달라질 수 있는 다양한 정보를 포함할 수도 있다.In this specification, sea level height should be broadly interpreted to include not only absolute sea level height, but also relative sea level height, relative sea level height compared to the average sea level height of a specific sea area, and the like. For example, the sea level height may include a variety of information that may vary depending on the change in sea level height, such as the distance between the sea level and the quay wall, the distance between the sea level and the monitoring device (e.g., an image generating unit), and the length of an object exposed above the sea level. may also include
본 명세서에서 모니터링이란 주변 상황을 파악하거나 인식하는 것으로, 일정 영역이나 특정 오브젝트 등 감지 대상을 각종 센서를 이용하여 감지하고 그 감지 결과를 사용자에게 제공하는 것뿐만 아니라 감지 결과를 바탕으로 연산 등을 통해 추가적인 정보를 제공하는 것 등을 포함하도록 넓게 해석되어야 한다.In this specification, monitoring refers to grasping or recognizing a surrounding situation, and not only detecting a sensing object such as a certain area or a specific object using various sensors and providing the sensing result to the user, but also through calculation based on the sensing result. It should be interpreted broadly, including providing additional information.
이미지 기반 모니터링이란 이미지에 기초하여 주변 상황을 파악하거나 인식하는 것을 의미할 수 있다. 예를 들어, 모니터링은 선박의 운항 시 선박 주변 이미지를 획득하여 이로부터 다른 선박이나 장애물 등을 인식하거나, 선박의 접안 또는 이안 시 접안 가이드 정보를 산출하기 위한 정보를 획득하는 것을 의미할 수 있다. Image-based monitoring may mean grasping or recognizing a surrounding situation based on an image. For example, monitoring may mean obtaining information for recognizing other vessels or obstacles by acquiring images around the vessel during operation of the vessel, or calculating berthing guide information when the vessel is berthing or unloading.
접안 가이드 정보란 다른 선박이나 장애물 등의 인식, 항만 상황 파악, 선석에 접근 가능한지 여부, 안벽과의 거리 및 속도, 다른 선박과의 거리 및 속도, 운항 경로 상 장애물 존재 여부 파악 등 환경에 대한 정보를 의미할 수 있다. 본 명세서에서는 주로 선박 및 항만에서 접안이 수행되는 경우의 모니터링에 대해 설명하나, 이에 한정되는 것은 아니고 차량의 주행, 비행체의 운항 등의 경우에도 적용될 수 있을 것이다.Berthing guide information is information about the environment, such as recognition of other ships or obstacles, identification of port conditions, access to berths, distance and speed from the quay, distance and speed from other ships, and identification of obstacles on the navigation route. can mean In the present specification, monitoring is mainly described when berthing is performed in a ship and a port, but is not limited thereto and may be applied to driving of a vehicle, operation of an aircraft, and the like.
본 발명의 일 양상에 따르면, 항만 모니터링 방법으로서 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 바다에 대응하는 제1 영역 및 상기 이미지에서 선박에 대응하는 제2 영역을 검출하는 단계, 상기 복수의 라이다 포인트 중에서 상기 제1 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 제1 라이다 포인트들을 이용하여 제1 추정 해수면 높이를 계산하는 단계, 상기 제2 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계, 상기 제2 라이다 포인트의 높이값에 기초하여 상기 제2 라이다 포인트들로부터 상기 바다와 접하는 상기 선박의 하부 영역으로부터 반사되는 라이다 빔과 관련된 제3 라이다 포인트들을 결정하는 단계, 상기 제3 라이다 포인트들을 이용하여 제2 추정 해수면 높이를 계산하는 단계 및 상기 제1 추정 해수면 높이 및 상기 제2 추정 해수면 높이를 모두 고려하여 해수면 높이를 결정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to one aspect of the present invention, as a port monitoring method, obtaining an image captured by a camera, including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with the viewing angle of the camera Acquiring lidar data, detecting a first area corresponding to the sea in the image and a second area corresponding to a ship in the image, and determining the number of pixels included in the first area among the plurality of lidar points. Selecting first lidar points related to a lidar beam reflected from the sea in consideration of a pixel position, calculating a first estimated sea level height using the first lidar points, and included in the second area Selecting second lidar points related to a lidar beam reflected from the ship from among the plurality of lidar points in consideration of pixel positions of pixels, based on a height value of the second lidar point; Determining third lidar points related to a lidar beam reflected from a lower area of the ship in contact with the sea from lidar points, calculating a second estimated sea level height using the third lidar points and determining the sea level height by considering both the first estimated sea level height and the second estimated sea level height.
일 실시예에서, 상기 제1 추정 해수면 높이는 상기 제1 라이다 포인트들의 높이값의 평균일 수 있다.In one embodiment, the first estimated sea level height may be an average of height values of the first lidar points.
일 실시예에서, 상기 제3 라이다 포인트들을 결정하는 단계는 상기 제2 라이다 포인트들로부터 실질적으로 동일한 높이값의 라이다 포인트들을 포함하는 라이다 라인들을 생성하는 단계 및 상기 라이다 라인들 중 가장 낮은 높이값의 라이다 라인을 상기 제3 라이다 포인트들로 선택하는 단계를 포함할 수 있다.In one embodiment, the determining of the third lidar points includes generating lidar lines including lidar points having substantially the same height value from the second lidar points, and among the lidar lines A step of selecting a lidar line having the lowest height value as the third lidar points may be included.
일 실시예에서, 상기 라이다 라인은 기설정된 범위의 라이다 포인트 개수 및/또는 길이를 가질 수 있다.In one embodiment, the lidar line may have the number and/or length of lidar points within a preset range.
일 실시예에서, 상기 해수면 높이는 상기 제1 추정 해수면 높이 및 상기 제2 추정 해수면 높이의 가중합일 수 있다.In one embodiment, the sea level height may be a weighted sum of the first estimated sea level height and the second estimated sea level height.
일 실시예에서, 상기 제1 추정 해수면 높이에 부여되는 제1 가중치는 상기 제1 라이다 포인트들의 거리값에 기초하여 결정되고, 상기 제2 추정 해수면 높이에 부여되는 제2 가중치는 상기 제2 라이다 포인트들의 거리값에 기초하여 결정될 수 있다.In one embodiment, a first weight assigned to the first estimated sea level height is determined based on distance values of the first LiDAR points, and a second weight assigned to the second estimated sea level height is determined based on the distance values of the second LiDAR points. It can be determined based on the distance values of the points.
일 실시예에서, 상기 항만 모니터링 방법은 상기 제1 라이다 포인트들로부터 제1 파고를 산출하는 단계 및 상기 제2 라이다 포인트들로부터 제2 파고를 산출하는 단계를 더 포함하고, 상기 제1 추정 해수면 높이에 부여되는 제1 가중치는 단위 시간 당 상기 제1 파고의 변화에 기초하여 결정되고, 상기 제2 추정 해수면 높이에 부여되는 제2 가중치는 단위 시간 당 상기 제2 파고의 변화에 기초하여 결정될 수 있다.In one embodiment, the harbor monitoring method further comprises calculating a first wave height from the first lidar points and calculating a second wave height from the second lidar points, wherein the first estimation A first weight assigned to the sea level height is determined based on a change in the first wave height per unit time, and a second weight assigned to the second estimated sea level height is determined based on a change in the second wave height per unit time. can
일 실시예에서, 상기 제1 영역 및 상기 제2 영역은 인공 신경망을 이용하여 검출되고, 상기 인공 신경망은 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습될 수 있다.In one embodiment, the first area and the second area are detected using an artificial neural network, and the artificial neural network includes a plurality of training images and a training set including object information labeled on pixels of the plurality of training images. can be learned using
일 실시예에서, 상기 제1 라이다 포인트들 및/또는 상기 제2 라이다 포인트들은 라이다 포인트들의 특성을 고려하여 결정되고, 상기 라이다 포인트들의 특성은 라이다 포인트의 수, 높이값의 편차, 거리값 중 적어도 하나를 포함할 수 있다.In one embodiment, the first lidar points and / or the second lidar points are determined in consideration of characteristics of lidar points, and the characteristics of the lidar points are the number of lidar points and the deviation of the height value. , may include at least one of distance values.
일 실시예에서, 상기 제2 라이다 포인트들은 상기 이미지로부터 획득되는 선박 정보에 기초하여 결정되고, 상기 선박 정보는 상기 제2 영역의 검출, 상기 제2 영역의 크기, 상기 선박까지의 거리 및 상기 선박과 관련된 오클루전의 검출 중 적어도 하나를 포함할 수 있다.In one embodiment, the second lidar points are determined based on vessel information obtained from the image, and the vessel information includes the detection of the second area, the size of the second area, the distance to the vessel and the It may include at least one of detecting occlusion associated with the vessel.
본 발명의 다른 일 양상에 따르면 항만 모니터링 방법으로서, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 바다에 대응하는 제1 영역 및 상기 이미지에서 선박에 대응하는 제2 영역을 검출하는 단계, 상기 복수의 라이다 포인트 중에서 상기 제1 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 라이다 포인트들의 특성에 기초하여 상기 제1 라이다 포인트들의 제1 신뢰도를 결정하는 단계, 상기 제2 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계, 상기 이미지로부터 획득되는 선박 정보에 기초하여 상기 제2 라이다 포인트들의 제2 신뢰도를 결정하는 단계 및 상기 제1 신뢰도 및 상기 제2 신뢰도를 고려하여 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 중 적어도 하나를 이용하여 해수면 높이를 추정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another aspect of the present invention, a harbor monitoring method includes obtaining an image captured by a camera, including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera Acquiring lidar data to detect a first area corresponding to the sea in the image and a second area corresponding to a ship in the image, and pixels included in the first area among the plurality of lidar points. Selecting first lidar points related to a lidar beam reflected from the sea in consideration of a pixel position of the lidar point, determining a first reliability of the first lidar points based on characteristics of the lidar points, Selecting second lidar points related to a lidar beam reflected from the vessel from among the plurality of lidar points in consideration of pixel positions of pixels included in area 2, based on vessel information obtained from the image The step of determining the second reliability of the second lidar points and the sea level height using at least one of the first lidar points and the second lidar points in consideration of the first and second reliability scores. A port monitoring method comprising the step of estimating may be provided.
일 실시예에서, 상기 라이다 포인트들의 특성은 라이다 포인트의 수, 높이값의 편차, 거리값 중 적어도 하나를 포함할 수 있다.In one embodiment, the characteristics of the lidar points may include at least one of the number of lidar points, a height deviation, and a distance value.
일 실시예에서, 상기 선박 정보는 상기 제2 영역의 검출, 상기 제2 영역의 크기, 상기 선박까지의 거리 및 상기 선박과 관련된 오클루전의 검출 중 적어도 하나를 포함할 수 있다.In one embodiment, the vessel information may include at least one of detection of the second area, size of the second area, distance to the vessel, and detection of occlusion related to the vessel.
본 발명의 다른 일 양상에 따르면 항만 모니터링 방법으로서, 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 복수의 라이다 포인트 중에서 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계, 상기 제1 라이다 포인트들 및 제2 라이다 포인트들의 수, 높이값의 편차 및 거리값 중 적어도 하나에 기초하여 해수면 높이를 추정하기 위한 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 각각의 신뢰도를 결정하는 단계 및 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들의 상기 신뢰도를 고려하여 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 중 적어도 하나를 이용하여 해수면 높이를 추정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another aspect of the present invention, a port monitoring method includes obtaining lidar data including a plurality of lidar points obtained by a lidar sensor, a lidar beam reflected from the sea among the plurality of lidar points, and Selecting related first lidar points, selecting second lidar points related to a lidar beam reflected from the ship from among the plurality of lidar points, and selecting the first lidar points and the second lidar points. Determining reliability of each of the first and second lidar points for estimating the sea level height based on at least one of the number of points, a deviation of the height value, and a distance value; and A port monitoring method comprising estimating a sea level height using at least one of the first lidar points and the second lidar points in consideration of the reliability of lidar points and the second lidar points. this can be provided.
본 발명의 다른 일 양상에 따르면 항만 모니터링 방법으로서, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 선박에 대응하는 선박 영역을 인공 신경망을 이용하여 검출하는 단계, 상기 인공 신경망은 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되고, 상기 복수의 훈련 이미지 중 적어도 일부는 선박 및 바다를 포함하고, 상기 객체 정보는 객체 종류를 반영하고, 상기 선박의 픽셀들은 선박을 지시하는 상기 객체 종류의 상기 객체 정보로 라벨링되고, 상기 선박 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 제1 라이다 포인트의 높이값에 기초하여 상기 제1 라이다 포인트들로부터 상기 바다와 접하는 상기 선박의 하부 영역으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 결정하는 단계 및 상기 제2 라이다 포인트들을 이용하여 해수면 높이를 추정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another aspect of the present invention, a harbor monitoring method includes obtaining an image captured by a camera, including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera Acquiring lidar data that corresponds to the ship in the image, detecting a ship area corresponding to the ship in the image using an artificial neural network, wherein the artificial neural network uses a plurality of training images and object information labeled on pixels of the plurality of training images. At least some of the plurality of training images include a ship and the sea, the object information reflects an object type, and the pixels of the ship are of the object type indicating the ship. Selecting first lidar points related to a lidar beam reflected from the ship from among the plurality of lidar points labeled with the object information and considering pixel positions of pixels included in the vessel area; Determining second lidar points related to a lidar beam reflected from a lower area of the ship in contact with the sea from the first lidar points based on a height value of one lidar point, and the second lidar point A port monitoring method may be provided that includes estimating the sea level height using the points.
일 실시예에서, 상기 항만 모니터링 방법은 상기 제1 라이다 포인트들의 수, 높이값의 편차 및 거리값 중 적어도 하나에 기초하여 상기 해수면 높이를 검증하는 단계를 더 포함할 수 있다.In one embodiment, the harbor monitoring method may further include verifying the sea level height based on at least one of the number of the first lidar points, a height deviation, and a distance value.
본 발명의 다른 일 양상에 따르면 항만 모니터링 방법으로서, 카메라에 의해 촬상된 이미지를 획득하는 단계, 상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계, 상기 이미지에서 선박에 대응하는 선박 영역을 검출하는 단계, 상기 선박 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계, 상기 이미지로부터 상기 선박에 관련된 선박 정보를 획득하는 단계, 상기 선박 정보는 상기 선박의 검출, 상기 선박 영역의 크기, 상기 선박까지의 거리 및 상기 선박과 관련된 오클루전의 검출 중 적어도 하나를 포함하고 및 상기 선박 정보에 의해 기설정된 조건이 충족되는 경우, 상기 제1 라이다 포인트를 이용하여 해수면 높이를 추정하는 단계를 포함하는 항만 모니터링 방법이 제공될 수 있다.According to another aspect of the present invention, a harbor monitoring method includes obtaining an image captured by a camera, including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera Acquiring lidar data that corresponds to the ship in the image, detecting a ship area corresponding to the ship in the image, and considering the pixel positions of pixels included in the ship area, the radar reflected from the ship among the plurality of lidar points. Selecting first lidar points related to the beam, acquiring ship information related to the ship from the image, the ship information includes detection of the ship, size of the ship area, distance to the ship, and Provided is a port monitoring method comprising at least one of detection of occlusion related to a ship and estimating a sea level height using the first lidar point when a predetermined condition is satisfied by the ship information. It can be.
일 실시예에서, 상기 항만 모니터링 방법은 상기 이미지에서 바다에 대응하는 바다 영역을 검출하는 단계, 상기 복수의 라이다 포인트 중에서 상기 바다 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계, 및 상기 선박 정보에 의해 상기 기설정된 조건이 충족되지 않는 경우, 상기 제2 라이다 포인트를 이용하여 해수면 높이를 추정하는 단계를 더 포함할 수 있다.In one embodiment, the harbor monitoring method includes detecting a sea area corresponding to the sea in the image, a lidar reflected from the sea in consideration of a pixel position of a pixel included in the sea area among the plurality of lidar points. The method may further include selecting second lidar points related to the beam, and estimating the sea level height using the second lidar points when the predetermined condition is not satisfied by the vessel information. .
본 발명의 다른 일 양상에 따르면 상술한 방법들을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공될 수 있다.According to another aspect of the present invention, a computer-readable recording medium on which a program for performing the above-described methods is recorded may be provided.
이하에서는 일 실시예에 따른 선박 및 항만 모니터링 장치 및 방법에 대하여 설명한다.Hereinafter, an apparatus and method for monitoring ships and ports according to an embodiment will be described.
도 1은 일 실시예에 따른 항만 모니터링 장치에 관한 도면이다.1 is a diagram of a port monitoring device according to an embodiment.
도 1을 참고하면, 모니터링 장치(10)는 센서 모듈(100), 제어 모듈(200) 및 통신 모듈(300)을 포함할 수 있다.Referring to FIG. 1 , the
센서 모듈(100)은 선박이나 선박 주변 및 항만에 대한 정보를 센싱할 수 있다. 센서 모듈(100)은 선박자동식별장치(automatic identification system, AIS), 이미지 생성 유닛, 라이다(LIDAR) 센서, 위치 측정 유닛, 자세 측정 유닛, 케이싱 등을 포함할 수 있다.The
이미지 생성 유닛은 이미지를 생성할 수 있다. 이미지 생성 유닛은 카메라, 레이더, 초음파 탐지기 등을 포함할 수 있다. 카메라의 예로는 단안 카메라, 쌍안 카메라, 가시광선 카메라, IR 카메라, depth 카메라가 있지만 이에 한정되는 것은 아니다.The image generating unit may generate an image. The image generating unit may include a camera, radar, ultrasonic detector, and the like. Examples of cameras include, but are not limited to, monocular cameras, binocular cameras, visible light cameras, IR cameras, and depth cameras.
라이다 센서는 레이저를 이용하여 대상체의 거리 및 위치를 탐지하기 위한 센서이다. 예를 들어, 라이다 센서와 대상체와의 거리 및 라이다 센서를 기준으로 한 대상체의 위치는 3차원 좌표계로 나타낼 수 있다. 예를 들어, 라이다 센서와 대상체와의 거리 및 라이다 센서를 기준으로 한 대상체의 위치는 직교좌표계, 구면좌표계, 원통좌표계 등으로 나타낼 수 있다. 라이다 센서는 수직 또는 수평 방향으로 복수의 채널을 가질 수 있고, 일 예로 32개 또는 64개의 채널을 갖는 라이다 센서일 수 있다.A lidar sensor is a sensor for detecting a distance and position of an object using a laser. For example, the distance between the lidar sensor and the target object and the position of the target object based on the lidar sensor may be expressed in a 3D coordinate system. For example, the distance between the lidar sensor and the object and the position of the object based on the lidar sensor may be expressed in a Cartesian coordinate system, a spherical coordinate system, a cylindrical coordinate system, and the like. The lidar sensor may have a plurality of channels in a vertical or horizontal direction, and may be, for example, a lidar sensor having 32 or 64 channels.
라이다 센서는 대상체와의 거리(R)를 결정하기 위하여, 대상체로부터 반사된 레이저를 이용할 수 있다. 예를 들어, 라이다 센서는 대상체와의 거리를 결정하기 위해 출사된 레이저와 감지된 레이저의 시간차이인 비행시간(TOF: Time Of Flight)을 이용할 수 있다. 이를 위해, 라이다 센서는 레이저를 출력하는 레이저 출력부와 반사된 레이저를 감지하는 수신부를 포함할 수 있다. 라이다 센서는 레이저 출력부에서 레이저가 출력된 시간을 확인하고, 대상체로부터 반사된 레이저를 수신부에서 감지한 시간을 확인하여, 출사된 시간과 감지된 시간의 차이에 기초하여 대상체와의 거리를 판단할 수 있다. 물론, 라이다 센서는 대상체와의 거리(R)를 결정하기 위해 감지된 레이저의 감지 위치를 기초로 삼각측량법, 감지된 레이저의 위상변화(Phase shift)를 이용하는 등 다른 방식으로 대상체와의 거리(R)를 결정하여도 무방하다. The lidar sensor may use laser reflected from the target object to determine the distance R from the target object. For example, the lidar sensor may use time of flight (TOF), which is a time difference between an emitted laser and a detected laser, to determine a distance to an object. To this end, the lidar sensor may include a laser output unit for outputting a laser beam and a receiver unit for detecting the reflected laser beam. The lidar sensor checks the time when the laser is output from the laser output unit and the time when the receiver detects the laser reflected from the object, and determines the distance to the object based on the difference between the emitted time and the detected time. can do. Of course, the lidar sensor uses other methods such as triangulation based on the detected position of the detected laser to determine the distance R from the target object, or using phase shift of the detected laser. R) may be determined.
라이다 센서는 조사되는 레이저의 각도를 이용하여 대상체의 위치를 결정할 수 있다. 예를 들어, 라이다 센서에서 라이다 센서의 스캔영역을 향해 조사된 하나의 레이저의 조사 각도를 알 수 있는 경우, 상기 스캔영역상에 존재하는 대상체로부터 반사된 레이저가 수신부에서 감지된다면, 라이다 센서는 조사된 레이저의 조사 각도로 상기 대상체의 위치를 결정할 수 있다. The lidar sensor may determine the position of the target object using the angle of the irradiated laser. For example, when the lidar sensor can know the irradiation angle of one laser irradiated toward the scan area of the lidar sensor, if the laser reflected from the object existing on the scan area is detected by the receiver, the lidar sensor The sensor may determine the location of the object based on an irradiation angle of the irradiated laser.
라이다 센서는 주변의 임의의 대상체의 위치를 탐지하기 위해 대상체를 포함하는 스캔영역을 가질 수 있다. 여기서 스캔영역은 탐지 가능한 영역을 한 화면으로 표현한 것으로 1프레임동안 한 화면을 형성하는 점, 선, 면의 집합을 의미할 수 있다. 또한 스캔영역은 라이다 센서에서 조사된 레이저의 조사영역을 의미할 수 있으며, 조사영역은 1프레임 동안 조사된 레이저가 같은 거리(R)에 있는 구면과 만나는 점, 선, 면의 집합을 의미할 수 있다. 또한 시야각(FOV, Field of view)은 탐지 가능한 영역을 의미하며, 라이다 센서를 원점으로 보았을 때 스캔영역이 가지는 각도 범위로 정의될 수 있다.A lidar sensor may have a scan area including an object in order to detect a position of an object in the vicinity. Here, the scan area represents a detectable area as one screen, and may mean a set of points, lines, and planes forming one screen for one frame. In addition, the scan area may mean the irradiation area of the laser irradiated from the lidar sensor, and the irradiation area may mean a set of points, lines, and planes where the laser irradiated during one frame meets a sphere at the same distance (R). can In addition, a field of view (FOV) means a detectable area, and may be defined as an angular range of a scan area when viewing the LIDAR sensor as an origin.
위치 측정 유닛은 센서 모듈(100)이나 이미지 생성 유닛 등 센서 모듈(100)에 포함된 구성의 위치를 측정할 수 있다. 일 예로, 위치 측정 유닛은 GPS(Global Positioning System)일 수 있다. 특히, 위치 측정의 정확도 향상을 위해 RTK-GPS(Real-Time Kinematic GPS)가 이용될 수도 있다.The position measurement unit may measure the position of components included in the
위치 측정 유닛은 미리 정해진 시간 간격마다 위치 정보를 획득할 수 있다. 여기서, 상기 시간 간격은 센서 모듈(100)의 설치 위치에 따라 달라질 수 있다. 예를 들어, 센서 모듈(100)이 선박 등 이동체에 설치된 경우 위치 측정 유닛은 짧은 시간 간격마다 위치 정보를 획득할 수 있다. 반면, 센서 모듈(100)이 항만 등 고정체에 설치된 경우 위치 측정 유닛은 긴 시간 간격마다 위치 정보를 획득할 수 있다. 위치 측정 유닛의 위치 정보 획득을 위한 시간 간격은 변경될 수 있다.The location measurement unit may obtain location information at predetermined time intervals. Here, the time interval may vary according to the installation location of the
자세 측정 유닛은 센서 모듈(100)이나 이미지 생성 유닛 등 센서 모듈(100)에 포함된 구성의 자세를 측정할 수 있다. 일 예로, 자세 측정 유닛은 관성측정장비(Inertial Measurement Unit, IMU)일 수 있다.The posture measurement unit may measure the posture of components included in the
자세 측정 유닛은 미리 정해진 시간 간격마다 자세 정보를 획득할 수 있다. 여기서, 상기 시간 간격은 센서 모듈(100)의 설치 위치에 따라 달라질 수 있다. 예를 들어, 센서 모듈(100)이 선박 등 이동체에 설치된 경우 자세 측정 유닛은 짧은 시간 간격마다 자세 정보를 획득할 수 있다. 반면, 센서 모듈(100)이 항만 등 고정체에 설치된 경우 자세 측정 유닛은 긴 시간 간격마다 자세 정보를 획득할 수 있다. 자세 측정 유닛의 자세 정보 획득을 위한 시간 간격은 변경될 수 있다.The posture measurement unit may obtain posture information at every predetermined time interval. Here, the time interval may vary according to the installation location of the
케이싱은 이미지 생성 유닛, 위치 측정 유닛, 자세 측정 유닛 등 센서 모듈을 보호할 수 있다.The casing may protect sensor modules such as an image generating unit, a position measurement unit, and a posture measurement unit.
케이싱의 내부에는 이미지 생성 유닛, 위치 측정 유닛, 자세 측정 유닛 중 적어도 하나가 존재할 수 있다. 케이싱은 내부에 존재하는 이미지 생성 유닛 등의 장비가 염수에 의해 부식되는 것을 방지할 수 있다. 또는, 케이싱은 내부에 존재하는 장비에 가해지는 충격을 방지하거나 완화시켜 이를 보호할 수 있다.At least one of an image generating unit, a position measurement unit, and a posture measurement unit may be present inside the casing. The casing can prevent equipment, such as an image generating unit, from being corroded by salt water. Alternatively, the casing may protect the equipment existing therein by preventing or mitigating impact applied thereto.
내부에 이미지 생성 유닛 등을 포함하기 위하여 케이싱의 내부에 공동이 형성될 수 있다. 예를 들어, 케이싱은 내부가 비어있는 직육면체 형상일 수 있지만, 이에 한정되는 것은 아니고 내부에 이미지 생성 유닛 등이 배치될 수 있는 다양한 형상으로 제공될 수 있다.A cavity may be formed inside the casing to contain an image generating unit or the like therein. For example, the casing may have a hollow rectangular parallelepiped shape, but is not limited thereto and may be provided in various shapes in which an image generating unit or the like may be disposed.
케이싱의 내부에 이미지 생성 유닛이 배치되는 경우, 이미지 생성 유닛의 시야 확보를 위해 케이싱의 일 영역에 개폐구가 형성되거나 케이싱의 일 영역을 유리 등 투명한 물질로 형성할 수 있다. 이미지 생성 유닛은 상기 개폐구 또는 투명한 영역을 통해 선박 주변 및 항만을 촬상할 수 있다.When the image generating unit is disposed inside the casing, an opening may be formed in one region of the casing or a transparent material such as glass may be formed in one region of the casing to secure the field of view of the image generating unit. The image generation unit may capture an image of the ship's periphery and the harbor through the opening or the transparent area.
케이싱은 이미지 생성 유닛 등을 외부 충격으로부터 보호하기 위해 강인한 소재로 제공될 수 있다. 또는, 케이싱은 염분으로 인한 부식을 방지하기 위하여 해수용 합금 등의 소재로 제공될 수 있다.The casing may be made of a strong material to protect the image generating unit from external impact. Alternatively, the casing may be made of a material such as an alloy for seawater to prevent corrosion due to salt.
케이싱은 이미지 생성 유닛의 이물질을 제거하기 위한 장비를 포함할 수 있다. 일 예로, 케이싱에 포함된 와이퍼를 통해 이미지 생성 유닛의 표면에 달라붙은 이물질을 물리적으로 제거할 수 있다. 여기서, 상기 와이퍼는 이물질을 제거하려는 표면에 밀착할 수 있도록 상기 표면과 동일하거나 유사한 곡률을 갖는 선형 또는 판형으로 제공될 수 있다. 다른 예로, 케이싱에 포함된 액체 스프레이를 통해 물이나 워셔액을 도포하여 이물질을 제거하거나 도포 후 와이퍼를 이용하여 이물질을 물리적으로 제거할 수 있다.The casing may include equipment for removing foreign substances from the image generating unit. For example, foreign substances adhering to the surface of the image generating unit may be physically removed through a wiper included in the casing. Here, the wiper may be provided in a linear or plate shape having the same or similar curvature as the surface so as to be in close contact with the surface to remove foreign substances. As another example, foreign substances may be removed by applying water or washer fluid through a liquid spray included in the casing, or foreign substances may be physically removed using a wiper after application.
이물질 제거 장비는 수동으로 가동될 수 있지만, 자동으로도 가동될 수 있다. 예를 들어, 미리 정해진 시간 간격으로 이물질 제거 장비가 동작할 수 있다. 또는, 이미지 생성 유닛에 이물질이 달라 붙었는지 여부를 감지하는 센서를 이용하여 이물질 제거 장비를 동작시킬 수 있다. 또는, 이미지 생성 유닛이 촬상한 이미지를 이용하여, 상기 이미지에 이물질이 촬상되었는지 여부를 판단한 후, 이물질이 존재한다고 판단되는 경우에 이물질 제거 장비를 동작시킬 수 있다. 여기서, 이미지에 이물질이 촬상되었는지 여부는 인공 신경망(artificial neural network)을 통하여 판단될 수도 있을 것이다.The foreign matter removal equipment may be operated manually, but may also be operated automatically. For example, the foreign material removal equipment may be operated at predetermined time intervals. Alternatively, the foreign material removal equipment may be operated using a sensor that detects whether or not a foreign material is attached to the image generating unit. Alternatively, after determining whether a foreign material is captured in the image using the image captured by the image generating unit, the foreign material removing device may be operated when it is determined that the foreign material exists. Here, whether a foreign substance is captured in the image may be determined through an artificial neural network.
하나의 센서 모듈(100)은 2개 이상의 동일한 카메라를 포함하는 등 복수의 동일한 장비를 포함할 수도 있다.One
제어 모듈(200)은 이미지 분석을 수행할 수 있다. 또한, 센서 모듈(100)을 통해 각종 데이터를 수신하는 동작, 출력 장치를 통해 각종 출력을 출력하는 동작, 메모리에 각종 데이터를 저장하거나 메모리로부터 각종 데이터를 획득하는 동작 등이 제어 모듈(200)의 제어에 의해 수행될 수 있다. 이하에서는 본 명세서의 실시예로 개시되는 각종 동작이나 단계들은 별도의 언급이 없는 이상 제어 모듈(200)에 의해 수행되거나 제어 모듈(200)의 제어에 의해 수행되는 것으로 해석될 수 있다.The
제어 모듈(200)의 예로는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU), 디지털 신호 처리 장치(Digital Signal Processor, DSP), 상태 기계(state machine), 주문형 반도체(Application Specific Integrated Circuit, ASIC), 무선 주파수 집적 회로(Radio-Frequency Integrated Circuit, RFIC) 및 이들의 조합 등이 있을 수 있다.Examples of the
통신 모듈(300)은 장치(10)로부터 외부로 정보를 송신하거나 외부로부터 정보를 수신할 수 있다. 통신 모듈(300)은 유선 또는 무선 통신을 수행할 수 있다. 통신 모듈(300)은 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다. 예를 들어, 장치(10)는 통신 모듈(300)을 통해 외부 출력 장치로 정보를 전달하여 제어 모듈(200)이 수행한 제어 결과를 외부 출력 장치를 통해 출력할 수 있다. 또한, 통신 모듈(300)은 선박을 관제하는 해상교통관제시스템(VTS, Vessel Traffic Service)으로부터 선박과 관련된 VTS 정보 또는 CITS(Costal Intelligent Transport System) 정보를 수신할 수 있다.The
센서 모듈(100), 제어 모듈(200) 및 통신 모듈(300)은 제어부를 포함할 수 있다. 제어부는 모듈 내에서 각종 정보의 처리와 연산을 수행하고, 모듈을 구성하는 다른 구성 요소를 제어할 수 있다. 제어부는 물리적으로는 전기 신호를 처리하는 전자 회로 형태로 제공될 수 있다. 모듈은 물리적으로 단일한 제어부만을 포함할 수도 있으나, 이와 달리 복수의 제어부를 포함할 수도 있다. 일 예로, 제어부는 하나의 컴퓨팅 수단에 탑재되는 하나 또는 복수의 프로세서(processor)일 수 있다. 다른 예로, 제어부는 물리적으로 이격된 서버(server)와 터미널(terminal)에 탑재되어 통신을 통해 협업하는 프로세서들로 제공될 수도 있다. 제어부의 예로는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU), 디지털 신호 처리 장치(Digital Signal Processor, DSP), 상태 기계(state machine), 주문형 반도체(Application Specific Integrated Circuit, ASIC), 무선 주파수 집적 회로(Radio-Frequency Integrated Circuit, RFIC) 및 이들의 조합 등이 있을 수 있다.The
센서 모듈(100), 제어 모듈(200) 및 통신 모듈(300)은 통신부를 포함할 수 있다. 상기 모듈들은 통신부를 통해 정보를 송수신할 수 있다. 예를 들어, 센서 모듈(100)은 외부로부터 획득한 정보를 그 통신부를 통해 송신하고, 제어 모듈(200)은 그 통신부를 통해 센서 모듈(100)이 송신한 정보를 수신할 수 있다. 통신부는 유선 또는 무선 통신을 수행할 수 있다. 통신부는 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다.The
센서 모듈(100), 제어 모듈(200) 및 통신 모듈(300)은 메모리를 포함할 수 있다. 메모리는 각종 프로세싱 프로그램, 프로그램의 프로세싱을 수행하기 위한 파라미터 또는 이러한 프로세싱 결과 데이터 등을 저장할 수 있다. 예를 들어, 메모리는 학습 및/또는 추론에 필요한 데이터, 학습이 진행중이거나 학습된 인공 신경망 등을 저장할 수 있다. 메모리는 비휘발성 반도체 메모리, 하드 디스크, 플래시 메모리, RAM(Random Access Memory), ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 또는 그 외에 유형의(tangible) 비휘발성의 기록 매체 등으로 구현될 수 있다.The
모니터링 장치(10)는 2개 이상의 센서 모듈(100)을 포함하는 등 복수의 동일한 모듈을 포함할 수도 있다. 예를 들어, 하나의 장치(10)가 2개의 센서 모듈(100)을 포함하고, 각 센서 모듈(100)이 다시 2개의 카메라를 포함할 수도 있다.The
도 2 및 도 3은 일 실시예에 따른 모니터링 장치의 실시예에 관한 도면이다.2 and 3 are diagrams of an embodiment of a monitoring device according to an embodiment.
도 2를 참고하면, 모니터링 장치(10)는 센서 모듈(100) 및 제어 모듈(200)을 포함할 수 있다. 센서 모듈(100)은 카메라(130)를 통해 이미지를 생성하고, 통신부(110)를 통해 이미지를 제어 모듈(200)로 송신할 수 있다. 또한, 센서 모듈(100)의 제어부(120)는 후술할 시점 변환을 수행하여 이미지의 시점을 변환시킬 수 있다. 제어 모듈(200)은 통신부(210)를 통해 센서 모듈(100)로부터 이미지를 수신하고, 제어부(220)를 통해 후술할 위치/이동 정보 추정 및 이미지 정합 등 이미지 분석을 수행할 수 있다. 또한, 제어 모듈(200)은 통신부(210)를 통해 클라우드 서버로 위치/이동 정보 및 정합된 이미지 등 분석 결과를 송신할 수 있다. 클라우드 서버는 제어 모듈(200)로부터 수신한 분석 결과를 스마트폰, 태블릿, PC 등 사용자 단말로 전송하거나 사용자 단말로부터 인스트럭션을 수신할 수 있다.Referring to FIG. 2 , the
도 3을 참고하면, 모니터링 장치(10)는 센서 모듈(100)을 포함할 수 있다. 센서 모듈(100)은 카메라(130)를 통해 이미지를 생성하고, 통신부(110)를 통해 클라우드 서버로 이미지를 전송할 수 있다. 또한, 센서 모듈(100)의 제어부(120)는 후술할 시점 변환을 수행하여 이미지의 시점을 변환시킬 수 있다. 클라우드 서버는 센서 모듈(100)로부터 이미지를 수신하고, 후술할 위치/이동 정보 추정 및 이미지 정합 등 이미지 분석을 수행할 수 있다. 또한, 클라우드 서버는 이미지 분석의 결과를 스마트폰, 태블릿, PC 등 사용자 단말로 전송하거나 사용자 단말로부터 인스트럭션을 수신할 수 있다.Referring to FIG. 3 , the
도 1 내지 도 3에서 도시하는 장치(10)는 예시에 불과하며 장치(10)의 구성이 이에 한정되지는 않는다.The
일 예로, 장치(10)는 출력 모듈(400)을 포함할 수 있다. 출력 모듈(400)은 제어 모듈(200)에 의해 수행된 연산의 결과 등을 출력할 수 있다. 예를 들어, 출력 모듈(400)은 분석 결과를 출력할 수 있다. 출력 모듈(400)은 예시적으로 디스플레이, 스피커, 신호 출력 회로 등일 수 있으나 이에 한정되는 것은 아니다. 이 경우 정보를 사용자 단말 등 외부 출력 장치로 전달하여 외부 출력 장치가 정보를 출력하는 것 외에 출력 모듈(400)을 통해 정보를 출력할 수도 있을 것이다.As an example, the
다른 예로, 장치(10)는 센서 모듈을 포함하지 않을 수도 있다. 이 경우 제어 모듈(200)은 외부 센서 장치로부터 정보를 전달받아 이미지 분석을 수행하는 등 이미지 기반 모니터링 동작을 수행할 수 있을 것이다. 예를 들어, 제어 모듈(200)은 선박이나 항만에 이미 설치된 AIS, 카메라, 라이다, 레이다 등으로부터 정보를 전달받아 이미지 분석을 수행할 수 있다.As another example,
또한, 도 1 내지 도 3의 각 구성이 수행하는 단계는 반드시 해당 구성이 수행해야 하는 것은 아니고 다른 구성에 의해 수행될 수 있다. 예를 들어, 위의 도 2에서는 센서 모듈(100)의 제어부(120)가 시점 변환을 수행하는 것으로 기재하였으나, 제어 모듈(200)의 제어부(220) 또는 클라우드 서버가 시점 변환을 수행할 수도 있다.In addition, the steps performed by each component of FIGS. 1 to 3 are not necessarily performed by the corresponding component, but may be performed by other components. For example, in FIG. 2 above, it is described that the controller 120 of the
이하에서는 모니터링 장치(10) 및 방법에 대해 보다 구체적으로 살펴본다.Hereinafter, the
이미지 기반 모니터링을 위한 이미지 획득은 센서 모듈(100)을 통해 수행될 수 있다. 예를 들어, 센서 모듈(100)에 포함된 이미지 생성 유닛을 통해 이미지를 획득할 수 있다. 또는, 전술한 바와 같이 외부 센서 장치로부터 이미지를 획득할 수도 있다. 선박 및 항만 모니터링을 위한 이미지는 바다, 선박, 부표, 장애물, 지형, 항만, 하늘, 건물 등을 포함하는 것이 일반적일 것이다. 이하에서는 주로 가시광선 카메라를 통해 획득한 이미지를 분석하여 모니터링하는 것에 대해 설명하나 이에 한정되는 것은 아니다.Image acquisition for image-based monitoring may be performed through the
이미지 생성 유닛에 따라 시야각(FOV, Field of View) 및 피사계 심도(depth of field)가 달라질 수 있다. 도 4는 일 실시예에 따른 시야각 및 피사계 심도에 관한 도면이다. 도 4를 참고하면, 시야각(FOV)은 좌우 또는 상하로 어느 정도의 범위까지 이미지에 포함되는지를 의미할 수 있고, 일반적으로는 각도(angle, degree)로 표현된다. 시야각이 더 크다는 의미는 좌우로 더 큰 폭의 영역을 포함하는 이미지를 생성하거나, 상하로 더 큰 폭의 영역을 포함하는 이미지를 생성하는 것을 의미할 수 있다. 피사계 심도는 이미지의 초점이 맞은 것으로 인식되는 거리 범위를 의미할 수 있고, 피사계 심도가 깊다는 의미는 이미지의 초점이 맞은 것으로 인식되는 거리 범위가 넓다는 것을 의미할 수 있다. 도 4를 참고하면, 피사계 심도(DOF)에 따라 이미지는 초점이 맞은 것으로 인식되는 영역(A1) 및 그 외의 영역(A2)을 포함할 수 있다. 이하에서는 이미지가 포함하고 있는 영역을 촬상 영역(A1 + A2), 초점이 맞은 것으로 인식되는 영역을 유효 영역(A1)이라 하고, 이미지 분석 및 모니터링은 유효 영역에 기초하여 수행될 수 있지만 촬상 영역 전체에 기초하여 수행되거나 촬상 영역의 일부에 기초하여 수행될 수도 있으므로, 이미지 분석 및 모니터링을 수행하기 위해 이용되는 영역을 모니터링 영역이라고 한다.Depending on the image generating unit, a field of view (FOV) and a depth of field may vary. 4 is a view related to a viewing angle and a depth of field according to an exemplary embodiment. Referring to FIG. 4 , the field of view (FOV) may mean how much range is included in an image horizontally or vertically, and is generally expressed as an angle (degree). The meaning of having a larger viewing angle may mean generating an image including an area with a wider width horizontally or vertically. The depth of field may mean a distance range recognized as being in focus, and the depth of field may mean that the distance range recognized as being in focus is wide. Referring to FIG. 4 , according to the depth of field (DOF), the image may include an area A1 recognized as being in focus and an area A2 other than that. Hereinafter, the area included in the image is referred to as the imaging area (A1 + A2), and the area recognized as being in focus is referred to as the effective area (A1), and image analysis and monitoring may be performed based on the effective area, but the entire imaging area Since it may be performed based on or a part of the imaging area, the area used to perform image analysis and monitoring is referred to as a monitoring area.
시야각이 크고 피사계 심도가 얕은 카메라의 예로 광각 카메라가 있다. 시야각이 작고 피사계 심도가 깊은 카메라의 예로는 고배율 카메라, 줌 카메라가 있다.An example of a camera with a large field of view and shallow depth of field is a wide-angle camera. Examples of a camera with a small field of view and a deep depth of field include a high-magnification camera and a zoom camera.
센서 모듈(100)은 항만 내의 조명탑, 크레인, 선박 등 그 위치나 자세에 제한이 없이 설치될 수 있고, 그 개수에도 제한이 없다. 다만, 센서 모듈(100)의 종류 및 성능 등 특성에 따라 그 설치 위치나 개수가 달라질 수 있다. 예를 들어, 센서 모듈(100)이 카메라인 경우, 센서 모듈(100)은 효율적인 모니터링을 위해 수면에서 15m 이상의 고도에 설치되거나, 서로 다른 촬상 영역을 갖도록 복수가 설치될 수 있다. 또한, 센서 모듈(100)의 위치 및 자세는 설치 시 또는 설치 후에 수동 또는 자동으로 조절될 수도 있다.The
라이다의 시야각은 이미지 생성 유닛(일 예로, 카메라)의 시야각과 적어도 부분적으로 오버랩될 수 있다. 예를 들어, 라이다의 시야각(FOV)은 카메라의 시야각보다 작을 수 있다. 후술하겠지만, 이러한 경우 라이다 데이터가 획득되지 않은 라이다의 시야각 밖의 라이다 데이터는 카메라로부터 획득된 이미지를 이용하여 추정될 수 있다. A field of view of the lidar may at least partially overlap a field of view of an image generating unit (eg, a camera). For example, the field of view (FOV) of the lidar may be smaller than the field of view of the camera. As will be described later, in this case, lidar data outside the field of view of lidar where lidar data is not acquired may be estimated using an image obtained from a camera.
도 5 및 도 6은 일 실시예에 따른 센서 모듈의 설치 위치에 관한 도면이다. 도 5 및 도 6을 참고하면, 센서 모듈(100)은 항만 또는 육지와 같이 고정된 위치에 설치되거나, 선박 등과 같이 이동하는 물체에 설치될 수 있다. 여기서, 센서 모듈(100)이 선박에 설치되는 경우, 도 6과 같이 모니터링의 대상이 되는 선박(이하 “타겟 선박”이라 함)에 설치될 수 있고, 도 5와 같이 타겟 선박의 접안 또는 이안을 보조하는 예인선 등 모니터링의 대상이 아닌 제3의 선박에 설치될 수도 있다. 이 외에도, 센서 모듈(100)은 드론 등에 설치되어 타겟 선박을 모니터링할 수 있다.5 and 6 are diagrams of an installation position of a sensor module according to an embodiment. Referring to FIGS. 5 and 6 , the
모니터링 장치(10)의 다른 구성 요소는 센서 모듈(100)과 함께 또는 이와 별도의 장소에 설치될 수 있다. Other components of the
전술한 바와 같이 이미지 기반 모니터링을 위한 이미지 분석은 오브젝트 특성을 획득하는 것을 포함할 수 있다. 오브젝트의 예로는 선박, 항만, 부표, 바다, 지형, 하늘, 건물, 사람, 동물, 불, 연기 등이 있을 수 있다. 오브젝트 특성의 예로는 오브젝트의 종류, 오브젝트의 위치, 오브젝트까지의 거리, 오브젝트의 절대적 및 상대적인 속력 및 속도 등이 있을 수 있다.As described above, image analysis for image-based monitoring may include obtaining object characteristics. Examples of objects may include ships, harbors, buoys, seas, terrain, sky, buildings, people, animals, fire, and smoke. Examples of object properties may include the type of object, the position of the object, the distance to the object, the absolute and relative speed and speed of the object, and the like.
이미지 기반 모니터링을 위한 이미지 분석은 주변 상황을 인식/판단하는 것을 포함할 수 있다. 예를 들어, 이미지 분석은 항만에 불이 난 이미지로부터 화재 상황이 발생한 것을 판단하거나, 예정되지 않은 시간에 항만에 들어온 사람이 촬상된 이미지로부터 침입자가 들어온 것을 판단하는 것일 수 있다. 다른 예를 들어, 이미지 분석은 연기가 존재하는 이미지로부터 화재를 감지하는 것을 포함할 수 있다.Image analysis for image-based monitoring may include recognizing/determining the surrounding situation. For example, image analysis may determine that a fire situation has occurred from an image of a fire in a port, or that an intruder has entered from a captured image of a person entering a port at an unscheduled time. For another example, image analysis may include detecting a fire from an image in which smoke is present.
이미지 기반 모니터링을 위한 이미지 분석은 제어 모듈(200)이나 각 모듈(100, 200)에 포함된 제어부(120, 220)를 통해 수행될 수 있다.Image analysis for image-based monitoring may be performed through the
장치(10)는 오브젝트를 인식할 수 있다. 예를 들어, 장치(10)는 이미지에 포함된 오브젝트를 인식할 수 있다. 일 예로, 장치(10)는 이미지에 선박, 예인선, 바다, 항만 등의 오브젝트가 포함되어 있는지 여부를 판단할 수 있다. 여기서, 오브젝트 인식은 이미지의 어떤 위치에 오브젝트가 존재하는지를 판단하는 것일 수 있다.The
도 7 내지 도 9는 일 실시예에 따른 오브젝트 인식 단계에 관한 도면이다.7 to 9 are diagrams of an object recognition step according to an exemplary embodiment.
도 7은 카메라가 촬상한 이미지이고, 오브젝트 인식 단계를 통해 도 8 또는 도 9와 같이 오브젝트를 인식할 수 있다. 7 is an image taken by a camera, and an object can be recognized as shown in FIG. 8 or 9 through an object recognizing step.
구체적으로, 도 8은 이미지의 각 픽셀 별로 해당 픽셀이 어떠한 오브젝트에 대응되는지를 나타낸 것으로, 세그멘테이션(segmentation)이라고도 한다. 이 경우 오브젝트 인식 단계는 세그멘테이션 단계를 의미할 수 있을 것이다. 세그멘테이션을 통해 이미지로부터 이미지상의 픽셀에 대응되는 특성을 할당하거나 산출할 수 있다. 이는 픽셀에 특성이 할당 또는 라벨링(labelling)되었다고 얘기할 수도 있을 것이다. 도 7 및 도 8을 참고하면, 도 7 의 카메라로 촬상된 이미지에 기초한 세그멘테이션을 수행하여 도 8과 같은 세그멘테이션 이미지를 획득할 수 있다. 도 8에서, 제1 픽셀 영역(P1)은 선박에 대응되는 픽셀의 이미지상의 영역이고, 제2 픽셀 영역(P2)은 바다, 제3 픽셀 영역(P3)은 항만의 안벽, 제4 픽셀 영역(P4)은 지형, 제5 픽셀 영역(P5)은 하늘에 대응되는 픽셀의 이미지상의 영역이다.Specifically, FIG. 8 shows which object the corresponding pixel corresponds to for each pixel of the image, which is also referred to as segmentation. In this case, the object recognition step may mean the segmentation step. Through segmentation, characteristics corresponding to pixels on the image may be assigned or calculated from the image. One might say that a pixel is assigned or labeled with a property. Referring to FIGS. 7 and 8 , a segmented image as shown in FIG. 8 may be obtained by performing segmentation based on an image captured by the camera of FIG. 7 . In FIG. 8 , the first pixel area P1 is an area on the image of a pixel corresponding to a ship, the second pixel area P2 is the sea, the third pixel area P3 is the quay wall of the harbor, and the fourth pixel area ( P4) is the terrain, and the fifth pixel area P5 is an area on the image of a pixel corresponding to the sky.
도 8 에서는 세그멘테이션을 수행하여 이미지상의 각 픽셀에 대응되는 오브젝트의 종류에 대한 정보를 산출하는 것을 도시하였으나, 세그멘테이션을 통해 획득할 수 있는 정보가 이에 한정되는 것은 아니다. 예를 들어, 오브젝트의 위치, 좌표, 거리, 방향 등의 특성 또한 세그멘테이션을 통해 획득할 수 있을 것이다. 이 경우 서로 다른 특성은 독립적으로 표현될 수도 있고, 동시에 반영하여 표현될 수도 있다.Although FIG. 8 shows that information about the type of object corresponding to each pixel on an image is calculated by performing segmentation, information that can be obtained through segmentation is not limited thereto. For example, characteristics such as location, coordinates, distance, and direction of an object may also be acquired through segmentation. In this case, different characteristics may be expressed independently or may be reflected and expressed at the same time.
표 1은 일 실시예에 따른 오브젝트의 종류 및 거리에 대한 정보를 동시에 반영한 라벨링에 관한 표이다. 표 1을 참고하면, 오브젝트의 종류 및 거리에 대한 정보를 함께 고려하여 클래스를 설정하고, 각 클래스 별로 식별값을 할당할 수 있다. 예를 들어, 오브젝트의 종류에 대한 정보인 지형과 거리에 대한 정보인 근거리를 함께 고려하여 2번 식별값을 할당할 수 있다. 표 1은 종류에 대한 정보와 거리에 대한 정보를 함께 고려한 경우의 일 예이고, 이 외에 방향 정보, 장애물 이동 방향, 속도, 항로 표지 등 다른 정보 또한 함께 고려될 수 있다. 또한, 모든 식별값이 복수의 정보를 포함해야 하는 것은 아니고, 같은 종류의 정보를 포함해야 하는 것도 아니다. 예를 들어, 특정 식별값은 종류에 대한 정보만 포함하고(예를 들어, 식별값 1은 거리에 대한 정보를 포함하지 않음) 다른 식별값은 종류 및 거리에 대한 정보를 포함하는 등 경우에 따라 다양한 방식으로 표현될 수 있다. 다른 예를 들어, 클래스는 예인선, 밧줄, 선박의 측면 및 갑판 등 다른 클래스가 추가되거나 다른 클래스로 수정되어도 무방하다.Table 1 is a table related to labeling that simultaneously reflects information on the type and distance of an object according to an embodiment. Referring to Table 1, classes may be set in consideration of object type and distance information, and an identification value may be assigned to each class. For example, identification value 2 may be assigned by considering both topography, which is information about the type of object, and short distance, which is information about distance. Table 1 is an example of a case in which information on type and information on distance are considered together. In addition, other information such as direction information, moving direction of obstacles, speed, and navigational aids may also be considered. In addition, all identification values do not have to include a plurality of pieces of information, nor do they have to include the same type of information. For example, a specific identification value includes only type information (eg, identification value 1 does not include information about distance), and other identification values include information about type and distance. It can be expressed in various ways. Other classes, such as tugboat, rope, ship's side and deck, for example, may be added or modified to other classes.
도 9는 이미지의 어떤 위치에 오브젝트가 존재하는지를 바운딩 박스(bounding box)로 표시한 것으로, 디텍션(detection)이라고도 한다. 이 경우 오브젝트 인식 단계는 디텍션 단계를 의미할 수 있을 것이다. 세그멘테이션과 비교하면, 디텍션은 이미지의 각 픽셀 별로 특성을 산출하는 것이 아닌 오브젝트가 어느 위치에 포함되어 있는지를 박스 형태로 검출하는 것으로 볼 수 있다. 도 7 및 도 9를 참고하면, 도 7 의 카메라로 촬상된 이미지에 기초한 디텍션을 수행하여 도 9와 같은 디텍션 이미지를 획득할 수 있다. 도 9에서, 이미지상에서 선박을 검출하고 선박의 위치를 사각형의 바운딩 박스(BB)로 표현한 것을 볼 수 있다. 도 9에는 하나의 오브젝트만을 디텍션하는 것으로 도시하였으나, 하나의 이미지로부터 2 이상의 오브젝트를 디텍션할 수도 있다.FIG. 9 shows where an object exists in an image with a bounding box, which is also referred to as detection. In this case, the object recognition step may mean the detection step. Compared to segmentation, detection can be seen as detecting a position in which an object is included in a box shape rather than calculating characteristics for each pixel of an image. Referring to FIGS. 7 and 9 , a detection image as shown in FIG. 9 may be obtained by performing detection based on an image captured by the camera of FIG. 7 . In FIG. 9, it can be seen that the ship is detected on the image and the location of the ship is expressed as a rectangular bounding box (BB). Although only one object is illustrated in FIG. 9 as being detected, two or more objects may be detected from one image.
세그멘테이션 및 디텍션은 인공 신경망을 이용하여 수행될 수 있다. 하나의 인공 신경망을 통해 세그멘테이션/디텍션을 수행할 수도 있고, 복수의 인공 신경망을 이용하여 각각의 인공 신경망이 세그멘테이션/디텍션을 수행하고 이 결과를 조합하여 최종 결과를 산출할 수도 있다.Segmentation and detection may be performed using an artificial neural network. Segmentation/detection may be performed through one artificial neural network, or each artificial neural network may perform segmentation/detection using a plurality of artificial neural networks and combine the results to calculate a final result.
인공 신경망이란 인간의 신경망 구조를 본떠 만든 알고리즘의 일종으로, 하나 이상의 노드 또는 뉴런(neuron)을 포함하는 하나 이상의 레이어를 포함할 수 있고 각각의 노드는 시냅스(synapse)를 통해 연결될 수 있다. 인공 신경망에 입력된 데이터(입력 데이터)는 시냅스를 통해 노드를 거쳐 출력(출력 데이터)될 수 있고, 이를 통해 정보를 획득할 수 있다.An artificial neural network is a type of algorithm modeled after the structure of a human neural network, and may include one or more layers including one or more nodes or neurons, and each node may be connected through a synapse. Data (input data) input to the artificial neural network may be output (output data) through nodes through synapses, through which information may be obtained.
인공 신경망의 종류로는 필터를 이용해 특징을 추출하는 합성곱신경망(convolution neural network, CNN) 및 노드의 출력이 다시 입력으로 피드백 되는 구조를 갖는 순환인공신경망(recurrent neural network, RNN)이 있고, 제한된 볼츠만 머신(restricted Boltzmann machine, RBM), 심층신뢰신경망(deep belief network, DBN), 생성대립신경망(generative adversarial network, GAN), 관계형 네트워크(relation networks, RN) 등 다양한 구조가 적용될 수 있고 제한이 있는 것은 아니다.Types of artificial neural networks include a convolution neural network (CNN) that extracts features using a filter and a recurrent neural network (RNN) that has a structure in which the output of a node is fed back to an input. Various structures such as restricted Boltzmann machine (RBM), deep belief network (DBN), generative adversarial network (GAN), and relational networks (RN) can be applied, and there are limitations. It is not.
인공 신경망을 이용하기 전에 학습시키는 단계가 필요하다. 또는, 인공 신경망을 이용하며 학습시킬 수 있다. 이하에서는 인공신경망을 학습시키는 단계를 학습 단계, 이용하는 단계를 추론 단계로 표현하기로 한다. Before using an artificial neural network, a training step is required. Alternatively, it may be trained using an artificial neural network. Hereinafter, the step of learning the artificial neural network will be expressed as a learning step, and the step of using it as an inference step.
인공 신경망은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning), 모방 학습(imitation learning) 등 다양한 방법을 통해 학습될 수 있다.The artificial neural network may be trained through various methods such as supervised learning, unsupervised learning, reinforcement learning, and imitation learning.
도 10 및 도 11은 일 실시예에 따른 인공 신경망의 학습 단계 및 추론 단계에 관한 도면이다.10 and 11 are diagrams of a learning step and an inference step of an artificial neural network according to an embodiment.
도 10은 인공 신경망의 학습 단계의 일 실시예로, 학습되지 않은 인공 신경망이 학습 데이터 또는 훈련 데이터(training data)를 입력 받아 출력 데이터를 출력하고, 출력 데이터와 라벨링 데이터(labelling data)를 비교하여 그 오차의 역전파를 통해 인공 신경망을 학습시킬 수 있다. 학습 데이터, 출력 데이터, 라벨링 데이터는 이미지일 수 있다. 라벨링 데이터는 실측 자료(ground truth)를 포함할 수 있다. 또는, 라벨링 데이터는 사용자 또는 프로그램을 통하여 생성된 자료일 수 있다.10 is an embodiment of a learning step of an artificial neural network, in which an untrained artificial neural network receives learning data or training data, outputs output data, and compares the output data with labeling data. The artificial neural network can be trained through backpropagation of the error. Training data, output data, and labeling data may be images. Labeling data may include ground truth. Alternatively, the labeling data may be data generated by a user or program.
도 11은 인공 신경망의 추론 단계의 일 실시예로, 학습된 인공 신경망이 입력 데이터를 입력 받아 출력 데이터를 출력할 수 있다. 학습 단계에서의 학습 데이터의 정보에 따라 추론 단계에서 추론 가능한 정보가 달라질 수 있다. 또한, 인공 신경망의 학습 정도에 따라 출력 데이터의 정확성이 달라질 수 있다.11 is an example of an artificial neural network inference step, in which the trained artificial neural network receives input data and outputs output data. Information that can be inferred in the inference step may vary depending on the information of the learning data in the learning step. In addition, the accuracy of output data may vary according to the degree of learning of the artificial neural network.
오브젝트의 인식은 상술한 기재에 한정되지 않고 다른 방식으로 구현되어도 무방하다. 예를 들어, 설명의 편의를 위해 오브젝트의 인식에 식별값이 사용되는 것으로 설명하였으나, 식별값은 인덱스의 하나의 종류로 사용되는 것에 불과하다. 일 예로, 오브젝트의 인식에는 값이 아닌 벡터 형태의 인덱스가 사용될 수 있고, 인공 신경망의 학습 데이터, 출력 데이터, 라벨링 데이터는 벡터 형태의 데이터일 수 있다. Recognition of an object is not limited to the above description and may be implemented in other ways. For example, although it has been described that an identification value is used to recognize an object for convenience of description, the identification value is only used as one type of index. For example, an index in the form of a vector rather than a value may be used to recognize an object, and training data, output data, and labeling data of an artificial neural network may be data in the form of a vector.
일 실시예에 따르면, 장치(10)는 선박에 대한 접안 가이드 정보를 제공할 수 있다. 접안 가이드 정보는 선박의 접안에 이용될 수 있고 도선사나 선장 등 사용자의 접안을 보조하거나 가이드하기 위한 정보를 의미할 수 있다. 접안 가이드 정보는 거리/속도에 대한 정보를 포함할 수 있다. 거리/속도에 대한 정보의 예로는 좌표와 같은 절대적 위치, 특정 기준으로부터의 상대적 위치, 임의의 지점으로부터의 거리, 거리 범위, 방향, 절대적 속도, 상대적 속도, 속력 등이 있으나 이에 한정되는 것은 아니다.According to one embodiment, the
거리/속도에 대한 정보는 소정의 영역이나 포인트를 기준으로 추정될 수 있다. 일 예로, 선박과 안벽 사이의 거리는 선박의 일 포인트와 안벽의 일 포인트 사이의 거리를 산출함으로써 추정되거나, 선박의 일 포인트와 안벽과의 최단 거리를 산출함으로써 추정될 수 있다. 다른 예로, 선박 사이의 간격은 제1 선박의 일 포인트와 제2 선박의 일 포인트 사이의 거리를 산출함으로써 추정될 수 있다. 선박의 일 포인트는 바다와 접하는 선박의 일 지점에 대응되거나 선박의 선수 또는 선미에 대응될 수 있지만, 이에 한정되는 것은 아니다. Information on distance/velocity may be estimated based on a predetermined area or point. For example, the distance between the ship and the quay may be estimated by calculating the distance between one point of the ship and one point of the quay, or may be estimated by calculating the shortest distance between one point of the ship and the quay. As another example, the distance between ships may be estimated by calculating the distance between one point of the first ship and one point of the second ship. One point of the ship may correspond to a point of the ship in contact with the sea or may correspond to the bow or stern of the ship, but is not limited thereto.
거리/속도에 대한 정보는 소정의 거리값, 방향값 및 속도값 등으로 표현될 수 있다. 예를 들어, 거리 정보는 1m, 2m 등으로 표현될 수 있고, 방향 정보는 10°, 20° 등으로 표현될 수 있고, 속도 정보는 5cm/s, 10cm/s 등으로 표현될 수 있다. Information on distance/speed may be expressed as a predetermined distance value, direction value, and speed value. For example, distance information may be expressed as 1m, 2m, etc., direction information may be expressed as 10°, 20°, etc., and speed information may be expressed as 5cm/s, 10cm/s, etc.
거리/속도에 대한 정보는 일정 범위를 갖는 복수의 카테고리에 대응되는 인덱스(index)로 표현될 수 있다. 예를 들어, 거리 정보는 근거리, 중거리 및 원거리 등으로 표현될 수 있고, 방향 정보는 좌측 방향, 정면 방향 및 우측 방향 등으로 표현될 수 있고, 속도 정보는 저속, 중속, 고속 등으로 표현될 수 있다. 이를 조합하여 좌측 근거리, 우측 원거리 등으로 표현하는 것도 가능할 것이다.Information on distance/speed may be expressed as an index corresponding to a plurality of categories having a certain range. For example, distance information may be expressed as short distance, medium distance, and long distance, direction information may be expressed as left direction, front direction, and right direction, and speed information may be expressed as low speed, medium speed, and high speed. there is. It will also be possible to combine these and express them as left near distance, right far distance, and the like.
도 12는 일 실시예에 따른 접안 가이드 정보를 설명하기 위한 도면이다. 도 12의 (a)를 참고하면, 접안 가이드 정보는 선박(OBJ1)과 안벽(OBJ2) 사이의 접안 가이드 정보(f1, f2) 및 선박(OBJ1)과 다른 선박(OBJ3, OBJ4) 사이의 접안 가이드 정보(f3, f4)를 포함할 수 있다. 구체적으로, 선박(OBJ1)과 안벽(OBJ2) 사이의 접안 가이드 정보(f1, f2)는 선박(OBJ1)의 안벽(OBJ2)과의 거리/속도에 대한 정보를 포함할 수 있고, 선박(OBJ1)과 다른 선박(OBJ3, OBJ4) 사이의 접안 가이드 정보(f3, f4)는 선박(OBJ1)의 다른 선박(OBJ3, OBJ4)과의 거리/속도에 대한 정보를 포함할 수 있다. 도 12의 (b)를 참고하면, 선박(OBJ1)과 안벽(OBJ2) 사이의 접안 가이드 정보(f1, f2)는 선박(OBJ1)의 해수면과 접하는 영역에 대응되는 영역인 경계 영역과 안벽(OBJ2) 사이의 정보일 수 있다. 경계 영역은 선박과 해수면이 접하는 라인 또는 포인트뿐만 아니라 그 근방의 일정 영역을 포함할 수 있다. 또한, 선박(OBJ1)과 다른 선박(OBJ3, OBJ4) 사이의 접안 가이드 정보는 선박(OBJ1, OBJ3, OBJ4)의 선수/선미에 대응되는 소정의 영역 사이의 정보일 수 있고, 여기서 상기 소정의 영역은 선박(OBJ1, OBJ3, OBJ4)의 선수/선미 포인트뿐만 아니라 그 근방의 일정 영역을 의미할 수도 있다.12 is a diagram for explaining eyepiece guide information according to an embodiment. Referring to (a) of FIG. 12, the berthing guide information is berthing guide information between the ship (OBJ1) and the quay (OBJ2) (f1, f2) and the berthing guide between the ship (OBJ1) and other ships (OBJ3, OBJ4) Information f3 and f4 may be included. Specifically, the berthing guide information (f1, f2) between the ship (OBJ1) and the quay wall (OBJ2) may include information on the distance/velocity of the ship (OBJ1) to the quay wall (OBJ2), and the ship (OBJ1) The berthing guide information f3 and f4 between the ship OBJ3 and the other ships OBJ3 and OBJ4 may include information about the distance/velocity of the ship OBJ1 to the other ships OBJ3 and OBJ4. Referring to (b) of FIG. 12, berthing guide information (f1, f2) between the ship OBJ1 and the quay wall OBJ2 is the boundary area corresponding to the area in contact with the sea surface of the ship OBJ1 and the quay wall OBJ2. ) may be information between. The boundary area may include not only a line or a point where the ship and the sea surface meet, but also a certain area near the line or point. In addition, the berthing guide information between the ship (OBJ1) and the other ships (OBJ3, OBJ4) may be information between a predetermined area corresponding to the bow / stern of the vessel (OBJ1, OBJ3, OBJ4), where the predetermined area may mean not only the bow/stern points of the ships OBJ1, OBJ3, and OBJ4, but also a certain area near them.
선박(OBJ1)과 안벽(OBJ2) 사이의 접안 가이드 정보(f1, f2)는 도 12에 도시된 바와 같이 두 개의 접안 가이드 정보를 포함할 수 있지만 이에 한정되는 것은 아니고 하나의 접안 가이드 정보 또는 셋 이상의 접안 가이드 정보를 포함할 수 있다. 또한, 선박(OBJ1)과 다른 선박(OBJ3, OBJ4) 사이의 접안 가이드 정보(f3, f4)는 도 12에 도시된 바와 같이 두 선박 사이에 하나의 접안 가이드 정보를 포함할 수 있지만 이에 한정되는 것은 아니고 두 선박 사이에 둘 이상의 접안 가이드 정보를 포함할 수 있다. 전술한 정보는 선박의 이안에 이용되는 경우 이안 가이드 정보라 지칭될 수도 있을 것이다.The berthing guide information f1 and f2 between the ship OBJ1 and the quay wall OBJ2 may include two berthing guide information as shown in FIG. 12, but is not limited thereto, and one berthing guide information or three or more It may include berthing guide information. In addition, the berthing guide information f3 and f4 between the ship OBJ1 and the other ships OBJ3 and OBJ4 may include one berthing guide information between the two ships as shown in FIG. 12, but is not limited thereto Instead, two or more berthing guide information may be included between the two ships. The above-described information may be referred to as unloading guide information when used for unloading of a ship.
도 13은 일 실시예에 따른 선박과 안벽 사이의 접안 가이드 정보를 설명하기 위한 도면이다.13 is a diagram for explaining berthing guide information between a ship and a quay according to an embodiment.
상기 접안 가이드 정보는 해수면 높이/해수면 상에서의 정보일 수 있다. 예를 들어, 접안 가이드 정보(f5)는 해수면 높이에서의 선박(OBJ1)과 안벽(OBJ2) 사이의 거리/속도에 대한 정보를 포함할 수 있다.The berthing guide information may be sea level height/sea level information. For example, the berthing guide information f5 may include information about the distance/speed between the ship OBJ1 and the quay wall OBJ2 at sea level.
상기 접안 가이드 정보는 지면 높이(또는 안벽 높이)에서의 정보일 수 있다. 예를 들어, 접안 가이드 정보(f6)는 안벽(OBJ2) 높이에서의 선박(OBJ1)과 안벽(OBJ2) 사이의 거리/속도에 대한 정보를 포함할 수 있다.The eyepiece guide information may be information at ground level (or quay wall level). For example, the berthing guide information f6 may include information about the distance/velocity between the ship OBJ1 and the quay wall OBJ2 at the height of the quay wall OBJ2.
상기 접안 가이드 정보는 소정의 높이에서의 정보일 수 있다. 여기서, 소정의 높이는 도 13에 도시된 접안 가이드 정보(f7)와 같이 해수면 높이와 안벽 높이 사이일 수 있으나 이에 한정되는 것은 아니다.The eyepiece guide information may be information at a predetermined height. Here, the predetermined height may be between the height of the sea level and the height of the quay, as shown in the berthing guide information f7 shown in FIG. 13, but is not limited thereto.
선박과 안벽 사이의 접안 가이드 정보는 선박(OBJ1)과 안벽(OBJ2)에 설치된 방충재(fender, OBJ6) 사이의 정보(f8)일 수 있다. 선박(OBJ1)은 접안 시 방충재(OBJ6)와 충돌하거나 정박 시 방충재(OBJ6)와 접하므로 선박(OBJ1)과 방충재(OBJ6) 사이의 거리/속도에 대한 정보(f8)를 획득하는 것이 유리할 수 있다. 도 13에서는 방충재(OBJ6)가 해수면보다 높은 위치에 설치된 것으로 도시되었으나, 방충재(OBJ6)의 적어도 일부가 바다(OBJ5)에 잠기도록 설치될 수 있고, 이 경우 접안 가이드 정보는 해수면 높이에서의 선박과 방충재 사이의 거리/속도에 대한 정보를 포함할 수 있을 것이다.The berthing guide information between the ship and the quay may be information f8 between the fender (OBJ6) installed on the ship (OBJ1) and the quay wall (OBJ2). Since the ship (OBJ1) collides with the insect repellent (OBJ6) when berthing or comes into contact with the insect repellent (OBJ6) when anchored, it is important to acquire information (f8) on the distance/speed between the ship (OBJ1) and the insect repellent (OBJ6). can be advantageous In FIG. 13, although the insect repellent OBJ6 is shown as being installed at a position higher than the sea level, at least a portion of the insect repellent OBJ6 may be installed so as to be submerged in the sea OBJ5. In this case, the berthing guide information is at sea level. It may include information on the distance/velocity between the vessel and the insect repellent.
선박과 다른 선박 사이의 접안 가이드 정보는 해수면 높이에서의 선박과 다른 선박 사이의 거리/속도에 대한 정보를 포함할 수 있다. 선박과 다른 선박 사이의 접안 가이드 정보는 소정의 높이에서의 선박과 다른 선박 사이의 거리/속도에 대한 정보를 포함할 수 있다. 여기서, 소정의 높이는 선체의 형태를 고려하여 결정될 수 있다. 예를 들어, 소정의 높이는 선박이 다른 선박 방향으로 돌출된 영역의 높이일 수 있다. 이 경우 선박 사이의 충돌 가능성을 보다 정확히 파악하여 접안 가이드에 유리할 수 있다.The berthing guide information between the ship and the other ship may include information about the distance/velocity between the ship and the other ship at sea level. The berthing guide information between the ship and the other ship may include information about the distance/velocity between the ship and the other ship at a predetermined height. Here, the predetermined height may be determined in consideration of the shape of the hull. For example, the predetermined height may be the height of a region where a ship protrudes in a direction of another ship. In this case, it may be advantageous to the berthing guide by more accurately grasping the possibility of collision between ships.
일 실시예에 따르면, 장치(10)는 접안 가이드 정보를 라이다 데이터에 기초하여 산출할 수 있다. 예를 들어, 장치(10)는 획득된 라이다 데이터에 포함된 라이다 포인트들의 3차원 좌표를 이용하여 오브젝트와의 거리/속도를 산출할 수 있다. 오브젝트의 예로는 선박, 바다 및 육지, 항만, 안벽, 부표, 지형, 하늘, 건물, 사람, 동물 등이 있을 수 있다. According to one embodiment, the
일 실시예에 따르면, 접안 가이드 정보는 이미지에 기초하여 산출될 수 있다. 여기서, 이미지는 카메라와 같은 이미지 생성 유닛이 생성한 이미지이거나 이로부터 이미지 세그멘테이션 등을 통해 처리된 이미지일 수 있다. 예를 들어, 오브젝트로써 선박, 바다 및 육지를 포함하는 이미지에 기초하여 선박의 거리/속도에 대한 정보를 산출하거나 상기 이미지로부터 세그멘테이션을 통해 생성된 세그멘테이션 이미지에 기초하여 선박의 거리/속도에 대한 정보를 산출할 수 있다. 오브젝트의 예로는 선박, 바다 및 육지 외에 항만, 안벽, 부표, 지형, 하늘, 건물, 사람, 동물 등이 있을 수 있다. According to one embodiment, eyepiece guide information may be calculated based on images. Here, the image may be an image generated by an image generating unit such as a camera or an image processed through image segmentation therefrom. For example, information on the distance/speed of a ship is calculated based on an image including a ship, sea, and land as objects, or information on the distance/speed of a ship based on a segmentation image generated through segmentation from the image. can be calculated. Examples of objects may include ships, seas, and lands as well as harbors, quay walls, buoys, terrain, sky, buildings, people, and animals.
이하에서는 접안 가이드 정보를 추정하는 오브젝트를 타겟 오브젝트라 한다. 예를 들어, 위의 예에서는 선박이 타겟 오브젝트일 수 있다. 또한, 타겟 오브젝트는 복수일 수 있다. 예를 들어, 이미지에 포함된 복수의 선박 각각에 대해 그 거리나 속도 등을 추정하는 경우 복수의 선박이 타겟 오브젝트일 수 있다.Hereinafter, an object for estimating eyepiece guide information is referred to as a target object. For example, in the above example, a ship may be a target object. Also, the number of target objects may be plural. For example, when estimating the distance or speed of each of a plurality of ships included in the image, the plurality of ships may be the target object.
일 실시예에 따르면, 접안 가이드 정보는 이미지 픽셀을 기반으로 산출될 수 있다. 전술한 바와 같이 포인트를 기준으로 접안 가이드 정보를 산출하는 경우, 이미지 상에서 포인트는 픽셀에 대응될 수 있다. 따라서, 접안 가이드 정보는 이미지 픽셀 사이의 간격에 기초하여 산출될 수 있다. According to one embodiment, eyepiece guide information may be calculated based on image pixels. As described above, when eyepiece guide information is calculated based on a point, a point on an image may correspond to a pixel. Thus, eyepiece guide information can be calculated based on the spacing between image pixels.
포인트 사이의 거리에 대한 정보는 픽셀 사이의 간격에 기초하여 산출될 수 있다. 일 예로, 하나의 픽셀 간격마다 일정 거리를 할당하고 픽셀 사이의 간격에 비례하여 포인트 사이의 거리를 산출할 수 있다. 다른 예로, 픽셀의 이미지상에서의 좌표값을 바탕으로 픽셀 사이의 거리를 산출하고 이에 기초하여 포인트 사이의 거리를 산출할 수 있다.Information on the distance between points may be calculated based on the spacing between pixels. For example, a predetermined distance may be assigned to each pixel interval and a distance between points may be calculated in proportion to the interval between pixels. As another example, distances between pixels may be calculated based on coordinate values of pixels on an image, and distances between points may be calculated based on the distances between pixels.
포인트 사이의 속도에 대한 정보는 포인트 사이의 거리에 대한 정보의 변화에 기초하여 산출될 수 있다. 이 경우 복수의 이미지 또는 영상 프레임에 기초하여 이동 정보를 산출할 수 있다. 예를 들어, 이전 프레임에서의 포인트 사이의 거리와 현재 프레임에서의 포인트 사이의 거리 및 프레임 사이의 시간 간격에 기초하여 포인트 사이의 속도에 대한 정보를 산출할 수 있다. Information about the speed between points may be calculated based on changes in information about the distance between points. In this case, movement information may be calculated based on a plurality of images or video frames. For example, information on speed between points may be calculated based on a distance between points in a previous frame, a distance between points in a current frame, and a time interval between frames.
도 14는 일 실시예에 따른 접안 가이드 정보를 획득하는 방법을 설명하기 위한 도면이다. 접안 가이드 정보를 획득하는 단계는 카메라 등 이미지 생성 유닛이 생성한 이미지를 획득하는 단계(도 14의 (a)), 상기 이미지에 대해 이미지 세그멘테이션을 수행하여 세그멘테이션 이미지(또는 세그멘테이션 이미지를 시각화한 이미지)를 생성하는 단계(도 14의 (b)), 상기 세그멘테이션 이미지에 기초하여 접안 가이드 정보를 산출하는 포인트를 찾는 단계(도 14의 (c)) 및 상기 포인트에 대응되는 접안 가이드 정보를 산출하는 단계를 포함할 수 있다. 도 14에서는 세그멘테이션 이미지로부터 접안 가이드 정보를 산출하는 방법에 대해 기재하였으나 이는 실시예에 불과하고 세그멘테이션 이미지를 생성하는 단계 없이 이미지 생성 유닛이 생성한 이미지에 기초하여 포인트를 찾고 접안 가이드 정보를 산출할 수도 있을 것이다.14 is a diagram for explaining a method of acquiring eyepiece guide information according to an embodiment. Obtaining eyepiece guide information is a step of acquiring an image generated by an image generating unit such as a camera (FIG. 14(a)), performing image segmentation on the image to obtain a segmented image (or an image obtained by visualizing the segmented image) Generating (Fig. 14 (b)), finding a point for calculating eyepiece guide information based on the segmentation image (Fig. 14 (c)), and calculating eyepiece guide information corresponding to the point can include Although a method for calculating eyepiece guide information from a segmentation image has been described in FIG. 14, this is only an embodiment, and it is possible to find a point based on an image generated by an image generating unit and calculate eyepiece guide information without generating a segmentation image. There will be.
접안 가이드 정보를 획득하는 단계는 이미지의 시점을 변환하는 단계를 포함할 수 있다. 예를 들어, 접안 가이드 정보를 획득하는 단계는 이미지 생성 유닛이 생성한 이미지를 획득하는 단계 이후에 상기 이미지에 대해 시점 변환을 수행하는 단계를 거쳐 시점 변환된 이미지에 대해 세그멘테이션을 수행하여 세그멘테이션 이미지를 생성하거나, 세그멘테이션 이미지를 생성하는 단계 이후에 상기 세그멘테이션 이미지에 대해 시점 변환을 수행하는 단계를 거쳐 시점 변환된 세그멘테이션 이미지에 대해 접안 가이드 정보를 산출할 수 있다. 이하에서는 시점 변환에 대해 설명한다.Obtaining eyepiece guide information may include converting a viewpoint of an image. For example, the obtaining of the eyepiece guide information includes obtaining an image generated by an image generating unit, performing viewpoint transformation on the image, and segmenting the viewpoint-converted image to obtain a segmented image. Eyepiece guide information may be calculated for the segmentation image converted from the viewpoint through the step of generating the segmentation image or performing viewpoint conversion on the segmentation image after the step of generating the segmentation image. Hereinafter, viewpoint conversion will be described.
일반적으로 카메라 등 이미지 생성 유닛이 생성하는 이미지는 원근 시점(perspective view)로 나타날 수 있다. 이를 탑 뷰(top view, 평면 시점), 측면 시점(side view), 다른 원근 시점 등으로 변환하는 것을 시점 변환이라 할 수 있다. 물론, 탑 뷰나 측면 시점 이미지를 다른 시점으로 변환할 수도 있으며, 이미지 생성 유닛이 탑 뷰 이미지나 측면 시점 이미지 등을 생성할 수도 있고 이 경우 시점 변환이 수행될 필요가 없을 수도 있다.In general, an image generated by an image generating unit such as a camera may appear as a perspective view. Converting this to a top view (planar viewpoint), a side view, or another perspective viewpoint may be referred to as viewpoint conversion. Of course, a top view or side view image may be converted to another view, and the image generating unit may generate a top view image or a side view image, etc. In this case, the view conversion may not need to be performed.
도 15는 일 실시예에 따른 시점 변환에 관한 도면이다. 도 15의 (a)를 참고하면, 원근 시점 이미지의 시점 변환을 통해 다른 원근 시점 이미지를 획득할 수 있다. 여기서, 안벽(OBJ2)이 이미지 상에서 수평 방향(이미지 상에서 좌우 방향)을 따라 위치하도록 시점 변환을 수행할 수 있다. 도 15의 (b)를 참고하면, 원근 시점 이미지의 시점 변환을 통해 탑 뷰 이미지를 획득할 수 있다. 여기서, 탑 뷰 이미지는 해수면과 수직한 방향에서 해수면을 내려다 본 뷰일 수 있다. 또한, 도 15의 (a)와 마찬가지로 안벽(OBJ2)이 이미지 상에서 수평 방향을 따라 위치하도록 시점 변환을 수행할 수 있다.15 is a diagram related to viewpoint conversion according to an exemplary embodiment. Referring to (a) of FIG. 15 , another near perspective image may be acquired through conversion of a perspective view image. Here, the viewpoint conversion may be performed so that the pier OBJ2 is positioned along the horizontal direction (left-right direction on the image) on the image. Referring to (b) of FIG. 15 , a top view image may be acquired through conversion of a perspective view image of a perspective view image. Here, the top view image may be a view looking down at the sea level from a direction perpendicular to the sea level. Also, as in (a) of FIG. 15 , viewpoint conversion may be performed so that the quay wall OBJ2 is located along the horizontal direction on the image.
시점 변환을 통해 접안 가이드 정보 산출 시 용이성, 편의성 및 정확성 향상을 도모할 수 있다. 예를 들어, 픽셀 기반 거리 산출의 경우 탑 뷰 이미지를 이용하면 픽셀 사이의 간격에 대응되는 거리가 이미지 전체 또는 적어도 일부 영역에 대해 동일해질 수 있다.Convenience, convenience, and accuracy can be improved when calculating eyepiece guide information through viewpoint conversion. For example, in the case of pixel-based distance calculation, if a top-view image is used, a distance corresponding to an interval between pixels may be the same for the entire image or at least a partial area.
시점 변환의 일 예로 역투영 변환(Inverse Projective Mapping, IPM)을 수행할 수 있다. 2차원 이미지는 3차원 공간 상의 피사체에서 반사된 빛이 카메라의 렌즈를 통해 이미지 센서에 입사되어 생성되고, 2차원과 3차원의 관계는 이미지 센서와 렌즈에 의존하며, 예를 들어 수학식 1과 같이 표현될 수 있다.As an example of viewpoint transformation, inverse projective mapping (IPM) may be performed. A 2D image is generated when light reflected from a subject in a 3D space is incident on an image sensor through a lens of a camera, and the relationship between 2D and 3D depends on the image sensor and lens. For example, Equation 1 and can be expressed as
여기서, 좌변의 행렬은 2차원 이미지 좌표, 우변의 첫 번째 행렬은 내부 파라미터(intrinsic parameter), 두 번째 행렬은 외부 파라미터(extrinsic parameter), 세 번째 행렬은 3차원 좌표를 의미한다. 구체적으로, fx 및 fy는 초점 거리(focal length), cx 및 cy는 주점(principal point), r 및 t는 각각 회전 및 평행이동 변환 파라미터를 의미한다.Here, the matrix on the left side denotes 2D image coordinates, the first matrix on the right side denotes intrinsic parameters, the second matrix denotes extrinsic parameters, and the third matrix denotes 3D coordinates. Specifically, fx and fy denote focal lengths, cx and cy denote principal points, and r and t denote rotation and translation parameters, respectively.
2차원 이미지를 역투영 변환을 통해 3차원 상의 임의의 평면에 투영시켜 그 시점을 변경시킬 수 있다. 예를 들어, 원근 시점 이미지를 역투영 변환을 통해 탑 뷰 이미지로 변환하거나, 다른 원근 시점 이미지로 변환할 수 있다.A viewpoint can be changed by projecting a 2D image onto an arbitrary 3D plane through back-projection transformation. For example, a perspective view image may be converted into a top view image through back projection transformation, or may be converted into another perspective view image.
시점 변환을 위해서 내부 파라미터가 필요할 수 있다. 내부 파라미터를 구하는 방법의 일 예로 Zhang 방법을 이용할 수 있다. Zhang 방법은 다항식 모델(polynomial model)의 일종으로 격자의 크기를 알고 있는 격자판을 다양한 각도와 거리에서 촬영하여 내부 파라미터를 획득하는 방법이다.Internal parameters may be required for viewpoint conversion. As an example of a method for obtaining internal parameters, the Zhang method may be used. The Zhang method is a kind of polynomial model, which acquires internal parameters by taking pictures of a grid having a known grid size from various angles and distances.
시점 변환을 위해서 이미지를 촬상한 이미지 생성 유닛/센서 모듈의 위치 및/또는 자세에 대한 정보가 필요할 수 있다. 이러한 정보는 위치 측정 유닛 및 자세 측정 유닛으로부터 획득될 수 있다.Information on the position and/or attitude of the image generating unit/sensor module that captured the image may be required for viewpoint conversion. This information may be obtained from the position measurement unit and the attitude measurement unit.
또는, 이미지에 포함된 고정체의 위치에 기초하여 위치 및/또는 자세에 대한 정보를 획득할 수 있다. 예를 들어, 제1 시점에 이미지 생성 유닛은 제1 위치 및/또는 제1 자세로 배치되고, 지형이나 건물 등과 같이 고정된 객체인 타겟 고정체를 포함하는 제1 이미지를 생성할 수 있다. 이 후, 제2 시점에 이미지 생성 유닛은 상기 타겟 고정체를 포함하는 제2 이미지를 생성할 수 있다. 제1 이미지 상에서의 타겟 고정체의 위치 및 제2 이미지 상에서의 타겟 고정체의 위치를 비교하여 제2 시점에서의 이미지 생성 유닛의 위치 및/또는 자세인 제2 위치 및/또는 제2 자세를 산출할 수 있다.Alternatively, information on the position and/or posture may be obtained based on the position of the fixed body included in the image. For example, the image generating unit may generate a first image including a target fixture, which is a fixed object such as a terrain or a building, disposed in a first position and/or a first posture at a first viewpoint. Then, at a second viewpoint, the image generation unit may generate a second image including the target fixture. The position of the target fixture on the first image and the position of the target fixture on the second image are compared to calculate the second position and/or the second posture, which is the position and/or posture of the image generating unit at the second viewpoint. can do.
시점 변환을 위한 위치 및/또는 자세에 대한 정보의 획득은 미리 정해진 시간 간격으로 수행될 수 있다. 여기서, 상기 시간 간격은 이미지 생성 유닛/센서 모듈의 설치 위치에 의존할 수 있다. 예를 들어, 이미지 생성 유닛/센서 모듈이 선박 등 이동체에 설치된 경우 짧은 시간 간격마다 위치 및/또는 자세에 대한 정보가 획득되어야 할 필요성이 존재할 수 있다. 반면, 이미지 생성 유닛/센서 모듈이 항만 등 고정체에 설치된 경우 상대적으로 긴 시간 간격으로 위치 및/또는 자세에 대한 정보를 획득하거나 초기에 한 번만 획득할 수도 있다. 크레인과 같이 이동과 고정이 반복되는 경우, 이동 후에만 위치 및/또는 자세에 대한 정보를 획득하는 방식으로 구현될 수도 있을 것이다. 또한, 이러한 위치 및/또는 자세에 대한 정보 획득을 위한 시간 간격은 변경될 수도 있다.Acquisition of information on a position and/or posture for viewpoint conversion may be performed at predetermined time intervals. Here, the time interval may depend on the installation location of the image generating unit/sensor module. For example, when the image generating unit/sensor module is installed on a mobile body such as a ship, there may be a need to acquire position and/or attitude information at short time intervals. On the other hand, when the image generating unit/sensor module is installed in a fixed body such as a port, information on the position and/or attitude may be obtained at a relatively long time interval or initially obtained only once. When movement and fixation are repeated, such as in a crane, it may be implemented in a manner in which information on position and/or attitude is obtained only after movement. In addition, the time interval for acquiring information on the location and/or posture may be changed.
장치(10)는 기준 평면에 기초하여 이미지를 시점 변환할 수 있다. 예를 들어, 장치(10)는 안벽이 위치하고, 해수면과 평행인 평면을 기준 평면으로 이미지를 시점 변환할 수 있다. 여기서, 기준 평면은 산출되는 해수면 높이에 의존할 수 있다. 물론, 장치(10)는 상술한 기재에 한정되지 않으며, 해수면, 안벽이 위치한 평면 외의 선박의 일부분(일예로 갑판 높이의 기준 평면) 등 다른 평면을 기준 평면으로 이미지를 시점 변환해도 무방하다.The
또한, 전술한 시점 변환 방법은 예시에 불과하고 이와 다른 방법으로 시점 변환을 수행할 수도 있으며, 시점 변환 정보는 전술한 식 1의 행렬, 파라미터, 좌표, 위치 및/또는 자세에 대한 정보 등 시점 변환을 위해 필요한 정보를 포함한다.In addition, the above-described viewpoint conversion method is only an example, and viewpoint conversion may be performed in a different way, and the viewpoint conversion information is information about the matrix of Equation 1, parameters, coordinates, position, and/or attitude, etc. contains the information necessary for
장치(10)는 선박 및/또는 항만 모니터링을 위해 해수면 높이를 산출할 수 있다. 예를 들어, 장치(10)는 획득한 센서 데이터로부터 해수면 높이를 산출할 수 있고, 산출된 해수면 높이를 선박 또는 항만의 모니터링을 위해 이용할 수 있다. 예를 들어, 장치(10)는 카메라 이미지의 시점 변환 또는 역투영 변환 시, 해수면 높이를 투영 평면까지의 높이 정보로 사용할 수 있다. 다른 예를 들어, 장치(10)는 카메라 이미지의 정합용 영상 변환 시, 해수면 높이를 변수로 사용할 수 있다. 또 다른 예를 들어, 장치(10)는 라이다 데이터와 카메라 이미지를 융합 시, 해수면 높이를 데이터 변환의 변수로 사용할 수 있다.
도 16은 일 실시예에 따른 해수면 높이 산출 방법의 순서도이다. 16 is a flowchart of a sea level calculation method according to an embodiment.
도 16을 참고하면 일 실시예에 따른 해수면 높이 산출 방법은 센서 데이터를 획득하는 단계(S1000) 및 해수면 높이를 계산하는 단계(S2000)를 포함할 수 있다.Referring to FIG. 16 , the sea level height calculation method according to an embodiment may include acquiring sensor data ( S1000 ) and calculating the sea level height ( S2000 ).
장치(10)는 센서 데이터를 획득할 수 있다(S1000). The
일 실시예에 따르면, 장치(10)는 카메라로부터 이미지를 획득할 수 있다. 예를 들어, 장치(10)는 바다 쪽을 향해 선석에 설치된 카메라로부터 이미지를 획득할 수 있다. 일 예로, 장치(10)는 바다에 대한 이미지를 획득할 수 있고, 선박이 있는 경우에는 선박에 대한 이미지도 함께 획득할 수 있다.According to one embodiment,
일 실시예에 따르면, 장치(10)는 라이다 센서로부터 라이다 데이터를 획득할 수 있다. 예를 들어, 장치(10)는 바다 쪽을 향해 선석에 설치된 라이다 센서로부터 라이다 데이터를 획득할 수 있다. 일 예로, 장치(10)는 바다에 대한 라이다 데이터를 획득할 수 있고, 선박이 선석에 진입하는 경우에는 선박에 대한 라이다 데이터도 함께 획득할 수 있다. According to one embodiment, the
일 실시예에 따르면 라이다 센서는 이미지를 획득하는 카메라가 촬상하는 영역과 대응되는 영역에 대하여 라이다 데이터를 획득할 수 있다. 예를 들어, 라이다 센서는 이미지를 획득하는 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 가질 수 있다. According to an embodiment, the lidar sensor may obtain lidar data for an area corresponding to an area captured by a camera acquiring an image. For example, a lidar sensor may have a field of view that at least partially overlaps the field of view of a camera acquiring an image.
도 17은 일 실시예에 따른 센서 데이터의 획득의 일 예시이다. 도 17을 참고하면, 일 실시예에 따른 장치(10)는 선석 주변에 설치된 라이다 및 카메라로부터 동일한 영역에 대한 센서 데이터를 획득할 수 있다. 예를 들어, 라이다 및 카메라는 선석을 향해 또는 선석을 바라보며 부두에 설치되어 선석이 위치하는 영역에 대한 데이터를 획득할 수 있다. 여기서, 라이다의 시야각은 카메라의 시야각과 적어도 부분적으로 오버랩될 수 있다.17 is an example of acquisition of sensor data according to an embodiment. Referring to FIG. 17 , the
도 17(a)를 참고하면, 장치(10)는 바다에 대한 이미지를 획득할 수 있고, 선박이 있는 경우에는 선박에 대한 이미지도 함께 획득할 수 있다.Referring to FIG. 17(a), the
도 17(b)를 참고하면, 장치(10)는 바다에 대한 라이다 데이터를 획득할 수 있고, 선박이 선석에 진입하는 경우에는 선박에 대한 라이다 데이터도 함께 획득할 수 있다. 라이다 데이터는 라이다 센서에 의해 캡쳐된 복수의 라이다 포인트를 포함할 수 있다. 예를 들어, 라이다 데이터는 수직 또는 수평 채널별 복수의 라이다 포인트들을 포함할 수 있다. Referring to FIG. 17 (b), the
장치(10)는 획득한 라이다 데이터에서 선박 또는 바다에 대응하는 라이다 포인트들을 이용하여 선박 또는 바다 표면과의 거리를 알 수 있고, 이를 이용하여 해수면 높이를 계산할 수 있다.The
장치(10)는 해수면 높이를 계산할 수 있다(S2000).The
장치(10)는 획득한 센서 데이터를 이용하여 해수면 높이를 계산할 수 있다. 예를 들어, 장치(10)는 바다 쪽을 향해 선석에 설치된 카메라 및 라이다 센서로부터 얻은 센서 데이터 중 적어도 하나를 이용하여 해수면 높이를 계산할 수 있다. The
일 예로, 장치(10)는 획득된 라이다 데이터에 포함된 라이다 포인트들의 3차원 좌표를 이용하여 바다 표면과의 거리를 구하고 이를 이용하여 해수면 높이를 계산할 수 있다. 장치(10)는 바다 표면과의 거리와 라이다 센서의 설치 위치, 설치 각도 등을 고려하여 해수면의 높이를 계산할 수 있다. 다른 일 예로, 장치(10)는 획득된 라이다 데이터에 포함된 라이다 포인트들의 3차원 좌표를 이용하여 바다 표면과 접하는 선박의 영역과의 거리를 구하고 이를 이용하여 해수면 높이를 계산할 수 있다. 장치(10)는 바다 표면과 접하는 선박의 영역과의 거리와 라이다 센서의 설치 위치, 설치 각도 등을 고려하여 해수면의 높이를 계산할 수 있다. For example, the
다만, 비용 문제로 저성능의 라이다 센서가 선석에 설치되는 경우가 많아, 해상도가 떨어지는 라이다 데이터의 라이다 포인트들 중 어느 라이다 포인트가 바다 영역 또는 선박 영역인지 구별하기 어렵다는 문제가 있다. 이를 해결하기 위해 일 실시예에 따르면, 장치(10)는 획득한 카메라 이미지 및 라이다 데이터를 정합하고, 이를 이용하여 해수면 높이를 계산할 수 있다. However, due to cost issues, low-performance lidar sensors are often installed on berths, and there is a problem in that it is difficult to distinguish which lidar points among lidar points of low-resolution lidar data are the sea area or the ship area. In order to solve this problem, according to an embodiment, the
도 18은 일 실시예에 따른 정합된 카메라 이미지 및 라이다 데이터를 이용한 해수면 높이 산출 방법의 순서도이다. 도 18을 참고하면, 일 실시예에 따른 정합된 카메라 이미지 및 라이다 데이터를 이용한 해수면 높이 산출 방법은 카메라 이미지 및 라이다 데이터를 정합하는 단계(S2010) 및 정합된 카메라 이미지 및 라이다 데이터를 이용하여 해수면 높이를 계산하는 단계(S2020)를 포함할 수 있다.18 is a flowchart of a method for calculating sea level height using registered camera images and LIDAR data according to an embodiment. Referring to FIG. 18 , the sea level height calculation method using the matched camera image and lidar data according to an embodiment includes matching the camera image and lidar data (S2010) and using the matched camera image and lidar data. and calculating the sea level height (S2020).
장치(10)는 카메라 이미지 및 라이다 데이터를 정합할 수 있다(S2010). The
일 실시예에 따르면 장치(10)는 정합을 위한 정보를 이용하여 카메라 이미지 및 라이다 데이터를 정합할 수 있다. 예를 들어, 장치(10)는 카메라 이미지 상의 좌표계와 라이다 데이터 상의 좌표계를 일치시켜 카메라 이미지 및 라이다 데이터를 정합할 수 있다. 즉, 카메라 이미지와 라이다 데이터의 좌표계는 서로 변환이 가능할 수 있다.According to an embodiment, the
장치(10)는 카메라의 설치 위치, 카메라의 설치 각도, 라이다 센서의 설치 위치, 라이다 센서의 설치 각도 등을 고려하여 카메라 이미지 및 라이다 데이터를 정합할 수 있다. 여기서, 장치(10)는 계산된 해수면 높이를 반영하여 카메라 이미지 및 라이다 데이터를 재정합할 수도 있다. 일 예로, 장치(10)는 라이다 데이터와 카메라 이미지의 정합 시, 계산된 해수면 높이를 데이터 변환의 변수로 사용하여 카메라 이미지 및 라이다 데이터를 재정합할 수도 있다.The
도 19는 일 실시예에 따른 카메라 이미지 및 라이다 데이터의 정합의 예시이다. 도 19(a)를 참고하면, 선석에 설치된 카메라로부터 획득한 이미지와 동일한 영역에 대해 스캔하는 라이다 센서로부터 획득한 라이다 데이터가 정합된 것을 볼 수 있다. 19 is an example of matching camera images and lidar data according to an embodiment. Referring to FIG. 19 (a), it can be seen that lidar data obtained from a lidar sensor scanning the same area as an image obtained from a camera installed on a berth is matched.
일 실시예에 다르면, 장치(10)는 세그멘테이션 이미지를 라이다 데이터와 정합시킬 수 있다. 예를 들어, 장치(10)는 카메라로부터 획득한 이미지로부터 인공신경망을 이용하여 세그멘테이션 이미지를 생성하고, 생성된 세그멘테이션 이미지를 라이다 데이터와 정합시킬 수 있다. 도 19(b)를 참고하면, 선석에 설치된 카메라로부터 획득한 이미지와 동일한 영역에 대해 스캔하는 라이다 센서로부터 획득한 라이다 데이터가 정합된 것을 볼 수 있다.According to one embodiment,
카메라 이미지 및 라이다 데이터의 정합은 상술한 기재에 한정되지 않으며, 인공신경망을 이용하여 디텍션된 이미지와 라이다 데이터가 정합되는 등 다른 방식으로 구현되어도 무방하다.Matching of camera images and lidar data is not limited to the above description, and may be implemented in other ways, such as matching images detected using an artificial neural network and lidar data.
다시 도 18로 돌아와서 설명하도록 한다.Returning to FIG. 18 again, description will be given.
장치(10)는 정합된 카메라 이미지 및 라이다 데이터를 이용하여 해수면 높이를 계산할 수 있다(S2020).The
일 실시예에 따르면, 장치(10)는 라이다 데이터의 복수의 라이다 포인트 중 라이다 데이터와 정합된 이미지를 이용하여 선택된 라이다 포인트를 이용하여 해수면 높이를 계산할 수 있다. 예를 들어, 장치(10)는 이미지 내의 바다와 대응하는 영역에 정합된 라이다 포인트를 이용하여 해수면 높이를 계산할 수 있다. 다른 예를 들어, 장치(10)는 이미지 내의 선박의 영역에 정합된 라이다 포인트를 이용하여 해수면 높이를 계산할 수 있다.According to one embodiment, the
일 실시예에 따르면, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용하여 해수면 높이를 산출할 수 있다.According to one embodiment, the
도 20은 일 실시예에 따른 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용한 해수면 높이 산출 방법의 순서도이다. 도 20을 참고하면 일 실시예에 따른 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용한 해수면 높이 산출 방법은 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택하는 단계(S2110) 및 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 해수면 높이를 계산하는 단계(S2120)를 포함할 수 있다.20 is a flowchart of a method for calculating the sea level height using lidar points related to lidar beams reflected from the sea according to an embodiment. Referring to FIG. 20, the sea level calculation method using lidar points related to lidar beams reflected from the sea according to an embodiment includes selecting lidar points related to lidar beams reflected from the sea (S2110) and sea level. It may include calculating the sea level height from lidar points related to the lidar beam reflected from ( S2120 ).
장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다(S2110).The
일 실시예에 따르면, 장치(10)는 라이다 데이터와 정합된 이미지를 이용하여 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. According to one embodiment,
이를 위해, 장치(10)는 이미지 내의 바다에 대응하는 영역을 감지할 수 있다. 예를 들어, 장치(10)는 인공신경망을 이용하여 이미지 내에서 바다에 대응하는 영역을 감지할 수 있다. 일 예로, 장치(10)는 인공신경망을 이용하여 이미지로부터 세그멘테이션 이미지를 생성하고, 객체 유형이 바다를 나타내는 객체 정보로 라벨링된 픽셀이 위치한 영역을 바다에 대응하는 영역으로 감지할 수 있다. 장치(10)는 상술한 기재에 한정되지 않으며, 이미지 디텍션을 통해 바다에 대응하는 영역을 결정하는 등 다른 방식으로 이미지 내의 바다에 대응하는 영역을 감지해도 무방하다.To this end, the
장치(10)는 감지된 이미지 내의 바다에 대응하는 영역을 이용하여 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. 예를 들어, 장치(10)는 이미지 내의 바다에 대응하는 영역에 포함된 픽셀들의 픽셀 위치를 고려하여 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. The
도 21은 일 실시예에 따른 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 일 예시이다. 도 21을 참고하면, 장치(10)는 이미지와 정합된 라이다 포인트들 중 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들(401)을 선택할 수 있다. 예를 들어, 장치(10)는 복수의 라이다 포인트들 중 이미지 내의 바다에 대응하는 영역에 포함된 픽셀들에 정합된 라이다 포인트들을 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들(401)로 선택할 수 있다. 도 21에 한정되지 않고, 세그멘테이션 이미지 또는 디텍션된 이미지가 사용되는 다른 방식으로 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들(401)이 선택되어도 무방하다.21 is an example of lidar points related to a lidar beam reflected from the sea according to an embodiment. Referring to FIG. 21 , the
바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들(401)의 선택은 상술한 기재에 한정되지 않으며 다른 방식으로 구현되어도 무방하다. 일 실시예에 따르면, 장치(10)는 라이다 데이터를 이용하여 바다로부터 반사된 라이다 빔(401)과 관련된 라이다 포인트들을 선택할 수 있다. 예를 들어, 장치(10)는 라이다 데이터의 분포, 개수 등을 고려하여 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들(401)을 선택할 수 있다.The selection of the lidar points 401 related to the lidar beam reflected from the sea is not limited to the above description and may be implemented in other ways. According to one embodiment, the
다시 도 20으로 돌아와서 설명하도록 한다.Returning to FIG. 20 again, description will be made.
장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 해수면 높이를 계산할 수 있다(S2120).The
장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 3차원 좌표값을 이용하여 해수면 높이를 계산할 수 있다. 일 실시예에 따르면, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값(일 예로, 3차원 좌표값 중 Z값)을 이용하여 해수면 높이를 계산할 수 있다. 예를 들어, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값의 평균값을 계산하고, 계산된 높이값의 평균값을 해수면 높이로 산출할 수 있다. The
일 실시예에 따르면 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 3차원 좌표값을 이용하여 해수면의 파고를 계산할 수 있다.According to an embodiment, the
예를 들어, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값(일 예로, 3차원 좌표값 중 Z값)을 이용하여 파고를 계산할 수 있다. 일 예로, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값의 최대값과 최소값을 계산하고, 상기 최대값과 최소값의 차이를 파고로 산출할 수 있다. For example, the
물론, 장치(10)는 상술한 기재에 한정되지 않으며, 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값을 기설정된 비율로 반영하여 해수면 높이로 산출하는 등 다른 방식으로 해수면 높이를 계산해도 무방하다. 여기서, 상기 기설정된 비율은 각 라이다 포인트들의 위치, 개수 등을 고려하여 결정될 수도 있다.Of course, the
도 22는 일 실시예에 따른 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용한 해수면 높이 산출 방법의 순서도이다. 도 22를 참고하면 일 실시예에 따른 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트를 이용한 해수면 높이 산출 방법은 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택하는 단계(S2210), 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들 중 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 결정하는 단계(S2220) 및 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 해수면 높이를 계산하는 단계(S2230)를 포함할 수 있다.22 is a flowchart of a sea level height calculation method using lidar points related to lidar beams reflected from ships according to an embodiment. Referring to FIG. 22, the sea level height calculation method using lidar points related to the lidar beam reflected from the ship according to an embodiment includes selecting lidar points related to the lidar beam reflected from the ship (S2210), the vessel Determining lidar points related to the lidar beam reflected from the lower area of the ship in contact with the sea among lidar points related to the lidar beam reflected from (S2220) and the lidar points reflected from the lower area of the ship in contact with the sea A step of calculating the sea level height from the LIDAR points related to the LIDAR beam (S2230) may be included.
장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다(S2210).The
일 실시예에 따르면, 장치(10)는 라이다 데이터와 정합된 이미지를 이용하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. According to one embodiment, the
이를 위해, 장치(10)는 이미지 내의 선박에 대응하는 영역을 감지할 수 있다. 예를 들어, 장치(10)는 인공신경망을 이용하여 이미지 내에서 선박에 대응하는 영역을 감지할 수 있다. 일 예로, 장치(10)는 인공신경망을 이용하여 이미지로부터 세그멘테이션 이미지를 생성하고, 객체 유형이 선박을 나타내는 객체 정보로 라벨링된 픽셀이 위치한 영역을 선박에 대응하는 영역으로 감지할 수 있다. 장치(10)는 상술한 기재에 한정되지 않으며, 이미지 디텍션을 통해 선박에 대응하는 영역을 결정하는 등 다른 방식으로 이미지 내의 선박에 대응하는 영역을 감지해도 무방하다.To this end, the
장치(10)는 감지된 이미지 내의 선박에 대응하는 영역을 이용하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. 예를 들어, 장치(10)는 이미지 내의 선박에 대응하는 영역에 포함된 픽셀들의 픽셀 위치를 고려하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 선택할 수 있다. The
도 23은 일 실시예에 따른 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 일 예시이다. 도 23을 참고하면, 장치(10)는 이미지와 정합된 라이다 포인트들 중 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(411)을 선택할 수 있다. 예를 들어, 장치(10)는 복수의 라이다 포인트들 중 이미지 내의 선박에 대응하는 영역에 포함된 픽셀들에 정합된 라이다 포인트들을 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(411)로 선택할 수 있다. 도 23에 한정되지 않고, 세그멘테이션 이미지 또는 디텍션된 이미지가 사용되는 다른 방식으로 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(411)이 선택되어도 무방하다.23 is an example of lidar points related to a lidar beam reflected from a ship according to an embodiment. Referring to FIG. 23 , the
선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(411)의 선택은 상술한 기재에 한정되지 않으며 다른 방식으로 구현되어도 무방하다. 일 실시예에 따르면, 장치(10)는 라이다 데이터를 이용하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(411)을 선택할 수 있다. 예를 들어, 장치(10)는 라이다 데이터의 분포, 개수 등을 고려하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(411)을 선택할 수 있다.The selection of the lidar points 411 related to the lidar beam reflected from the ship is not limited to the above description and may be implemented in other ways. According to one embodiment, the
장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들 중 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 결정할 수 있다(S2220).The
도 23을 참고하면, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(411)의 3차원 좌표값을 이용하여 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(412)을 결정할 수 있다. 일 실시예에 따르면, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(411)의 높이값(일 예로, 3차원 좌표값 중 Z값)에 기초하여 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(412)을 결정할 수 있다. 예를 들어, 장치(10)는 실질적으로 동일한 높이값의 라이다 포인트들을 포함하는 라이다 라인들을 생성하고, 생성된 라이다 라인들 중 가장 낮은 높이 값의 라이다 포인트들을 포함하는 라이다 라인을 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로 결정할 수 있다. 여기서, 상기 라이다 라인들은 기설정된 범위 내의 라이다 포인트의 개수 또는 길이를 가질 수 있다. Referring to FIG. 23, the
다른 예를 들어, 장치(10)는 서로 다른 수직 각도를 갖는 복수의 채널을 갖는 라이더 센서를 포함하고, 각 채널에 대해 가장 낮은 높이 값의 라이다 포인트를 포함하는 라이다 포인트들을 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(412)로 결정할 수 있다. In another example, the
바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들(412)의 결정은 상술한 기재에 한정되지 않으며, 가장 낮은 높이 값의 라이다 포인트가 아닌 기설정된 범위의 높이값을 갖는 라이다 포인트로 결정되는 등 다른 방식으로 구현되어도 무방하다.Determination of the lidar points 412 related to the lidar beam reflected from the lower area of the ship in contact with the sea is not limited to the above description, and a height value of a predetermined range rather than the lidar point of the lowest height value It may be implemented in a different way, such as determined by a LiDAR point having
다시 도 22로 돌아와 설명하도록 한다.Return to FIG. 22 and explain.
장치(10)는 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 해수면 높이를 계산할 수 있다(S2230).The
장치(10)는 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 3차원 좌표값을 이용하여 해수면 높이를 계산할 수 있다. 일 실시예에 따르면, 장치(10)는 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값(일 예로, 3차원 좌표값 중 Z값)을 이용하여 해수면 높이를 계산할 수 있다. 예를 들어, 장치(10)는 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값을 해수면 높이로 산출할 수 있다. The
일 실시예에 따르면 장치(10)는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 3차원 좌표값을 이용하여 해수면의 파고를 계산할 수 있다.According to an embodiment, the
예를 들어, 장치(10)는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값(일 예로, 3차원 좌표값 중 Z값)을 이용하여 파고를 계산할 수 있다. 일 예로, 장치(10)는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들을 가우시안 분포로 추정하고, 추정된 분포에서 높이값의 범위를 파고로 산출할 수 있다.For example, the
일 실시예에 따르면, 장치(10)는 계산된 해수면 높이를 검증할 수 있다. 예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 특성(일예로, 개수, 높이값의 편차, 거리값 등)을 고려하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 계산된 해수면 높이의 유효성을 확인할 수 있다. 일예로, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 개수가 너무 적거나, 높이값의 편차가 너무 크거나, 거리값이 너무 가깝거나 먼 경우에 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 계산된 해수면 높이의 유효성이 낮다고 판단할 수 있다.According to one embodiment,
물론, 장치(10)는 상술한 기재에 한정되지 않으며, 바다와 접하는 선박의 하부 영역으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값을 기설정된 조건으로 조정하여 해수면 높이로 산출하는 등 다른 방식으로 해수면 높이를 계산해도 무방하다. Of course, the
라이다 포인트들로부터 계산되는 해수면 높이의 정확도는 상황에 따라 달라질 수 있다. 예를 들어, 장치(10)는 일반적으로 물결이 치는 바다로부터 라이다 데이터를 획득하기가 용이한데 날씨가 매우 좋고, 바다가 매우 잔잔한 날의 경우 바다로부터 획득되는 라이다 데이터는 매우 적고 노이즈가 존재하는 라이다 데이터가 획득될 가능성이 있다. 즉, 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 계산된 해수면 높이의 정확도가 보다 떨어질 수 있다.The accuracy of sea level height calculated from lidar points may vary depending on circumstances. For example, the
다른 예를 들어, 장치(10)는 일반적으로 라이다 센서와 적당한 거리에 있는 선박으로부터 라이다 데이터를 획득하기가 용이한데 라이다 센서와 선박이 너무 가까운 경우에는 바다와 접하는 선박의 하부 영역이 선석에 의해 가려질 수 있고, 라이다 센서와 선박이 너무 먼 경우에는 거리 측정 오차가 큰 라이다 데이터가 획득될 가능성이 있다. 즉, 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 계산된 해수면 높이의 정확도가 보다 떨어질 수 있다.For another example, the
따라서, 장치(10)는 다양한 상황에 있어서, 계산되는 해수면 높이의 정확도를 높이기 위한 해수면 높이 산출 방법을 수행할 수 있다. Accordingly, the
일 실시예에 따르면, 장치(10)는 추정 해수면 높이를 이용하여 해수면 높이를 산출할 수 있다.According to one embodiment, the
도 24는 일 실시예에 따르는 추정 해수면 높이를 이용한 해수면 높이 산출 방법의 순서도이다. 도 24를 참고하면, 일 실시예에 따르는 추정 해수면 높이를 이용한 해수면 높이 산출 방법은 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 제1 추정 해수면 높이를 계산하는 단계(S2310), 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 제2 추정 해수면 높이를 계산하는 단계(S2320) 및 제1 추정 해수면 높이 및 제2 추정 해수면 높이 중 적어도 하나를 이용한 해수면 높이를 산출하는 단계(S2330)를 포함할 수 있다. 24 is a flowchart of a method for calculating sea level height using estimated sea level height according to an embodiment. Referring to FIG. 24, the method for calculating the sea level height using the estimated sea level height according to an embodiment includes calculating a first estimated sea level height from lidar points related to a lidar beam reflected from the sea (S2310), Calculating a second estimated sea level height from lidar points related to the reflected lidar beam (S2320) and calculating a sea level height using at least one of the first estimated sea level height and the second estimated sea level height (S2330) can include
장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 제1 추정 해수면 높이를 계산할 수 있다(S2310). 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 계산된 해수면 높이를 제1 추정 해수면 높이로 산출할 수 있다. 이 단계에서는 앞서 설명된 내용이 그대로 적용될 수 있으므로, 보다 상세한 내용은 생략한다.The
장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 제2 추정 해수면 높이를 계산할 수 있다(S2320). 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 계산된 해수면 높이를 제2 추정 해수면 높이로 산출할 수 있다. 이 단계에서는 앞서 설명된 내용이 그대로 적용될 수 있으므로, 보다 상세한 내용은 생략한다.The
장치(10)는 제1 추정 해수면 높이 및 제2 추정 해수면 높이 중 적어도 하나를 이용하여 해수면 높이를 산출할 수 있다(S2330).The
일 실시예에 따르면, 장치(10)는 제1 추정 해수면 높이 및 제2 추정 해수면 높이의 가중합(weighted sum)에 기초하여 해수면 높이를 산출할 수 있다. 예를 들어, 장치(10)는 제1 가중치가 부여된 제1 추정 해수면 높이와 제2 가중치가 부여된 제2 추정 해수면 높이의 가중합을 해수면 높이를 산출할 수 있다.According to an embodiment, the
일 실시예에 따르면, 장치(10)는 추정 해수면 높이에 부여되는 가중치를 선석으로부터의 거리에 기초하여 결정할 수 있다.According to one embodiment, the
예를 들어, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 추정된 제1 추정 해수면 높이에 가중치를 부여함에 있어서, 상기 라이다 포인트들의 선석과의 거리가 가까울수록 높은 가중치를 부여할 수 있다. 이는, 선석과 가까운 거리의 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트의 정확도가 선석과 먼 거리의 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트보다 높기 때문이다.For example, in assigning weights to the first estimated sea level height estimated from lidar points related to lidar beams reflected from the sea, the
예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 추정된 제2 추정 해수면 높이에 가중치를 부여함에 있어서, 상기 라이다 포인트들의 선석과의 거리가 멀수록 높은 가중치를 부여할 수 있다. 여기서, 장치(10)는 특정 거리까지는 선석과의 거리가 멀수록 높은 가중치를 부여하다가, 특정 거리 이상에서는 선석과의 거리가 멀수록 낮은 가중치를 부여할 수 있다. 이는, 라이다 센서와 선박이 너무 가까운 경우에는 바다와 접하는 선박의 하부 영역이 선석에 의해 가려질 수 있어 노이즈가 있을 수 있고, 라이다 센서와 선박이 너무 먼 경우에는 거리 측정 오차가 큰 라이다 데이터가 획득될 가능성이 있기 때문이다.For example, in assigning weights to the second estimated sea level height estimated from lidar points related to the lidar beam reflected from the ship, the
물론, 장치(10)는 상술한 기재에 한정되지 않고 특정 거리 범위내의 라이다 포인트들로부터 추정된 해수면 높이에 높은 가중치를 부여하는 등 다른 방식으로 가중치를 부여해도 무방하다.Of course, the
일 실시예에 따르면, 장치(10)는 추정 해수면 높이에 부여되는 가중치를 산출된 파고에 기초하여 결정할 수 있다. 예를 들어, 장치(10)는 추정 해수면 높이에 부여되는 가중치를 단위 시간 당 파고의 변화에 기초하여 결정할 수 있다. 이는, 일반적으로 단위 시간 동안 파고의 변화가 적기 때문이다. According to an embodiment, the
예를 들어, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 추정된 제1 추정 해수면 높이에 가중치를 부여함에 있어서, 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 산출된 파고의 값이 시간이 지남에 따라 변화가 적을수록 높은 가중치를 부여할 수 있다. For example, in assigning a weight to the first estimated sea level height estimated from the lidar points associated with the lidar beam reflected from the sea, the
다른 예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 추정된 제2 추정 해수면 높이에 가중치를 부여함에 있어서, 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 산출된 파고의 값이 시간이 지남에 따라 변화가 적을수록 높은 가중치를 부여할 수 있다. In another example, the
물론, 장치(10)는 상술한 기재에 한정되지 않고 상술한 방법을 조합하여 가중치를 부여하는 등 다른 방식으로 가중치를 부여해도 무방하다.Of course, the
일 실시예에 따르면, 장치(10)는 라이다 포인트의 신뢰도를 이용하여 해수면 높이를 산출할 수 있다.According to one embodiment, the
도 25는 일 실시예에 따르는 라이다 포인트의 신뢰도를 이용한 해수면 높이 산출 방법의 순서도이다. 도 25를 참고하면, 일 실시예에 따르는 라이다 포인트의 신뢰도를 이용한 해수면 높이 산출 방법은 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제1 신뢰도를 계산하는 단계(S2410), 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 계산하는 단계(S2420) 및 제 제1 신뢰도 및 제2 신뢰도 중 적어도 하나를 고려한 해수면 높이를 산출하는 단계(S2430)를 포함할 수 있다. 신뢰도란 특정 객체로부터 반사된 라이다 빔과 관련된 라이다 포인트가 실제로 상기 특정 객체로부터 반사되어 생성된 것인지의 정확도를 의미할 수 있다.25 is a flowchart of a method for calculating sea level height using reliability of lidar points according to an embodiment. Referring to FIG. 25, a method for calculating sea level height using reliability of lidar points according to an embodiment includes calculating a first reliability of lidar points related to a lidar beam reflected from the sea (S2410), reflected from a ship. It may include calculating a second reliability of lidar points related to the detected lidar beam (S2420) and calculating a sea level height considering at least one of the first reliability and the second reliability (S2430). Reliability may mean accuracy of whether a lidar point related to a lidar beam reflected from a specific object is actually generated by being reflected from the specific object.
장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제1 신뢰도를 계산할 수 있다(S2410). 예를 들어, 장치(10)는 라이다 데이터를 이용하여 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제1 신뢰도를 계산할 수 있다. The
일 실시예에 따르면, 장치(10)는 라이다 포인트들의 특성에 기초하여 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제1 신뢰도를 계산할 수 있다. 라이다 포인트들의 특성은, 일예로 라이다 포인트들의 수, 높이값의 편차, 거리값, 좌표 등을 포함할 수 있다. 예를 들어, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 수가 너무 적으면 제1 신뢰도를 작게 계산할 수 있다. 다른 예를 들어, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값의 편차가 너무 크면 제1 신뢰도를 작게 계산할 수 있다. 다른 예를 들어, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 거리값의 편차가 너무 크면 제1 신뢰도를 작게 계산할 수 있다. 장치(10)는 상술한 기재에 한정되지 않으며, 카메라 이미지를 이용하여 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제1 신뢰도를 계산하는 등 다른 방식으로 제1 신뢰도를 계산해도 무방하다.According to one embodiment,
장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 계산할 수 있다(S2420). 예를 들어, 장치(10)는 라이다 데이터를 이용하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 계산할 수 있다. The
일 실시예에 따르면, 장치(10)는 라이다 포인트들의 특성에 기초하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 계산할 수 있다. 라이다 포인트들의 특성은, 일예로 라이다 포인트들의 수, 높이값의 편차, 거리값, 좌표 등을 포함할 수 있다. 예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 수가 너무 적으면 제2 신뢰도를 작게 계산할 수 있다. 다른 예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 높이값의 편차가 너무 크면 제2 신뢰도를 작게 계산할 수 있다. 다른 예를 들어, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 거리값의 편차가 너무 크면 제2 신뢰도를 작게 계산할 수 있다. According to an embodiment, the
일 실시예에 따르면, 장치(10)는 카메라 이미지를 이용하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 계산할 수 있다. 예를 들어, 장치(10)는 카메라 이미지로부터 획득하는 선박 정보를 이용하여 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 계산할 수 있다. 선박 정보는 선박에 관한 정보를 의미하며, 일예로, 이미지 내의 선박의 감지 여부, 이미지 내의 선박에 대응하는 영역에 관한 정보(일예로, 크기, 형태 등), 이미지로부터 획득된 선박까지의 거리, 이미지로부터 획득된 선박의 속도, 선박과 관련된 오클루전 등을 포함할 수 있다.According to one embodiment, the
일예로, 장치(10)는 이미지 내에서 선박이 감지되는 경우 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 크게 계산할 수 있다. 다른 일예로, 장치(10)는 이미지 내의 선박에 대응하는 영역의 크기가 특정 크기 범위에 속하는 경우 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 크게 계산할 수 있다. 다른 일예로, 장치(10)는 이미지로부터 획득된 선박까지의 거리가 특정 거리 범위에 속하는 경우 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 크게 계산할 수 있다. 다른 일예로, 장치(10)는 이미지로부터 획득된 선박과 관련된 오클루전이 없는 경우 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들의 제2 신뢰도를 크게 계산할 수 있다.For example, when a ship is detected in the image, the
장치(10)는 상술한 기재에 한정되지 않으며, 상술한 방법을 조합하여 제2 신뢰도를 계산하는 등 다른 방식으로 제2 신뢰도를 계산해도 무방하다.The
장치(10)는 제1 신뢰도 및 제2 신뢰도 중 적어도 하나를 고려하여 해수면 높이를 산출할 수 있다(S2430). The
일 실시예에 따르면, 장치(10)는 제1 신뢰도 및 제2 신뢰도를 서로 비교하여 해수면 높이를 산출할 수 있다. 예를 들어, 장치(10)는 제1 신뢰도가 제2 신뢰도보다 작은 경우, 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 해수면 높이를 산출할 수 있다. 다른 예를 들어, 장치(10)는 제1 신뢰도가 제2 신뢰도보다 큰 경우, 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 해수면 높이를 산출할 수 있다.According to an embodiment, the
일 실시예에 따르면, 장치(10)는 제1 신뢰도 및 제2 신뢰도 중 적어도 하나와 임계 신뢰도를 비교하여 해수면 높이를 산출할 수 있다. 예를 들어, 제1 신뢰도가 임계 신뢰도 이상인 경우, 장치(10)는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 해수면 높이를 산출할 수 있다. 다른 예를 들어, 제2 신뢰도가 임계 신뢰도 이상인 경우, 장치(10)는 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 해수면 높이를 산출할 수 있다.According to an embodiment, the
장치(10)는 상술한 기재에 한정되지 않으며, 바다 및 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트들로부터 계산된 해수면 높이들을 제1 신뢰도 및 제2 신뢰도의 비율로 반영하여 해수면 높이를 산출하는 등 다른 방식으로 해수면 높이를 산출해도 무방하다. The
일 실시예에 따르면, 장치(10)는 카메라 이미지를 분석한 결과를 이용하여 해수면 높이를 산출할 수 있다. 예를 들어, 장치(10)는 카메라 이미지를 통해 상황을 인식하고, 인식된 상황에 적합한 라이다 데이터를 이용하여 해수면 높이를 산출할 수 있다.According to one embodiment, the
도 26은 일 실시예에 따르는 카메라 이미지를 분석한 결과를 이용한 해수면 높이 산출 방법의 순서도이다. 도 26을 참고하면, 일 실시예에 따르는 카메라 이미지를 분석한 결과를 이용한 해수면 높이 산출 방법은 카메라 이미지를 분석하는 단계(S2510) 및 이미지 분석된 결과를 이용하여 라이다 데이터로부터 해수면 높이 산출하는 단계(S2520)를 포함할 수 있다. 26 is a flowchart of a method for calculating the height of sea level using a result of analyzing a camera image according to an embodiment. Referring to FIG. 26, the method for calculating the sea level height using the result of analyzing the camera image according to an embodiment includes analyzing the camera image (S2510) and calculating the sea level height from lidar data using the image analyzed result (S2510). (S2520) may be included.
장치(10)는 카메라 이미지를 분석할 수 있다(S2510). 예를 들어, 장치(10)는 카메라 이미지를 분석하고, 선박의 존부를 확인할 수 있다.The
일 실시예에 따르면, 장치(10)는 카메라 이미지로부터 선박과 관련된 선박 정보를 획득할 수 있다. 선박 정보는 선박에 관한 정보를 의미하며, 일예로, 이미지 내의 선박의 감지 여부, 이미지 내의 선박에 대응하는 영역에 관한 정보(일예로, 크기, 형태 등), 이미지로부터 획득된 선박까지의 거리, 이미지로부터 획득된 선박의 속도, 선박과 관련된 오클루전 등을 포함할 수 있다. 예를 들어, 장치(10)는 인공신경망을 이용하여 이미지 내에서 선박 정보를 획득할 수 있다. 일 예로, 장치(10)는 인공신경망을 이용하여 이미지로부터 세그멘테이션 이미지를 생성하고, 객체 유형이 선박을 나타내는 객체 정보로 라벨링된 픽셀이 위치한 영역을 선박에 대응하는 영역으로 감지하고, 이로부터 선박 정보를 획득할 수 있다. 여기서, 선박 정보는 선박의 감지 여부, 이미지 내의 선박에 대응하는 영역에 관한 정보(일예로, 크기, 형태 등), 이미지로부터 획득된 선박까지의 거리, 이미지로부터 획득된 선박의 속도, 선박과 관련된 오클루전 등을 포함할 수 있다. 선박 정보의 획득은 앞서 설명된 내용이 그대로 적용될 수 있으므로, 보다 상세한 내용은 생략한다. According to one embodiment, the
장치(10)는 상술한 기재에 한정되지 않으며, 이미지 디텍션을 통해 선박에 대응하는 영역을 결정하는 등 다른 방식으로 이미지로부터 선박 정보를 획득해도 무방하다.The
장치(10)는 이미지 분석된 결과를 이용하여 라이다 데이터로부터 해수면 높이를 산출할 수 있다(S2520). 예를 들어, 장치(10)는 선박의 존부에 따라 상이한 라이다 포인트로부터 해수면 높이를 산출할 수 있다. 일예로, 장치(10)는 이미지 분석 결과에 의해 선박이 존재하는 경우 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트로부터 해수면 높이를 산출하고, 이미지 분석결과에 의해 선박이 존재하지 않는 경우 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트로부터 해수면 높이를 산출할 수 있다.The
일 실시예에 따르면, 장치(10)는 카메라 이미지로부터 획득한 선박 정보를 이용하여 라이다 데이터로부터 해수면 높이를 산출할 수 있다. 예를 들어, 장치(10)는 카메라 이미지로부터 획득한 선박 정보에 기초하여 특정 라이다 포인트로부터 해수면 높이를 산출할 수 있다.According to an embodiment, the
일 실시예에 따르면, 장치(10)는 카메라 이미지로부터 획득한 선박 정보에 의해 기설정된 조건이 충족되는지 여부에 기초하여 라이다 데이터로부터 해수면 높이를 산출할 수 있다. 예를 들어, 장치(10)는 기설정된 조건의 충족 여부에 따라 특정 라이다 포인트로부터 해수면 높이를 산출할 수 있다. According to an embodiment, the
일예로, 장치(10)는 선박 정보에 의해 기설정된 조건이 충족되는 경우, 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트로부터 해수면 높이를 산출할 수 있다. 여기서, 기설정된 조건은 선박이 감지되는 조건, 선박에 대응하는 영역의 크기가 특정 범위에 속하는 조건, 선박까지의 거리가 특정 범위에 속하는 조건, 선박과 관련된 오클루전이 감지되지 않는 조건 등을 포함할 수 있다. 즉, 장치(10)는 카메라 이미지로부터 선박이 감지되거나, 감지된 선박이 일정 수준의 정확도를 보장하는 특정 조건을 충족하는 경우에 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트로부터 해수면 높이를 산출할 수 있다.For example, the
다른 일예로, 장치(10)는 선박 정보에 의해 기설정된 조건이 충족되지 않는 경우, 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트로부터 해수면 높이를 산출할 수 있다. 여기서, 기설정된 조건은 선박이 감지되지 않는 조건, 선박에 대응하는 영역의 크기가 특정 범위에 속하지 않는 조건, 선박까지의 거리가 특정 범위에 속하지 않는 조건, 선박과 관련된 오클루전이 감지되는 조건 등을 포함할 수 있다. 즉, 장치(10)는 카메라 이미지로부터 선박이 감지되지 않거나, 감지된 선박이 일정 수준의 정확도를 보장하는 특정 조건을 충족하지 않는 경우에는 바다로부터 반사된 라이다 빔과 관련된 라이다 포인트로부터 해수면 높이를 산출할 수 있다.As another example, the
또한, 장치(10)는 후속 이미지로부터 획득된 선박 정보를 고려하여 라이다 데이터로부터 해수면 높이를 산출할 수 있다. 예를 들어, 장치(10)는 기설정된 조건이 충족되어 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트로부터 해수면 높이를 산출하고, 후속 이미지로부터 획득된 선박 정보에 의해 기설정된 조건이 충족되지 않은 경우에는 상기 산출된 해수면 높이를 해수면 높이로 유지할 수 있다. 다른 예를 들어, 장치(10)는 기설정된 조건이 충족되어 선박으로부터 반사된 라이다 빔과 관련된 라이다 포인트로부터 해수면 높이를 산출하고, 후속 이미지로부터 획득된 선박 정보에 의해서도 기설정된 조건이 충족된 경우에는 상기 산출된 해수면 높이를 후속 라이다 데이터로부터 산출되는 해수면 높이를 고려하여 업데이트할 수 있다. 여기서, 후속 이미지와 후속 라이다 데이터는 일 예로, 서로 같은 시점에 획득되는 등 서로 대응할 수 있다. In addition, the
이미지 분석된 결과를 이용한 라이다 데이터로부터 해수면 높이 산출 방법은 상술한 기재에 한정되지 않고, 기설정된 조건에 감지된 선박의 형태가 추가되는 등 다른 방식으로 구현되어도 무방하다.The method of calculating the sea level height from lidar data using image analysis results is not limited to the above description, and may be implemented in other ways, such as adding the detected shape of a ship to a predetermined condition.
일 실시예에 따르면, 장치(10)는 산출된 해수면 높이를 고려하여 선박 또는 항만을 모니터링할 수 있다. According to one embodiment, the
도 27은 일 실시예에 따르는 산출된 해수면 높이를 고려한 선박 모니터링 방법의 순서도이다. 도 27을 참고하면, 일 실시예에 따르는 산출된 해수면 높이를 고려한 선박 모니터링 방법은 해수면 높이를 산출하는 단계(S2000) 및 산출된 해수면 높이를 고려한 선박을 모니터링하는 단계(S3000)를 포함할 수 있다. 27 is a flowchart of a ship monitoring method considering the calculated sea level height according to an embodiment. Referring to FIG. 27 , the ship monitoring method considering the calculated sea level height according to an embodiment may include calculating the sea level height (S2000) and monitoring the ship considering the calculated sea level height (S3000). .
장치(10)는 해수면 높이를 산출할 수 있다(S2000). 이 단계에서는 앞서 설명된 내용이 그대로 적용될 수 있으므로, 보다 상세한 내용은 생략한다.The
장치(10)는 산출된 해수면 높이를 고려하여 선박을 모니터링할 수 있다(S3000). The
일 실시예에 따르면, 장치(10)는 해수면의 높이를 반영하는 해수면 높이 정보를 고려하여 산출된 접안 가이드 정보를 제공할 수 있다. According to one embodiment, the
도 28은 서로 다른 기준 평면/기준 높이에서의 시점 변환에 관한 도면으로, 동일한 이미지라 하더라도 시점 변환의 기준에 따라 변환된 이미지는 상이할 수 있다. 예를 들어, 도 28의 (b) 및 (c)의 왼쪽 이미지는 동일하나 시점 변환 시의 기준에 따라 변환된 이미지는 각각 도 28의 (b) 및 (c)의 오른쪽 이미지처럼 안벽에 대한 선박의 상대적인 위치가 다른 것으로 나타날 수 있다. 이 경우 타겟 선박의 접안 가이드 정보 또한 달라지므로 정확한 접안 가이드 정보를 산출하기 위해서는 기준 평면/기준 높이의 설정이 중요할 수 있고, 이러한 기준 평면/기준 높이는 해수면 높이에 의존할 수 있다. 따라서 해수면 높이 정보를 고려하여 시점 변환을 수행하는 경우 접안 가이드 정보의 정확도가 증가할 수 있을 것이다. 28 is a view related to conversion of viewpoints at different reference planes/reference heights. Even in the same image, images converted according to criteria of viewpoint conversion may be different. For example, the left images of FIG. 28 (b) and (c) are the same, but the images converted according to the criterion at the time of converting the viewpoint are ships for the quay as shown in the right images of FIG. 28 (b) and (c), respectively. The relative position of may appear different. In this case, since berthing guide information of the target ship is also different, it may be important to set the reference plane/reference height in order to calculate accurate berthing guide information, and this reference plane/reference height may depend on the sea level height. Therefore, the accuracy of the berthing guide information can be increased if the viewpoint conversion is performed in consideration of the sea level height information.
도 28에 도시된 바와 같이 기준 평면은 해수면과 평행한 평면일 수 있으나 이에 한정되는 것은 아니다.As shown in FIG. 28, the reference plane may be a plane parallel to the sea level, but is not limited thereto.
장치(10)는 해수면 높이를 고려한 접안 가이드 정보를 산출할 때마다 시점 변환 정보를 해수면 높이 정보에 따라 업데이트하여 시점 변환을 수행할 수 있다. 또는, 시점 변환 정보는 일정 시간 간격에 따라 해수면 높이를 반영하여 업데이트될 수 있다. 여기서, 시점 변환 정보의 모든 파라미터에 대해 업데이트해야하는 것은 아니고 그 중 일부 파라미터에 대해서만 업데이트할 수도 있을 것이다.The
도 29는 일 실시예에 따른 해수면 높이/해수평면 상에서의 접안 가이드 정보 산출을 위한 이미지 보정에 관한 도면으로, 세그멘테이션 이미지를 기준 평면/기준 높이에 대해 시점 변환하고 변환된 세그멘테이션 이미지를 해수면 높이 정보를 고려하여 보정한 후 접안 가이드 정보를 산출하는 것이다. 해수면 높이와 기준 높이의 차이가 클수록 보정 전후의 이미지의 차이가 클 수 있을 것이다.29 is a view related to image correction for calculation of berthing guide information on sea level/sea level according to an embodiment, wherein a segmentation image is converted to a viewpoint with respect to a reference plane/reference height, and sea level height information is converted into the converted segmentation image. It is to calculate the berthing guide information after taking into account and correcting it. The greater the difference between the sea level height and the reference height, the greater the difference between images before and after correction.
다만, 해수면을 고려한 선박 또는 항만 모니터링은 상술한 기재에 한정되지 않으며, 예를 들어, 해수면 높이 정보를 고려하여 시점 변환 단계를 수행하고 이로부터 접안 가이드 정보를 산출한 후 해수면 높이 정보를 다시 고려하여 접안 가이드 정보를 보정하는 등 다른 방식으로 구현되어도 무방하다.However, ship or harbor monitoring considering sea level is not limited to the above description. For example, after performing a viewpoint conversion step in consideration of sea level information, berthing guide information is calculated therefrom, and then considering sea level height information again, It may be implemented in other ways, such as correcting eyepiece guide information.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
10: 모니터링 장치
100: 센서 모듈
110: 통신부
120: 제어부
130: 카메라
200: 제어 모듈
210: 통신부
220: 제어부
300: 통신 모듈10: monitoring device
100: sensor module
110: communication department
120: control unit
130: camera
200: control module
210: communication department
220: control unit
300: communication module
Claims (19)
카메라에 의해 촬상된 이미지를 획득하는 단계;
상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계;
상기 이미지에서 바다에 대응하는 제1 영역 및 상기 이미지에서 선박에 대응하는 제2 영역을 검출하는 단계;
상기 복수의 라이다 포인트 중에서 상기 제1 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계;
상기 제1 라이다 포인트들을 이용하여 제1 추정 해수면 높이를 계산하는 단계;
상기 제2 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계;
상기 제2 라이다 포인트의 높이값에 기초하여 상기 제2 라이다 포인트들로부터 상기 바다와 접하는 상기 선박의 하부 영역으로부터 반사되는 라이다 빔과 관련된 제3 라이다 포인트들을 결정하는 단계;
상기 제3 라이다 포인트들을 이용하여 제2 추정 해수면 높이를 계산하는 단계; 및
상기 제1 추정 해수면 높이 및 상기 제2 추정 해수면 높이를 모두 고려하여 해수면 높이를 결정하는 단계;를 포함하는
항만 모니터링 방법.
As a port monitoring method,
acquiring an image taken by a camera;
obtaining lidar data including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera;
detecting a first area corresponding to a sea in the image and a second area corresponding to a ship in the image;
selecting first lidar points related to lidar beams reflected from the sea in consideration of pixel positions of pixels included in the first area from among the plurality of lidar points;
calculating a first estimated sea level height using the first lidar points;
selecting second lidar points related to the lidar beam reflected from the ship from among the plurality of lidar points in consideration of pixel positions of pixels included in the second area;
Determining third lidar points related to a lidar beam reflected from a lower area of the ship in contact with the sea from the second lidar points based on height values of the second lidar points;
calculating a second estimated sea level height using the third lidar points; and
Determining a sea level height by considering both the first estimated sea level height and the second estimated sea level height;
Port monitoring methods.
상기 제1 추정 해수면 높이는 상기 제1 라이다 포인트들의 높이값의 평균인
항만 모니터링 방법.
According to claim 1,
The first estimated sea level height is an average of height values of the first LiDAR points.
Port monitoring methods.
상기 제3 라이다 포인트들을 결정하는 단계는
상기 제2 라이다 포인트들로부터 실질적으로 동일한 높이값의 라이다 포인트들을 포함하는 라이다 라인들을 생성하는 단계 및
상기 라이다 라인들 중 가장 낮은 높이값의 라이다 라인을 상기 제3 라이다 포인트들로 선택하는 단계를 포함하는
항만 모니터링 방법.
According to claim 1,
Determining the third lidar points
generating lidar lines including lidar points having substantially the same height value from the second lidar points; and
Selecting a lidar line having the lowest height value among the lidar lines as the third lidar points
Port monitoring methods.
상기 라이다 라인은 기설정된 범위의 라이다 포인트 개수 및/또는 길이를 갖는
항만 모니터링 방법.
According to claim 3,
The lidar line has a number and / or length of lidar points in a predetermined range
Port monitoring methods.
상기 해수면 높이는 상기 제1 추정 해수면 높이 및 상기 제2 추정 해수면 높이의 가중합인
항만 모니터링 방법.
According to claim 1,
The sea level height is a weighted sum of the first estimated sea level height and the second estimated sea level height
Port monitoring methods.
상기 제1 추정 해수면 높이에 부여되는 제1 가중치는 상기 제1 라이다 포인트들의 거리값에 기초하여 결정되고,
상기 제2 추정 해수면 높이에 부여되는 제2 가중치는 상기 제2 라이다 포인트들의 거리값에 기초하여 결정되고,
항만 모니터링 방법.
According to claim 5,
A first weight assigned to the first estimated sea level height is determined based on a distance value of the first lidar points,
A second weight assigned to the second estimated sea level height is determined based on a distance value of the second LiDAR points,
Port monitoring methods.
상기 제1 라이다 포인트들로부터 제1 파고를 산출하는 단계; 및
상기 제2 라이다 포인트들로부터 제2 파고를 산출하는 단계;를 더 포함하고,
상기 제1 추정 해수면 높이에 부여되는 제1 가중치는 단위 시간 당 상기 제1 파고의 변화에 기초하여 결정되고,
상기 제2 추정 해수면 높이에 부여되는 제2 가중치는 단위 시간 당 상기 제2 파고의 변화에 기초하여 결정되는
항만 모니터링 방법.
According to claim 5,
Calculating a first wave height from the first lidar points; and
Further comprising: calculating a second wave height from the second lidar points;
A first weight assigned to the first estimated sea level height is determined based on a change in the first wave height per unit time,
A second weight assigned to the second estimated sea level height is determined based on a change in the second wave height per unit time.
Port monitoring methods.
상기 제1 영역 및 상기 제2 영역은 인공 신경망을 이용하여 검출되고,
상기 인공 신경망은 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되는
항만 모니터링 방법.
According to claim 1,
The first area and the second area are detected using an artificial neural network,
The artificial neural network is learned using a learning set including a plurality of training images and object information labeled on pixels of the plurality of training images.
Port monitoring methods.
상기 제1 라이다 포인트들 및/또는 상기 제2 라이다 포인트들은 라이다 포인트들의 특성을 고려하여 결정되고,
상기 라이다 포인트들의 특성은 라이다 포인트의 수, 높이값의 편차, 거리값 중 적어도 하나를 포함하는
항만 모니터링 방법.
According to claim 1,
The first lidar points and / or the second lidar points are determined in consideration of characteristics of lidar points,
The characteristics of the lidar points include at least one of the number of lidar points, a deviation of the height value, and a distance value.
Port monitoring methods.
상기 제2 라이다 포인트들은 상기 이미지로부터 획득되는 선박 정보에 기초하여 결정되고,
상기 선박 정보는 상기 제2 영역의 검출, 상기 제2 영역의 크기, 상기 선박까지의 거리 및 상기 선박과 관련된 오클루전의 검출 중 적어도 하나를 포함하는
항만 모니터링 방법.
According to claim 1,
The second lidar points are determined based on vessel information obtained from the image,
The vessel information includes at least one of detection of the second area, size of the second area, distance to the vessel, and detection of occlusion related to the vessel.
Port monitoring methods.
카메라에 의해 촬상된 이미지를 획득하는 단계;
상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계;
상기 이미지에서 바다에 대응하는 제1 영역 및 상기 이미지에서 선박에 대응하는 제2 영역을 검출하는 단계;
상기 복수의 라이다 포인트 중에서 상기 제1 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계;
라이다 포인트들의 특성에 기초하여 상기 제1 라이다 포인트들의 제1 신뢰도를 결정하는 단계;
상기 제2 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계;
상기 이미지로부터 획득되는 선박 정보에 기초하여 상기 제2 라이다 포인트들의 제2 신뢰도를 결정하는 단계; 및
상기 제1 신뢰도 및 상기 제2 신뢰도를 고려하여 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 중 적어도 하나를 이용하여 해수면 높이를 추정하는 단계;를 포함하는
항만 모니터링 방법.
As a port monitoring method,
acquiring an image taken by a camera;
obtaining lidar data including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera;
detecting a first area corresponding to a sea in the image and a second area corresponding to a ship in the image;
selecting first lidar points related to lidar beams reflected from the sea in consideration of pixel positions of pixels included in the first area from among the plurality of lidar points;
determining first reliability of the first lidar points based on characteristics of the lidar points;
selecting second lidar points related to the lidar beam reflected from the ship from among the plurality of lidar points in consideration of pixel positions of pixels included in the second area;
determining second reliability of the second lidar points based on vessel information obtained from the image; and
Estimating a sea level height using at least one of the first lidar points and the second lidar points in consideration of the first reliability level and the second reliability level; including
Port monitoring methods.
상기 라이다 포인트들의 특성은 라이다 포인트의 수, 높이값의 편차, 거리값 중 적어도 하나를 포함하는
항만 모니터링 방법.
According to claim 11,
The characteristics of the lidar points include at least one of the number of lidar points, a deviation of the height value, and a distance value.
Port monitoring methods.
상기 선박 정보는 상기 제2 영역의 검출, 상기 제2 영역의 크기, 상기 선박까지의 거리 및 상기 선박과 관련된 오클루전의 검출 중 적어도 하나를 포함하는
항만 모니터링 방법.
According to claim 11,
The vessel information includes at least one of detection of the second area, size of the second area, distance to the vessel, and detection of occlusion related to the vessel.
Port monitoring methods.
라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계;
상기 복수의 라이다 포인트 중에서 바다로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계;
상기 복수의 라이다 포인트들 중에서 선박으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계;
상기 제1 라이다 포인트들 및 제2 라이다 포인트들의 수, 높이값의 편차 및 거리값 중 적어도 하나에 기초하여 해수면 높이를 추정하기 위한 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 각각의 신뢰도를 결정하는 단계; 및
상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들의 상기 신뢰도를 고려하여 상기 제1 라이다 포인트들 및 상기 제2 라이다 포인트들 중 적어도 하나를 이용하여 해수면 높이를 추정하는 단계; 를 포함하는
항만 모니터링 방법.
As a port monitoring method,
Acquiring lidar data including a plurality of lidar points obtained by lidar sensors;
selecting first lidar points related to lidar beams reflected from the sea from among the plurality of lidar points;
selecting second lidar points related to the lidar beam reflected from the ship from among the plurality of lidar points;
The first lidar points and the second lidar points for estimating the sea level height based on at least one of the number of the first lidar points and the second lidar points, a deviation of a height value, and a distance value determining the reliability of each; and
estimating a sea level height using at least one of the first lidar points and the second lidar points in consideration of the reliability of the first lidar points and the second lidar points; containing
Port monitoring methods.
카메라에 의해 촬상된 이미지를 획득하는 단계;
상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계;
상기 이미지에서 선박에 대응하는 선박 영역을 인공 신경망을 이용하여 검출하는 단계,
상기 인공 신경망은 복수의 훈련 이미지 및 상기 복수의 훈련 이미지의 픽셀들에 라벨링되는 객체 정보를 포함하는 학습 세트를 이용하여 학습되고,
상기 복수의 훈련 이미지 중 적어도 일부는 선박 및 바다를 포함하고,
상기 객체 정보는 객체 종류를 반영하고,
상기 선박의 픽셀들은 선박을 지시하는 상기 객체 종류의 상기 객체 정보로 라벨링되고;
상기 선박 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계;
상기 제1 라이다 포인트의 높이값에 기초하여 상기 제1 라이다 포인트들로부터 상기 바다와 접하는 상기 선박의 하부 영역으로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 결정하는 단계; 및
상기 제2 라이다 포인트들을 이용하여 해수면 높이를 추정하는 단계;를 포함하는
항만 모니터링 방법.
As a port monitoring method,
acquiring an image taken by a camera;
obtaining lidar data including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera;
Detecting a ship area corresponding to the ship in the image using an artificial neural network;
The artificial neural network is learned using a learning set including a plurality of training images and object information labeled on pixels of the plurality of training images,
At least some of the plurality of training images include ships and seas;
The object information reflects the object type,
pixels of the vessel are labeled with the object information of the object type indicating the vessel;
selecting first lidar points related to a lidar beam reflected from the vessel from among the plurality of lidar points in consideration of pixel positions of pixels included in the vessel area;
Determining second lidar points related to a lidar beam reflected from a lower area of the ship in contact with the sea from the first lidar points based on height values of the first lidar points; and
Estimating the sea level height using the second lidar points; including
Port monitoring methods.
상기 제1 라이다 포인트들의 수, 높이값의 편차 및 거리값 중 적어도 하나에 기초하여 상기 해수면 높이를 검증하는 단계를 더 포함하는
항만 모니터링 방법.
According to claim 15,
Further comprising verifying the sea level height based on at least one of the number of first lidar points, a deviation of a height value, and a distance value.
Port monitoring methods.
카메라에 의해 촬상된 이미지를 획득하는 단계;
상기 카메라의 시야각과 적어도 부분적으로 오버랩되는 시야각을 갖는 라이다 센서에 의해 얻어지는 복수의 라이다 포인트를 포함하는 라이다 데이터를 획득하는 단계;
상기 이미지에서 선박에 대응하는 선박 영역을 검출하는 단계;
상기 선박 영역에 포함되는 픽셀들의 픽셀 위치를 고려하여 상기 복수의 라이다 포인트들 중에서 상기 선박으로부터 반사되는 라이다 빔과 관련된 제1 라이다 포인트들을 선택하는 단계;
상기 이미지로부터 상기 선박에 관련된 선박 정보를 획득하는 단계,
상기 선박 정보는 상기 선박의 검출, 상기 선박 영역의 크기, 상기 선박까지의 거리 및 상기 선박과 관련된 오클루전의 검출 중 적어도 하나를 포함하고; 및
상기 선박 정보에 의해 기설정된 조건이 충족되는 경우, 상기 제1 라이다 포인트를 이용하여 해수면 높이를 추정하는 단계;를 포함하며,
상기 이미지에서 바다에 대응하는 바다 영역을 검출하는 단계;
상기 복수의 라이다 포인트 중에서 상기 바다 영역에 포함되는 픽셀의 픽셀 위치를 고려하여 바다로부터 반사되는 라이다 빔과 관련된 제2 라이다 포인트들을 선택하는 단계; 및
상기 선박 정보에 의해 상기 기설정된 조건이 충족되지 않는 경우, 상기 제2 라이다 포인트를 이용하여 해수면 높이를 추정하는 단계;를 더 포함하는
항만 모니터링 방법.
As a port monitoring method,
acquiring an image taken by a camera;
obtaining lidar data including a plurality of lidar points obtained by a lidar sensor having a viewing angle at least partially overlapping with a viewing angle of the camera;
detecting a ship area corresponding to a ship in the image;
selecting first lidar points related to a lidar beam reflected from the vessel from among the plurality of lidar points in consideration of pixel positions of pixels included in the vessel area;
Obtaining vessel information related to the vessel from the image;
the vessel information includes at least one of detection of the vessel, size of the area of the vessel, distance to the vessel, and detection of occlusion related to the vessel; and
Including, when a predetermined condition is satisfied by the vessel information, estimating the sea level height using the first lidar point,
detecting a sea area corresponding to the sea in the image;
selecting second lidar points related to lidar beams reflected from the sea in consideration of pixel positions of pixels included in the sea area from among the plurality of lidar points; and
Estimating the sea level height using the second lidar point when the predetermined condition is not satisfied by the vessel information; further comprising
Port monitoring methods.
A computer-readable recording medium in which a program for performing the method of any one of claims 1 to 17 is recorded.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200139726A KR102530847B1 (en) | 2020-10-26 | 2020-10-26 | Method and device for monitoring harbor and ship |
EP21738118.5A EP4089660A4 (en) | 2020-01-09 | 2021-01-04 | Method and device for monitoring port and ship in consideration of sea level |
PCT/KR2021/000038 WO2021141339A1 (en) | 2020-01-09 | 2021-01-04 | Method and device for monitoring port and ship in consideration of sea level |
US17/860,692 US20220351523A1 (en) | 2020-01-09 | 2022-07-08 | Method and device for monitoring port and ship in consideration of sea level |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200139726A KR102530847B1 (en) | 2020-10-26 | 2020-10-26 | Method and device for monitoring harbor and ship |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220055555A KR20220055555A (en) | 2022-05-04 |
KR102530847B1 true KR102530847B1 (en) | 2023-05-11 |
Family
ID=81583875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200139726A KR102530847B1 (en) | 2020-01-09 | 2020-10-26 | Method and device for monitoring harbor and ship |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102530847B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116310601B (en) * | 2023-05-19 | 2023-08-04 | 广州健新科技有限责任公司 | Ship behavior classification method based on AIS track diagram and camera diagram group |
CN116681292A (en) * | 2023-08-04 | 2023-09-01 | 交通运输部水运科学研究所 | Petrochemical harbor security risk analysis and responsibility division method based on deep learning |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101019555B1 (en) | 2010-07-26 | 2011-03-08 | 한국해양연구원 | Construction of topographic map through integrating land and sea at coastal area |
KR102005559B1 (en) | 2018-09-04 | 2019-08-07 | 씨드로닉스(주) | Situation awareness method using image segmentation |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140126998A (en) * | 2013-04-24 | 2014-11-03 | 주식회사 씨큐로 | System for preventing collision with dock gate |
US20210357655A1 (en) * | 2018-10-04 | 2021-11-18 | Seadronix Corp. | Ship and harbor monitoring device and method |
-
2020
- 2020-10-26 KR KR1020200139726A patent/KR102530847B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101019555B1 (en) | 2010-07-26 | 2011-03-08 | 한국해양연구원 | Construction of topographic map through integrating land and sea at coastal area |
KR102005559B1 (en) | 2018-09-04 | 2019-08-07 | 씨드로닉스(주) | Situation awareness method using image segmentation |
Also Published As
Publication number | Publication date |
---|---|
KR20220055555A (en) | 2022-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102231286B1 (en) | Ship surrounding monitoring device and ship surrounding monitoring method | |
KR102530691B1 (en) | Device and method for monitoring a berthing | |
KR102240839B1 (en) | Autonomous navigation method using image segmentation | |
CN109283538B (en) | Marine target size detection method based on vision and laser sensor data fusion | |
JP6507437B2 (en) | Ship auxiliary docking method and system | |
EP4089660A1 (en) | Method and device for monitoring port and ship in consideration of sea level | |
US11514668B2 (en) | Method and device for situation awareness | |
US20220024549A1 (en) | System and method for measuring the distance to an object in water | |
KR102265980B1 (en) | Device and method for monitoring ship and port | |
KR20200095888A (en) | Method for context awareness of unmanned ship system and apparatus for the same | |
KR102530847B1 (en) | Method and device for monitoring harbor and ship | |
KR102520844B1 (en) | Method and device for monitoring harbor and ship considering sea level | |
KR102466804B1 (en) | Autonomous navigation method using image segmentation | |
KR20200039588A (en) | Device and method for real-time monitoring of ship and port | |
KR102535115B1 (en) | Device and method for monitoring ship and port | |
CN115131720A (en) | Ship berthing assisting method based on artificial intelligence | |
Petković et al. | Target Detection for Visual Collision Avoidance System | |
Kim et al. | Imaging sonar based navigation method for backtracking of AUV | |
US11776250B2 (en) | Method and device for situation awareness | |
KR102501450B1 (en) | Distance measurement method and distance measurement device using the same | |
US20230377326A1 (en) | Method and Device for Situation Awareness | |
JP7243319B2 (en) | Disappearance prevention device and disappearance prevention method | |
KR20230027130A (en) | Distance measurement method and distance measurement device using the same | |
JP2023103836A (en) | Water area object detection system, and ship and surrounding object detection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |