KR102407174B1 - Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment - Google Patents

Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment Download PDF

Info

Publication number
KR102407174B1
KR102407174B1 KR1020200109722A KR20200109722A KR102407174B1 KR 102407174 B1 KR102407174 B1 KR 102407174B1 KR 1020200109722 A KR1020200109722 A KR 1020200109722A KR 20200109722 A KR20200109722 A KR 20200109722A KR 102407174 B1 KR102407174 B1 KR 102407174B1
Authority
KR
South Korea
Prior art keywords
direction angle
reflection distance
target object
sensor
angle
Prior art date
Application number
KR1020200109722A
Other languages
Korean (ko)
Other versions
KR20220028564A (en
Inventor
이정우
박지현
황정환
최영호
서진호
Original Assignee
한국로봇융합연구원
부경대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원, 부경대학교 산학협력단 filed Critical 한국로봇융합연구원
Priority to KR1020200109722A priority Critical patent/KR102407174B1/en
Publication of KR20220028564A publication Critical patent/KR20220028564A/en
Application granted granted Critical
Publication of KR102407174B1 publication Critical patent/KR102407174B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems

Abstract

해상 환경에서 복수의 레이더 및 라이더를 이용하여 목표 대상물과 장치 간 상대 정보를 추정하기 위한 방법이 제공된다. 상기 방법은 전처리부가 센서부를 통해 객체로부터 반사된 빛 또는 전파의 방향각도와 반사거리를 가지는 센서 신호를 입력받는 단계와, 상기 전처리부가 상기 센서신호를 상기 방향각도 및 상기 반사거리에 따라 구분하여 복수의 그룹을 생성하는 단계와, 상기 전처리부가 하여 복수의 그룹 각각에서 최소값을 도출하여 2차원 정보화 행렬을 생성하는 단계를 포함한다. A method for estimating relative information between a target object and a device using a plurality of radars and lidar in a marine environment is provided. The method includes the steps of: a pre-processing unit receiving a sensor signal having a directional angle and a reflection distance of light or radio waves reflected from an object through a sensor unit; generating a group of , and generating a two-dimensional informatization matrix by deriving a minimum value from each of a plurality of groups by the preprocessor.

Description

해상 환경에서 복수의 레이더 및 라이더를 이용하여 목표 대상물과 장치 간 상대 정보를 추정하기 위한 방법{Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment}Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment

본 발명은 상대 정보를 추정 기술에 관한 것으로, 보다 상세하게는, 해상 환경에서 복수의 레이더 및 라이더를 이용하여 목표 대상물과 장치 간 상대 정보를 추정하기 위한 방법에 관한 것이다. The present invention relates to a technology for estimating relative information, and more particularly, to a method for estimating relative information between a target object and a device using a plurality of radars and lidar in a marine environment.

종래에 있어서, 해상의 특정 위치에 있는 장치 상에서 다른 위치에 있는 목표 대상물을 향해 이동하기 위해서는, 목표 대상물을 탐지/검출하기 위한 센서를 선정하여 출력 정보를 처리하는 알고리즘을 실행하고, 탐지/검출된 목표 대상물의 상대적 위치 정보를 이용하여 여러 스러스터의 제어 출력을 처리하는 알고리즘을 실행하고 있다. 센서 처리를 위해 사용되는 알고리즘은 비선형의 센서 출력 정보에 대한 모델을 기반으로 재귀적 방법으로 필터링하게 되며, 이러한 알고리즘은 센서 출력이 기 상정한 모델을 벗어나게 되면 그 출력이 발산하게 되고, 또한 재귀적 반복에 의해 센서 자체에 내장된 오차가 누적되어 시간이 흐르면서 추정값과 실제값에 차이가 발생한다. In the prior art, in order to move toward a target object located at another location on a device at a specific location on the sea, a sensor for detecting/detecting the target object is selected and an algorithm for processing output information is executed, and the detected/detected An algorithm that processes the control output of multiple thrusters using the relative position information of the target is being executed. The algorithm used for sensor processing is filtered in a recursive way based on the model for non-linear sensor output information. This algorithm diverges when the sensor output deviates from the expected model, and also recursively The error built into the sensor itself is accumulated through repetition, and as time goes by, a difference occurs between the estimated value and the actual value.

한국공개특허 제2025113호 2019년 09월 19일 등록 (명칭: LiDAR를 이용한 이미지 생성 방법 및 이를 위한 장치)Registered Korea Patent Publication No. 2025113 on September 19, 2019 (Title: Image creation method using LiDAR and device therefor)

본 발명의 목적은 해상 환경에서 복수의 레이더 및 라이더를 이용하여 목표 대상물과 장치 간 상대 정보를 추정하기 위한 방법을 제공함에 있다. An object of the present invention is to provide a method for estimating relative information between a target object and a device using a plurality of radars and lidar in a marine environment.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 해상 환경에서 복수의 레이더 및 라이더를 이용하여 목표 대상물과 장치 간 상대 정보를 추정하기 위한 방법은 전처리부가 센서부를 통해 객체로부터 반사된 빛 또는 전파의 방향각도와 반사거리를 가지는 센서 신호를 입력받는 단계와, 상기 전처리부가 상기 센서신호를 상기 방향각도 및 상기 반사거리에 따라 구분하여 복수의 그룹을 생성하는 단계와, 상기 전처리부가 하여 복수의 그룹 각각에서 최소값을 도출하여 2차원 정보화 행렬을 생성하는 단계를 포함한다. In a method for estimating relative information between a target object and a device using a plurality of radars and lidars in a marine environment according to a preferred embodiment of the present invention for achieving the object as described above, the preprocessor is reflected from the object through the sensor unit. A step of receiving a sensor signal having a directional angle and a reflection distance of light or radio waves, the pre-processing unit generating a plurality of groups by dividing the sensor signal according to the directional angle and the reflection distance; and generating a two-dimensional informatization matrix by deriving a minimum value from each of the plurality of groups.

상기 방법은 상기 전처리부가 상기 2차원 정보화 행렬을 소정 시간 동안 누적하여 복수의 2차원 정보화 행렬이 시간 축 상에서 누적된 3차원 구조를 가진 입력데이터를 생성하는 단계와, 학습부가 상기 입력데이터에 포함된 상기 복수의 2차원 정보화 행렬 각각에 대응하는 복수의 센서 신호 각각에서 목표 대상물이 차지하는 영역을 나타내는 영역상자를 통해 목표 대상물을 검출하고, 영역상자의 중심점을 산출하는 단계와, 상기 학습부가 상기 복수의 2차원 정보화 행렬에 대응하는 복수의 센서 신호 로부터 항해장치와 목표 대상물 간의 헤딩 방향각 차이를 산출하는 단계와, 상기 학습부가 상기 복수의 2차원 정보화 행렬에 대응하는 복수의 센서 신호 각각으로부터 항해장치와 해상 목표 대상물 간의 상대 거리를 산출하는 단계와, 상기 학습부가 상기 헤딩 방향각 차이 및 상기 상대 거리를 상기 복수의 2차원 정보화 행렬에 레이블링하는 단계를 더 포함한다. The method comprises the steps of: the pre-processing unit accumulating the two-dimensional informatization matrix for a predetermined time to generate input data having a three-dimensional structure in which a plurality of two-dimensional informatization matrices are accumulated on a time axis; detecting a target object through an area box indicating an area occupied by the target object in each of a plurality of sensor signals corresponding to each of the plurality of two-dimensional informatization matrices, and calculating a center point of the area box; Calculating the difference in heading direction angle between the navigation device and the target object from a plurality of sensor signals corresponding to the two-dimensional informatization matrix, and the learning unit from each of the plurality of sensor signals corresponding to the plurality of two-dimensional informatization matrices to the navigation device and The method further includes calculating a relative distance between marine target objects, and labeling, by the learning unit, the difference in the heading direction angle and the relative distance on the plurality of two-dimensional informatization matrices.

상기 헤딩 방향각 차이를 산출하는 단계는 상기 학습부가 수학식

Figure 112020091267225-pat00001
에 따라 상기 헤딩 방향각 차이를 산출하며, 상기 dx는 상기 목표 대상물에 대한 상기 영역상자의 중심점 중 x 좌표이고, 상기 W는 상기 센서 신호를 시각화한 영상의 수평방향의 픽셀 개수이고, 상기 F는 초점 거리인 것을 특징으로 한다. In the step of calculating the difference in the heading direction angle, the learning unit is
Figure 112020091267225-pat00001
calculates the difference in the heading direction angle according to, dx is the x coordinate of the center point of the area box with respect to the target object, W is the number of pixels in the horizontal direction of the image visualized with the sensor signal, and F is It is characterized in that the focal length.

상기 학습부가 수학식

Figure 112020091267225-pat00002
에 따라 상기 상대 거리를 산출하며, 상기 dx는 목표 대상물의 영역상자의 중심점 중 x 좌표이고, 상기 dy는 목표 대상물의 영역상자의 중심점 중 y 좌표이고, 상기 W는 상기 센서 신호를 시각화한 영상의 수평방향의 픽셀 개수이고, 상기 H는 상기 센서 신호를 시각화한 영상의 수직방향의 픽셀 개수이고, 상기 F는 초점 거리인 것을 특징으로 한다. the learning unit
Figure 112020091267225-pat00002
calculates the relative distance according to, dx is the x-coordinate of the center point of the area box of the target object, dy is the y-coordinate of the center point of the area box of the target object, and W is the image obtained by visualizing the sensor signal The number of pixels in the horizontal direction, H is the number of pixels in the vertical direction of the image visualized with the sensor signal, and F is the focal length.

상기 전처리부가 상기 센서신호를 상기 방향각도 및 상기 반사거리에 따라 복수의 그룹으로 구분하는 단계는 상기 전처리부가 기 설정된 방향 각도의 화각 및 방향각도 분할 수를 기초로 수학식

Figure 112022022198617-pat00003
에 따라 상기 센서 신호의 방향 각도에 대한 분할 지점을 산출하는 단계와, 상기 전처리부가 상기 산출된 방향 각도에 대한 분할 지점에 따른 구간 별로 상기 센서 신호를 그룹화하여 방향각도 별 반사거리 값을 저장하는 단계를 포함하며, 상기 θi는 방향각도의 분할 지점이고, 상기 i는 방향각도의 분할 지점에 대한 인덱스이고, 상기 N은 방향각도 분할 수이고, 상기
Figure 112022022198617-pat00004
는 방향각도의 화각인 것을 특징으로 한다. The step of the pre-processing unit dividing the sensor signal into a plurality of groups according to the directional angle and the reflection distance is an equation based on the number of divisions of the angle of view and the directional angle of the pre-processing unit preset directional angle
Figure 112022022198617-pat00003
calculating a division point for the direction angle of the sensor signal according to the method, and storing the reflection distance value for each direction angle by grouping the sensor signals for each section according to the division point for the calculated direction angle by the preprocessing unit. , wherein θi is a division point of a direction angle, i is an index to a division point of a direction angle, N is a direction angle division number, and
Figure 112022022198617-pat00004
is the angle of view of the directional angle.

상기 방법은 상기 방향각도 별 반사거리 값을 저장하는 단계 후, 상기 전처리부가 기 설정된 최대 반사거리 및 반사거리 분할 수를 기초로 수학식

Figure 112020091267225-pat00005
에 따라 반사 거리에 대한 분할 지점을 산출하는 단계와, 상기 전처리부가 상기 산출된 반사 거리에 대한 분할 지점에 따른 구간 별로 상기 센서 신호를 그룹화하여 반사거리 값을 저장하는 단계를 더 포함하며, 상기 Lj는 반사거리의 분할 지점이며, 상기 j는 반사거리의 분할 지점에 대한 인덱스이고, 상기
Figure 112020091267225-pat00006
는 최대 반사거리이고, 상기 K는 반사거리 분할 수 인 것을 특징으로 한다. In the method, after the step of storing the reflection distance value for each direction angle, the pre-processing unit is based on the preset maximum reflection distance and the number of reflection distance divisions.
Figure 112020091267225-pat00005
Calculating a split point for the reflection distance according to is a dividing point of the reflection distance, and j is an index to the dividing point of the reflection distance, and
Figure 112020091267225-pat00006
is the maximum reflection distance, and K is the reflection distance division number.

본 발명에 따르면 해상 환경에서 취득된 라이다(LiDAR) 센서와 레이더(RADAR) 센서 정보에 대해, 깊은 신경망 모델을 이용하기 위한 학습 가능한 입력의 형태로 데이터셋을 생성할 수 있다. According to the present invention, it is possible to generate a dataset in the form of a learnable input for using a deep neural network model for LiDAR sensor and RADAR sensor information acquired in a marine environment.

도 1은 본 발명의 실시예에 따른 항해장치가 적용되는 해상 환경을 설명하기 위한 도면이다.
도 2 및 도 3은 본 발명의 실시예에 따른 항해장치의 구성을 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 심층신경망의 구성을 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 다른 실시예에 따른 심층신경망의 구성을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 심층신경망에 대한 입력 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 실시예에 따른 심층신경망에 대한 학습 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 실시예에 따른 심층신경망에 대한 학습 데이터를 생성하는 방법을 설명하기 위한 화면 예이다.
1 is a view for explaining a marine environment to which a navigation device according to an embodiment of the present invention is applied.
2 and 3 are block diagrams for explaining the configuration of a navigation device according to an embodiment of the present invention.
4 is a diagram for explaining the configuration of a deep neural network according to an embodiment of the present invention.
5 and 6 are diagrams for explaining the configuration of a deep neural network according to another embodiment of the present invention.
7 is a flowchart illustrating a method of generating input data for a deep neural network according to an embodiment of the present invention.
8 is a flowchart illustrating a method of generating learning data for a deep neural network according to an embodiment of the present invention.
9 is a screen example for explaining a method of generating learning data for a deep neural network according to an embodiment of the present invention.

본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, the terms or words used in the present specification and claims described below should not be construed as being limited to their ordinary or dictionary meanings, and the inventors should develop their own inventions in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention based on the principle that it can be appropriately defined as a concept of a term for explanation. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all the technical spirit of the present invention, so various equivalents that can be substituted for them at the time of the present application It should be understood that there may be water and variations.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that in the accompanying drawings, the same components are denoted by the same reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted. For the same reason, some components are exaggerated, omitted, or schematically illustrated in the accompanying drawings, and the size of each component does not fully reflect the actual size.

먼저, 본 발명의 실시예에 따른 해상 환경에서 심층신경망을 이용하여 복수의 스러스터를 제어하는 장치에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 항해장치가 적용되는 해상 환경을 설명하기 위한 도면이다. 도 1을 참조하면, 본 발명의 실시예는 해상에 선박(U) 및 적어도 하나의 목표 대상물(obj)이 존재하는 상황을 상정한다. First, an apparatus for controlling a plurality of thrusters using a deep neural network in a marine environment according to an embodiment of the present invention will be described. 1 is a view for explaining a marine environment to which a navigation device according to an embodiment of the present invention is applied. Referring to FIG. 1 , an embodiment of the present invention assumes a situation in which a ship U and at least one target object obj exist in the sea.

목표 대상물(obj)은 해상에서 이동하거나, 해상에 설치되어 있는 모든 종류의 객체를 포함한다. 예컨대, 목표 대상물(obj)은 선박이거나, 부표이거나, 해상 구조물 등이 될 수 있다. The target object obj includes all kinds of objects that move on the sea or are installed on the sea. For example, the target object obj may be a ship, a buoy, or a marine structure.

본 발명의 실시예에서 선박(U)은 항해장치(10)가 장착된다. 이러한 항해장치(10)는 목표 대상물(obj)을 회피하거나, 대상 목표물(obj)로 이동하기 위해 목표 대상물과 장치 간 상대 정보, 예컨대, 헤딩 방향각 차이 및 상대 거리를 추정해야 한다. In the embodiment of the present invention, the vessel (U) is equipped with a navigation device (10). In order to avoid the target object obj or move to the target object obj, the navigation device 10 needs to estimate relative information between the target object and the device, for example, a difference in heading direction angle and a relative distance.

한편, 본 발명의 바람직한 실시예에 따라 항해장치(10)를 장착한 선박(U)을 대표적인 실시예로 설명하지만 본 발명을 이에 한정하는 것은 아니며, 항해장치(10)는 해수면뿐만 아니라 수중에서 이동하는 수단, 예컨대, 잠수함, 잠수 드론 등에도 적용될 수 있다. On the other hand, although the ship U equipped with the navigation device 10 according to a preferred embodiment of the present invention is described as a representative embodiment, the present invention is not limited thereto, and the navigation device 10 moves in water as well as at sea level. It can also be applied to means, for example, submarines, submersible drones, and the like.

그러면, 본 발명의 실시예에 따른 항해장치(10)의 구성에 대해 보다 상세하게 설명하기로 한다. 도 2 및 도 3은 본 발명의 실시예에 따른 항해장치의 구성을 설명하기 위한 블록도이다. 도 4는 본 발명의 일 실시예에 따른 심층신경망의 구성을 설명하기 위한 도면이다. 도 5 및 도 6은 본 발명의 다른 실시예에 따른 심층신경망의 구성을 설명하기 위한 도면이다. Then, the configuration of the navigation device 10 according to the embodiment of the present invention will be described in more detail. 2 and 3 are block diagrams for explaining the configuration of a navigation device according to an embodiment of the present invention. 4 is a diagram for explaining the configuration of a deep neural network according to an embodiment of the present invention. 5 and 6 are diagrams for explaining the configuration of a deep neural network according to another embodiment of the present invention.

먼저, 도 2를 참조하면, 본 발명의 실시예에 따른 항해장치(10)는 카메라부(11), 센서부(12), 구동부(13), 입력부(14), 표시부(15), 저장부(16) 및 제어부(17)를 포함한다. First, referring to FIG. 2 , the navigation device 10 according to an embodiment of the present invention includes a camera unit 11 , a sensor unit 12 , a driving unit 13 , an input unit 14 , a display unit 15 , and a storage unit. (16) and a control unit (17).

센서부(12)는 예컨대, 광 혹은 전파를 방사한 후, 방사된 신호가 객체(obj)에 반사되어 돌아오는 신호를 감지하여 센서 신호(SS)를 생성하는 복수의 센서를 포함한다. 여기서, 센서 신호(SS)는 반사된 각도를 나타내는 방향각도 및 반사된 거리를 나타내는 반사거리를 포함한다. 이러한 센서부(12)는 360ㅀ 회전형 및 고정형(Solid-State) 라이다(LiDAR) 센서(210), 레이더(RADAR)센서(220) 및 영상소나(Imaging Sonar)센서(230) 중 적어도 하나를 포함한다. The sensor unit 12 includes, for example, a plurality of sensors that generate a sensor signal SS by emitting light or radio waves, and then detecting a signal returned by reflecting the emitted signal to the object obj. Here, the sensor signal SS includes a direction angle indicating a reflected angle and a reflection distance indicating a reflected distance. The sensor unit 12 includes at least one of a 360 ° rotation type and a solid-state lidar (LiDAR) sensor 210 , a radar (RADAR) sensor 220 , and an Imaging Sonar sensor 230 . includes

구동부(13)는 복수의 스러스터(Thruster: Thr.)를 구동하기 위한 것이다. 복수의 스리스터(Thr.)는 서로 다른 방향을 대향하여 설치되기 때문에 복수의 스리스터(Thr.) 각각의 출력을 조절하여 선박(U)의 이동방향 및 속도를 제어할 수 있다. 예컨대, 제1 스러스터(Thr1)가 좌현을 지향하도록 설치되고, 제2 스러스터(Thr2)가 우현을 지향하도록 설치되었다고 가정한다. 이러한 경우, 구동부(13)가 제1 스러스터(Thr1)를 최대출력의 90%의 출력을 내도록 하고, 제2 스러스터(Thr2)를 최대출력의 45%의 출력을 내도록 한다면, 선박(U)은 정면과 좌현의 중간 방향으로 이동할 것이다. 이러한 구동부(13)는 제어부(17)의 제어에 따라 복수의 스리스터 각각의 출력을 제어할 수 있다. The driving unit 13 is for driving a plurality of thrusters (Thruster: Thr.). Since the plurality of thrusters (Thr.) are installed to face each other in different directions, it is possible to control the moving direction and speed of the vessel (U) by adjusting the output of each of the plurality of thrusters (Thr.). For example, it is assumed that the first thruster Thr1 is installed to face the port and the second thruster Thr2 is installed to face the starboard. In this case, if the driving unit 13 causes the first thruster Thr1 to output 90% of the maximum output and the second thruster Thr2 to output 45% of the maximum output, the vessel U will move midway between the front and port side. The driving unit 13 may control the output of each of the plurality of thristors according to the control of the control unit 17 .

입력부(14)는 항해장치(10)를 제어하기 위한 사용자의 조작을 입력받고 입력 신호를 생성하여 제어부(17)에 전달할 수 있다. 입력부(14)는 항해장치(10)를 제어하기 위한 각 종 버튼, 텔레그래프(telegraph), 조타기(steering gear) 등을 포함한다. The input unit 14 may receive a user's operation for controlling the navigation device 10 , generate an input signal, and transmit it to the control unit 17 . The input unit 14 includes various buttons for controlling the navigation device 10 , a telegraph, a steering gear, and the like.

표시부(15)는 화면 표시를 위한 것으로, 항해장치(10)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공할 수 있다. 표시부(15)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(15)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(15)는 터치센서를 포함한다. 터치센서는 사용자의 터치 입력을 감지한다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 터치된 위치를 나타내는 입력 좌표를 포함하는 감지 신호를 발생시켜 제어부(17)로 전송할 수 있다. The display unit 15 is for screen display, and may visually provide a menu of the navigation device 10, input data, function setting information, and other various information to the user. The display unit 15 may be formed of a liquid crystal display (LCD), an organic light emitting diode (OLED), an active matrix organic light emitting diode (AMOLED), or the like. Meanwhile, the display unit 15 may be implemented as a touch screen. In this case, the display unit 15 includes a touch sensor. The touch sensor detects a user's touch input. The touch sensor may be composed of a touch sensing sensor such as a capacitive overlay, a pressure type, a resistive overlay, or an infrared beam, or may be composed of a pressure sensor. . In addition to the above sensors, all types of sensor devices capable of sensing contact or pressure of an object may be used as the touch sensor of the present invention. The touch sensor may detect a user's touch input, generate a detection signal including input coordinates indicating the touched position, and transmit it to the controller 17 .

저장부(16)는 항해장치(10)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 저장부(16)는 센서부(12)가 생성한 센서 신호를 저장할 수 있다. 저장부(16)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The storage unit 16 serves to store programs and data necessary for the operation of the navigation device 10 . The storage unit 16 may store the sensor signal generated by the sensor unit 12 . Each type of data stored in the storage unit 16 may be deleted, changed, or added according to a user's operation.

제어부(17)는 항해장치(10)의 전반적인 동작 및 항해장치(10)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 또한, 제어부(17)는 기본적으로, 항해장치(10)의 각 종 기능을 제어하는 역할을 수행한다. 제어부(17)는 중앙처리장치(CPU: Central Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등을 예시할 수 있다. The control unit 17 may control the overall operation of the navigation device 10 and the signal flow between internal blocks of the navigation device 10 and perform a data processing function of processing data. In addition, the control unit 17 basically serves to control various functions of the navigation device (10). The control unit 17 may be exemplified by a central processing unit (CPU), a digital signal processor (DSP), or the like.

다음으로, 도 3을 참조하면, 제어부(17)는 전처리부(310), 학습부(320), 심층신경망(400) 및 관제부(500)를 포함한다. Next, referring to FIG. 3 , the control unit 17 includes a preprocessing unit 310 , a learning unit 320 , a deep neural network 400 , and a control unit 500 .

전처리부(310)는 센서부(12)가 생성한 센서 신호(SS)로부터 심층신경망(400)에 입력되는 데이터를 생성하기 위한 것이다. 즉, 심층신경망(400)에 입력되는 데이터는 센서 신호(SS)으로부터 특징을 도출한 정보화 행렬이 될 수 있다. The preprocessor 310 is for generating data input to the deep neural network 400 from the sensor signal SS generated by the sensor unit 12 . That is, the data input to the deep neural network 400 may be an information matrix derived from the sensor signal SS.

학습부(320)는 심층신경망(400)에 대한 학습 데이터를 생성하고, 이를 이용하여 심층신경망(400)을 학습시키기 위한 것이다. The learning unit 320 is for generating learning data for the deep neural network 400 and learning the deep neural network 400 using this.

심층신경망(400)은 ResNet, EfficientNet, Xception 등과 같은 컨볼루션 신경망이거나, RNN(Recurrent Neural Network), LTSM(Long Short-Term Memory) 등의 순환 신경망이 될 수 있다. The deep neural network 400 may be a convolutional neural network such as ResNet, EfficientNet, and Xception, or a recurrent neural network such as a Recurrent Neural Network (RNN) or Long Short-Term Memory (LTSM).

본 발명의 일 실시예에 따르면, 심층신경망(400)이 컨벌루션 신경망인 경우, 심층신경망(400)은 입력층(input layer: IL), 교번으로 반복되는 적어도 한 쌍의 컨벌루션층(convolution layer: CL)과 풀링층(pooling layer: PL), 적어도 하나의 완전연결층(fully-connected layer: FL) 및 출력층(output layer: OL)을 포함할 수 있다. According to an embodiment of the present invention, when the deep neural network 400 is a convolutional neural network, the deep neural network 400 is an input layer (IL), at least a pair of alternately repeated convolution layers (convolution layer: CL) ), a pooling layer (PL), and at least one fully-connected layer (FL) and an output layer (OL).

도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 심층신경망(400)은 순차로 입력층(IL), 컨볼루션층(CL), 풀링층(PL), 완전연결층(FL) 및 출력층(OL)을 포함한다. As shown in FIG. 4 , the deep neural network 400 according to an embodiment of the present invention sequentially includes an input layer (IL), a convolution layer (CL), a pooling layer (PL), a fully connected layer (FL) and and an output layer OL.

컨볼루션층(CL) 및 풀링층(PL)은 적어도 하나의 특징맵(FM: Feature Map)으로 구성된다. 특징맵(FM)은 이전 계층의 연산 결과에 대해 가중치 및 임계치를 적용한 값을 입력받고, 입력받은 값에 대한 연산을 수행한 결과로 도출된다. 이러한 가중치는 소정 크기의 가중치 행렬인 필터 혹은 커널(W)을 통해 적용된다. 본 발명의 실시예에서 컨볼루션층(CL)의 컨벌루션 연산은 제1 필터(W1)가 사용되며, 풀링층(PL)의 풀링 연산은 제2 필터(W2)가 사용된다. The convolution layer CL and the pooling layer PL include at least one feature map (FM). The feature map FM is derived as a result of receiving a value to which a weight and a threshold are applied to the operation result of the previous layer, and performing an operation on the input value. These weights are applied through a filter or kernel W that is a weight matrix of a predetermined size. In the embodiment of the present invention, the first filter W1 is used for the convolution operation of the convolutional layer CL, and the second filter W2 is used for the pooling operation of the pooling layer PL.

입력층(IL)에 입력데이터(소정 크기의 행렬 혹은 벡터열)가 입력되면, 컨볼루션층(CL)은 입력층(IL)의 입력 데이터에 대해 제1 필터(W1)를 이용한 컨벌루션(convolution) 연산 및 활성화함수에 의한 연산을 수행하여 적어도 하나의 제1 특징맵(FM1)을 도출한다. 이어서, 풀링층(PL)은 컨볼루션층(CL)의 적어도 하나의 제1 특징맵(FM1)에 대해 제2 필터(W2)를 이용한 풀링(pooling 또는 sub-sampling) 연산을 수행하여 적어도 하나의 제2 특징맵(FM2)을 도출한다. When input data (a matrix or vector column of a predetermined size) is input to the input layer IL, the convolution layer CL performs convolution using the first filter W1 on the input data of the input layer IL. At least one first feature map FM1 is derived by performing an operation using an operation and an activation function. Next, the pooling layer PL performs a pooling or sub-sampling operation using the second filter W2 on at least one first feature map FM1 of the convolution layer CL to obtain at least one A second feature map FM2 is derived.

완결연결층(FL)은 복수의 연산노드(f1 내지 fn)로 이루어진다. 완결연결층(FL)의 복수의 연산노드(f1 내지 fn)는 풀링층(PL)의 적어도 하나의 제2 특징맵(FM2)에 대해 활성화함수에 의한 연산을 통해 복수의 연산값을 산출한다. The final connection layer FL includes a plurality of operation nodes f1 to fn. The plurality of operation nodes f1 to fn of the final connection layer FL calculates a plurality of operation values through operation by an activation function with respect to at least one second feature map FM2 of the pooling layer PL.

출력층(OL)은 복수의 출력노드(g1 내지 g6)를 포함한다. 완결연결층(FL)의 복수의 연산노드(f1 내지 fn) 각각은 가중치(W: weight)를 가지는 채널로 출력층(OL)의 출력노드(g1 내지 g6)와 연결된다. 다른 말로, 복수의 연산노드(f1 내지 fn)의 복수의 연산값은 가중치가 적용되어 복수의 출력노드(g1 내지 g6) 각각에 입력된다. 이에 따라, 출력층(OL)의 복수의 출력노드(g1 내지 g6)는 완결연결층(FL)의 가중치가 적용되는 복수의 연산값에 대해 활성화함수에 의한 연산을 통해 출력값을 산출한다. The output layer OL includes a plurality of output nodes g1 to g6 . Each of the plurality of operation nodes f1 to fn of the final connection layer FL is connected to the output nodes g1 to g6 of the output layer OL through a channel having a weight (W). In other words, a weight is applied to the plurality of operation values of the plurality of operation nodes f1 to fn and is input to each of the plurality of output nodes g1 to g6 . Accordingly, the plurality of output nodes g1 to g6 of the output layer OL calculates an output value through an activation function operation for a plurality of calculated values to which the weight of the final connection layer FL is applied.

전술한 컨벌루션층(CL), 완결연결층(FL) 및 출력층(OL)에서 사용되는 활성화함수는 시그모이드(Sigmoid), 하이퍼볼릭탄젠트(tanh: Hyperbolic tangent), ELU(Exponential Linear Unit), ReLU(Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax 등을 예시할 수 있다. 컨벌루션층(CL), 완결연결층(FL) 및 출력층(OL)에 이러한 활성화함수 중 어느 하나를 선택하여 적용할 수 있다. The activation functions used in the convolutional layer (CL), final connection layer (FL) and output layer (OL) described above are Sigmoid, Hyperbolic tangent (tanh), Exponential Linear Unit (ELU), and ReLU. (Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax, etc. can be exemplified. Any one of these activation functions may be selected and applied to the convolutional layer CL, the finite connection layer FL, and the output layer OL.

한편, 본 발명의 다른 실시예에 따르면, 심층신경망(400)이 순환 신경망인 경우, 심층신경망(400)은 복수의 스테이지(St)로 이루어진다. 도시된 바와 같이, 본 발명의 실시예에서는 4개의 스테이지(S1 내지 S4)를 가정한다. On the other hand, according to another embodiment of the present invention, when the deep neural network 400 is a recurrent neural network, the deep neural network 400 is composed of a plurality of stages (St). As shown, in the embodiment of the present invention, four stages S1 to S4 are assumed.

도 5에 도시된 바와 같이, 본 발명의 다른 실시예에 따른 심층신경망(400)은 입력층(IL: Input Layer), 은닉층(HL: Hidden Layer) 및 출력층(OL: Outpu Layer)을 포함한다. As shown in FIG. 5 , the deep neural network 400 according to another embodiment of the present invention includes an input layer (IL), a hidden layer (HL), and an output layer (OL).

입력층(IL)은 스테이지(stage)의 수(예컨대, 4)에 해당하는 복수의 입력셀(IC1, IC2, IC3, IC4)을 포함한다. 복수의 입력셀(IC1, IC2, IC3, IC4) 각각은 스테이지 별로 입력 데이터(X1, X2, X3, X4)를 입력 받는다. The input layer IL includes a plurality of input cells IC1 , IC2 , IC3 , IC4 corresponding to the number of stages (eg, 4 ). Each of the plurality of input cells IC1, IC2, IC3, and IC4 receives input data X1, X2, X3, and X4 for each stage.

은닉층(HL)은 스테이지(stage)의 수에 해당하는 복수의 은닉셀(HC1, HC2, HC3, HC4)을 포함한다. 복수의 은닉셀(HC1, HC2, HC3, HC4) 각각은 이전 스테이지의 가중치가 적용되는 상태값과 현 스테이지의 가중치가 적용되는 입력값에 대해 연산을 수행하여 현 스테이지에 대응하는 상태값을 산출한다. The hidden layer HL includes a plurality of hidden cells HC1, HC2, HC3, and HC4 corresponding to the number of stages. Each of the plurality of hidden cells HC1, HC2, HC3, and HC4 calculates a state value corresponding to the current stage by performing an operation on the state value to which the weight of the previous stage is applied and the input value to which the weight of the current stage is applied. .

출력층(OL)은 스테이지(stage)의 수에 해당하는 복수의 출력셀(OC1, OC2, OC3, OC4)을 포함할 수 있지만, 마지막 스테이지(S4)의 하나의 출력셀(OC)만을 포함할 수도 있다. 출력층(OL)은 은닉층(HL)으로부터 가중치가 적용되는 상태값을 입력받고, 연산을 수행하여 출력값을 산출한다. The output layer OL may include a plurality of output cells OC1, OC2, OC3, and OC4 corresponding to the number of stages, but may include only one output cell OC of the last stage S4. have. The output layer OL receives a state value to which a weight is applied from the hidden layer HL, and calculates an output value by performing an operation.

도 6을 참조하여 보다 상세하게 설명하면, t번째 스테이지(St)의 은닉셀(HCt)은 t번째 스테이지(St)의 입력셀(ICt)로부터 입력 가중치 Wx가 적용된 입력값 Xt을 입력받고, 이전 스테이지, 즉, t-1 번째 스테이지(St-1)의 은닉셀(HCt-1)로부터 상태가중치 Wht-1이 적용된 이전 스테이지의 상태값 Ht-1을 입력받고, 임계치 b를 적용하여 입력 가중치 Wx가 적용된 입력값 Xt과, 상태가중치 Wht-1이 적용된 이전 스테이지의 상태값 Ht-1에 대해 연산을 수행하여 현 스테이지의 상태값 Ht를 산출한다. 현 스테이지의 은닉셀(HCt)은 상태가중치 Wht를 적용하여 현 스테이지의 상태값 Ht를 다음 스테이지(St+1)로 전달할 수 있다. 또한, 현 스테이지의 은닉셀(HCt)은 출력가중치 Wyt를 적용하여 현 스테이지의 상태값 Ht를 현 스테이지의 출력셀(OCt)로 전달할 수 있다. 그러면, 현 스테이지의 출력셀(OCt)은 출력가중치 Wyt가 적용된 현 스테이지의 상태값 Ht에 대해 연산을 수행하여 현 스테이지의 출력값 Yt를 산출한다. 6, the hidden cell HCt of the t-th stage St receives the input value Xt to which the input weight Wx is applied from the input cell ICt of the t-th stage St, and The state value Ht-1 of the previous stage to which the state weight Wht-1 is applied is received from the hidden cell HCt-1 of the stage, that is, the t-1 th stage St-1, and the input weight Wx is applied by applying a threshold value b The state value Ht of the current stage is calculated by performing an operation on the input value Xt to which is applied and the state value Ht-1 of the previous stage to which the state weight value Wht-1 is applied. The hidden cell HCt of the current stage may transmit the state value Ht of the current stage to the next stage St+1 by applying the state weight Wht. Also, the hidden cell HCt of the current stage may transmit the state value Ht of the current stage to the output cell OCt of the current stage by applying the output weight value Wyt. Then, the output cell OCt of the current stage calculates the output value Yt of the current stage by performing an operation on the state value Ht of the current stage to which the output weight Wyt is applied.

심층신경망(400)에서 연산은 활성화함수(Activation Function)를 적용한 연산을 의미한다. 활성화함수는 시그모이드(Sigmoid), 하이퍼볼릭탄젠트(tanh: Hyperbolic tangent), ELU(Exponential Linear Unit), ReLU(Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax 등을 예시할 수 있다. In the deep neural network 400 , the operation refers to an operation to which an activation function is applied. The activation function may be exemplified by Sigmoid, Hyperbolic tangent (tanh), Exponential Linear Unit (ELU), Rectified Linear Unit (ReLU), Leakly ReLU, Maxout, Minout, Softmax, and the like.

정리하면, 전술한 바와 같이, 심층신경망(400)은 컨볼루션 신경망이거나, 순환 신경망이 될 수 있다. 이러한 심층신경망(400)은 복수의 계층을 포함한다. 또한, 심층신경망(400)의 복수의 계층은 복수의 연산을 포함한다. 복수의 계층 각각의 연산 결과는 파라미터, 즉, 가중치, 임계치 등이 적용되어 다음 계층으로 전달된다. In summary, as described above, the deep neural network 400 may be a convolutional neural network or a recurrent neural network. This deep neural network 400 includes a plurality of layers. In addition, the plurality of layers of the deep neural network 400 includes a plurality of operations. The calculation result of each of the plurality of layers is transmitted to the next layer by applying parameters, ie, weights, thresholds, and the like.

심층신경망(400)은 항해장치(10)와 해상의 목표 대상물(obj) 간의 헤딩 방향각 차이 및 상대 거리를 추정하기 위한 것이다. The deep neural network 400 is for estimating the difference in heading direction angle and the relative distance between the navigation device 10 and the target object obj in the sea.

관제부(500)는 제1 심층신경망(410)의 출력에 따라 추정된 항해장치(10)와 목표 대상물(obj) 간의 헤딩 방향각 차이 및 상대 거리를 표시부(15)에 표시할 수 있다. The control unit 500 may display the difference in the heading direction angle and the relative distance between the navigation device 10 and the target object obj estimated according to the output of the first deep neural network 410 on the display unit 15 .

전술한 전처리부(310), 학습부(320), 제1 심층신경망(410), 제2 심층신경망(420), 관제부(500)를 포함하는 제어부(17)의 동작은 아래에서 더 상세하게 설명될 것이다. The operation of the control unit 17 including the pre-processing unit 310, the learning unit 320, the first deep neural network 410, the second deep neural network 420, and the controller 500 described above will be described in more detail below. will be explained

다음으로, 본 발명의 실시예에 따른 심층신경망에 대한 입력 데이터를 생성하는 방법에 대해서 설명하기로 한다. 도 7은 본 발명의 실시예에 따른 심층신경망에 대한 입력 데이터를 생성하는 방법을 설명하기 위한 흐름도이다. Next, a method for generating input data for a deep neural network according to an embodiment of the present invention will be described. 7 is a flowchart illustrating a method of generating input data for a deep neural network according to an embodiment of the present invention.

도 7을 참조하면, 전처리부(310)는 S110 단계에서 센서 신호(SS)에 관련된 파라미터를 설정하고 저장한 상태이다. 이러한 파라미터는 방향 각도의 화각

Figure 112020091267225-pat00007
, 방향각도 분할 수 N, 최대 반사거리
Figure 112020091267225-pat00008
, 반사거리 분할 수 K 및 누적 시간 수 T를 포함한다. 장치(10)가 이동하는 전면을 기준인 0도로 했을 때, 센서부(12)의 센서 신호 중 방향 각도가 -90도에서 +90도 사이의 센서 신호만을 사용한다. 이에 따라, 전처리부(310)는 방향 각도의 화각
Figure 112020091267225-pat00009
를 180도로 설정한다. 각도 분할 수 N은 본 발명의 실시예에 따른 심층신경망(400)의 입력층(IL)의 규격에 따라 결정될 수 있다. 특히, 각도 분할 수 N은 짝수인 정수이다. 또한, 전처리부(310)는 센서의 측정 최대 반사 거리를
Figure 112020091267225-pat00010
로 정의한다. 즉, 센서 신호의 반사 세기의 최대값이
Figure 112020091267225-pat00011
에 대응한다. 또한, 반사거리의 분할 수 K는 정수이다. Referring to FIG. 7 , the preprocessor 310 sets and stores parameters related to the sensor signal SS in step S110 . These parameters are the angle of view of the direction
Figure 112020091267225-pat00007
, the number of divisions in the direction angle N, the maximum reflection distance
Figure 112020091267225-pat00008
, the number of reflection distance divisions K and the number of cumulative times T. When the front surface on which the device 10 moves is set to 0 degrees as a reference, only sensor signals having a direction angle between -90 degrees and +90 degrees among the sensor signals of the sensor unit 12 are used. Accordingly, the pre-processing unit 310 determines the angle of view of the direction angle.
Figure 112020091267225-pat00009
is set to 180 degrees. The angle division number N may be determined according to the standard of the input layer (IL) of the deep neural network 400 according to the embodiment of the present invention. In particular, the angle division number N is an even integer. In addition, the preprocessor 310 calculates the maximum reflected distance measured by the sensor.
Figure 112020091267225-pat00010
is defined as That is, the maximum value of the reflection intensity of the sensor signal is
Figure 112020091267225-pat00011
respond to In addition, the division number K of the reflection distance is an integer.

전술한 바와 같이 파라미터가 설정된 상태에서, 전처리부(310)는 S120 단계에서 센서부(12)를 통해 감지된 센서 신호(SS)를 입력 받을 수 있다. 라이다센서(210) 및 레이다센서(220)는 해면에 수평방향에 대한 해상의 객체(obj)로부터 반사된 빛 또는 전파의 방향각도와 반사거리를 센서 신호(SS)로 출력한다. 영상소나센서(230)는 해면에 수평방향에 대한 수중에서의 객체(obj)로부터 반사된 음파의 방향각도와 반사거리를 센서 신호(SS)로 출력한다. 전처리부(310)는 전술한 바와 같은 방향각도 및 반사거리를 포함하는 센서 신호(SS)를 입력받고, 심층신경망(400)의 입력데이터로 변환한다. 이에 대해 자세히 설명하면 다음과 같다. In the state in which the parameter is set as described above, the preprocessor 310 may receive the sensor signal SS sensed through the sensor unit 12 in step S120 . The lidar sensor 210 and the radar sensor 220 output the directional angle and reflection distance of light or radio waves reflected from the object obj on the sea with respect to the horizontal direction on the sea surface as a sensor signal SS. The image sonar sensor 230 outputs the directional angle and the reflection distance of the sound wave reflected from the object obj in the water with respect to the horizontal direction on the sea surface as a sensor signal SS. The preprocessor 310 receives the sensor signal SS including the directional angle and the reflection distance as described above, and converts it into input data of the deep neural network 400 . A detailed description of this is as follows.

우선, 전처리부(310)는 S130 단계에서 센서 신호(SS)를 그 센서 신호(SS)의 방향 각도에 따라 구분하여 그룹화한다. 이때, 전처리부(310)는 기 설정된 방향 각도의 화각

Figure 112020091267225-pat00012
, 방향각도 분할 수 N를 기초로 센서 신호(SS)의 방향 각도에 대한 분할 지점
Figure 112020091267225-pat00013
을 구하고, 그 방향각도의 분할 지점을 기초로 센서 신호(SS)를 구분하여 그룹화한다. 보다 상세하게 설명하면 다음과 같다. First, the preprocessor 310 classifies and groups the sensor signals SS according to the direction angle of the sensor signals SS in step S130 . In this case, the pre-processing unit 310 sets the angle of view of the preset direction angle.
Figure 112020091267225-pat00012
, the dividing point for the directional angle of the sensor signal SS based on the directional angle division number N
Figure 112020091267225-pat00013
, and the sensor signals SS are classified and grouped based on the dividing point of the direction angle. A more detailed description is as follows.

전술한 바와 같이, 장치(10)가 이동하는 전면을 기준인 0도로 했을 때, 센서부(12)의 센서 신호 중 방향 각도가 -90도에서 +90도 사이의 센서 신호(SS)만을 사용하기 때문에 방향 각도의 화각

Figure 112020091267225-pat00014
를 180도로 설정하였다. 그리고 각도 분할 수 N은 짝수인 정수이다. 이에 따라, 전처리부(310)는 기 설정된 방향 각도의 화각
Figure 112020091267225-pat00015
, 방향각도 분할 수 N를 기초로 다음의 수학식 1에 따라 센서 신호(SS)의 방향 각도에 대한 분할 지점
Figure 112020091267225-pat00016
을 구할 수 있다. As described above, when the front surface on which the device 10 moves is set to 0 degrees as a reference, only the sensor signals SS having a direction angle between -90 degrees and +90 degrees among the sensor signals of the sensor unit 12 are used. Because of the directional angle, the angle of view
Figure 112020091267225-pat00014
was set to 180 degrees. And the angle division number N is an even integer. Accordingly, the pre-processing unit 310 sets the angle of view of the preset direction angle.
Figure 112020091267225-pat00015
, the division point for the direction angle of the sensor signal SS according to the following Equation 1 based on the number of divisions of the direction angle N
Figure 112020091267225-pat00016
can be obtained

Figure 112020091267225-pat00017
Figure 112020091267225-pat00017

여기서, θi는 방향각도의 분할 지점이며, i는 방향각도의 분할 지점에 대한 인덱스이고, N은 방향각도 분할 수이다. 그리고

Figure 112020091267225-pat00018
는 방향각도의 화각이다. 예컨대, 수학식 1에 따라 방향각도의 분할지점을 구할 때, N이 18이면,
Figure 112020091267225-pat00019
이 180도이므로, 방향각도를 -90도에서 +90도까지 10도씩 분할하여 취급하는 것을 의미한다. 이와 같이, 방향도의 분할 지점이 결정되면, 전처리부(310)는 센서신호(SS)를 방향각도에 따라 분할 지점 θi부터 θi+1까지의 구간 별로 그룹화하여 방향각도 별 반사거리 값을
Figure 112020091267225-pat00020
버퍼 리스트에 저장한다.
Figure 112020091267225-pat00021
은 가변길이의 리스트 데이터 구조가 1차원의
Figure 112020091267225-pat00022
개로 구성된다. Here, θi is the dividing point of the direction angle, i is the index of the dividing point of the direction angle, and N is the number of dividing the direction angle. and
Figure 112020091267225-pat00018
is the angle of view of the directional angle. For example, when calculating the dividing point of the directional angle according to Equation 1, if N is 18,
Figure 112020091267225-pat00019
Since this is 180 degrees, it means that the direction angle is divided by 10 degrees from -90 degrees to +90 degrees and handled. In this way, when the dividing point of the direction map is determined, the preprocessor 310 groups the sensor signal SS for each section from the dividing point θi to θi+1 according to the direction angle to obtain a reflection distance value for each direction angle.
Figure 112020091267225-pat00020
Save it to the buffer list.
Figure 112020091267225-pat00021
is a one-dimensional list data structure of variable length.
Figure 112020091267225-pat00022
made up of dogs.

다음으로, 전처리부(310)는 S140 단계에서 방향각도에 따라 구분하여 그룹화된 센서 신호(SS)를 센서 신호(SS)의 반사거리에 따라 구분하여 그룹화한다. 이때, 전처리부(310)는 기 설정된 최대 반사거리

Figure 112020091267225-pat00023
및 반사거리 분할 수 K를 기초로 반사 거리에 대한 분할 지점 Lj를 구하고, 그 반사 거리의 분할 지점을 기초로 센서 신호(SS)를 구분하여 그룹화한다. 보다 상세하게 설명하면 다음과 같다. Next, the preprocessor 310 classifies the grouped sensor signals SS according to the direction angle in step S140 according to the reflection distance of the sensor signals SS and groups them. At this time, the pre-processing unit 310 is a preset maximum reflection distance
Figure 112020091267225-pat00023
and a division point Lj for the reflection distance is obtained based on the reflection distance division number K, and the sensor signals SS are classified and grouped based on the division point of the reflection distance. A more detailed description is as follows.

이때, 전처리부(310)는 기 설정된 최대 반사거리

Figure 112020091267225-pat00024
및 반사거리 분할 수 K를 기초로 다음의 수학식 2에 따라 반사 거리에 대한 분할 지점 Lj를 산출한다. At this time, the pre-processing unit 310 is a preset maximum reflection distance
Figure 112020091267225-pat00024
and a division point Lj for the reflection distance is calculated according to the following Equation 2 based on the reflection distance division number K.

Figure 112020091267225-pat00025
Figure 112020091267225-pat00025

여기서, Lj는 반사거리의 분할 지점이며, j는 반사거리의 분할 지점에 대한 인덱스이고,

Figure 112020091267225-pat00026
는 최대 반사거리이고, K은 반사거리 분할 수이다. Here, Lj is the split point of the reflection distance, j is the index to the split point of the reflection distance,
Figure 112020091267225-pat00026
is the maximum reflection distance, and K is the number of reflection distance divisions.

이어서, 전처리부(310)는 Mn에 대해서 n을 증가시키면서 각 리스트에 저장된 반사거리 값들을 분할 지점 Lj 부터 Lj+1까지의 구간별로 그룹화하여 Mnk(n=0...N-1, k=0...K-1) 버퍼 리스트에 저장한다. Mnk는 가변길이의 리스트 데이터 구조가 2차원의 (K, N)으로 구성된다. Next, the preprocessor 310 groups the reflection distance values stored in each list by section from the dividing point Lj to Lj+1 while increasing n with respect to Mn, so that Mnk(n=0...N-1, k= 0...K-1) is saved in the buffer list. In Mnk, a variable-length list data structure is composed of two-dimensional (K, N).

다음으로, 전처리부(310)는 S150 단계에서 Mnk에 대해서 각각 n과 k를 증가시키면서 Mnk의 각 리스트에 저장된 여러 개의 반사거리 값 중 최소값을 도출하여 (K, N) 크기의 2차원 정보화 행렬 At를 생성한다. Next, the preprocessor 310 derives the minimum value among the multiple reflection distance values stored in each list of Mnk while increasing n and k for Mnk in step S150, and a two-dimensional informatization matrix of (K, N) size At to create

T가 기 설정된 누적 시간 수이고, 양의 정수일 때, 전처리부(310)는 S160 단계에서 시간 t-T+1로부터 시간 t까지 시간 t-T+1에 대한 정보화 행렬 At-(T-1)로부터 시간 t에 대한 정보화 행렬 At까지 누적되어 생성되었는지 여부를 판단하고, 모두 생성되지 않은 경우, 전술한 S110 단계 내지 S160 단계를 반복한다. 반면, 시간 t-T+1로부터 시간 t까지 시간 t-T+1에 대한 정보화 행렬 At-(T-1)로부터 시간 t에 대한 정보화 행렬 At까지 T개의 정보화 행렬이 모두 생성된 경우, 전처리부(310)는 S170 단계에서 시간 t-T+1에 대한 정보화 행렬 At-(T-1)로부터 시간 t에 대한 정보화 행렬 At을 모두 병합하여 (K, N, T)의 3차원의 정보화 행렬 S를 생성한다. When T is a preset number of accumulated times and is a positive integer, the preprocessor 310 performs the informatization matrix At-(T-1) for time t-T+1 from time t-T+1 to time t in step S160. It is determined whether or not the information matrix At for time t has been accumulated and generated, and if not generated, steps S110 to S160 described above are repeated. On the other hand, when all T informatization matrices are generated from the informatization matrix At-(T-1) for time t-T+1 to the informatization matrix At for time t from time t-T+1 to time t, the preprocessor (310) merges all of the informatization matrix At for time t from the informatization matrix At-(T-1) for time t-T+1 in step S170 to form a three-dimensional informatization matrix S of (K, N, T) to create

그런 다음, 전처리부(310)는 S180 단계에서 전처리부(310)를 통해 3차원 정보화 행렬 S 전체 원소의 값 중 최댓값 vmax를 구하고, S의 각 원소를 vmax로 나누어 0에서 1 사이의 실수 값으로 변환하여 정규화된 3차원 정보화 행렬 S'을 생성할 수 있다. 이러한 S190 단계는 선택적인 것으로 생략될 수 있다. Then, the preprocessor 310 obtains the maximum value vmax among the values of all elements of the three-dimensional informatization matrix S through the preprocessor 310 in step S180, and divides each element of S by vmax to a real value between 0 and 1. By transforming, a normalized three-dimensional informatization matrix S' can be generated. This step S190 is optional and may be omitted.

심층신경망(400)이 도 4의 CNN 등과 같은 컨볼루션 신경망인 경우, 심층신경망(400)에 대한 입력데이터로 3차원 정보화 행렬 S 혹은 정규화된 3차원 정보화 행렬 S'를 그대로 사용하거나 차원의 순서를 변환하여 사용할 수 있다. 심층신경망(400)이 도 5의 RNN과 같은 순환 신경망인 경우, 심층신경망(400)에 대한 입력데이터로 3차원 정보화 행렬 S 혹은 정규화된 3차원 정보화 행렬 S'의 차원을 (N, T, K)로 변환하여 사용할 수 있다. 이때, 시간 T는 복수의 스테이지에 대응한다. When the deep neural network 400 is a convolutional neural network such as the CNN of FIG. 4, as the input data to the deep neural network 400, the three-dimensional informatization matrix S or the normalized three-dimensional informatization matrix S' is used as it is, or the order of the dimensions is used. It can be converted and used. When the deep neural network 400 is a recurrent neural network such as the RNN of FIG. 5 , the dimension of the three-dimensional informatization matrix S or the normalized three-dimensional informatization matrix S' as input data to the deep neural network 400 is (N, T, K) ) can be converted to In this case, time T corresponds to a plurality of stages.

다음으로, 본 발명의 실시예에 따른 심층신경망에 대한 학습 데이터를 생성하는 방법에 대해서 설명하기로 한다. 도 8은 본 발명의 실시예에 따른 심층신경망에 대한 학습 데이터를 생성하는 방법을 설명하기 위한 흐름도이다. 도 9는 본 발명의 실시예에 따른 심층신경망에 대한 학습 데이터를 생성하는 방법을 설명하기 위한 화면 예이다. Next, a method for generating learning data for a deep neural network according to an embodiment of the present invention will be described. 8 is a flowchart illustrating a method of generating learning data for a deep neural network according to an embodiment of the present invention. 9 is a screen example for explaining a method of generating learning data for a deep neural network according to an embodiment of the present invention.

도 8을 참조하면, 학습부(320)는 S210 단계에서 전처리부(310)를 통해 소정 시간 이상 센서부(12)가 측정을 통해 출력하는 복수의 센서 신호(SS) 각각에 대응하는 복수의 2차원의 정보화 행렬 At를 생성한 후, 이를 다시 소정의 T 시간 동안 시간 축으로 누적하여 3차원 구조를 가진 입력데이터 S를 생성한다. 그런 다음, 학습부(320)는 선택적으로 전처리부(310)를 통해 입력데이터 S 전체 원소의 값 중 최댓값 vmax을 구하고, S의 각 원소를 vmax로 나누어 0에서 1 사이의 실수 값으로 변환하여 입력데이터를 정규화할 수 있다. Referring to FIG. 8 , the learning unit 320 includes a plurality of 2 corresponding to each of a plurality of sensor signals SS output by the sensor unit 12 through measurement for a predetermined time or more through the pre-processing unit 310 in step S210 . After generating the dimensional informatization matrix At, the input data S having a three-dimensional structure is generated by accumulating it again on the time axis for a predetermined time T. Then, the learning unit 320 selectively obtains the maximum value vmax among the values of all elements of the input data S through the preprocessing unit 310, divides each element of S by vmax, and converts it into a real value between 0 and 1 and input Data can be normalized.

다음으로, 학습부(320)는 S220 단계에서 도 9에 도시된 바와 같이, 센서 신호(SS)를 시각화하여 영상을 생성하고, 센서 신호(SS)를 시각화한 영상에서 적어도 하나의 목표 대상물(obj)을 영역상자(B: Bounding Box)를 통해 검출하고, 그 영역상자(B)의 중심점(dx, dy)을 산출한다. 영역상자(B)는 센서 신호(SS)를 시각화한 영상에서 해상에 있는 목표 대상물(obj)이 차지하는 영역을 나타낸다. 본 발명의 일 실시예에 따르면, 학습부(320)는 센서 신호(SS)를 시각화한 영상에서 영상처리 알고리즘을 통해 자동으로 목표 대상물(obj)의 영역상자(B)를 검출할 수 있다. 다른 실시예에 따르면, 레이블링 소프트웨어를 사용하여 수동으로 목표 대상물(obj)의 영역상자(B)가 지정된 영상을 입력받을 수도 있다. Next, as shown in FIG. 9 in step S220, the learning unit 320 generates an image by visualizing the sensor signal SS, and at least one target object obj from the image obtained by visualizing the sensor signal SS. ) is detected through the bounding box (B), and the center point (dx, dy) of the bounding box (B) is calculated. The area box (B) represents the area occupied by the target object obj in the sea in the image visualized with the sensor signal SS. According to an embodiment of the present invention, the learning unit 320 may automatically detect the area box B of the target object obj through an image processing algorithm from a visualized image of the sensor signal SS. According to another embodiment, an image in which the area box B of the target object obj is manually specified may be input using labeling software.

학습부(320)는 S230 단계에서 초점거리 F를 구한다. 이때, 초점 거리 F는 다음의 수학식 3에 따라 산출될 수 있다. The learning unit 320 obtains a focal length F in step S230. In this case, the focal length F may be calculated according to Equation 3 below.

Figure 112020091267225-pat00027
Figure 112020091267225-pat00027

여기서, W는 센서 신호(SS)를 시각화한 영상의 수직방향의 픽셀 개수이고,

Figure 112020091267225-pat00028
는 화각을 나타낸다. 라이다센서(210), 레이다센서(220) 및 영상소나센서(230)의 초점 거리 F는 최대 측정 거리값을 사용한다. Here, W is the number of pixels in the vertical direction of the image visualizing the sensor signal SS,
Figure 112020091267225-pat00028
represents the angle of view. The focal length F of the lidar sensor 210 , the radar sensor 220 , and the image sonar sensor 230 uses the maximum measured distance value.

학습부(320)는 S240 단계에서 다음의 수학식 4에 따라 복수의 2차원 정보화 행렬 At에 대응하는 복수의 센서 신호(SS) 각각에서 항해장치(10)와 목표 대상물(obj) 간의 헤딩 방향각 차이

Figure 112020091267225-pat00029
를 산출한다. The learning unit 320 in step S240 according to the following equation (4) in each of the plurality of sensor signals (SS) corresponding to the plurality of two-dimensional informatization matrix At heading direction angle between the navigation device 10 and the target object (obj) difference
Figure 112020091267225-pat00029
to calculate

Figure 112020091267225-pat00030
Figure 112020091267225-pat00030

여기서, dx는 목표 대상물(obj)의 영역상자(B)의 중심점 (dx, dy) 중 x 좌표이다. W는 센서 신호(SS)의 수직방향의 픽셀 개수이고, F는 초점 거리이다. Here, dx is the x-coordinate of the center point (dx, dy) of the area box B of the target object obj. W is the number of pixels in the vertical direction of the sensor signal SS, and F is the focal length.

학습부(320)는 S250 단계에서 다음의 수학식 5에 따라 복수의 2차원 정보화 행렬 At 각각에 대응하는 복수의 센서 신호(SS) 각각에서 항해장치(10)와 목표 대상물(obj) 간의 상대 거리

Figure 112020091267225-pat00031
를 산출한다. The learning unit 320 is a relative distance between the navigation device 10 and the target object obj in each of the plurality of sensor signals SS corresponding to each of the plurality of two-dimensional informatization matrices At according to the following Equation 5 in step S250
Figure 112020091267225-pat00031
to calculate

Figure 112020091267225-pat00032
Figure 112020091267225-pat00032

여기서, dx는 목표 대상물(obj)의 영역상자(B)의 중심점 (dx, dy) 중 x 좌표이고, dy는 목표 대상물(obj)의 영역상자(B)의 중심점 (dx, dy) 중 y 좌표이다. W는 센서 신호(SS)를 시각화한 영상의 수평방향의 픽셀 개수이고, H는 센서 신호(SS)를 시각화한 영상의 수직방향의 픽셀 개수이고, F는 초점 거리이다. 초점 거리 F는 전술한 바와 같이, 수학식 3에 따라 센서 신호(SS)를 시각화한 영상에서 수평방향의 픽셀 개수 W와 화각

Figure 112020091267225-pat00033
를 이용하여 산출될 수 있다. Here, dx is the x-coordinate of the center point (dx, dy) of the area box B of the target object obj, and dy is the y-coordinate of the center point (dx, dy) of the area box B of the target object obj to be. W is the number of pixels in the horizontal direction of the image in which the sensor signal SS is visualized, H is the number of pixels in the vertical direction in the image in which the sensor signal SS is visualized, and F is the focal length. As described above, the focal length F is the number of pixels W in the horizontal direction and the angle of view in the image obtained by visualizing the sensor signal SS according to Equation 3
Figure 112020091267225-pat00033
can be calculated using

학습부(320)는 S260 단계에서 전술한 바와 같이 복수의 2차원 정보화 행렬 At 각각에 대응하는 복수의 센서 신호(SS) 각각에서 구해진 항해장치(10)와 목표 대상물(obj) 간의 헤딩 방향각 차이

Figure 112020091267225-pat00034
와 상대 거리
Figure 112020091267225-pat00035
를 입력데이터 S의 복수의 정보화 행렬 At에 레이블링(Labeling)한다. 이로써, 학습 데이터가 생성된다. The learning unit 320, as described above in step S260, the heading direction angle difference between the navigation device 10 and the target object obj obtained from each of the plurality of sensor signals SS corresponding to each of the plurality of two-dimensional informatization matrices At
Figure 112020091267225-pat00034
and relative distance
Figure 112020091267225-pat00035
is labeled with a plurality of informatization matrices At of the input data S. In this way, learning data is generated.

한편, 전술한 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, the method according to the embodiment of the present invention described above may be implemented in the form of a program readable by various computer means and recorded in a computer readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks ( magneto-optical media) and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language wires such as those generated by a compiler, but also high-level language wires that can be executed by a computer using an interpreter or the like. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. Although the present invention has been described above using several preferred embodiments, these examples are illustrative and not restrictive. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made in accordance with the doctrine of equivalents without departing from the spirit of the present invention and the scope of rights set forth in the appended claims.

10: 항해장치 12: 센서부
13: 구동부 14: 입력부
15: 표시부 16: 저장부
17: 제어부 210: 라이다센서
220: 레이더센서 230: 영상소나센서
310: 전처리부 320: 학습부
400: 심층신경망 500: 관제부
10: navigation device 12: sensor unit
13: driving unit 14: input unit
15: display unit 16: storage unit
17: control unit 210: lidar sensor
220: radar sensor 230: image sonar sensor
310: preprocessing unit 320: learning unit
400: deep neural network 500: control unit

Claims (6)

해상 환경에서 복수의 레이더 및 라이더를 이용하여 목표 대상물과 장치 간 상대 정보를 추정하기 위한 방법에 있어서,
전처리부가 센서부를 통해 객체로부터 반사된 빛 또는 전파의 방향각도와 반사거리를 가지는 센서 신호를 입력받는 단계;
상기 전처리부가 상기 센서신호를 상기 방향각도 및 상기 반사거리에 따라 구분하여 복수의 그룹을 생성하는 단계;
상기 전처리부가 상기 복수의 그룹 각각에서 반사거리의 최소값을 도출하여 2차원 정보화 행렬을 생성하는 단계;
를 포함하는 것을 특징으로 하는
상대 정보를 추정하기 위한 방법.
A method for estimating relative information between a target object and a device using a plurality of radars and lidar in a marine environment, the method comprising:
receiving, by a pre-processing unit, a sensor signal having a direction angle and a reflection distance of light or radio waves reflected from an object through a sensor unit;
generating, by the pre-processing unit, a plurality of groups by dividing the sensor signal according to the direction angle and the reflection distance;
generating, by the pre-processing unit, a two-dimensional informatization matrix by deriving a minimum value of a reflection distance from each of the plurality of groups;
characterized in that it comprises
A method for estimating relative information.
제1항에 있어서,
상기 전처리부가 상기 2차원 정보화 행렬을 소정 시간 동안 누적하여 복수의 2차원 정보화 행렬이 시간 축 상에서 누적된 3차원 구조를 가진 입력데이터를 생성하는 단계;
학습부가 상기 입력데이터에 포함된 상기 복수의 2차원 정보화 행렬 각각에 대응하는 복수의 센서 신호를 시각화하여 영상을 생성하고, 복수의 센서 신호 각각을 시각화한 영상에서 목표 대상물이 차지하는 영역을 나타내는 영역상자를 통해 목표 대상물을 검출하고, 영역상자의 중심점을 산출하는 단계;
상기 학습부가 상기 복수의 2차원 정보화 행렬에 대응하는 복수의 센서 신호 로부터 항해장치와 목표 대상물 간의 헤딩 방향각 차이를 산출하는 단계;
상기 학습부가 상기 복수의 2차원 정보화 행렬에 대응하는 복수의 센서 신호 각각으로부터 항해장치와 해상 목표 대상물 간의 상대 거리를 산출하는 단계; 및
상기 학습부가 상기 헤딩 방향각 차이 및 상기 상대 거리를 상기 복수의 2차원 정보화 행렬에 레이블링하는 단계;
를 더 포함하는 것을 특징으로 하는
상대 정보를 추정하기 위한 방법.
According to claim 1,
generating input data having a three-dimensional structure in which a plurality of two-dimensional informatization matrices are accumulated on a time axis by accumulating, by the pre-processing unit, the two-dimensional informatization matrix for a predetermined time;
The learning unit visualizes a plurality of sensor signals corresponding to each of the plurality of two-dimensional informatization matrices included in the input data to generate an image, and an area box indicating an area occupied by a target object in the visualized image of each of the plurality of sensor signals detecting a target object through and calculating a center point of the area box;
calculating, by the learning unit, a difference in heading direction angle between a navigation device and a target object from a plurality of sensor signals corresponding to the plurality of two-dimensional informatization matrices;
calculating, by the learning unit, a relative distance between a navigation device and a marine target object from each of a plurality of sensor signals corresponding to the plurality of two-dimensional informatization matrices; and
labeling, by the learning unit, the difference in the heading direction angle and the relative distance to the plurality of two-dimensional informatization matrices;
characterized in that it further comprises
A method for estimating relative information.
제2항에 있어서,
상기 헤딩 방향각 차이를 산출하는 단계는
상기 학습부가
수학식
Figure 112020091267225-pat00036
에 따라 상기 헤딩 방향각 차이를 산출하며,
상기 dx는 상기 목표 대상물에 대한 상기 영역상자의 중심점 중 x 좌표이고,
상기 W는 상기 센서 신호를 시각화한 영상의 수평방향의 픽셀 개수이고,
상기 F는 초점 거리인 것을 특징으로 하는
상대 정보를 추정하기 위한 방법.
3. The method of claim 2,
The step of calculating the difference in the heading direction angle is
the learning department
formula
Figure 112020091267225-pat00036
Calculate the difference in the heading direction angle according to
The dx is the x-coordinate of the center point of the area box with respect to the target object,
W is the number of pixels in the horizontal direction of the image visualized with the sensor signal,
Wherein F is the focal length
A method for estimating relative information.
제2항에 있어서,
상기 상대 거리를 산출하는 단계는
상기 학습부가
수학식
Figure 112020091267225-pat00037
에 따라
상기 상대 거리를 산출하며,
상기 dx는 목표 대상물의 영역상자의 중심점 중 x 좌표이고,
상기 dy는 목표 대상물의 영역상자의 중심점 중 y 좌표이고,
상기 W는 상기 센서 신호를 시각화한 영상의 수평방향의 픽셀 개수이고,
상기 H는 상기 센서 신호를 시각화한 영상의 수직방향의 픽셀 개수이고,
상기 F는 초점 거리인 것
을 특징으로 하는
상대 정보를 추정하기 위한 방법.
3. The method of claim 2,
The step of calculating the relative distance is
the learning department
formula
Figure 112020091267225-pat00037
Depending on the
Calculate the relative distance,
The dx is the x-coordinate of the center point of the area box of the target object,
Wherein dy is the y coordinate of the center point of the area box of the target object,
W is the number of pixels in the horizontal direction of the image visualized with the sensor signal,
Wherein H is the number of pixels in the vertical direction of the image visualizing the sensor signal,
Where F is the focal length
characterized by
A method for estimating relative information.
제1항에 있어서,
상기 전처리부가 상기 센서신호를 상기 방향각도 및 상기 반사거리에 따라 복수의 그룹으로 구분하는 단계는
상기 전처리부가 기 설정된 방향 각도의 화각 및 방향각도 분할 수를 기초로 수학식
Figure 112022022198617-pat00038

에 따라 상기 센서 신호의 방향 각도에 대한 분할 지점을 산출하는 단계; 및
상기 전처리부가 상기 산출된 방향 각도에 대한 분할 지점에 따른 구간 별로 상기 센서 신호를 그룹화하여 방향각도 별 반사거리 값을 저장하는 단계;
를 포함하며,
상기 θi는 방향각도의 분할 지점이고,
상기 i는 방향각도의 분할 지점에 대한 인덱스이고,
상기 N은 방향각도 분할 수이고,
상기
Figure 112022022198617-pat00039
는 방향각도의 화각인 것을 특징으로 하는
상대 정보를 추정하기 위한 방법.
According to claim 1,
The step of the pre-processing unit dividing the sensor signal into a plurality of groups according to the direction angle and the reflection distance
Equation based on the number of divisions of the angle of view and the direction angle of the preset direction angle by the preprocessor
Figure 112022022198617-pat00038

calculating a dividing point for the direction angle of the sensor signal according to and
storing, by the pre-processing unit, a reflection distance value for each direction angle by grouping the sensor signals for each section according to a division point for the calculated direction angle;
includes,
The θi is the dividing point of the direction angle,
where i is an index to the dividing point of the direction angle,
where N is the number of divisions in the direction angle,
remind
Figure 112022022198617-pat00039
is the angle of view of the directional angle, characterized in that
A method for estimating relative information.
제5항에 있어서,
상기 방향각도 별 반사거리 값을 저장하는 단계 후,
상기 전처리부가 기 설정된 최대 반사거리 및 반사거리 분할 수를 기초로 수학식
Figure 112020091267225-pat00040

에 따라 반사 거리에 대한 분할 지점을 산출하는 단계; 및
상기 전처리부가 상기 산출된 반사 거리에 대한 분할 지점에 따른 구간 별로 상기 센서 신호를 그룹화하여 반사거리 값을 저장하는 단계;
를 더 포함하며,
상기 Lj는 반사거리의 분할 지점이며,
상기 j는 반사거리의 분할 지점에 대한 인덱스이고,
상기
Figure 112020091267225-pat00041
는 최대 반사거리이고,
상기 K는 반사거리 분할 수 인 것을 특징으로 하는
상대 정보를 추정하기 위한 방법.
6. The method of claim 5,
After the step of storing the reflection distance value for each direction angle,
Equation based on the preprocessor preset maximum reflection distance and number of reflection distance divisions
Figure 112020091267225-pat00040

calculating a split point for the reflection distance according to and
storing, by the pre-processing unit, a reflection distance value by grouping the sensor signals for each section according to a division point for the calculated reflection distance;
further comprising,
The Lj is the dividing point of the reflection distance,
Where j is the index for the split point of the reflection distance,
remind
Figure 112020091267225-pat00041
is the maximum reflection distance,
Wherein K is a reflection distance division number, characterized in that
A method for estimating relative information.
KR1020200109722A 2020-08-28 2020-08-28 Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment KR102407174B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200109722A KR102407174B1 (en) 2020-08-28 2020-08-28 Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200109722A KR102407174B1 (en) 2020-08-28 2020-08-28 Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment

Publications (2)

Publication Number Publication Date
KR20220028564A KR20220028564A (en) 2022-03-08
KR102407174B1 true KR102407174B1 (en) 2022-06-10

Family

ID=80813538

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200109722A KR102407174B1 (en) 2020-08-28 2020-08-28 Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment

Country Status (1)

Country Link
KR (1) KR102407174B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102005559B1 (en) 2018-09-04 2019-08-07 씨드로닉스(주) Situation awareness method using image segmentation
KR102025113B1 (en) 2018-08-27 2019-09-25 영남대학교 산학협력단 Method for generating an image using a lidar and device for the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102131387B1 (en) * 2014-12-09 2020-07-08 현대자동차주식회사 Method for clustering Data of Multi-layer of Lidar

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102025113B1 (en) 2018-08-27 2019-09-25 영남대학교 산학협력단 Method for generating an image using a lidar and device for the same
KR102005559B1 (en) 2018-09-04 2019-08-07 씨드로닉스(주) Situation awareness method using image segmentation

Also Published As

Publication number Publication date
KR20220028564A (en) 2022-03-08

Similar Documents

Publication Publication Date Title
US20220130156A1 (en) Three-dimensional object detection and intelligent driving
KR102112935B1 (en) Path planning method using obstacle map
US10809376B2 (en) Systems and methods for detecting objects in underwater environments
Muhovič et al. Obstacle tracking for unmanned surface vessels using 3-D point cloud
US10055850B2 (en) Salient features tracking apparatus and methods using visual initialization
Sinisterra et al. Stereovision-based target tracking system for USV operations
KR102530691B1 (en) Device and method for monitoring a berthing
KR20200125731A (en) Neural networks for object detection and characterization
JP6905737B2 (en) Autonomous underwater robot and its control method
CN110646787A (en) Self-motion estimation method and device and model training method and device
KR101628155B1 (en) Method for detecting and tracking unidentified multiple dynamic object in real time using Connected Component Labeling
EP3388972A1 (en) A method and a device for generating an occupancy map of an environment of a vehicle
CN110663060B (en) Method, device, system and vehicle/robot for representing environmental elements
CN111986472B (en) Vehicle speed determining method and vehicle
Clunie et al. Development of a perception system for an autonomous surface vehicle using monocular camera, lidar, and marine radar
US20220277581A1 (en) Hand pose estimation method, device and storage medium
Jiang et al. A survey of underwater acoustic SLAM system
US11231481B1 (en) Radar false negative analysis
CN116503803A (en) Obstacle detection method, obstacle detection device, electronic device and storage medium
KR102311089B1 (en) Apparatus and method for monitoring the ocean using smart marine buoys
Franchi et al. A probabilistic 3D map representation for forward-looking sonar reconstructions
KR102407174B1 (en) Method for estimating relative information between target objects and devices using multiple radars and riders in a marine environment
KR20240036529A (en) Device and method for monitoring ship and port
Amarasinghe et al. Monocular visual slam for underwater navigation in turbid and dynamic environments
KR102311245B1 (en) A method for controlling multiple thrusters by estimating the heading angle difference and relative distance between a target object and a navigation device using a deep neural network based on multiple camera images in a marine environment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right