KR101888170B1 - Method and device for deleting noise in detecting obstacle by unmanned surface vessel - Google Patents

Method and device for deleting noise in detecting obstacle by unmanned surface vessel Download PDF

Info

Publication number
KR101888170B1
KR101888170B1 KR1020170152964A KR20170152964A KR101888170B1 KR 101888170 B1 KR101888170 B1 KR 101888170B1 KR 1020170152964 A KR1020170152964 A KR 1020170152964A KR 20170152964 A KR20170152964 A KR 20170152964A KR 101888170 B1 KR101888170 B1 KR 101888170B1
Authority
KR
South Korea
Prior art keywords
unmanned
data
azimuth
length
noise
Prior art date
Application number
KR1020170152964A
Other languages
Korean (ko)
Inventor
유재관
이순걸
원인식
Original Assignee
엘아이지넥스원 주식회사
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사, 경희대학교 산학협력단 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020170152964A priority Critical patent/KR101888170B1/en
Application granted granted Critical
Publication of KR101888170B1 publication Critical patent/KR101888170B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes

Abstract

The present invention provides a method for eliminating noise in detecting an obstacle by an unmanned surface vehicle and a device thereof which eliminate noise data generated in a water surface while an unmanned surface vehicle driven on the water surface detects an obstacle by using a three-dimensional lidar sensor. The method for eliminating noise in detecting an obstacle by an unmanned surface vehicle comprises the following steps of: obtaining three-dimensional lidar data for detecting the obstacle in the unmanned surface vehicle; generating a virtual trajectory passing over the water surface by the unmanned surface vehicle; extracting the noise data generated from the water surface of a rear surface of the unmanned surface vehicle in the virtual trajectory; and deleting the noise data among the three-dimensional lidar data.

Description

무인 수상정의 장애물 탐지 시 노이즈 제거방법 및 장치{METHOD AND DEVICE FOR DELETING NOISE IN DETECTING OBSTACLE BY UNMANNED SURFACE VESSEL} Technical Field [0001] The present invention relates to a method and apparatus for detecting an obstacle in an unmanned aerial vehicle,

본 발명은 무인 수상정의 장애물 탐지 시 노이즈 제거방법 및 장치에 관한 것이다. 보다 상세하게는, 자율 운항하는 무인 수상정이 3차원 라이다 센서를 단독으로 이용해 장애물을 탐지하며 수면에서 발생한 노이즈 데이터를 제거하는 장치 및 방법에 관한 것이다.The present invention relates to a noise canceling method and apparatus for detecting unmanned aerial vehicles. More particularly, the present invention relates to an apparatus and a method for detecting an obstacle by using a three-dimensional Lydia sensor alone and removing noise data generated from the water surface.

최근 해양 로봇은 연구가 거듭됨에 따라 해양 탐사나 특정 임무를 수행하기 위해 목적에 따라 여러 가지 형태로 제작되어 활용되고 있다. 해양 로봇 중에서도 수상 환경에서 Unmanned surface vehicle(USV)는 군사, 환경보호, 탐사 등과 같은 여러 가지 목적으로 연구 및 개발이 되고 있다. Recently, marine robots have been used in various forms according to their purpose in order to carry out marine exploration and specific missions according to the research. Among marine robots, the unmanned surface vehicle (USV) has been researched and developed for various purposes such as military, environmental protection, and exploration in aquatic environment.

각 목적에 따른 임무를 수행하기 위해서는 공통적으로 자율항법을 위해서 자기 위치인식부터 경로계획, 경로추종, 장애물 회피와 같은 요소들이 필요하다. In order to carry out the mission according to each purpose, common factors such as self-location, path planning, path follow-up, and obstacle avoidance are required for autonomous navigation.

이 중에서 장애물 회피는 안전한 자율항법을 위해 중요한 부분이다. 장애물을 인식하고 정지하는 간단한 알고리즘부터, 아주 정교한 알고리즘을 탑재하여 장애물을 회피하는 방법까지 다양한 연구들이 이루어지고 있다. Among them, obstacle avoidance is an important part for safe autonomous navigation. Various researches have been conducted from a simple algorithm that recognizes and stops obstacles to a method that avoids obstacles by loading a very sophisticated algorithm.

장애물 회피 알고리즘은 크게 두 부류로 나눌 수 있다. 과거 센서 데이터의 사용 여부에 따라 현재 들어온 데이터만을 이용하여 회피하는 반사제어(Reflective control)와 과거 데이터를 함께 사용하는 반응제어(Reactive control)로 나눌 수 있다.The obstacle avoidance algorithm can be classified into two kinds. Reflective control that avoids using only the data that is currently input depending on past sensor data usage and reactive control that uses past data together can be divided into.

반사제어의 경우 계산량이 적고, 외부자극에 대한 빠른 동작을 쉽게 적용할 수 있는 반면 경로계획이나 추종에 적용하기 어려운 단점이 있다. 이에 비하여 반응제어는 계산량이 많고 환경지도를 저장해야 하는 단점이 있지만 이를 통해 장애물 회피뿐만 아니라 경로 생성 및 추종에도 활용할 수 있는 장점이 있다. 이런 장애물 회피 알고리즘 적용을 위해서는 기본적으로 환경인식이 가능해야 한다.Reflective control has a small amount of computation, it can easily apply fast motion to external stimuli, but it is difficult to apply it to path planning or tracking. On the other hand, there are disadvantages in that the reaction control has a large amount of computation and the environmental map must be stored, but it has an advantage that it can be utilized not only for obstacle avoidance but also for path generation and follow-up. In order to apply such an obstacle avoidance algorithm, environment recognition should be basically possible.

위치 및 환경인식 알고리즘은 대부분 GPS(Global Positioning System)를 주 시스템으로 사용하고 있으며, INS(Inertial Navigation System)와 융합하여 GPS를 통한 위치인식이 불가한 경우에도 지속적인 위치인식이 가능하도록 개발하고 있다. Most of the location and environment recognition algorithms use GPS (Global Positioning System) as main system and they are fused with INS (Inertial Navigation System) to develop continuous position recognition even when GPS is impossible.

특히, 무인차량의 경우에는 GPS를 이용한 위치인식이 용이하지 못하고, 차량의 Roll, Pitch, Yaw의 변화가 심한 환경에서는 INS의 누적오차도 크게 발생하는 상황이 지속적으로 발생할 수 있기 때문에 신뢰도가 높은 고가의 DGPS 및 INS를 사용하고 있다. 또한 레이저 기반의 LIDAR와 카메라를 주센서로 사용되고 있으며, 특히 LIDAR는 높은 신뢰도의 거리정보와 빠른 데이터 처리가 강점이지만 2차원에서 3차원으로 해상도 및 센서 사양이 향상하면서, 처리속도에 대한 문제와 잡음데이터 문제가 많이 발생하였다.In particular, in the case of unmanned vehicles, it is not easy to recognize the position using GPS. In the environment where the change of the roll, pitch, and yaw of the vehicle is severe, the cumulative error of the INS may occur continuously. Of DGPS and INS. In addition, laser-based LIDAR and camera are used as main sensors. Especially, LIDAR has strong reliability distance information and fast data processing. However, resolution and sensor specifications are improved from 2D to 3D, There was a lot of data problems.

한국등록특허 제10-1514407호는 실시간 해역 관측시스템에 대한 것으로, 관측 대상 해역의 수중 또는 수상에 위치되는 관측 장비에 의한 점(point) 형태의 관측정보를 뛰어넘어 수중 또는 수상으로부터 획득되는 다양한 정보를 취합하여 광역(regional) 형태의 관측정보로 분석하는 기술을 개시하고 있으나, 여전히 무인체계 플랫폼의 프로세싱 속도를 줄이는 효과를 기대할 수 없다.Korean Patent No. 10-1514407 refers to a real-time sea-area observation system, which is a method for acquiring various information obtained from aquatic or aquatic waters beyond the observation information in the form of a point by the observation equipment located in the water of the observation area Is analyzed and analyzed as regional type observation information. However, it is still not expected to reduce the processing speed of the unmanned system platform.

본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 무인 수상정이 3차원 라이다 센서를 단독으로 이용하여 장애물을 탐지 시, 무인 수상정의 구동으로 인해 수면에서 발생하는 노이즈 데이터까지 획득하게 되기 때문에 이러한 노이즈 데이터를 제거함을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide a noise reduction apparatus and a noise reduction method, It is intended to remove noise data.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 무인 수상정에서 장애물 탐지를 위한 3차원 라이다 데이터를 획득하는 단계와, 상기 무인 수상정이 수면위에서 지나가는 가상궤적을 생성하는 단계와, 상기 가상궤적에서 수면에서 발생된 노이즈 데이터를 추출하는 단계 및 상기 3차원 라이다 데이터 중 상기 노이즈 데이터를 삭제하는 단계를 포함하는 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 방법을 제안한다.According to an aspect of the present invention, there is provided a method of detecting obstacles, the method comprising: acquiring three-dimensional Lattice data for obstacle detection in an unmanned water estimation; Extracting noise data generated from the water surface in the trajectory, and deleting the noise data among the three-dimensional Lattice data.

바람직하게는, 가상궤적을 생성하는 단계는, GPS모듈을 통해 상기 무인 수상정의 방위각과 속도를 획득하는 단계와, 상기 획득된 방위각과 속도를 이용하여 상기 무인 수상정의 선회반경을 구하는 단계 및 상기 선회반경에 기반하여 상기 무인 수상정이 이동하는 상기 가상 궤적을 생성하는 단계를 포함한다.Preferably, the step of generating a virtual trajectory includes the steps of: acquiring the unmanned awards defined azimuth and speed through a GPS module; obtaining the unmanned airstop turn radius using the obtained azimuth and speed; And generating the virtual trajectory on which the unattended spin table moves based on the radius.

바람직하게는, 가상궤적을 생성하는 단계는 상기 무인 수상정의 방위각을 이용해서 상기 무인 수상정의 선회반경(r)의 반지름을 갖는 원을 생성한다.Preferably, the step of generating a virtual trajectory generates a circle having a radius of the unmanned awards positive definition radius r using the unattended augmented positive azimuth.

바람직하게는, 노이즈 데이터를 추출하는 단계는 상기 가상궤적에서 상기 무인 수상정의 속도에 따라 상기 무인 수상정이 지나간 후면길이를 결정하는 단계와, 상기 후면길이에 대응하는 영역에서 획득된 상기 3차원 라이다 데이터를 상기 노이즈 데이터로 추출하는 단계를 포함하고, 상기 후면길이는 상기 무인 수상정 후면의 외벽으로부터 바깥쪽으로 향하는 길이이다.Preferably, the step of extracting the noise data further comprises the steps of: determining a backside length of the unmanned image based on the unmanned image forming speed in the virtual trajectory; and determining the three-dimensional image data obtained in the area corresponding to the back side length And extracting the data with the noise data, wherein the rear length is a length directed outward from an outer wall of the rear face of the unmanned water cannon.

바람직하게는, 상기 후면길이에 대응하는 영역은, 상기 가상 궤적의 후면길이에 대응하여 상기 가상 궤적의 내측에서 평행하는 제1 바운더리와 상기 가상 궤적의 외측에 평행하는 제2 바운더리를 각각 상기 무인 수상정의 폭의 m배(m은 양의 정수)만큼 이격되게 형성된다.Preferably, the region corresponding to the rear length is defined by a first boundary parallel to the inside of the imaginary locus corresponding to the rear length of the virtual locus, and a second boundary parallel to the outside of the imaginary locus, (M is a positive integer) of the positive width.

또한 본 발명은 무인 수상정에서 장애물 탐지를 위한 3차원 라이다 데이터를 획득하는 장애물 탐지부와, 상기 무인 수상정이 수면 위를 지나는 가상궤적을 생성하는 가상 궤적 생성부와, 상기 가상궤적에서 수면에서 발생된 노이즈 데이터를 추출하는 노이즈 데이터 추출부 및 상기 3차원 라이다 데이터 중 상기 노이즈 데이터를 삭제하는 노이즈 데이터 제거부를 포함하는 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 장치를 제안한다.According to another aspect of the present invention, there is provided an obstacle detection system including an obstacle detection unit for obtaining three-dimensional Lattice data for obstacle detection in an unmanned water reception, a virtual locus generation unit for generating a virtual locus passing over the water surface, And a noise data removing unit for removing the noise data among the three-dimensional Lattice data. The apparatus for removing noise in an unmanned aerial vehicle obstacle detecting apparatus according to the present invention includes:

바람직하게는, 가상궤적 생성부는, GPS모듈을 통해 상기 무인 수상정의 방위각과 속도를 획득하고, 상기 획득된 방위각과 속도를 이용하여 상기 무인 수상정의 선회반경을 구하며, 상기 선회반경에 기반하여 상기 무인 수상정이 이동하는 상기 가상궤적을 생성한다.Preferably, the virtual locus generator obtains the unmanned awards defined azimuth and speed using the GPS module, obtains the unmanned awards defined turning radius using the obtained azimuth and speed, Thereby generating the virtual trajectory to which the target object moves.

바람직하게는, 가상궤적 생성부는 상기 무인 수상정의 방위각을 이용해서 상기 무인 수상정의 선회반경(r)의 반지름을 갖는 원을 생성한다.Preferably, the virtual locus generator generates a circle having a radius of the unmanned awards defined turning radius r by using the unmanned awards defined azimuth.

바람직하게는, 노이즈 데이터 추출부는 상기 가상궤적에서 상기 무인 수상정의 속도에 따라 상기 무인 수상정이 지나간 후면길이를 결정하고, 상기 후면길이에 대응하는 영역에서 획득된 상기 3차원 라이다 데이터를 상기 노이즈 데이터로 추출하며, 상기 후면길이는 상기 무인 수상정 후면의 외벽으로부터 바깥쪽으로 향하는 길이이다.Preferably, the noise data extracting unit may determine the rear length of the unmanned image data according to the unmanned image forming speed in the virtual trajectory, calculate the three-dimensional image data obtained in the area corresponding to the back length, And the rear length is a length directed outward from the outer wall of the rear surface of the unmanned water supply system.

바람직하게는, 후면길이에 대응하는 영역은, 상기 가상 궤적의 후면길이에 대응하여 상기 가상 궤적의 내측에서 평행하는 제1 바운더리와 상기 가상 궤적의 외측에 평행하는 제2 바운더리를 각각 상기 무인 수상정의 폭의 m배(m은 양의 정수)만큼 이격되게 형성된다.Preferably, the region corresponding to the rear length is defined by a first boundary parallel to the inside of the virtual trajectory corresponding to the rear length of the virtual trajectory and a second boundary parallel to the outside of the virtual trajectory, (M is a positive integer) of the width.

본 발명은 무인 수상정에서 장애물을 탐지하는 데에 3차원 라이다 센서를 단독으로 이용하기 때문에 다중 센서를 이용하는 시스템에 비해 상대적으로 데이터 처리량을 줄일 수 있고, 무인 수상정의 회피기동과 같은 거동제어 처리에 부하를 줄일 수 있어, 무인 수상정의 고속수월이 가능하게 한다.Since the present invention utilizes a 3D Lidar sensor alone for detecting an obstacle in the unmanned water guidance, the data throughput can be relatively reduced as compared with a system using multiple sensors, and the movement control process The load can be reduced, and the unmanned vehicle can be quickly and quickly settled.

또한, 본 발명은 무인 수상정의 3차원 라이다가 장애물을 탐지하여 획득하는 데이터 이외에 무인 수상정의 구동으로 인한 물결파에 의해 발생된 노이즈 데이터를 삭제함으로써, 장애물 탐지 데이터의 신뢰성을 높일 수 있다.In addition, the present invention can improve the reliability of the obstacle detection data by deleting the noise data generated by the wave waves due to the driving of the unmanned vehicle, in addition to the data for detecting and acquiring obstacles.

도 1은 본 발명의 일실시 예에 따른 무인 수상정의 개략적인 구성을 도시하는 블록도이다.
도 2는 본 발명의 일실시 예에 따른 무인 수상정의 장애물 탐지 시 노이즈를 제거하는 장치의 제어부의 구체적인 구성을 도시하는 블록도이다.
도 3은 본 발명의 일실시 예에 따라 무인 수상정의 속도에 따라 후면길이를 구하기 위해 도시된 참고도이다.
도 4는 본 발명의 일실시 예에 따라 무인 수상정이 구동하는 방위각 및 속도에 따라 생성된 가상궤적의 일예를 도시하는 예시도이다.
도 5는 본 발명의 일실시 예에 따라 관심영역을 설정하기 위해 제1 바운더리 및 제2 바운더리를 형성한 일 예를 도시하는 예시도이다.
도 6은 본 발명의 일실시 예에 따라 무인 수상정의 장애물 탐지 시 노이즈를 제거하는 방법을 설명하기 위한 순서도이다.
도 7은 본 발명의 일실시 예에 따라 노이즈 데이터를 추출하는 구체적인 방법을 설명하기 위한 순서도이다.
1 is a block diagram illustrating a schematic configuration of an unmanned aerial vehicle according to an embodiment of the present invention.
2 is a block diagram showing a specific configuration of a control unit of an apparatus for removing noise in the detection of an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 3 is a reference diagram for obtaining the rear length according to the unmanned image forming speed according to an embodiment of the present invention.
FIG. 4 is an exemplary diagram illustrating an example of a virtual trajectory generated according to an azimuth angle and a speed at which an unmanned parking lot is driven according to an embodiment of the present invention.
5 is an exemplary view illustrating an example of forming a first boundary and a second boundary to set a region of interest according to an embodiment of the present invention.
FIG. 6 is a flowchart for explaining a method of removing noise in the detection of an unmanned aerial vehicle according to an embodiment of the present invention. Referring to FIG.
7 is a flowchart for explaining a specific method of extracting noise data according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

본 발명은 무인 수상정의 장애물 탐지 시 노이즈를 제거하는 기법에 관한 것이다. 본 발명은 무인 수상정이 장애물 탐지를 위해 3차원 라이다 센서를 이용하여 데이터를 획득할 시, 무인 수상정이 수면 위에서 구동함으로 인해 발생하는 수면에서 발생된 노이즈 데이터를 효율적으로 제거한다. 이하 본 발명에 대하여 자세하게 설명한다.The present invention relates to a technique for eliminating noise when detecting unmanned aerial vehicles. The present invention efficiently removes noise data generated from a water surface generated by driving an unmanned water well on a water surface when acquiring data using a three-dimensional water sensor for detecting obstacles. Hereinafter, the present invention will be described in detail.

도 1은 본 발명의 일실시예에 따른 무인 수상정의 개략적인 구성을 도시하는 블록도이고, 도 2는 본 발명의 일실시 예에 따른 무인 수상정의 장애물 탐지시 노이즈를 제거하는 장치의 제어부의 구체적인 구성을 도시하는 블록도이며, 도 3은 본 발명의 일실시 예에 따라 무인 수상정의 속도에 따라 후면길이를 구하기 위해 도시된 참고도이고, 도 4는 본 발명의 일실시 예에 따라 무인 수상정이 구동하는 방위각 및 속도에 따라 생성된 가상궤적의 일예를 도시하는 예시도이며, 도 5는 본 발명의 일실시 예에 따라 관심영역을 설정하기 위해 제1 바운더리 및 제2 바운더리를 형성한 일 예를 도시하는 예시도이다.FIG. 1 is a block diagram illustrating a schematic configuration of an unmanned aerial vehicle according to an embodiment of the present invention. FIG. 2 is a block diagram of a control unit of an apparatus for removing noise in detecting an unmanned aerial vehicle according to an embodiment of the present invention. FIG. 3 is a reference diagram for obtaining the rear length according to the unmanned image forming speed according to an embodiment of the present invention, and FIG. 4 is a schematic view showing a state where the unmanned image forming apparatus according to the embodiment of the present invention FIG. 5 is a view illustrating an example of forming a first boundary and a second boundary in order to set a region of interest according to an embodiment of the present invention. Fig.

무인 수상정(100)은 인력을 직접 투입하기 어려운 환경에 투입되어, 수상 및 수중에서 기뢰제거, 잠수함 수색, 보안, 정찰 등의 군사적 목적뿐만 아니라, 해양 및 해상의 환경모델을 생성하는 등의 다양한 목적으로 이용된다.The unmanned aerial view (100) is put into an environment where it is difficult to directly input manpower, and it is used for a variety of purposes such as generating marine and marine environmental models as well as military purposes such as mine removal, submarine search, security and reconnaissance Purpose.

이러한 무인 수상정(100)에는 지형지물에 대한 수치표고 모델 생성 또는 장애물 탐지를 위해 3차원 라이다(LIDAR: Light Detection And Ranging, 110)가 적용되고 있다.In this unmanned water elevation 100, a three dimensional (LIDAR) light detection and ranging (110) method is applied for the generation of a digital elevation model for a feature or obstacle detection.

3차원 라이다(110)는 펄스 레이저와 같은 광원을 조사하는 송신 광학계와 대상 물체에 반사하여 회귀하는 광원을 수신하는 수신 광학계로 구성된다. 3차원 라이다(110)는 레이저를 주사하여 그 반사와 흡수를 통해 대기주의 온도, 습도, 시정거리 등을 측정할 수 있다.The three-dimensional ladder 110 is composed of a transmission optical system for emitting a light source such as a pulsed laser and a reception optical system for receiving a light source which is reflected and returned to the object. The three-dimensional laser 110 can measure the atmospheric temperature, humidity, and corrective distance by scanning and injecting a laser.

3차원 라이다 센서인 M8 센서는 8채널과 20도의 Vertical angle로 환경 데이터를 취득하며, 최적의 조건에서는 1~200m 떨어져있는 장애물까지 탐지가 가능하다. 이를 위해 3차원 라이다(110)는 8채널에 대응하는 8개의 모듈을 구비한다. 여기서, 상기 각 8개의 모듈은 송신 광학계 및 수신 광학계로 구성되며, 각 8개의 모듈은 동일한 주기로 회전하며 광원을 조사하고, 대상 물체에 반사하여 회귀하는 광원을 수신한다.The M8 sensor, a 3-dimensional Lidar sensor, acquires environmental data at 8-channel and 20-degree vertical angles, and can detect obstacles that are 1 to 200 m apart under optimal conditions. For this purpose, the three-dimensional array 110 includes eight modules corresponding to eight channels. Each of the eight modules includes a transmitting optical system and a receiving optical system. Each of the eight modules rotates at the same cycle, irradiates the light source, and receives a light source that reflects and returns to the object.

특히, 각 모듈에 대응하는 레이어 간의 간격이 3도 가까이 되어서, 비교적 원거리에서의 레이어간의 사각지대가 많이 발생하였지만, 본 발명에서는 이와 같은 갭에 의한 사각지대를 줄이기 위해 2대의 3차원 라이다 센서를 통해서 16채널의 효과를 발생하도록 한다. 16 채널에서 취득한 환경데이터는 포인트 클라우드 방식으로 저장된다. 여기서, 본 발명에서는 3차원 라이다(110)가 8채널에 대응하는 8개의 모듈로 구비된 것을 예로 하였으나, 본 발명이 이에 한정되는 것은 아니며, 본 발명의 요지를 벗어나지 않는 범위 내에서 모듈의 개수에 변형예가 가능하다. In particular, although a gap between layers corresponding to each module is close to 3 degrees, a large number of blind spots between layers occur at a relatively long distance. In the present invention, however, two three- So that the effect of 16 channels is generated. Environmental data acquired from 16 channels is stored in a point cloud system. Here, in the present invention, the three-dimensional array 110 is provided with eight modules corresponding to eight channels. However, the present invention is not limited to this, and the number of modules As shown in Fig.

본 발명에서는 무인 수상정이 3차원 라이다(110)를 통해 주위의 장애물을 탐지하는 용도로 이용하는 경우에 3차원 라이다(110)가 장애물을 탐지하여 획득하는 데이터 이외에 수면 상의 노이즈 데이터까지 획득하게 되기 때문에 이러한 노이즈 데이터를 제거하고자 한다.In the present invention, in the case where the unmanned image sensor is used for detecting obstacles around the object through the three-dimensional image sensor 110, the three-dimensional image sensor 110 acquires noise data on the surface in addition to the data for detecting and acquiring an obstacle Therefore, we want to remove such noise data.

3차원 라이다(110)는 기본적으로 장애물 탐지를 위해 레이저 거리 측정 센서의 원리를 기본으로 하고 있지만, 본 발명에서 거리센서를 계층구조의 층별로 360도 회전하면서 반사되는 광원을 기반으로 장애물까지의 거리를 측정한다. 본 발명은 장애물 탐지를 위해 3차원 라이다 센서 단독으로 임무를 수행한다.Although the three-dimensional ladder 110 is basically based on the principle of the laser distance measuring sensor for detecting an obstacle, in the present invention, in the present invention, the distance sensor rotates by 360 degrees for each layer of the hierarchical structure, Measure the distance. The present invention performs a mission by using a 3D Lidar sensor alone for obstacle detection.

반면, 종래기술의 무인체계 플랫폼의 환경인식 기술은 영상정보를 포함하는 영상 인식 센서와 원거리 장애물 데이터 취득이 가능한 레이더 센서에 의존하여 장애물을 탐지하고, 2차원 혹은 3차원 라이다 정보와의 융합을 통해서 무인체계 플랫폼이 이동함에 장애물 인식 및 이에 따른 회피기동을 수행했다. 이러한 다수의 센서를 융합하여 설계된 시스템으로 인해 고가의 장비가 필요했고, 하/상위 제어기의 프로세싱 속도에 제한이 생겨, 무인체계 플랫폼의 고속주행 혹은 고속수월이 불가능한 문제가 있었다.On the other hand, the environment recognition technology of the unmanned system platform of the prior art relies on an image recognition sensor including image information and a radar sensor capable of acquiring remote obstacle data to detect an obstacle and to converge with two-dimensional or three-dimensional information Through the recognition of obstacles and the avoidance maneuvering in the movement of the unmanned system platform. Due to the system designed by fusing a large number of such sensors, expensive equipment is required, and the processing speed of the lower / upper controller is limited, so that there is a problem that the unmanned system platform can not be driven at a high speed or at high speed.

이에 반해 본 발명은 3차원 라이다 센서를 단독으로 이용하여 장애물 탐지에 이용하기 때문에 데이터 처리량을 줄일 수 있고, 무인 수상정의 회피기동과 같은 거동제어 처리에 부하를 줄일 수 있어, 무인 수상정의 고속수월이 가능하게 한다.On the other hand, the present invention can reduce the data throughput because it uses the 3D Lidar sensor alone for obstacle detection, and can reduce the load on the behavior control process such as unmanned a priori avoidance start, .

본 발명의 3차원 라이다(110)에 대응하는 8개 레이어에 포함되는 거리값과 측정각 데이터는 포인트 클라우드(point cloud)로 취득되어 메모리(130)에 저장된다. 여기서, 3차원 라이다 센서를 2대를 이용하여 16채널의 효과를 가지고 가며, 각 레이어 간의 갭을 줄일 수 있다. 즉, 원거리의 장애물을 탐지하는 경우 3차원 라이다에 인접한 거리에서 이웃하는 레이어 간의 수직선상의 갭이 좁지만 원거리로 갈수록 레이어 간의 갭이 점점 벌어지면서 갭 사이에 있는 장애물을 탐지하지 못하는 경우가 발생된다. 이러한 문제를 해결하기 위해 3차원 라이다 센서를 2대를 이용하여 한 대의 각 8개 레이어가 다른 한 대의 각 8개 레이어 갭들 사이에 위치하도록 함으로써, 레이어 간의 갭을 줄여 장애물 탐지 확률을 높일 수 있다.Distance values and measurement angle data included in the eight layers corresponding to the three-dimensional grid 110 of the present invention are acquired as a point cloud and stored in the memory 130. In this case, the three-dimensional Lada sensor has the effect of 16 channels using two units, and the gap between the respective layers can be reduced. That is, in the case of detecting a distant obstacle, a gap on a vertical line between neighboring layers is narrow at a distance adjacent to the three-dimensional array, but an obstacle between the gaps can not be detected as the gap between the layers gradually increases . In order to solve this problem, it is possible to increase the probability of detecting an obstacle by reducing gap between layers by using two 3-dimensional Lidar sensors so that each one of 8 layers is located between 8 layers gaps of one other .

무인 수상정(100)은 기본적으로 수상정의 위치정보와 자세정보를 취득할 수 있는 관성 측정 장치(IMU: Inertial measurement unit, 미도시)와 GPS 모듈(120)을 구비한다. GPS 모듈(120)은 무인 수상정(100)이 구동하는 방위각과 속도를 측정한다. The waterless assumption 100 basically includes an inertial measurement unit (IMU) (not shown) and a GPS module 120 that can acquire the aquifer definition position information and attitude information. The GPS module 120 measures the azimuth angle and the speed at which the water-free water can 100 is driven.

제어부(140)는 무인 수상정(110)을 구성하는 각 구성의 전체 작동을 제어하는 기능을 수행한다.The control unit 140 controls the overall operation of the respective constituent elements of the unattended water control 110.

제어부(140)는 도 2에 도시된 바와 같이, 장애물 탐지부(141), 가상 궤적 생성부(142), 노이즈 데이터 추출부(143) 및 노이즈 데이터 제거부(144)를 포함하여 구성된다.The control unit 140 includes an obstacle detecting unit 141, a virtual locus generating unit 142, a noise data extracting unit 143, and a noise data removing unit 144, as shown in FIG.

장애물 탐지부(141)는 무인 수상정(100)에 탑재된 3차원 라이다(110)를 통해 8개 레이어마다 포인트 클라우드로 취득된 거리값과 측정각 데이터를 3차원 라이다 데이터로서 분석하여 장애물을 탐지한다. 여기서, 3차원 라이다(110)는 레이어별 수직각을 2.5도 간격으로 8개의 레이어가 각각 같은 주기에 맞춰서 360도로 회전을 하며, 회전각에 따라 각 회전각에 해당하는 위치에서 추출되는 거리 데이터와 측정각 데이터들을 포인트 클라우드로 획득한다. 여기서 포인트 클라우드는 탐지된 장애물을 추정할 수 있는 정보가 된다. 그리고 앞서 상술한 바와 같이, 3차원 라이다 센서를 2대를 이용하여 16채널의 효과를 가지고 가며, 각 레이어 간의 갭을 줄일 수 있으며, 이 경우에도 마찬가지로 취득한 환경데이터는 포인트 클라우드 방식으로 저장된다. The obstacle detection unit 141 analyzes the distance value and the measurement angle data obtained by the point cloud for each of the eight layers through the three-dimensional line 110 mounted on the unmanned water canal 100 as three-dimensional LIDAR data, Lt; / RTI > Here, three-dimensional (110) layers are formed by rotating the 360 degree angle of the vertical angle of each layer at an interval of 2.5 degrees in accordance with the same period, and the distance data extracted from the positions corresponding to the respective angles of rotation And measurement data are acquired in a point cloud. Here, the point cloud is information that can be used to estimate the detected obstacle. As described above, the three-dimensional Lattice sensors have the effect of 16 channels using two units, and the gap between the respective layers can be reduced. In this case as well, the acquired environmental data is stored in the point cloud system.

가상 궤적 생성부(142)는 무인 수상정(100)이 수면위에서 지나가는 가상 궤적(200)을 도 3 및 도 4에 도시된 바와 같이 원형으로 생성한다. 구체적으로, 가상 궤적 생성부(142)는 GPS모듈(120)을 통해 무인 수상정(100)이 구동하는 방위각(

Figure 112017113950438-pat00001
)과 속도(v)를 획득하고, 획득된 방위각(
Figure 112017113950438-pat00002
)과 속도(v)를 이용하여 무인 수상정(100)의 선회반경(r)을 구하며, 상기 선회반경(r)에 기반하여 무인 수상정(100)이 이동하는 가상 궤적을 생성한다.The virtual locus generator 142 generates a virtual locus 200 in which the unmanned water wheel 100 passes over the water surface in a circular form as shown in FIGS. Specifically, the virtual locus generating unit 142 generates a virtual locus based on the azimuth angle ("
Figure 112017113950438-pat00001
) And velocity (v) are obtained, and the obtained azimuth angle
Figure 112017113950438-pat00002
) And the velocity v to obtain a turning radius r of the unmanned water control 100 and generates a virtual trajectory in which the unmanned water wheel 100 moves based on the turning radius r.

우선 수학식 3과 같이 무인 수상정(100)의 방위각(

Figure 112017113950438-pat00003
)을 이용해서 방위각(
Figure 112017113950438-pat00004
)에 따른 무인 수상정의 선회반경(r)의 반지름을 갖는 원 형태를 생성한다. 생성된 원에서 일정영역을 관심영역으로 설정하기 위해서 GPS 모듈(120)로부터 취득하는 무인 수상정(100)의 속도(v)를 파라미터로 사용한다. First, as shown in Equation 3, the azimuth angle
Figure 112017113950438-pat00003
) And the azimuth angle
Figure 112017113950438-pat00004
) To generate a circle shape with radius of the uninitialized augmented turning radius r. The velocity v of the unmanned water intake 100 acquired from the GPS module 120 is used as a parameter in order to set a certain region as a region of interest in the generated circle.

[수학식 1][Equation 1]

Figure 112017113950438-pat00005
Figure 112017113950438-pat00005

여기서, L은 실제 수상정의 길이이고, r은 수학식 1에 의해 결정되며, 결정된 값을 이용해서 생성된 가상의 원을 무인 수상정의 속도 v로 수학식 2와 같이 계산한 비율로 후면부의 ROI(Region of interest)를 결정한다. Here, L is an actual aberration length, r is determined by Equation (1), and the imaginary circle generated by using the determined value is expressed by Equation (2) Region of interest.

도 3에 도시된 바와 같이 무인 수상정의 후면 물결파 삭제를 위한 ROI는 폭과 길이를 수상정의 속도와 헤딩값에 의존하여 결정한다. 그래서 결정된 가상의 영역에 포함하는 3차원 라이다 데이터는 필터링하여 처리된다.As shown in FIG. 3, the ROI for erasing the unmanned image rear face wave is determined by the width and the length depending on the image definition speed and the heading value. Thus, the 3-dimensional RI data included in the determined virtual area is processed by filtering.

또한, 속도에 대한 비율은 수학식 2와 같이 현재 무인 수상정의 속도값인 m/s에서 knot 변환하여 예를 들어, 무인 수상정의 길이를 8m로 감안하면서 후면파를 삭제한다. Also, the ratio to the speed is knotted at m / s, which is the current unmanned augmentation speed value, as shown in Equation (2), for example, and the back surface wave is deleted while considering the length of the unmanned aberration correction as 8m.

[수학식 2]&Quot; (2) "

Figure 112017113950438-pat00006
Figure 112017113950438-pat00006

특히 수학식 2에서 무인 수상정의 속도를 감안하여 계산한 ratio는 실제 무인 수상정이 운항 중에 발생하는 속도에 따른 라이다 후면 물결파의 최대 길이를 감안해서 nmax를 2로 정의하고, 속도 데이터에 2배만큼 더해서 가상의 영역을 설정한다.In particular, the ratio calculated by considering the speed of the unmanned aerial image in equation (2) depends on the speed at which the actual unmanned aerial image is generated during operation. Considering the maximum length of the rear surface wave, n max is defined as 2, The virtual area is set by adding the number of times.

즉, 노이즈 데이터 추출부(143)는 가상 궤적에서 무인 수상정(100)이 지나간 물결에 의한 노이즈 데이터를 추출한다. 구체적으로 노이즈 데이터 추출부(143)는 가상 궤적에서 무인 수상정(100)의 속도(v)에 따라 무인 수상정(100)이 지나간 다음 물결파가 발생하는 후면길이(ratio)를 결정하고, 상기 후면길이(ratio)에 대응하는 영역에서 획득된 상기 3차원 라이다 데이터를 노이즈 데이터로 추출한다.That is, the noise data extracting unit 143 extracts noise data due to a wave that passes through the unmanned water estimation 100 in the virtual trajectory. More specifically, the noise data extracting unit 143 determines a back side length at which a wave wave is generated after passing the unmanned water based correction 100 according to the velocity v of the unmanned water based correction system 100 in the virtual trajectory, Dimensional lidar data obtained in a region corresponding to the backside ratio is extracted as noise data.

이를 위해, 도 5에 도시된 바와 같이, 가상 궤적의 후면길이(ratio)에 대응하여 가상 궤적의 내측에서 평행하는 제1 바운더리(1)와 가상 궤적(200)의 외측에 평행하는 제2 바운더리(2)를 각각 상기 무인 수상정(100)의 폭만큼 이격되게 형성하여, 제1 바운더리(1)와 제2 바운더리(2) 사이의 영역을 관심영역으로서 설정할 수 있다.To this end, as shown in Fig. 5, a first boundary 1 parallel to the inside of the imaginary locus corresponding to the rear length of the imaginary locus, and a second boundary (e.g., 2 may be formed to be spaced apart from each other by the width of the unmanned water preserver 100 so that an area between the first boundary 1 and the second boundary 2 can be set as a region of interest.

여기서, 후면길이는 무인 수상정 후면의 수면에서 3차원 라이다에 의해 노이즈 데이터가 검출되는 거리에 해당하는 길이로서, 무인 수상정의 외벽으로부터 바깥쪽으로 향하는 길이이며 상술한 바와 같이, 무인 수상정의 속도를 파라미터로 이용한 수학식에 의해 산출할 수 있다.Here, the rear length is a length corresponding to a distance at which noise data is detected by three-dimensional data on the water surface of the rear surface of the unmanned water tank, and is a length from the outer wall of the unmanned water tank, Can be calculated by a mathematical expression used as a parameter.

도 6 및 도 7은 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지 시 노이즈를 제거하는 방법을 설명하기 위한 순서도이다.FIG. 6 and FIG. 7 are flowcharts for explaining a noise removal method in the detection of an unmanned aerial vehicle according to an embodiment of the present invention.

도 6을 참고하면, 본 발명의 실시 예에 따른 무인 수상정의 장애물 탐지시 노이즈를 제거하는 방법은 먼저, 무인 수상정(100)에서 장애물 탐지를 위해 3차원 라이다 데이터를 획득한다(S110).Referring to FIG. 6, a method for removing noise in detecting an unmanned aerial vehicle according to an exemplary embodiment of the present invention first acquires 3D ray data for obstacle detection in the unmanned aerial photographing system 100 (S110).

구체적으로, 무인 수상정에 탑재된 3차원 라이다의 8개 레이어에 포함되는 거리값과 측정각 데이터는 포인트 클라우드(point cloud)로 취득되어 메모리(130)에 저장된다.Specifically, the distance values and the measurement data included in the eight layers of three-dimensional ladder mounted on the unmanned water assumption are acquired in a point cloud and stored in the memory 130.

여기서, 3차원 라이다는 기본적으로 장애물 탐지를 위해 레이저 거리 측정 센서의 원리를 기본으로 하고 있지만, 본 발명에서 거리센서를 레이어 구조의 레이어별로 360도 회전하면서 반사되는 광원을 기반으로 장애물까지의 거리를 측정한다. In the present invention, the three-dimensional ray is basically based on the principle of the laser distance measuring sensor for obstacle detection. However, in the present invention, the distance sensor rotates 360 degrees for each layer of the layer structure, .

구체적으로, 3차원 라이다는 레이어별 수직각을 2.5도 간격으로 8개의 레이어가 각각 같은 주기에 맞춰서 360도로 회전을 하며, 회전각에 따라 각 회전각에 해당하는 위치에서 추출되는 거리 데이터와 측정각 데이터들을 포인트 클라우드로 획득한다. 여기서 포인트 클라우드는 탐지된 장애물을 추정할 수 있는 정보가 된다.Specifically, the three-dimensional image is rotated by 360 degrees at intervals of 2.5 degrees with respect to each layer, and the distance data and the distance data are extracted from the positions corresponding to the respective angles of rotation according to the rotation angles. Each data is acquired in a point cloud. Here, the point cloud is information that can be used to estimate the detected obstacle.

여기서, 3차원 라이다 센서를 2대를 이용하여 16채널의 효과를 가지고 가며, 각 레이어 간의 갭을 줄일 수 있다. 즉, 원거리의 장애물을 탐지하는 경우 3차원 라이다에 인접한 거리에서 이웃하는 레이어 간의 수직선상의 갭이 좁지만 원거리로 갈수록 레이어 간의 갭이 점점 벌어지면서 갭 사이에 있는 장애물을 탐지하지 못하는 경우가 발생된다. 이러한 문제를 해결하기 위해 3차원 라이다 센서를 2대를 이용하여 한 대의 각 8개 레이어가 다른 한 대의 각 8개 레이어 갭들 사이에 위치하도록 함으로써, 레이어 간의 갭을 줄여 장애물 탐지 확률을 높일 수 있다. In this case, the three-dimensional Lada sensor has the effect of 16 channels using two units, and the gap between the respective layers can be reduced. That is, in the case of detecting a distant obstacle, a gap on a vertical line between neighboring layers is narrow at a distance adjacent to the three-dimensional array, but an obstacle between the gaps can not be detected as the gap between the layers gradually increases . In order to solve this problem, it is possible to increase the probability of detecting an obstacle by reducing gap between layers by using two 3-dimensional Lidar sensors so that each one of 8 layers is located between 8 layers gaps of one other .

본 발명은 장애물 탐지를 위해 3차원 라이다 센서 단독으로 임무를 수행한다. 본 발명은 3차원 라이다 센서를 단독으로 이용하여 장애물 탐지에 이용하기 때문에 데이터 처리량을 줄일 수 있고, 무인 수상정의 회피기동과 같은 거동제어 처리에 부하를 줄일 수 있어, 무인 수상정의 고속수월이 가능하게 한다.The present invention performs a mission by using a 3D Lidar sensor alone for obstacle detection. Since the present invention utilizes the 3D Lidar sensor alone for obstacle detection, it can reduce the data throughput and reduce the load on the behavior control process such as unmanned augmentation avoidance start. .

다음으로, 무인 수상정이 수면위에서 구동하는 가상궤적을 생성한다(S120). 구체적으로, 이 가상궤적을 생성하는 단계에서 GPS모듈을 통해 무인 수상정이 구동하는 방위각과 속도를 획득하고, 상기 획득된 방위각과 속도를 이용하여 상기 무인 수상정의 선회반경을 구하며, 상기 선회반경에 기반하여 무인 수상정이 이동하는 가상 궤적을 생성할 수 있다. 여기서, 가상 궤적은 무인 수상정의 방위각을 이용해서 무인 수상정의 선회반경(r)의 반지름을 갖는 원으로 생성할 수 있으나, 본 발명의 요지를 벗어나지 않는 범위 내에서, 다른 형태로 생성되는 예도 가능하다.Next, an imaginary locus driving on the water surface is generated by the unmanned aerial platform (S120). Specifically, in the step of generating the virtual trajectory, the azimuth angle and speed at which the unmanned parking space control is driven are obtained through the GPS module, the unmanned parking space defined by the azimuth angle and the velocity is obtained, Thereby generating a virtual trajectory in which the unmanned aerial platform moves. Herein, the virtual trajectory can be generated as a circle having the radius of the unmanned aerial image defining radius of gyration using the unmanned aerial image definition azimuth angle, but it is possible to generate in other forms within a range not departing from the gist of the present invention .

다음으로, 가상궤적에서 무인 수상정이 지나간 수면에서 발생된 노이즈 데이터를 추출한다(S130). 구체적으로, 노이즈 데이터를 추출하기 위해 가상 궤적에서 무인 수상정의 속도에 따라 무인 수상정의 구동에 의한 물결파가 발생하는 영역에 해당하는 후면길이를 결정하고, 상기 후면길이에 대응하는 영역에서 획득된 3차원 라이다 데이터를 노이즈 데이터로서 추출한다.Next, the noise data generated at the water surface passing through the unmanned parking space is extracted from the virtual trajectory (S130). Specifically, in order to extract noise data, a back length corresponding to a region where a wave wave is generated by the unmanned aberration-correcting driving is determined according to the unmanned image forming speed in the virtual trajectory, And extracts the dimensionality data as noise data.

여기서, 후면길이는 무인 수상정의 후면에서 3차원 라이다에 의해 노이즈 데이터가 검출되는 거리에 해당하는 길이로서, 무인 수상정의 외벽으로부터 바깥쪽으로 향하는 길이이며 상술한 바와 같이, 무인 수상정의 속도를 파라미터로 이용한 수학식에 의해 산출할 수 있다.Here, the rear length is a length corresponding to the distance at which noise data is detected by the three-dimensional image data on the rear surface of the unmanned image forming apparatus, and is a length from the outer surface of the unmanned image forming apparatus to the outer surface thereof. Can be calculated by using the following equation.

그리고, 후면길이에 대응하는 영역은 도 5에 도시된 바와 같이 가상 궤적의 후면길이에 대응하여 가상 궤적의 내측에서 평행하는 제1 바운더리와 가상 궤적의 외측에 평행하는 제2 바운더리를 각각 무인 수상정의 폭만큼 이격되게 형성하여, 제1 바운더리와 제2 바운더리 사이의 영역을 관심영역으로서 설정한 것에 해당한다.The area corresponding to the rear length corresponds to the rear length of the virtual trajectory as shown in FIG. 5, and the first boundary parallel to the inside of the virtual trajectory and the second boundary parallel to the outside of the virtual trajectory are defined as the unmanned averaging And the area between the first boundary and the second boundary is set as a region of interest.

여기서, 제1 바운더리(또는 제2 바운더리)와 가상궤적 간의 이격된 거리는 무인 수상정의 폭의 m배(m은 양수)로 산출될 수 있다. 다만, 상기 관심영역이 무인 수상정이 지나가면서 발생하는 수면에서 발생된 노이즈 데이터가 3차원 라이다에 의해 검출되는 영역이라는 요지를 벗어나지 않는다.Here, the distance between the first boundary (or the second boundary) and the virtual trajectory can be calculated as m times (m is a positive number) times the width of the unmanned image. However, the present invention does not depart from the gist of the present invention that the noise region generated by the water surface generated by passing the unmanned water jetting through the ROI is a region detected by three-dimensionally.

다음으로, 3차원 라이다 데이터 중 노이즈 데이터를 삭제한다(S140).Next, the noise data among the three-dimensional Raidata is deleted (S140).

이에 의해 무인 수상정의 3차원 라이다가 장애물을 탐지하여 획득하는 데이터 이외에 무인 수상정의 구동으로 인한 수면에서 발생된 노이즈 데이터를 삭제함으로써, 장애물 탐지 데이터의 신뢰성을 높일 수 있다.Thus, the reliability of the obstacle detection data can be improved by deleting the noise data generated from the water surface due to the driving of the unmanned aerial vehicle in addition to the data obtained by detecting and acquiring obstacles.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (11)

무인 수상정에서 장애물 탐지를 위한 3차원 라이다 데이터를 획득하는 단계;
상기 무인 수상정이 수면위에서 지나가는 가상궤적을 생성하는 단계;
상기 가상궤적에서 상기 무인 수상정의 후면의 수면에서 발생된 노이즈 데이터를 추출하는 단계; 및
상기 3차원 라이다 데이터 중 상기 노이즈 데이터를 삭제하는 단계;를 포함하고,
상기 가상궤적을 생성하는 단계는,
상기 무인 수상정의 방위각과 속도를 획득하는 단계;
상기 획득된 방위각과 속도를 이용하여 상기 무인 수상정의 선회반경을 구하는 단계; 및
상기 선회반경에 기반하여 상기 무인 수상정이 이동하는 상기 가상 궤적을 생성하는 단계;를 포함하는 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 방법.
Obtaining three-dimensional Lidar data for obstacle detection in the unmanned water forecasting;
Generating a virtual trajectory passing over the water surface of the unmanned water well;
Extracting noise data generated from the water surface of the rear surface of the unmanned waterproofing system in the virtual trajectory; And
And deleting the noise data among the three-dimensional Lattice data,
Wherein the step of generating the virtual trajectory includes:
Acquiring the azimuth anomaly azimuth and velocity;
Obtaining the unmanned augmented turning radius using the obtained azimuth angle and velocity; And
And generating the virtual trajectory to which the unmanned parking fixture moves based on the turning radius.
제 1 항에 있어서,
상기 무인 수상정의 방위각과 속도를 획득하는 단계는, GPS모듈을 통해 상기 무인 수상정의 방위각과 속도를 획득하는 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 방법.
The method according to claim 1,
Wherein the step of acquiring the azimuth augmented azimuth and the velocity acquires the azimuth augmented azimuth and velocity using a GPS module.
제 1 항에 있어서,
상기 가상궤적을 생성하는 단계는,
상기 무인 수상정의 길이(L), 방위각(θ) 및 속도(v) 간의 삼각관계를 이용하여 상기 무인 수상정의 선회반경(r)의 반지름을 갖는 원을 생성하는 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 방법.
The method according to claim 1,
Wherein the step of generating the virtual trajectory includes:
Wherein a circle having a radius of the unmanned water well defined turning radius (r) is generated by using a triangle relation between the unmanned water surface defining length (L), the azimuth angle (?) And the velocity (v) A method for removing noise.
제 3 항에 있어서,
상기 무인 수상정의 길이(L), 방위각(θ) 및 속도(v) 간의 삼각관계는
Figure 112017113950438-pat00007
이고, 여기서,
Figure 112017113950438-pat00008
은 상기 무인 수상정의 방위각, r은 선회반경인 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 방법.
The method of claim 3,
The triangular relationship between the length L, azimuth angle?
Figure 112017113950438-pat00007
Lt; / RTI >
Figure 112017113950438-pat00008
Is the azimuth-free azimuth angle, and r is the turning radius.
제 1 항에 있어서,
상기 노이즈 데이터를 추출하는 단계는,
상기 가상궤적에서 상기 무인 수상정의 속도에 따라 상기 무인 수상정이 지나간 후면길이를 결정하는 단계;
상기 후면길이에 대응하는 관심영역(ROI)에서 획득된 상기 3차원 라이다 데이터를 상기 노이즈 데이터로 추출하는 단계;를 포함하고,
상기 후면길이는 상기 무인 수상정 후면의 수면에서 3차원 라이다에 의해 노이즈 데이터가 검출되는 거리에 해당하며, 상기 무인 수상정의 외벽으로부터 바깥쪽으로 향하는 길이인 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 방법.
The method according to claim 1,
The step of extracting the noise data includes:
Determining a backside length of the unmanned image on the virtual trajectory according to the unmanned image forming speed;
Extracting the 3D Lidar data obtained in the ROI corresponding to the back length with the noise data,
Wherein the back surface length corresponds to a distance at which noise data is detected due to a three-dimensional surface on the water surface of the rear surface of the unmanned water tank, and is a length directed outward from the outer wall of the water tank. / RTI >
제 5 항에 있어서,
상기 후면길이에 대응하는 영역은,
상기 가상 궤적의 후면길이에 대응하여 상기 가상 궤적의 내측에서 평행하는 제1 바운더리와 상기 가상 궤적의 외측에 평행하는 제2 바운더리를 각각 상기 무인 수상정의 폭의 m배(m은 양의 정수)만큼 이격되게 형성된 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 방법.
6. The method of claim 5,
The area corresponding to the rear length is,
The first boundary parallel to the inside of the imaginary locus and the second boundary parallel to the outside of the imaginary locus corresponding to the back length of the imaginary locus are m times (m is a positive integer) Wherein the first and second sensors are spaced apart from each other.
무인 수상정에서 장애물 탐지를 위한 3차원 라이다 데이터를 획득하는 장애물 탐지부;
상기 무인 수상정이 수면 위를 지나는 가상궤적을 생성하는 가상 궤적 생성부;
상기 가상궤적에서 수면에서 발생된 노이즈 데이터를 추출하는 노이즈 데이터 추출부; 및
상기 3차원 라이다 데이터 중 상기 노이즈 데이터를 삭제하는 노이즈 데이터 제거부;를 포함하고,
상기 가상궤적 생성부는,
상기 무인 수상정의 방위각과 속도를 획득하고, 상기 획득된 방위각과 속도를 이용하여 상기 무인 수상정의 선회반경을 구하며, 상기 선회반경에 기반하여 상기 무인 수상정이 이동하는 상기 가상궤적을 생성하는 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 장치.
An obstacle detection unit for obtaining three-dimensional Lada data for obstacle detection in the unmanned water reception;
A virtual locus generating unit for generating a virtual locus passing over the water surface of the unmanned water well;
A noise data extracting unit for extracting noise data generated from the water surface in the virtual trajectory; And
And noise data removing means for deleting the noise data from the three-dimensional linear data,
Wherein the virtual locus generator comprises:
Acquiring the azimuth augmentation azimuth and velocity, obtaining the unmanned augmentation turning radius using the azimuth and velocity, and generating the virtual trajectory based on the turning radius, A device that removes noise during detection of unmanned aerial vehicles.
제 7 항에 있어서,
상기 가상궤적 생성부는,
GPS모듈을 통해 상기 무인 수상정의 방위각과 속도를 획득하는 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 장치.
8. The method of claim 7,
Wherein the virtual locus generator comprises:
Wherein the azimuth angle and the azimuth angle are obtained through a GPS module.
제 7 항에 있어서,
상기 가상궤적 생성부는,
상기 무인 수상정의 길이(L), 방위각(θ) 및 속도(v) 간의 삼각관계를 이용하여 상기 무인 수상정의 선회반경(r)의 반지름을 갖는 원을 생성하는 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 장치.
8. The method of claim 7,
Wherein the virtual locus generator comprises:
Wherein a circle having a radius of the unmanned water well defined turning radius (r) is generated by using a triangle relation between the unmanned water surface defining length (L), the azimuth angle (?) And the velocity (v) A device for removing noise.
제 7 항에 있어서,
상기 노이즈 데이터 추출부는,
상기 가상궤적에서 상기 무인 수상정의 속도에 따라 상기 무인 수상정이 지나간 후면길이를 결정하고, 상기 후면길이에 대응하는 영역에서 획득된 상기 3차원 라이다 데이터를 상기 노이즈 데이터로 추출하며,
상기 후면길이는 상기 무인 수상정 후면에서 외벽으로부터 바깥쪽으로 향하는 길이인 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 장치.
8. The method of claim 7,
The noise data extracting unit extracts,
Dimensional lidar data obtained in a region corresponding to the rear length is extracted as the noise data, and the three-dimensional LIDAR data is extracted from the virtual trajectory,
Wherein the rear length is a length from the outer wall to the outer side at the rear surface of the unmanned water supply.
제 10 항에 있어서,
상기 후면길이에 대응하는 영역은,
상기 가상 궤적의 후면길이에 대응하여 상기 가상 궤적의 내측에서 평행하는 제1 바운더리와 상기 가상 궤적의 외측에 평행하는 제2 바운더리를 각각 상기 무인 수상정의 폭의 m배(m은 양의 정수)만큼 이격되게 형성된 것을 특징으로 하는 무인 수상정의 장애물 탐지시 노이즈를 제거하는 장치.
11. The method of claim 10,
The area corresponding to the rear length is,
The first boundary parallel to the inside of the imaginary locus and the second boundary parallel to the outside of the imaginary locus corresponding to the rear length of the imaginary locus are set to m times (m is a positive integer) Wherein the noise eliminating unit is configured to be spaced apart from the noise eliminating unit.
KR1020170152964A 2017-11-16 2017-11-16 Method and device for deleting noise in detecting obstacle by unmanned surface vessel KR101888170B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170152964A KR101888170B1 (en) 2017-11-16 2017-11-16 Method and device for deleting noise in detecting obstacle by unmanned surface vessel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170152964A KR101888170B1 (en) 2017-11-16 2017-11-16 Method and device for deleting noise in detecting obstacle by unmanned surface vessel

Publications (1)

Publication Number Publication Date
KR101888170B1 true KR101888170B1 (en) 2018-08-13

Family

ID=63250930

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170152964A KR101888170B1 (en) 2017-11-16 2017-11-16 Method and device for deleting noise in detecting obstacle by unmanned surface vessel

Country Status (1)

Country Link
KR (1) KR101888170B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111308491A (en) * 2020-03-09 2020-06-19 中振同辂(江苏)机器人有限公司 Obstacle sensing method based on multi-sensor combination
CN112464994A (en) * 2020-11-05 2021-03-09 北京航天控制仪器研究所 Boat stern wave identification and removal method based on PointNet network

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100969878B1 (en) * 2009-07-28 2010-07-13 엘아이지넥스원 주식회사 The real-time tracking system of underwater projectile and the method thereof
KR20130024077A (en) * 2011-08-30 2013-03-08 주식회사 한화 Position correction method of the autonomous underwater vehicle at sea floor and location determination apparatus for autonomous underwater vehicle
KR101454153B1 (en) * 2013-09-30 2014-11-03 국민대학교산학협력단 Navigation system for unmanned ground vehicle by sensor fusion with virtual lane
KR20170021176A (en) * 2015-08-17 2017-02-27 한국과학기술원 Jellyfish Distribution Recognition Method and Systems for Operating Effectively Jellyfish Removal Type of Robot Systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100969878B1 (en) * 2009-07-28 2010-07-13 엘아이지넥스원 주식회사 The real-time tracking system of underwater projectile and the method thereof
KR20130024077A (en) * 2011-08-30 2013-03-08 주식회사 한화 Position correction method of the autonomous underwater vehicle at sea floor and location determination apparatus for autonomous underwater vehicle
KR101454153B1 (en) * 2013-09-30 2014-11-03 국민대학교산학협력단 Navigation system for unmanned ground vehicle by sensor fusion with virtual lane
KR20170021176A (en) * 2015-08-17 2017-02-27 한국과학기술원 Jellyfish Distribution Recognition Method and Systems for Operating Effectively Jellyfish Removal Type of Robot Systems

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111308491A (en) * 2020-03-09 2020-06-19 中振同辂(江苏)机器人有限公司 Obstacle sensing method based on multi-sensor combination
CN112464994A (en) * 2020-11-05 2021-03-09 北京航天控制仪器研究所 Boat stern wave identification and removal method based on PointNet network
CN112464994B (en) * 2020-11-05 2024-03-26 航天时代(青岛)海洋装备科技发展有限公司 PointNet network-based boat tail wave recognition and removal method

Similar Documents

Publication Publication Date Title
KR101888171B1 (en) Method and device for recognizing environment based on position information of unmanned surface vessel
US9223025B2 (en) Underwater platform with LIDAR and related methods
Galceran et al. Coverage path planning with real‐time replanning and surface reconstruction for inspection of three‐dimensional underwater structures using autonomous underwater vehicles
Heidarsson et al. Obstacle detection and avoidance for an autonomous surface vehicle using a profiling sonar
EP3384362B1 (en) Navigation system for an autonomous vehicle based on cross correlating coherent images
JP2015006874A (en) Systems and methods for autonomous landing using three dimensional evidence grid
EP2682782A1 (en) Sensor location method and system
Woock et al. Deep-sea AUV navigation using side-scan sonar images and SLAM
JP2018177074A (en) Autonomous type underwater robot and control method for the same
Aulinas et al. Vision-based underwater SLAM for the SPARUS AUV
Clunie et al. Development of a perception system for an autonomous surface vehicle using monocular camera, lidar, and marine radar
KR102530847B1 (en) Method and device for monitoring harbor and ship
Joe et al. Sensor fusion of two sonar devices for underwater 3D mapping with an AUV
Jiang et al. A survey of underwater acoustic SLAM system
KR101888170B1 (en) Method and device for deleting noise in detecting obstacle by unmanned surface vessel
WO2019084130A1 (en) Method and system of digital light processing and light detection and ranging for guided autonomous vehicles
EP3842885A1 (en) Autonomous movement device, control method and storage medium
Almeida et al. Air and underwater survey of water enclosed spaces for vamos! project
Woock Deep-sea seafloor shape reconstruction from side-scan sonar data for AUV navigation
Yu et al. Dual-attention-based optical terminal guidance for the recovery of unmanned surface vehicles
Kim et al. Imaging sonar based navigation method for backtracking of AUV
KR102535115B1 (en) Device and method for monitoring ship and port
Pulido et al. Time and cost-efficient bathymetric mapping system using sparse point cloud generation and automatic object detection
Qingqing et al. Detecting water reflection symmetries in point clouds for camera position calibration in unmanned surface vehicles
Choi et al. Validation of acoustic and geophysics based underwater localization with an autonomous surface vehicle

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant