KR102405818B1 - Method of removing noise, apparatus for removing noise, and computer program for the method - Google Patents

Method of removing noise, apparatus for removing noise, and computer program for the method Download PDF

Info

Publication number
KR102405818B1
KR102405818B1 KR1020210157098A KR20210157098A KR102405818B1 KR 102405818 B1 KR102405818 B1 KR 102405818B1 KR 1020210157098 A KR1020210157098 A KR 1020210157098A KR 20210157098 A KR20210157098 A KR 20210157098A KR 102405818 B1 KR102405818 B1 KR 102405818B1
Authority
KR
South Korea
Prior art keywords
point
noise
error value
points
neural network
Prior art date
Application number
KR1020210157098A
Other languages
Korean (ko)
Inventor
배광탁
안성용
민지홍
심인욱
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020210157098A priority Critical patent/KR102405818B1/en
Application granted granted Critical
Publication of KR102405818B1 publication Critical patent/KR102405818B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 3차원 라이다 센서의 점군 정보 내 노이즈를 효과적으로 제거할 수 있는 노이즈 제거 방법, 노이즈 제거 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램을 위하여, 컴퓨팅 장치에 의해 수행되는 노이즈 제거 방법에 있어서, 3차원 데이터를 획득하는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득하는 단계, 미리 학습된 제1 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 복원 오차값을 추정하는 단계, 상기 복원 오차값 및 미리 결정된 임계값을 기초로 상기 복수의 포인트에 대하여 노이즈 포인트 및 유효 포인트를 구분하는 노이즈 판단 단계, 및 상기 점군 데이터 중 상기 노이즈 포인트를 제거하여 상기 유효 포인트로 이루어진 3차원 데이터를 출력하는 단계를 포함하는, 노이즈 제거 방법, 노이즈 제거 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공한다.The present invention provides a noise removal method capable of effectively removing noise in point cloud information of a three-dimensional lidar sensor, an apparatus for removing noise, and a computer program stored in a recording medium for executing the method, noise removal performed by a computing device In the method, obtaining point cloud data including a plurality of points from a lidar sensor that obtains three-dimensional data, using a first artificial neural network learned in advance, a restoration error value for each point of the plurality of points Estimating, determining a noise of dividing a noise point and a valid point with respect to the plurality of points based on the restoration error value and a predetermined threshold value, and removing the noise point from the point cloud data to form the valid point It provides a method for removing noise, an apparatus for removing noise, and a computer program stored in a recording medium for executing the method, including outputting three-dimensional data.

Description

노이즈 제거 방법, 노이즈 제거 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램{Method of removing noise, apparatus for removing noise, and computer program for the method}A method of removing noise, an apparatus for removing noise, and a computer program stored in a recording medium for executing the method {Method of removing noise, apparatus for removing noise, and computer program for the method}

본 발명의 실시예들은 노이즈 제거 방법, 노이즈 제거 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램에 관한 것으로서, 더 상세하게는 3차원 라이다 센서의 점군 정보 내 노이즈를 효과적으로 제거할 수 있는 노이즈 제거 방법, 노이즈 제거 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램에 관한 것이다.Embodiments of the present invention relate to a method for removing noise, an apparatus for removing noise, and a computer program stored in a recording medium for executing the method, and more particularly, to effectively remove noise in point cloud information of a three-dimensional lidar sensor. It relates to a method for removing noise, an apparatus for removing noise, and a computer program stored in a recording medium for executing the method.

자율주행 자동차를 포함한 자율 이동체 및 로봇 시스템은 주변환경에 대한 정확한 3차원 정보를 인식하기 위하여 3차원 라이다(LiDAR, Light Detection And Ranging) 센서를 널리 사용하고 있다. 하지만 대다수의 시스템은 야외 환경에서 동작 및 활용됨에 반하여 해당 환경에서의 센서는 강설, 강우와 같은 기상조건에 의한 노이즈를 발생시키는 단점이 있다. 이러한 노이즈는 결과적으로 주변환경에 대한 미인식 또는 오인식을 유발하여 시스템에 심대한 오류를 발생시킬 뿐만 아니라 운용자를 포함한 주변의 사람에게까지 피해를 줄 수 있다.Autonomous moving objects and robot systems, including autonomous vehicles, widely use 3D LiDAR (Light Detection And Ranging) sensors to recognize accurate 3D information about the surrounding environment. However, while most systems are operated and utilized in an outdoor environment, sensors in the corresponding environment have a disadvantage in generating noise due to weather conditions such as snowfall and rainfall. As a result, such noise may cause unawareness or misrecognition of the surrounding environment, which may cause serious errors in the system, as well as damage to surrounding people including the operator.

이와 같은 문제를 해결하기 위해 3차원의 점군 정보(Point cloud data) 내 노이즈를 제거하기 위한 연구가 수행되어 왔으며 대표적으로 밀도 기반 방법과 지도 학습 기반 방법이 있다. 밀도 기반 노이즈 제거 방법은 기 설정된 단위의 공간의 점군 정보의 밀도를 측정함으로서 노이즈를 판별 및 제거 한다. 하지만 노이즈가 아닌 다수의 점군 정보도 낮은 밀도를 가지는 경우가 존재하기 때문에 정확도가 매우 낮다. 지도 학습 기반 노이즈 제거 방법은 점군 정보 내 노이즈 정보와 비 노이즈 정보를 수작업으로 분류한 후 해당 정보를 구분할 수 있도록 기계학습 시키는 방법이다. 해당 기법은 수작업으로 분류된 다량의 정보가 필요하다는 단점이 있다. 특히 영상 정보와 달리 점군 정보는 수작업으로 정보를 분류하는 작업이 매우 힘들뿐만 아니라 셀 수 없이 다양한 조건의 노이즈 정보를 얻어야 한다는 점에서 활용하기 어려운 기법이다.To solve this problem, research has been conducted to remove noise in three-dimensional point cloud data, and representatively, there are a density-based method and a supervised learning-based method. The density-based noise removal method discriminates and removes noise by measuring the density of point cloud information in a space of a preset unit. However, the accuracy is very low because there are cases where a large number of point cloud information other than noise also has a low density. The supervised learning-based noise removal method is a method of manually classifying noise information and non-noise information in point cloud information, and then performing machine learning to distinguish the information. This technique has a disadvantage in that it requires a large amount of manually classified information. In particular, unlike image information, point cloud information is a difficult technique to use in that it is not only very difficult to manually classify information, but also requires obtaining noise information under countless conditions.

본 발명은 상기와 같은 문제점을 포함하여 여러 문제점들을 해결하기 위한 것으로서, 3차원 라이다 센서의 점군 정보 내 노이즈를 효과적으로 제거할 수 있는 노이즈 제거 방법, 노이즈 제거 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공하는 것을 목적으로 한다. 그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위가 한정되는 것은 아니다.The present invention is to solve various problems including the above problems, a noise removal method capable of effectively removing noise in point cloud information of a three-dimensional lidar sensor, an apparatus for removing noise, and a recording medium for implementing the method The purpose of providing a computer program stored in However, these problems are exemplary, and the scope of the present invention is not limited thereto.

본 발명의 일 관점에 따르면, 컴퓨팅 장치에 의해 수행되는 노이즈 제거 방법에 있어서, 3차원 데이터를 획득하는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득하는 단계, 미리 학습된 제1 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 복원 오차값을 추정하는 단계, 상기 복원 오차값 및 미리 결정된 임계값을 기초로 상기 복수의 포인트에 대하여 노이즈 포인트 및 유효 포인트를 구분하는 노이즈 판단 단계, 및 상기 점군 데이터 중 상기 노이즈 포인트를 제거하여 상기 유효 포인트로 이루어진 3차원 데이터를 출력하는 단계를 포함하는, 노이즈 제거 방법이 제공된다.According to one aspect of the present invention, in a noise removal method performed by a computing device, the step of acquiring point cloud data including a plurality of points from a lidar sensor that acquires three-dimensional data, the first artificial neural network learned in advance estimating a restoration error value for each point of the plurality of points using and outputting 3D data including the effective points by removing the noise points from the point cloud data.

본 발명의 일 실시예에 따른 노이즈 제거 방법은 미리 학습된 제2 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 상기 복원 오차값을 산출하는 단계를 더 포함할 수 있다.The method for removing noise according to an embodiment of the present invention may further include calculating the restoration error value for each point of the plurality of points using a second artificial neural network learned in advance.

상기 제1 인공 신경망은 상기 제2 인공 신경망의 상기 복원 오차값을 이용하여 학습될 수 있다.The first artificial neural network may be trained using the restoration error value of the second artificial neural network.

상기 복원 오차값을 산출하는 단계는, 상기 복수의 포인트 중 복원 대상이 되는 제1 포인트, 및 복원에 사용되는 제2 포인트를 구분하는 단계, 상기 제2 포인트를 이용하여 상기 제1 포인트의 위치를 복원하는 단계, 및 상기 제1 포인트의 복원 오차값을 계산하는 단계를 포함하고, 상기 제2 포인트는 상기 제1 포인트와 3차원 공간 상에서 인접한 미리 결정된 수의 포인트들의 집합일 수 있다.Calculating the restoration error value may include distinguishing a first point to be restored from among the plurality of points and a second point used for restoration, and determining the location of the first point by using the second point. and calculating a restoration error value of the first point, wherein the second point may be a set of a predetermined number of points adjacent to the first point in a three-dimensional space.

상기 복원 오차값을 계산하는 단계는, 상기 제1 포인트의 실제 좌표 정보를 획득하는 단계, 상기 제1 포인트의 복원 좌표 정보를 획득하는 단계, 및 상기 실제 좌표 정보 및 상기 복원 좌표 정보 사이의 3차원 거리 값을 계산하는 단계를 포함할 수 있다.Calculating the restoration error value may include: acquiring real coordinate information of the first point; acquiring restored coordinate information of the first point; and three-dimensionality between the real coordinate information and the restored coordinate information calculating a distance value.

상기 복원 오차값을 추정하는 단계는, 추정 대상이 되는 제3 포인트를 결정하는 단계, 상기 제3 포인트의 3차원 좌표 정보를 상기 제1 인공 신경망에 입력하는 단계, 및 상기 제1 인공 신경망으로부터 상기 제3 포인트의 상기 복원 오차값을 획득하는 단계를 포함할 수 있다.The estimating of the restoration error value may include: determining a third point to be estimated; inputting three-dimensional coordinate information of the third point into the first artificial neural network; It may include obtaining the restoration error value of the third point.

상기 노이즈 판단 단계는, 상기 제3 포인트의 상기 복원 오차값이 상기 미리 결정된 임계값을 초과하는 경우 상기 제3 포인트를 상기 노이즈 포인트로 결정하는 단계일 수 있다.The determining of the noise may include determining the third point as the noise point when the restoration error value of the third point exceeds the predetermined threshold value.

본 발명의 일 관점에 따르면, 컴퓨터를 이용하여 상술한 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램이 제공된다.According to one aspect of the present invention, there is provided a computer program stored in a recording medium for executing the above-described method using a computer.

본 발명의 일 관점에 따르면, 프로세서를 포함하고, 상기 프로세서는, 3차원 데이터를 획득하는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득하고, 미리 학습된 제1 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 복원 오차값을 추정하고, 상기 복원 오차값 및 미리 결정된 임계값을 기초로 상기 복수의 포인트에 대하여 노이즈 포인트 및 유효 포인트를 구분하고, 상기 점군 데이터 중 상기 노이즈 포인트를 제거하여 상기 유효 포인트로 이루어진 3차원 데이터를 출력하는, 노이즈 제거 장치가 제공된다.According to one aspect of the present invention, it includes a processor, wherein the processor acquires point cloud data including a plurality of points from a lidar sensor that acquires three-dimensional data, and uses the first artificial neural network learned in advance. Estimate a restoration error value for each point of a plurality of points, classify a noise point and an effective point with respect to the plurality of points based on the restoration error value and a predetermined threshold value, and select the noise point from the point cloud data There is provided a noise removal device for outputting three-dimensional data including the valid points by removing the data.

상기 프로세서는, 미리 학습된 제2 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 상기 복원 오차값을 산출할 수 있다.The processor may calculate the restoration error value for each point of the plurality of points by using the second artificial neural network learned in advance.

상기 제1 인공 신경망은 상기 제2 인공 신경망의 상기 복원 오차값을 이용하여 학습될 수 있다.The first artificial neural network may be trained using the restoration error value of the second artificial neural network.

상기 프로세서는, 상기 복수의 포인트 중 복원 대상이 되는 제1 포인트, 및 복원에 사용되는 제2 포인트를 구분하고, 상기 제2 포인트를 이용하여 상기 제1 포인트의 위치를 복원하고, 상기 제1 포인트의 복원 오차값을 계산하고, 상기 제2 포인트는 상기 제1 포인트와 3차원 공간 상에서 인접한 미리 결정된 수의 포인트들의 집합일 수 있다.The processor distinguishes a first point to be restored from among the plurality of points and a second point used for restoration, and restores the position of the first point by using the second point, and the first point calculates a restoration error value of , and the second point may be a set of a predetermined number of points adjacent to the first point in a three-dimensional space.

상기 프로세서는, 상기 제1 포인트의 실제 좌표 정보를 획득하고, 상기 제1 포인트의 복원 좌표 정보를 획득하고, 상기 실제 좌표 정보 및 상기 복원 좌표 정보 사이의 3차원 거리 값을 계산할 수 있다.The processor may obtain real coordinate information of the first point, obtain restored coordinate information of the first point, and calculate a three-dimensional distance value between the real coordinate information and the restored coordinate information.

상기 프로세서는, 추정 대상이 되는 제3 포인트를 결정하고, 상기 제3 포인트의 3차원 좌표 정보를 상기 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망으로부터 상기 제3 포인트의 상기 복원 오차값을 획득할 수 있다.The processor determines a third point to be estimated, inputs three-dimensional coordinate information of the third point to the first artificial neural network, and obtains the restoration error value of the third point from the first artificial neural network can be obtained

상기 프로세서는, 상기 제3 포인트의 상기 복원 오차값이 상기 미리 결정된 임계값을 초과하는 경우 상기 제3 포인트를 상기 노이즈 포인트로 결정할 수 있다.The processor may determine the third point as the noise point when the restoration error value of the third point exceeds the predetermined threshold value.

전술한 것 외의 다른 측면, 특징, 이점은 이하의 발명을 실시하기 위한 구체적인 내용, 청구범위 및 도면으로부터 명확해질 것이다.Other aspects, features and advantages other than those described above will become apparent from the following detailed description, claims and drawings for carrying out the invention.

상기한 바와 같이 이루어진 본 발명의 일 실시예에 따르면, 3차원 라이다 센서의 점군 정보 내 노이즈를 효과적으로 제거할 수 있는 노이즈 제거 방법, 노이즈 제거 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램을 구현할 수 있다. 물론 이러한 효과에 의해 본 발명의 범위가 한정되는 것은 아니다.According to an embodiment of the present invention made as described above, a noise removal method capable of effectively removing noise in point cloud information of a three-dimensional lidar sensor, an apparatus for removing noise, and a computer program stored in a recording medium for executing the method can be implemented. Of course, the scope of the present invention is not limited by these effects.

도 1은 본 발명의 일 실시예에 따른 노이즈 제거 장치의 구성 및 동작을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 노이즈 제거 장치의 프로세서 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 노이즈 제거 방법을 보여주는 순서도이다.
도 4는 본 발명의 다른 실시예에 따른 노이즈 제거 방법을 보여주는 순서도이다.
도 5는 본 발명의 또 다른 실시예에 따른 노이즈 제거 방법을 보여주는 순서도이다.
1 is a view for explaining the configuration and operation of a noise removing apparatus according to an embodiment of the present invention.
2 is a diagram for explaining the configuration of a processor of a noise removing apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a noise removal method according to an embodiment of the present invention.
4 is a flowchart illustrating a noise removal method according to another embodiment of the present invention.
5 is a flowchart illustrating a noise removal method according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when described with reference to the drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted. .

이하의 실시예에서, 제1 이나 제2 등의 용어는 한정적인 의미가 아니라, 일 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 그리고 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서 상에 기재된 특징 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 배제하는 것은 아니다.In the following embodiments, terms such as first, second, etc. are used for the purpose of distinguishing one component from another without limiting the meaning. And singular expressions include plural expressions unless the context clearly dictates otherwise. In addition, the terms include or have means that a feature or element described in the specification is present, and does not exclude the possibility that one or more other features or elements may be added.

도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하의 실시예에서, 영역, 구성 요소, 부, 블록 또는 모듈 등의 부분이 다른 부분 위에 또는 상에 있다고 할 때, 다른 부분의 바로 위에 있는 경우뿐만 아니라, 그 중간에 다른 영역, 구성 요소, 부, 블록 또는 모듈 등이 개재되어 있는 경우도 포함한다. 그리고 영역, 구성 요소, 부, 블록 또는 모듈 등이 연결되었다고 할 때, 영역, 구성 요소, 부, 블록 또는 모듈들이 직접적으로 연결된 경우뿐만 아니라 영역, 구성요소, 부, 블록 또는 모듈들 중간에 다른 영역, 구성 요소, 부, 블록 또는 모듈들이 개재되어 간접적으로 연결된 경우도 포함한다.In the following embodiments, when it is said that a part such as a region, component, part, block or module is on or on another part, not only when it is directly on the other part, but also another region, component, part in the middle , blocks or modules are included. And when a region, component, part, block or module is connected, it is not only when the region, component, part, block or module is directly connected, but also another region in the middle of the region, component, part, block or module. , includes cases in which components, units, blocks or modules are interposed and indirectly connected.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable those of ordinary skill in the art to easily practice the present invention.

도 1은 본 발명의 일 실시예에 따른 노이즈 제거 장치의 구성 및 동작을 설명하기 위한 도면이고, 도 2는 본 발명의 일 실시예에 따른 노이즈 제거 장치의 프로세서 구성을 설명하기 위한 도면이다.FIG. 1 is a diagram for explaining the configuration and operation of a noise removing apparatus according to an embodiment of the present invention, and FIG. 2 is a diagram for explaining a processor configuration of the noise removing apparatus according to an embodiment of the present invention.

먼저, 도 1을 참조하면, 본 발명의 일 실시예에 따른 노이즈 제거 장치(100)는 메모리(110), 프로세서(120), 통신 모듈(130) 및 라이다 센서(140)를 포함할 수 있다. 하지만 본 발명은 이에 한정되지 않으며, 노이즈 제거 장치(100)는 다른 구성요소를 더 포함할 수도 있고 일부 구성요소가 생략될 수도 있다. 노이즈 제거 장치(100)의 일부 구성요소는 복수의 장치로 분리될 수도 있고, 복수개의 구성요소들이 하나의 장치로 병합될 수도 있다.First, referring to FIG. 1 , an apparatus 100 for removing noise according to an embodiment of the present invention may include a memory 110 , a processor 120 , a communication module 130 , and a lidar sensor 140 . . However, the present invention is not limited thereto, and the noise removing apparatus 100 may further include other components or some components may be omitted. Some components of the noise removing apparatus 100 may be separated into a plurality of devices, or a plurality of components may be merged into one device.

메모리(110)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(110)에는 노이즈 제거 장치(100)를 제어하기 위한 프로그램 코드 및 미리 학습된 인공 신경망이 일시적 또는 영구적으로 저장될 수 있다.The memory 110 is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. In addition, a program code for controlling the noise removing apparatus 100 and a pre-learned artificial neural network may be temporarily or permanently stored in the memory 110 .

프로세서(120)는 3차원 데이터를 획득하는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득할 수 있다. 또한, 프로세서(120)는 미리 학습된 제1 인공 신경망을 이용하여 복수의 포인트의 각 포인트에 대하여 복원 오차값을 추정할 수 있다. 또한, 프로세서(120)는 복원 오차값 및 미리 결정된 임계값을 기초로 복수의 포인트에 대하여 노이즈 포인트 및 유효 포인트를 구분할 수 있다. 또한, 프로세서(120)는 점군 데이터 중 노이즈 포인트를 제거하여 유효 포인트로 이루어진 3차원 데이터를 출력할 수 있다.The processor 120 may acquire point cloud data including a plurality of points from a lidar sensor that acquires 3D data. Also, the processor 120 may estimate a restoration error value for each point of the plurality of points by using the first artificial neural network learned in advance. Also, the processor 120 may classify a noise point and an effective point with respect to a plurality of points based on the restoration error value and a predetermined threshold value. Also, the processor 120 may output 3D data including valid points by removing noise points from the point cloud data.

통신 모듈(130)은 네트워크를 통해 외부 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 노이즈 제거 장치(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(130)의 제어에 따라 네트워크를 통해 외부 서버로 전달될 수 있다. 역으로, 외부 서버의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신 모듈(130)을 통해 노이즈 제거 장치(100)로 수신될 수 있다. 예를 들어 통신 모듈(130)을 통해 수신된 외부 서버의 제어 신호나 명령 등은 프로세서(120)나 메모리(110)로 전달될 수 있다.The communication module 130 may provide a function for communicating with an external server through a network. For example, a request generated by the processor 120 of the noise removal apparatus 100 according to a program code stored in a recording device such as the memory 110 is transmitted to an external server through a network under the control of the communication module 130 . can Conversely, a control signal, command, content, file, etc. provided under the control of the processor of the external server may be received by the noise removing apparatus 100 through the communication module 130 through the network. For example, a control signal or command of an external server received through the communication module 130 may be transmitted to the processor 120 or the memory 110 .

통신 방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and not only a communication method using a communication network (eg, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the network may include, but also short-range wireless communication between devices may be included. For example, the network includes a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network (BBN), the Internet, and the like. may include any one or more of the networks of Further, the network may include, but is not limited to, any one or more of a network topology including, but not limited to, a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, and the like. .

또한, 통신 모듈(130)은 외부 서버와 네트워크를 통해 통신할 수 있다. 통신 방식은 제한되지 않지만, 네트워크는 근거리 무선통신망일 수 있다. 예를 들어, 네트워크는 블루투스(Bluetooth), BLE(Bluetooth Low Energy), Wifi 통신망일 수 있다. Also, the communication module 130 may communicate with an external server through a network. Although the communication method is not limited, the network may be a local area wireless network. For example, the network may be a Bluetooth (Bluetooth), BLE (Bluetooth Low Energy), or Wifi communication network.

라이다 센서(140)는 레이저를 이용하여 3차원 데이터를 획득하는 라이다(LiDAR, Light Detection And Ranging) 센서일 수 있다. 또한, 라이다 센서(140)는 차량 또는 비행체에 구비될 수 있다. 이 경우, 라이다 센서(140)는 차량 또는 비행체에 탑재되어 3차원 데이터를 획득하고, 획득한 3차원 데이터를 기초로 3차원 영상을 모델링하여 주변 사물 및 지형 지물 등을 감지할 수 있다.The lidar sensor 140 may be a LiDAR (Light Detection And Ranging) sensor that acquires 3D data using a laser. In addition, the lidar sensor 140 may be provided in a vehicle or an aircraft. In this case, the lidar sensor 140 may be mounted on a vehicle or a flying vehicle to acquire 3D data, and model a 3D image based on the acquired 3D data to detect surrounding objects, topographical features, and the like.

또한, 본 발명에 따른 노이즈 제거 장치(100)는 입출력 인터페이스를 포함할 수 있다. 입출력 인터페이스는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 노이즈 제거 장치(100)의 프로세서(120)는 메모리(110)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 외부 서버가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스를 통해 디스플레이에 표시될 수 있다.Also, the noise removing apparatus 100 according to the present invention may include an input/output interface. The input/output interface may be a means for interfacing with an input/output device. For example, the input device may include a device such as a keyboard or mouse, and the output device may include a device such as a display for displaying a communication session of an application. As another example, the input/output interface may be a means for an interface with a device in which functions for input and output are integrated into one, such as a touch screen. As a more specific example, the processor 120 of the noise removal device 100 processes the command of the computer program loaded in the memory 110, and a service screen or content configured using data provided by an external server uses the input/output interface. can be displayed on the display.

또한, 다른 실시예들에서 노이즈 제거 장치(100)는 도 1의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 예를 들어, 상술한 입출력 장치 중 적어도 일부를 포함하도록 구현되거나 또는 내부 구성요소들에 전력을 공급하는 배터리 및 충전 장치, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.Also, in other embodiments, the noise removing apparatus 100 may include more components than those of FIG. 1 . For example, it may be implemented to include at least a portion of the above-described input/output device, or may further include other components such as a battery and charging device for supplying power to internal components, various sensors, and a database.

이하 도 2를 참조하여 본 발명의 일 실시예에 따른 노이즈 제거 장치(100)의 프로세서(120)의 내부 구성에 대하여 상세히 검토한다. 후술되는 프로세서(120)는 이해의 용이를 위하여 도 1에 도시된 노이즈 제거 장치(100)의 프로세서(120)임을 가정하고 설명한다.Hereinafter, the internal configuration of the processor 120 of the noise removing apparatus 100 according to an embodiment of the present invention will be described in detail with reference to FIG. 2 . For ease of understanding, it is assumed that the processor 120 to be described later is the processor 120 of the noise removing apparatus 100 shown in FIG. 1 .

본 발명의 일 실시예에 따른 노이즈 제거 장치(100)의 프로세서(120)는 점군 데이터 획득부(121), 복원 오차값 추정부(122), 노이즈 판단부(123), 및 데이터 출력부(124)를 포함한다. 몇몇 실시예에 따라 프로세서(120)의 구성요소들은 선택적으로 프로세서(120)에 포함되거나 제외될 수도 있다. 또한, 몇몇 실시예에 따라 프로세서(120)의 구성요소들은 프로세서(120)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.The processor 120 of the noise removal apparatus 100 according to an embodiment of the present invention includes a point cloud data acquisition unit 121 , a restoration error value estimation unit 122 , a noise determination unit 123 , and a data output unit 124 . ) is included. According to some embodiments, components of the processor 120 may be selectively included in or excluded from the processor 120 . In addition, according to some embodiments, the components of the processor 120 may be separated or combined to express the functions of the processor 120 .

이러한 프로세서(120) 및 프로세서(120)의 구성요소들은 도 3의 노이즈 제거 방법이 포함하는 단계들(S110 내지 S140)을 수행하도록 노이즈 제거 장치(100)를 제어할 수 있다. 예를 들어, 프로세서(120) 및 프로세서(120)의 구성요소들은 메모리(110)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(120)의 구성요소들은 노이즈 제거 장치(100)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(120)에 의해 수행되는 프로세서(120)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서(120)의 내부 구성 및 구체적인 동작에 대해서는 도 3의 노이즈 제거 방법의 순서도를 참조하여 설명하기로 한다.The processor 120 and components of the processor 120 may control the noise removing apparatus 100 to perform steps S110 to S140 included in the noise removing method of FIG. 3 . For example, the processor 120 and components of the processor 120 may be implemented to execute instructions according to the code of the operating system included in the memory 110 and the code of at least one program. Here, the components of the processor 120 are expressions of different functions of the processor 120 that are performed by the processor 120 according to an instruction provided by the program code stored in the noise removal device 100 . can The internal configuration and specific operation of the processor 120 will be described with reference to the flowchart of the noise removal method of FIG. 3 .

도 3은 본 발명의 일 실시예에 따른 노이즈 제거 방법을 보여주는 순서도이다.3 is a flowchart illustrating a noise removal method according to an embodiment of the present invention.

도 3을 참조하면, 단계 S110에서, 노이즈 제거 장치(100)는 3차원 데이터를 획득하는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득할 수 있다. 예를 들어, 점군 데이터는 N개의 포인트를 포함하는 3차원 데이터 일 수 있다. 예컨대, 3차원 데이터는 3차원 좌표값을 포함할 수 있다.Referring to FIG. 3 , in operation S110 , the noise removing apparatus 100 may acquire point cloud data including a plurality of points from a lidar sensor that acquires 3D data. For example, the point cloud data may be 3D data including N points. For example, the 3D data may include 3D coordinate values.

단계 S120에서, 노이즈 제거 장치(100)는 미리 학습된 제1 인공 신경망을 이용하여 복수의 포인트의 각 포인트에 대하여 복원 오차값을 추정할 수 있다. 예를 들어, 노이즈 제거 장치는 N개의 포인트 각각에 대하여 복원 오차값을 추정할 수 있다.In operation S120 , the noise removal apparatus 100 may estimate a restoration error value for each point of the plurality of points using the first artificial neural network learned in advance. For example, the noise removing apparatus may estimate a restoration error value for each of the N points.

단계 S130에서, 노이즈 제거 장치(100)는 복원 오차값 및 미리 결정된 임계값을 기초로 복수의 포인트에 대하여 노이즈 포인트 및 유효 포인트를 구분하여 노이즈를 판단할 수 있다. 예를 들어, 노이즈 제거 장치는 N개의 포인트 각각에 대하여 복원 오차값이 미리 결정된 임계값을 초과하는 경우 해당 포인트를 노이즈 포인트로 판단할 수 있다. 또한, 노이즈 제거 장치는 N개의 포인트 각각에 대하여 복원 오차값이 미리 결정된 임계값 이하인 경우 해당 포인트를 유효 포인트로 판단할 수 있다.In operation S130 , the noise removing apparatus 100 may determine noise by classifying a noise point and an effective point with respect to a plurality of points based on the restoration error value and a predetermined threshold value. For example, when the restoration error value for each of the N points exceeds a predetermined threshold, the noise removing apparatus may determine the corresponding point as a noise point. Also, when the restoration error value for each of the N points is equal to or less than a predetermined threshold, the noise removing apparatus may determine the corresponding point as a valid point.

단계 S140에서, 노이즈 제거 장치(100)는 점군 데이터 중 노이즈 포인트를 제거하여 유효 포인트로 이루어진 3차원 데이터를 출력할 수 있다. 예를 들어, 노이즈 제거 장치는 N개의 포인트 중 노이즈 포인트를 제거하여 유효 포인트로 이루어진 3차원 데이터를 출력할 수 있다.In operation S140 , the noise removal apparatus 100 may output 3D data including valid points by removing noise points from the point cloud data. For example, the noise removing apparatus may output 3D data including valid points by removing noise points among N points.

도 4는 본 발명의 다른 실시예에 따른 노이즈 제거 방법을 보여주는 순서도이다.4 is a flowchart illustrating a noise removal method according to another embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 노이즈 제거 장치는 제2 인공 신경망(F)을 이용하여 3차원 점군 정보 내의 포인트의 위치를 복원할 수 있다. 예를 들어, 제2 인공 신경망(F)은 복수의 포인트 중 하나의 포인트 주변의 점군 정보를 활용하여 해당 포인트의 위치를 추정하는 인공 신경망일 수 있다. 예컨대, 제2 인공 신경망(F)은 임의의 포인트를 기준으로 주변 K개의 포인트 정보를 이용하여 해당 포인트의 위치를 복원할 수 있다. 또한, 노이즈 제거 장치는 복원된 포인트 위치의 복원 오차값을 계산할 수 있다.Referring to FIG. 4 , the apparatus for removing noise according to an embodiment of the present invention may reconstruct a position of a point in 3D point cloud information using the second artificial neural network F. Referring to FIG. For example, the second artificial neural network F may be an artificial neural network for estimating a location of a corresponding point by using point cloud information around one of a plurality of points. For example, the second artificial neural network F may restore the position of a corresponding point by using information about K points surrounding it based on an arbitrary point. Also, the noise removing apparatus may calculate a restoration error value of the restored point position.

본 발명에 따른 인공 신경망은 CNN(Convolution Neural Network), RNN(Recurrent Neural Network) 또는 ANN(Artificial Neural Network)일 수 있다. 다만, 본 발명의 인공 신경망은 상기 예시에 한정되는 것은 아니며, 다양한 형태의 공지된 인공 신경망으로 구현될 수 있다.The artificial neural network according to the present invention may be a Convolution Neural Network (CNN), a Recurrent Neural Network (RNN), or an Artificial Neural Network (ANN). However, the artificial neural network of the present invention is not limited to the above example, and may be implemented in various types of known artificial neural networks.

단계 S210에서, 노이즈 제거 장치는 3차원 데이터를 획득하는 라이다 센서로부터 점군 데이터를 획득할 수 있다. 예를 들어, 노이즈 제거 장치는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득할 수 있다. 예컨대, 복수의 포인트는 p1~pN의 N개의 포인트일 수 있다. 또한, 포인트는 3차원 좌표값을 갖는 포인트일 수 있다.In operation S210 , the noise removing apparatus may acquire point cloud data from a lidar sensor that acquires 3D data. For example, the noise removing apparatus may acquire point cloud data including a plurality of points from the lidar sensor. For example, the plurality of points may be N points of p1 to pN. Also, the point may be a point having a three-dimensional coordinate value.

단계 S220에서, 노이즈 제거 장치는 복수의 포인트 중 복원 대상이 되는 포인트와 복원에 사용되는 포인트를 선택할 수 있다. 또한, 노이즈 제거 장치는 복원 대상이 되는 포인트와 복원에 사용되는 포인트를 분리할 수 있다. 예를 들어, 노이즈 제거 장치는 복수의 포인트 중 pi 포인트를 복원 대상이 되는 포인트로 선택할 수 있다. 또한, 노이즈 제거 장치는 pi 포인트의 주변 4개의 포인트를 복원에 사용되는 포인트로 선택할 수 있다. 예컨대, 복원에 사용되는 포인트의 개수는 미리 저장될 수 있다.In step S220, the noise removing apparatus may select a point to be restored and a point to be used for restoration among a plurality of points. Also, the noise removing apparatus may separate a point to be restored from a point used for restoration. For example, the noise removing apparatus may select a pi point among a plurality of points as a point to be restored. Also, the noise removing apparatus may select four points around the pi point as points used for restoration. For example, the number of points used for restoration may be stored in advance.

단계 S230에서, 노이즈 제거 장치는 복원 대상이 되는 포인트의 위치를 복원할 수 있다. 예를 들어, 노이즈 제거 장치는 복원에 사용되는 포인트를 미리 학습된 제2 인공 신경망(F)에 입력하여 복원 대상이 되는 포인트를 복원할 수 있다. 예컨대, 노이즈 제거 장치는 pi 포인트의 주변 4개의 포인트를 입력 받아 pi 포인트의 위치를 복원할 수 있다. 또한, 노이즈 제거 장치는 포인트의 복원 결과를 학습할 수 있다. 보다 구체적으로, 노이즈 제거 장치는 복원 대상이 되는 pi 포인트와, 복원 대상이 되는 주변 4개의 포인트의 집합 사이의 3차원 거리값을 이용하여 pi 포인트의 위치를 복원할 수 있다.In step S230, the noise removing apparatus may restore the position of the restoration target point. For example, the noise removal apparatus may restore a point to be restored by inputting a point used for restoration into the second artificial neural network F learned in advance. For example, the noise removing apparatus may receive four neighboring points of the pi point and restore the position of the pi point. Also, the noise removing apparatus may learn a point restoration result. More specifically, the noise removal apparatus may restore the position of the pi point by using a three-dimensional distance value between the pi point to be restored and a set of four surrounding points to be restored.

<수학식1><Equation 1>

Figure 112021131718907-pat00001
Figure 112021131718907-pat00001

여기서, 수학식1의 함수 neighbor는 3차원 공간 상에서 인접한 K개의 포인트들의 집합을 의미한다. 예를 들어, neighbor(pi)는 3차원 공간 상에서 pi 포인트에 인접한 K개의 포인트들의 집합을 의미할 수 있다. 예컨대, K는 미리 결정될 수 있다.Here, the function neighbor in Equation 1 means a set of K adjacent points in a three-dimensional space. For example, neighbor(pi) may mean a set of K points adjacent to the pi point in a 3D space. For example, K may be predetermined.

<수학식2><Equation 2>

Figure 112021131718907-pat00002
Figure 112021131718907-pat00002

여기서, 수학식2의 함수 distance는 3차원 공간 상에서 pi 포인트와 pi 포인트에 인접한 K개의 포인트들의 집합 사이의 3차원 거리값을 의미한다. 예컨대, 3차원 거리값을 손실 함수로 나타낼 수 있다.Here, the function distance of Equation 2 means a three-dimensional distance value between a pi point and a set of K points adjacent to the pi point in a three-dimensional space. For example, a three-dimensional distance value may be expressed as a loss function.

단계 S240에서, 노이즈 제거 장치는 복원 대상이 되는 포인트의 복원 오차값을 계산할 수 있다. 예를 들어, 노이즈 제거 장치는 복원 대상이 되는 포인트의 실제 위치와 복원 위치를 비교하여 복원 오차값을 계산할 수 있다.In step S240 , the noise removing apparatus may calculate a restoration error value of a restoration target point. For example, the noise removal apparatus may calculate a restoration error value by comparing the actual position of the restoration target point with the restoration position.

본 발명의 일 실시예에 따른 노이즈 제거 장치는 미리 학습된 제2 인공 신경망(F)을 이용하여 복수의 포인트의 각 포인트에 대하여 복원 오차값을 산출할 수 있다.The apparatus for removing noise according to an embodiment of the present invention may calculate a restoration error value for each point of a plurality of points by using the second artificial neural network F learned in advance.

본 발명의 일 실시예에 따른 노이즈 제거 장치는 복수의 포인트 중 복원 대상이 되는 제1 포인트, 및 복원에 사용되는 제2 포인트를 구분할 수 있다. 또한, 노이즈 제거 장치는 제2 포인트를 이용하여 제1 포인트의 위치를 복원할 수 있다. 또한, 노이즈 제거 장치는 제1 포인트의 복원 오차값을 계산할 수 있다. 예를 들어, 제2 포인트는 제1 포인트와 3차원 공간 상에서 인접한 미리 결정된 수의 포인트들의 집합일 수 있다.The noise removal apparatus according to an embodiment of the present invention may distinguish a first point to be restored from among a plurality of points and a second point used for restoration. Also, the noise removing apparatus may restore the position of the first point by using the second point. Also, the noise removing apparatus may calculate a restoration error value of the first point. For example, the second point may be a set of a predetermined number of points adjacent to the first point in a three-dimensional space.

본 발명의 일 실시예에 따른 노이즈 제거 장치는 제1 포인트의 실제 좌표 정보를 획득할 수 있다. 또한, 노이즈 제거 장치는 제1 포인트의 복원 좌표 정보를 획득할 수 있다. 또한, 노이즈 제거 장치는 실제 좌표 정보 및 복원 좌표 정보 사이의 3차원 거리 값을 계산할 수 있다. 또한, 노이즈 제거 장치는 실제 좌표 정보 및 복원 좌표 정보 사이의 3차원 거리 값을 이용하여 복원 오차값을 계산할 수 있다.The apparatus for removing noise according to an embodiment of the present invention may acquire actual coordinate information of the first point. Also, the noise removing apparatus may obtain information on the restoration coordinates of the first point. Also, the noise removing apparatus may calculate a 3D distance value between the actual coordinate information and the restored coordinate information. Also, the noise removing apparatus may calculate a restoration error value using a 3D distance value between the actual coordinate information and the restored coordinate information.

도 5는 본 발명의 또 다른 실시예에 따른 노이즈 제거 방법을 보여주는 순서도이다.5 is a flowchart illustrating a noise removal method according to another embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 노이즈 제거 장치는 제1 인공 신경망(G)을 이용하여 3차원 점군 정보 내의 포인트의 복원 오차값을 추정할 수 있다. 예를 들어, 제1 인공 신경망(G)은 포인트의 복원 정확도를 측정할 수 있는 인공 신경망일 수 있다. 또한, 노이즈 제거 장치는 추정된 복원 오차값을 기초로 해당 포인트가 노이즈 포인트인지 또는 유효 포인트인지 여부를 판단할 수 있다.Referring to FIG. 5 , an apparatus for removing noise according to an embodiment of the present invention may estimate a restoration error value of a point in 3D point cloud information using the first artificial neural network G. Referring to FIG. For example, the first artificial neural network G may be an artificial neural network capable of measuring the restoration accuracy of points. Also, the noise removing apparatus may determine whether the corresponding point is a noise point or a valid point based on the estimated restoration error value.

단계 S310에서, 노이즈 제거 장치는 3차원 데이터를 획득하는 라이다 센서로부터 점군 데이터를 획득할 수 있다. 예를 들어, 노이즈 제거 장치는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득할 수 있다. 예컨대, 복수의 포인트는 p1~pN의 N개의 포인트일 수 있다.In operation S310, the noise removing apparatus may acquire point cloud data from a lidar sensor that acquires 3D data. For example, the noise removing apparatus may acquire point cloud data including a plurality of points from the lidar sensor. For example, the plurality of points may be N points of p1 to pN.

단계 S320 및 단계 S330에서, 노이즈 제거 장치는 복수의 포인트 중 각 포인트의 복원 오차를 추정할 수 있다. 예를 들어, 노이즈 제거 장치는 pi 포인트의 복원 오차값을 추정할 수 있다. In steps S320 and S330, the noise removing apparatus may estimate a restoration error of each point among the plurality of points. For example, the noise removing apparatus may estimate the restoration error value of the pi point.

본 발명의 일 실시예에 따른 제1 인공 신경망(G)은 각 포인트의 복원 오차를 추정할 수 있다. 또한, 제1 인공 신경망(G)은 각 포인트의 복원 오차를 추정하도록 학습될 수 있다. 예를 들어, 노이즈 제거 장치는 제1 인공 신경망(G)을 이용하여 복원 오차를 추정함으로써 주변 포인트로 복원이 불가한 포인트를 찾아내어, 이를 통해 노이즈 포인트와 유효 포인트를 분류할 수 있다.The first artificial neural network G according to an embodiment of the present invention may estimate the restoration error of each point. Also, the first artificial neural network G may be trained to estimate the restoration error of each point. For example, the noise removal apparatus may find a point that cannot be restored as a neighboring point by estimating a restoration error using the first artificial neural network (G), and classify the noise point and the valid point through this.

본 발명의 일 실시예에 따른 노이즈 제거 장치는 제1 인공 신경망(G)을 이용하여 복수의 포인트 각각에 대한 복원 오차값을 추정할 수 있다. 예를 들어, 제1 인공 신경망(G)은 점군을 구성하는 p1~pN의 N개의 포인트를 입력받아 각 포인트에 대한 복원 오차값을 추정할 수 있다. The apparatus for removing noise according to an embodiment of the present invention may estimate a restoration error value for each of a plurality of points by using the first artificial neural network (G). For example, the first artificial neural network G may receive N points of p1 to pN constituting the point cloud and estimate a restoration error value for each point.

본 발명의 일 실시예에서 노이즈 제거 장치의 제1 인공 신경망(G)은 제2 인공 신경망(F)의 복원 오차값을 이용하여 학습될 수 있다. 예를 들어, pi 포인트의 복원 오차 추정값은 제2 인공 신경망(F)에서 계산된 pi 포인트의 복원 오차값을 추정할 수 있다. 예를 들어, 노이즈 제거 장치의 제1 인공 신경망(G)은 제2 인공 신경망(F)의 복원 오차값을 학습하고, 제1 인공 신경망(G)은 제2 인공 신경망(F)의 복원 오차값을 추정하는 복원 오차 추정값을 출력할 수 있다.In an embodiment of the present invention, the first artificial neural network (G) of the noise removal apparatus may be learned using the restoration error value of the second artificial neural network (F). For example, the estimation value of the restoration error of the pi point may estimate the restoration error value of the pi point calculated by the second artificial neural network (F). For example, the first artificial neural network (G) of the noise removal device learns the restoration error value of the second artificial neural network (F), and the first artificial neural network (G) learns the restoration error value of the second artificial neural network (F) It is possible to output a restoration error estimate for estimating .

<수학식3><Equation 3>

Figure 112021131718907-pat00003
Figure 112021131718907-pat00003

여기서, 수학식3의 손실 함수 L은 복원 오차 추정값(Gi)과 복원 오차값 사이의 차이를 나타낸다. 또한, 점군 내의 N개의 포인트들의 손실 함수의 합을 전체 손실 함수로 나타낼 수 있다.Here, the loss function L in Equation 3 represents the difference between the restoration error estimation value Gi and the restoration error value. Also, the sum of the loss functions of N points in the point cloud may be expressed as a total loss function.

본 발명의 일 실시예에 따른 노이즈 제거 장치는 추정 대상이 되는 제3 포인트를 결정할 수 있다. 또한, 노이즈 제거 장치는 제3 포인트의 3차원 좌표 정보를 제1 인공 신경망에 입력할 수 있다. 또한, 노이즈 제거 장치는 제1 인공 신경망으로부터 제3 포인트의 복원 오차값을 획득할 수 있다. 예를 들어, 제1 인공 신경망이 출력하는 복원 오차값은 복원 오차 추정값일 수 있다. 예컨대, 제1 인공 신경망 및 제2 인공 신경망은 학습될 수 있다. 또한, 제1 인공 신경망은 제2 인공 신경망과 결합하여 학습될 수 있다.The noise removing apparatus according to an embodiment of the present invention may determine a third point to be estimated. Also, the noise removing apparatus may input 3D coordinate information of the third point to the first artificial neural network. Also, the noise removing apparatus may obtain a restoration error value of the third point from the first artificial neural network. For example, the restoration error value output by the first artificial neural network may be a restoration error estimation value. For example, the first artificial neural network and the second artificial neural network may be trained. In addition, the first artificial neural network may be learned by combining with the second artificial neural network.

본 발명의 일 실시예에 따른 노이즈 제거 장치는 제3 포인트의 복원 오차값이 미리 결정된 임계값을 초과하는 경우 제3 포인트를 노이즈 포인트로 결정할 수 있다. 예를 들어, 노이즈 제거 장치는 pi 포인트에 대하여 제1 인공 신경망(G)의 출력값이 미리 결정된 임계값을 초과하는 경우 pi 포인트를 노이즈 포인트로 판단할 수 있다. 또한, 노이즈 제거 장치는 노이즈 포인트로 판별된 pi 포인트를 제거할 수 있다.The noise removing apparatus according to an embodiment of the present invention may determine the third point as the noise point when the restoration error value of the third point exceeds a predetermined threshold value. For example, when the output value of the first artificial neural network G with respect to the pi point exceeds a predetermined threshold, the noise removing apparatus may determine the pi point as a noise point. Also, the noise removing apparatus may remove the pi point determined as the noise point.

본 발명의 일 실시예에 따른 노이즈 제거 장치는 노이즈 포인트는 주변 점군 정보와 이질적인 거리값 또는 위치를 가진다는 특징에 기반하여 주변 점군 정보로 복원된 정보가 실제 포인트와 오차가 큰 경우 노이즈 포인트로 판별할 수 있다. In the noise removal apparatus according to an embodiment of the present invention, based on the characteristic that the noise point has a distance value or location that is different from the surrounding point cloud information, when the information restored to the surrounding point cloud information has a large error from the actual point, it is determined as a noise point. can do.

본 발명에 따른 노이즈 제거 장치는 주변 점군 정보를 활용한 포인트 위치 복원과 복원 오차 추정을 각각 수행하는 두 개의 인공 신경망(Neural Network)으로 이루어질 수 있다. 또한, 본 발명에 따르면, 다양한 환경에서 신뢰할 수 있으며 수작업 정보가 필요 없는 비지도 학습으로 구현 가능하다.The apparatus for removing noise according to the present invention may be composed of two artificial neural networks that respectively perform point position restoration and restoration error estimation using surrounding point cloud information. In addition, according to the present invention, it can be implemented as unsupervised learning that is reliable in various environments and does not require manual information.

본 발명에 따르면, 종래의 노이즈 제거 방법에 비하여 노이즈 및 비 노이즈를 구분하는 정답 정보가 불필요할 뿐만 아니라 노이즈를 검출하는 성능이 높다는 장점이 있다. 따라서 본 발명을 자율주행 자동차, 자율 이동 로봇, 인간형 로봇 등의 자율 이동체 시스템에 적용하는 경우 활용이 불가능한 환경에서도 신뢰성 있는 이동 및 운행을 보장할 수 있는 효과가 있다.According to the present invention, there is an advantage in that the correct answer information for distinguishing noise and non-noise is unnecessary as compared to the conventional noise removal method, and the noise detection performance is high. Therefore, when the present invention is applied to an autonomous mobile system such as an autonomous vehicle, an autonomous mobile robot, or a humanoid robot, reliable movement and operation can be ensured even in an environment where utilization is impossible.

이상에서 설명된 장치 및/또는 시스템은, 하드웨어 구성요소, 소프트웨어 구성요소 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus and/or system described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. The devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU). It may be implemented using one or more general purpose or special purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction) 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more thereof, which configures the processing device to operate as desired or, independently or collectively, the processing device can be ordered. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

100: 노이즈 제거 장치
110: 메모리
120: 프로세서
130: 통신 모듈
140: 라이다 센서
100: noise canceling device
110: memory
120: processor
130: communication module
140: lidar sensor

Claims (15)

컴퓨팅 장치에 의해 수행되는 노이즈 제거 방법에 있어서,
3차원 데이터를 획득하는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득하는 단계;
미리 학습된 제1 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 복원 오차값을 추정하는 단계;
미리 학습된 제2 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 상기 복원 오차값을 산출하는 단계;
상기 복원 오차값 및 미리 결정된 임계값을 기초로 상기 복수의 포인트에 대하여 노이즈 포인트 및 유효 포인트를 구분하는 노이즈 판단 단계; 및
상기 점군 데이터 중 상기 노이즈 포인트를 제거하여 상기 유효 포인트로 이루어진 3차원 데이터를 출력하는 단계를 포함하고,
상기 제1 인공 신경망은 상기 제2 인공 신경망의 상기 복원 오차값을 이용하여 학습되고,
상기 복원 오차값을 산출하는 단계는,
상기 복수의 포인트 중 복원 대상이 되는 제1 포인트, 및 복원에 사용되는 제2 포인트를 구분하는 단계;
상기 제2 포인트를 이용하여 상기 제1 포인트의 위치를 복원하는 단계; 및
상기 제1 포인트의 복원 오차값을 계산하는 단계;
를 포함하고,
상기 제2 포인트는 상기 제1 포인트와 3차원 공간 상에서 인접한 미리 결정된 수의 포인트들의 집합인, 노이즈 제거 방법.
A method of removing noise performed by a computing device, the method comprising:
obtaining point cloud data including a plurality of points from a lidar sensor for obtaining three-dimensional data;
estimating a restoration error value for each point of the plurality of points using a first artificial neural network learned in advance;
calculating the restoration error value for each point of the plurality of points using a second artificial neural network learned in advance;
a noise determination step of classifying a noise point and an effective point with respect to the plurality of points based on the restoration error value and a predetermined threshold value; and
removing the noise point from among the point cloud data and outputting three-dimensional data including the valid points;
The first artificial neural network is learned using the restoration error value of the second artificial neural network,
Calculating the restoration error value comprises:
distinguishing a first point to be restored from among the plurality of points and a second point used for restoration;
restoring the position of the first point by using the second point; and
calculating a restoration error value of the first point;
including,
and the second point is a set of a predetermined number of points adjacent to the first point in a three-dimensional space.
삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 복원 오차값을 계산하는 단계는,
상기 제1 포인트의 실제 좌표 정보를 획득하는 단계;
상기 제1 포인트의 복원 좌표 정보를 획득하는 단계; 및
상기 실제 좌표 정보 및 상기 복원 좌표 정보 사이의 3차원 거리 값을 계산하는 단계;
를 포함하는, 노이즈 제거 방법.
According to claim 1,
Calculating the restoration error value comprises:
obtaining actual coordinate information of the first point;
obtaining restoration coordinate information of the first point; and
calculating a three-dimensional distance value between the actual coordinate information and the restored coordinate information;
Including, a noise removal method.
제1 항에 있어서,
상기 복원 오차값을 추정하는 단계는,
추정 대상이 되는 제3 포인트를 결정하는 단계;
상기 제3 포인트의 3차원 좌표 정보를 상기 제1 인공 신경망에 입력하는 단계; 및
상기 제1 인공 신경망으로부터 상기 제3 포인트의 상기 복원 오차값을 획득하는 단계;
를 포함하는, 노이즈 제거 방법.
According to claim 1,
The step of estimating the restoration error value,
determining a third point to be estimated;
inputting three-dimensional coordinate information of the third point into the first artificial neural network; and
obtaining the restoration error value of the third point from the first artificial neural network;
Including, a noise removal method.
제6 항에 있어서,
상기 노이즈 판단 단계는, 상기 제3 포인트의 상기 복원 오차값이 상기 미리 결정된 임계값을 초과하는 경우 상기 제3 포인트를 상기 노이즈 포인트로 결정하는 단계인, 노이즈 제거 방법.
7. The method of claim 6,
The noise determination step may include determining the third point as the noise point when the restoration error value of the third point exceeds the predetermined threshold value.
컴퓨팅 장치를 이용하여 제1항, 및 제5항 내지 제7항 중 어느 한 항의 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium to execute the method according to any one of claims 1 to 8 using a computing device. 프로세서;를 포함하고,
상기 프로세서는, 3차원 데이터를 획득하는 라이다 센서로부터 복수의 포인트를 포함하는 점군 데이터를 획득하고, 미리 학습된 제1 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 복원 오차값을 추정하고, 미리 학습된 제2 인공 신경망을 이용하여 상기 복수의 포인트의 각 포인트에 대하여 상기 복원 오차값을 산출하고, 상기 복원 오차값 및 미리 결정된 임계값을 기초로 상기 복수의 포인트에 대하여 노이즈 포인트 및 유효 포인트를 구분하고, 상기 점군 데이터 중 상기 노이즈 포인트를 제거하여 상기 유효 포인트로 이루어진 3차원 데이터를 출력하고, 상기 복수의 포인트 중 복원 대상이 되는 제1 포인트, 및 복원에 사용되는 제2 포인트를 구분하고, 상기 제2 포인트를 이용하여 상기 제1 포인트의 위치를 복원하고, 상기 제1 포인트의 복원 오차값을 계산하고,
상기 제2 포인트는 상기 제1 포인트와 3차원 공간 상에서 인접한 미리 결정된 수의 포인트들의 집합이고,
상기 제1 인공 신경망은 상기 제2 인공 신경망의 상기 복원 오차값을 이용하여 학습되는,
노이즈 제거 장치.
processor; including;
The processor acquires point cloud data including a plurality of points from a lidar sensor that acquires three-dimensional data, and estimates a restoration error value for each point of the plurality of points using a first artificial neural network learned in advance and calculating the restoration error value for each point of the plurality of points using a second artificial neural network learned in advance, and a noise point and a noise point for the plurality of points based on the restoration error value and a predetermined threshold value A valid point is distinguished, the noise point is removed from the point cloud data, and three-dimensional data composed of the valid point is output, and a first point to be restored among the plurality of points and a second point used for restoration are selected. classify, restore the position of the first point using the second point, calculate the restoration error value of the first point,
the second point is a set of a predetermined number of points adjacent to the first point in a three-dimensional space;
The first artificial neural network is learned using the restoration error value of the second artificial neural network,
noise canceling device.
삭제delete 삭제delete 삭제delete 제9 항에 있어서,
상기 프로세서는, 상기 제1 포인트의 실제 좌표 정보를 획득하고, 상기 제1 포인트의 복원 좌표 정보를 획득하고, 상기 실제 좌표 정보 및 상기 복원 좌표 정보 사이의 3차원 거리 값을 계산하는, 노이즈 제거 장치.
10. The method of claim 9,
The processor obtains real coordinate information of the first point, obtains restored coordinate information of the first point, and calculates a three-dimensional distance value between the real coordinate information and the restored coordinate information, a noise removal device .
제9 항에 있어서,
상기 프로세서는, 추정 대상이 되는 제3 포인트를 결정하고, 상기 제3 포인트의 3차원 좌표 정보를 상기 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망으로부터 상기 제3 포인트의 상기 복원 오차값을 획득하는, 노이즈 제거 장치.
10. The method of claim 9,
The processor determines a third point to be estimated, inputs three-dimensional coordinate information of the third point to the first artificial neural network, and obtains the restoration error value of the third point from the first artificial neural network Acquiring, noise canceling device.
제14 항에 있어서,
상기 프로세서는, 상기 제3 포인트의 상기 복원 오차값이 상기 미리 결정된 임계값을 초과하는 경우 상기 제3 포인트를 상기 노이즈 포인트로 결정하는, 노이즈 제거 장치.
15. The method of claim 14,
The processor is configured to determine the third point as the noise point when the restoration error value of the third point exceeds the predetermined threshold value.
KR1020210157098A 2021-11-15 2021-11-15 Method of removing noise, apparatus for removing noise, and computer program for the method KR102405818B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210157098A KR102405818B1 (en) 2021-11-15 2021-11-15 Method of removing noise, apparatus for removing noise, and computer program for the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210157098A KR102405818B1 (en) 2021-11-15 2021-11-15 Method of removing noise, apparatus for removing noise, and computer program for the method

Publications (1)

Publication Number Publication Date
KR102405818B1 true KR102405818B1 (en) 2022-06-07

Family

ID=81986981

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210157098A KR102405818B1 (en) 2021-11-15 2021-11-15 Method of removing noise, apparatus for removing noise, and computer program for the method

Country Status (1)

Country Link
KR (1) KR102405818B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130021018A (en) * 2011-08-22 2013-03-05 삼성전자주식회사 Method for separating object in three dimension point clouds
JP2017134814A (en) * 2016-01-27 2017-08-03 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Vehicle contour detection method based on point group data, and device
KR20210114952A (en) * 2020-02-21 2021-09-24 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Target object detection method, apparatus, device and storage medium
KR102303727B1 (en) * 2020-04-28 2021-09-27 주식회사 딥인스펙션 System for noise removal of point clouds based on ai

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130021018A (en) * 2011-08-22 2013-03-05 삼성전자주식회사 Method for separating object in three dimension point clouds
JP2017134814A (en) * 2016-01-27 2017-08-03 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Vehicle contour detection method based on point group data, and device
KR20210114952A (en) * 2020-02-21 2021-09-24 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Target object detection method, apparatus, device and storage medium
KR102303727B1 (en) * 2020-04-28 2021-09-27 주식회사 딥인스펙션 System for noise removal of point clouds based on ai

Similar Documents

Publication Publication Date Title
CN111079619B (en) Method and apparatus for detecting target object in image
US10282623B1 (en) Depth perception sensor data processing
EP2671384B1 (en) Mobile camera localization using depth maps
KR102073162B1 (en) Small object detection based on deep learning
KR20200021626A (en) Method and device to train object detection model
EP2575079A2 (en) Method and apparatus for processing images
JP2021514885A (en) Feature extraction method based on deep learning used for LIDAR positioning of autonomous vehicles
WO2019047641A1 (en) Method and device for estimating orientation error of onboard camera
JP2021515724A (en) LIDAR positioning to infer solutions using 3DCNN network in self-driving cars
US11074438B2 (en) Disentangling human dynamics for pedestrian locomotion forecasting with noisy supervision
JP2021515178A (en) LIDAR positioning for time smoothing using RNN and LSTM in self-driving vehicles
CN108182695B (en) Target tracking model training method and device, electronic equipment and storage medium
KR20200075727A (en) Method and apparatus for calculating depth map
CN115222777A (en) Unsupervised training of optical flow estimation neural networks
JP2017134832A (en) System and method for proposing automated driving
US11373328B2 (en) Method, device and storage medium for positioning object
WO2023016182A1 (en) Pose determination method and apparatus, electronic device, and readable storage medium
CN112967388A (en) Training method and device for three-dimensional time sequence image neural network model
WO2018235219A1 (en) Self-location estimation method, self-location estimation device, and self-location estimation program
CN113454640A (en) Method and system for object tracking using online learning
WO2021095463A1 (en) Self-position estimation model learning method, self-position estimation model learning device, self-position estimation model learning program, self-position estimation method, self-position estimation device, self-position estimation program, and robot
Zhou et al. Learned monocular depth priors in visual-inertial initialization
KR102405818B1 (en) Method of removing noise, apparatus for removing noise, and computer program for the method
CN109188419B (en) Method and device for detecting speed of obstacle, computer equipment and storage medium
Gupta et al. Data‐driven protection levels for camera and 3D map‐based safe urban localization

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant