KR20230113475A - 3D lidar obstacle detection system using super resolution and reflection intensity - Google Patents

3D lidar obstacle detection system using super resolution and reflection intensity Download PDF

Info

Publication number
KR20230113475A
KR20230113475A KR1020220009556A KR20220009556A KR20230113475A KR 20230113475 A KR20230113475 A KR 20230113475A KR 1020220009556 A KR1020220009556 A KR 1020220009556A KR 20220009556 A KR20220009556 A KR 20220009556A KR 20230113475 A KR20230113475 A KR 20230113475A
Authority
KR
South Korea
Prior art keywords
resolution
lidar
reflection intensity
super
detection system
Prior art date
Application number
KR1020220009556A
Other languages
Korean (ko)
Inventor
신수용
이승호
Original Assignee
금오공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 금오공과대학교 산학협력단 filed Critical 금오공과대학교 산학협력단
Priority to KR1020220009556A priority Critical patent/KR20230113475A/en
Publication of KR20230113475A publication Critical patent/KR20230113475A/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 관한 것으로서, 자율주행을 통해 이동할 수 있도록 형성되는 이동체와, 상기 이동체에 형성되며 상기 이동체의 주변 및 주행방향에 존재하는 객체로부터 객체정보를 수집할 수 있도록 형성되는 라이다 센서와, 상기 이동체에 형성되며 상기 라이다 센서를 통해 수집된 상기 객체정보를 저장 및 편집하고 상기 이동체의 움직임을 제어하는 제어부와, 상기 제어부에 형성되며 상기 라이다 센서를 통해 수집된 상기 객체정보를 초해상화를 통해 상기 객체 형상을 추정하고 반사강도를 이용하여 상기 객체 위치를 구분하는 신경망을 포함하는 것을 특징으로 한다.The present invention relates to a three-dimensional lidar obstacle detection system using super-resolution and reflection intensity, and relates to a moving object formed to be able to move through autonomous driving, and an object formed on the moving object and existing around the moving object and in the driving direction. A lidar sensor formed to collect object information from the mobile body, a control unit formed on the moving body, storing and editing the object information collected through the lidar sensor, and controlling the movement of the moving body, and formed on the control unit. and a neural network for estimating the shape of the object through super-resolution of the object information collected through the LIDAR sensor and distinguishing the location of the object using reflection intensity.

Description

초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템{3D lidar obstacle detection system using super resolution and reflection intensity}3D lidar obstacle detection system using super resolution and reflection intensity

본 발명은 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 관한 것으로서, 더욱 상세하게는 자율주행이 가능한 이동체가 주변 사물의 위치와 형태를 정밀하게 탐지하여 자율주행 오류를 방지할 수 있는 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 관한 것이다.The present invention relates to a three-dimensional lidar obstacle detection system using super-resolution and reflection intensity, and more particularly, a mobile vehicle capable of autonomous driving can precisely detect the location and shape of surrounding objects to prevent autonomous driving errors. It is about a 3D lidar obstacle detection system using super-resolution and reflection intensity.

자율 주행 차량은 사용자의 조작 없이, 스스로 운행 할 수 있는 기능을 갖는 차량을 의미한다. The self-driving vehicle refers to a vehicle having a function of driving itself without a user's manipulation.

자율 주행 차량은 차량에 장착된 적어도 하나의 센서로부터 획득되는 정보를 서버로 송신하고, 서버로부터 주변의 차량 및 도로의 상황에 대한 정보를 수신함으로써, 사용자의 조작없이 자동 주행을 수행할 수 있다.An autonomous vehicle may perform autonomous driving without user manipulation by transmitting information obtained from at least one sensor mounted in the vehicle to a server and receiving information about surrounding vehicles and road conditions from the server.

자율 주행 차량은 라이다(Lidar, light detection and ranging) 센서를 이용하여 차량 주변의 객체를 검출할 수 있다.An autonomous vehicle may detect an object around the vehicle using a lidar (light detection and ranging) sensor.

라이다 센서는, 레이저라고 하는 광원을 목표물에 비춤으로써 사물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성을 감지할 수 있다.The LiDAR sensor can sense the distance, direction, speed, temperature, material distribution and concentration characteristics of an object by shining a light source called a laser on the target.

이러한 라이다 센서를 통해 수집된 정보를 기반으로 차량의 주행 방향을 결정하고, 도로에 존재하는 장애물이나 다른 인접 차량간의 위치를 실시간으로 인식하면서 차량이 자율주행을 할 수 있도록 보조하게 된다.Based on the information collected through these LIDAR sensors, the driving direction of the vehicle is determined, and the location of obstacles on the road or other adjacent vehicles is recognized in real time to assist the vehicle in autonomous driving.

그러나 라이다 센서의 경우 객체에 반사되어 수신된 정보를 기반으로 객체의 형태나 위치를 판단하게 되는데 성능에 따라 객체형상, 해상도, 위치에서 오차가 발생되거나 오인식되는 등의 문제점이 있었다.However, in the case of lidar sensors, the shape or position of an object is determined based on information received after being reflected on the object.

이러한 오류를 감소시키기 위해서 다양한 차량에 카메라나 감지센서를 부착하여 보조수단으로 사용되고 있으나, 오히려 이러한 보조수단에 의한 오작동이 발생되어 자율주행 중 정지되거나 사고를 유발할 수 있다는 문제점이 있었다.In order to reduce these errors, cameras or detection sensors are attached to various vehicles and used as auxiliary means, but there is a problem that malfunctions caused by these auxiliary means may stop or cause accidents during autonomous driving.

한국특허 등록번호 제10-1834124호Korean Patent Registration No. 10-1834124

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 라이다 센서를 통해 수집된 객체정보가 저해상도로 판단되는 경우 딥러닝 알고리즘을 통해 고해상도로 변경하여 객체형상 및 위치를 명확하게 인식할 수 있는 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템을 제공하는 것이다.An object of the present invention for solving the above problems is to change the object information collected through the lidar sensor to a high resolution through a deep learning algorithm when it is determined to be low resolution, so that the object shape and location can be clearly recognized. To provide a 3D LIDAR obstacle detection system using fire and reflection intensity.

또한 본 발명의 다른 목적은 반사된 광원에 의해 수집된 객체 정보 중 위치가 서로 상이한 객체가 존재하는 경우 반사강도를 이용하여 분리된 두 객체를 명확하게 인식할 수 있는 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템을 제공하는 것이다.Another object of the present invention is to use super-resolution and reflection intensity to clearly recognize two separated objects using reflection intensity when there are objects with different positions among object information collected by reflected light sources. It is to provide a 3D LIDAR obstacle detection system.

또한 본 발명의 다른 목적은 가상의 시뮬레이션 환경을 이용하여 현장에서 데이터를 수집하지 않아도 딥러닝에 필요한 데이터를 확보하여 정확도를 높일 수 있도록 하는 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템을 제공하는 것이다.In addition, another object of the present invention is a 3D LiDAR obstacle detection system using super-resolution and reflection intensity to increase accuracy by securing data necessary for deep learning without collecting data in the field using a virtual simulation environment. is to provide

상기 과제를 해결하기 위한 본 발명의 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템은 자율주행을 통해 이동할 수 있도록 형성되는 이동체와, 상기 이동체에 형성되며 상기 이동체의 주변 및 주행방향에 존재하는 객체로부터 객체정보를 수집할 수 있도록 형성되는 라이다 센서와, 상기 이동체에 형성되며 상기 라이다 센서를 통해 수집된 상기 객체정보를 저장 및 편집하고 상기 이동체의 움직임을 제어하는 제어부와, 상기 제어부에 형성되며 상기 라이다 센서를 통해 수집된 상기 객체정보를 초해상화를 통해 상기 객체 형상을 추정하고 반사강도를 이용하여 상기 객체 위치를 구분하는 신경망을 포함하는 것을 특징으로 한다.The three-dimensional lidar obstacle detection system using super-resolution and reflection intensity of the present invention to solve the above problems is a moving body formed to move through autonomous driving, formed on the moving body, and around the moving body and in the driving direction. A lidar sensor formed to collect object information from an existing object, and a control unit formed on the mobile body to store and edit the object information collected through the lidar sensor and control the movement of the mobile body; It is formed in the controller and characterized in that it includes a neural network for estimating the object shape through super-resolution of the object information collected through the lidar sensor and distinguishing the object position using reflection strength.

또한 본 발명의 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 상기 제어부는 상기 라이다 센서에서 수집된 상기 객체의 3차원 저해상 포인트 클라우드를 2차원 저해상 거리 이미지로 변환하고, 상기 신경망을 통해 상기 2차원 저해상 거리 이미지에 포함된 상기 객체의 형상을 딥러닝 방식으로 추정하여 상기 객체의 해상도를 높여 2차원 고해상 거리 이미지로 변환하고, 상기 2차원 고해상 거리 이미지를 3차원 고해상 포인트 클라우드로 변환하여 자율주행에 이용하는 것을 특징으로 한다.In addition, the control unit of the 3D lidar obstacle detection system using super-resolution and reflection intensity of the present invention converts the 3D low-resolution point cloud of the object collected by the lidar sensor into a 2D low-resolution distance image, The shape of the object included in the 2D low-resolution distance image is estimated by a deep learning method through the neural network, the object is converted into a 2D high-resolution distance image by increasing the resolution of the object, and the 2D high-resolution distance image is converted into a 3D high-resolution distance image. It is characterized in that it is converted into a point cloud and used for autonomous driving.

또한 본 발명의 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 상기 신경망은 딥러닝 방식으로 상기 객체의 형상을 추정하도록 형성되며, 가상의 시뮬레이션 환경을 이용하여 딥러닝을 통해 상기 객체를 추정하기 위한 데이터를 수집할 수 있는 것을 특징으로 한다.In addition, the neural network of the 3D lidar obstacle detection system using super-resolution and reflection intensity of the present invention is formed to estimate the shape of the object by deep learning, and the object through deep learning using a virtual simulation environment. Characterized in that it is possible to collect data for estimating.

또한 본 발명의 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 상기 신경망은 상기 라이다 센서에서 수집된 상기 객체정보 중 상기 객체의 표면상태에 따라 변화되는 펄스 강도를 이용하여 상기 객체의 반사강도를 측정하고, 상기 반사강도를 기반으로 각각의 독립된 객체를 구분할 수 있는 것을 특징으로 한다.In addition, the neural network of the 3D lidar obstacle detection system using super-resolution and reflection intensity of the present invention uses the pulse intensity that changes according to the surface state of the object among the object information collected from the lidar sensor to detect the object It is characterized in that the reflection intensity of is measured, and each independent object can be distinguished based on the reflection intensity.

또한 본 발명의 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 상기 제어부는 외부에 형성된 서버와 통신할 수 있도록 형성되어 있어 상기 신경망의 데이터를 업데이트하거나 딥러닝 또는 상기 객체 추정에 필요한 데이터를 송수신 받을 수 있는 것을 특징으로 한다.In addition, the control unit of the 3D LIDAR obstacle detection system using super-resolution and reflection intensity of the present invention is formed to communicate with an external server, which is necessary for updating the data of the neural network or for deep learning or object estimation. It is characterized in that it can transmit and receive data.

상술한 바와 같이, 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 의하면, 라이다 센서를 통해 수집된 객체정보가 저해상도로 판단되는 경우 딥러닝 알고리즘을 통해 고해상도로 변경하여 객체형상 및 위치를 명확하게 인식할 수 있는 효과가 있다.As described above, according to the three-dimensional lidar obstacle detection system using super-resolution and reflection intensity according to the present invention, when the object information collected through the lidar sensor is determined to be low resolution, it is changed to high resolution through a deep learning algorithm. This has the effect of clearly recognizing the shape and location of the object.

또한 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 의하면, 반사된 광원에 의해 수집된 객체 정보 중 위치가 서로 상이한 객체가 존재하는 경우 반사강도를 이용하여 분리된 두 객체를 명확하게 인식할 수 있는 효과가 있다.In addition, according to the 3D LIDAR obstacle detection system using super-resolution and reflection intensity according to the present invention, when objects with different positions exist among the object information collected by the reflected light source, two separated objects are separated using reflection intensity. It has the effect of clearly recognizing objects.

또한 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 의하면, 가상의 시뮬레이션 환경을 이용하여 현장에서 데이터를 수집하지 않아도 딥러닝에 필요한 데이터를 확보하여 정확도를 높일 수 있도록 하는 효과가 있다.In addition, according to the three-dimensional LIDAR obstacle detection system using super-resolution and reflection intensity according to the present invention, it is possible to secure data necessary for deep learning without collecting data in the field using a virtual simulation environment to increase accuracy. has the effect of

도 1은 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 전체적인 구성을 나타낸 구성도.
도 2는 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 해상도가 변경되는 순서를 나타낸 예시도.
도 3은 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템이 가상 시뮬레이션 환경에서 데이터를 수집하는 모습을 나타낸 예시도.
도 4는 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 신경망 구조를 나타낸 예시도.
도 5는 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 신경망이 불확실성이 높은 예측을 제거하는 모습을 나타낸 예시도.
도 6은 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 라이다 센서가 신경망을 통해 객체를 구분하는 모습을 나타낸 예시도.
도 7은 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 2차원 라이다에서 수집된 반사강도를 나타낸 예시도.
1 is a configuration diagram showing the overall configuration of a three-dimensional lidar obstacle detection system using super-resolution and reflection intensity according to the present invention.
Figure 2 is an exemplary view showing the order in which the resolution of the three-dimensional lidar obstacle detection system using super-resolution and reflection intensity according to the present invention is changed.
Figure 3 is an exemplary view showing how the three-dimensional LIDAR obstacle detection system using super-resolution and reflection intensity according to the present invention collects data in a virtual simulation environment.
Figure 4 is an exemplary view showing the neural network structure of the three-dimensional LIDAR obstacle detection system using super-resolution and reflection intensity according to the present invention.
Figure 5 is an exemplary view showing how the neural network of the three-dimensional lidar obstacle detection system using super-resolution and reflection intensity according to the present invention removes prediction with high uncertainty.
6 is an exemplary view showing how the lidar sensor of the three-dimensional lidar obstacle detection system using super-resolution and reflection intensity according to the present invention distinguishes objects through a neural network.
7 is an exemplary view showing reflection intensity collected from a 2-dimensional lidar of a 3-dimensional lidar obstacle detection system using super-resolution and reflection intensity according to the present invention.

본 발명의 구체적 특징 및 이점들은 이하에서 첨부도면을 참조하여 상세히 설명한다. 이에 앞서 본 발명에 관련된 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 구체적인 설명을 생략하기로 한다.Specific features and advantages of the present invention will be described in detail below with reference to the accompanying drawings. Prior to this, if it is determined that the detailed description of functions and configurations related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

본 발명은 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 관한 것으로서, 더욱 상세하게는 자율주행이 가능한 이동체가 주변 사물의 위치와 형태를 정밀하게 탐지하여 자율주행 오류를 방지할 수 있는 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 관한 것이다.The present invention relates to a three-dimensional lidar obstacle detection system using super-resolution and reflection intensity, and more particularly, a mobile vehicle capable of autonomous driving can precisely detect the location and shape of surrounding objects to prevent autonomous driving errors. It is about a 3D lidar obstacle detection system using super-resolution and reflection intensity.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참고로 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 전체적인 구성을 나타낸 구성도이다.1 is a configuration diagram showing the overall configuration of a three-dimensional lidar obstacle detection system using super-resolution and reflection intensity according to the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템은 자율주행을 통해 이동할 수 있도록 형성되는 이동체(100)와, 이동체(100)에 형성되며 이동체(100)의 주변 및 주행방향에 존재하는 객체로부터 객체정보를 수집할 수 있도록 형성되는 라이다 센서(200)와, 이동체(100)에 형성되며 라이다 센서(200)를 통해 수집된 객체정보를 저장 및 편집하고 이동체(100)의 움직임을 제어하는 제어부(140)와, 제어부(140)에 형성되며 라이다 센서(200)를 통해 수집된 객체정보를 초해상화를 통해 객체 형상을 추정하고 반사강도를 이용하여 객체 위치를 구분하는 신경망(300)을 포함하는 것을 특징으로 한다.As shown in FIG. 1, the 3D LIDAR obstacle detection system using super-resolution and reflection intensity according to the present invention is formed on a moving body 100 and a moving body 100 formed to move through autonomous driving. A lidar sensor 200 formed to collect object information from objects existing around the moving body 100 and in the driving direction, and object information formed on the moving body 100 and collected through the lidar sensor 200 The control unit 140 that stores and edits and controls the movement of the moving object 100, and the object information formed in the control unit 140 and collected through the lidar sensor 200 is super-resolved to estimate the object shape, It is characterized in that it includes a neural network 300 that classifies the object location using the reflection intensity.

이동체(100)는 사람이 탑승되거나 물건을 운반할 수 있는 차량으로 구성될 수도 있고, 사람의 탑승 없이 무인으로 동작되는 형태로 구성되어 물건을 운반하거나 특수 목적을 위해 동작되는 형태로 이루어질 수 있다.The movable body 100 may be configured as a vehicle capable of carrying a person or carrying an object, or may be configured to operate unattended without a human being on board, and may be configured to transport an object or operate for a special purpose.

본 발명에서는 이동체(100)가 차량인 것을 기본으로 하여 설명하나, 실질적으로 이동체(100)는 자율비행이 가능한 무인 드론으로 형성될 수도 있게 되며, 사용되는 목적에 따라 이동체(100)의 종류는 달라질 수 있게 된다.In the present invention, the mobile body 100 is described based on a vehicle, but in practice, the mobile body 100 may be formed as an unmanned drone capable of autonomous flight, and the type of mobile body 100 may vary depending on the purpose of use. be able to

이동체(100)는 도로를 따라 차선을 인식하여 자율주행할 수 있도록 형성되며, 주변에 존재하는 차량의 존재를 인식할 수 있어 차량과 충돌하여 사고가 발생하지 않도록 방지할 수 있게 된다.The movable body 100 is formed to recognize lanes along the road for autonomous driving, and can recognize the presence of a vehicle existing around it, thereby preventing an accident from colliding with a vehicle.

또한 이동체(100)는 크게 구동장치(110), 제동장치(120), 조향장치(130), 제어부(140)로 구성될 수 있으며, 구동장치(110)는 모터나 엔진에 의해 동력을 발생시켜 이동체(100)가 이동할 수 있도록 하고, 제동장치(120)는 자율주행 중 속도를 감속시키거나 이동체(100)를 정지시키기 위해 사용된다.In addition, the movable body 100 may be largely composed of a driving device 110, a braking device 120, a steering device 130, and a control unit 140, and the driving device 110 generates power by a motor or an engine. The mobile body 100 is allowed to move, and the braking device 120 is used to decelerate or stop the mobile body 100 during autonomous driving.

조향장치(130)는 이동체(100)의 이동방향을 제어하기 위해 사용되며, 제어부(140)는 이동체(100)가 자율주행할 때 주변으로부터 수집된 정보를 기반으로 자율주행 속도, 방향, 위치, 안전을 확보하기 위해 이동체(100)를 전반적으로 제어하기 위해 사용된다.The steering device 130 is used to control the moving direction of the mobile body 100, and the control unit 140 controls the autonomous driving speed, direction, location, It is used to overall control the moving body 100 to ensure safety.

이때 제어부(140)는 이동체(100)에 형성된 각종 GPS, 라이다 센서(200), 근접센서, 카메라를 이용하여 이동체(100) 주변에 존재하는 정보를 취득하여 안전성을 기반으로 자율주행을 수행할 수 있게 된다.At this time, the control unit 140 acquires information existing around the moving body 100 using various GPS, lidar sensors 200, proximity sensors, and cameras formed on the moving body 100 to perform autonomous driving based on safety. be able to

또한 제어부(140)가 주위 정보를 수집하기 위해 이동체(100)에는 라이다 센서(200)가 형성되어 있으며, 라이다 센서(200)는 이동체(100) 주변으로 광원을 방사한 후 객체에 의해 반사되는 광원을 수신하여 이동체(100) 주변에 존재하는 객체정보를 취득할 수 있게 된다.In addition, the lidar sensor 200 is formed in the moving body 100 so that the control unit 140 collects surrounding information, and the lidar sensor 200 emits a light source around the moving body 100 and then reflects it by the object. It is possible to acquire object information existing around the moving object 100 by receiving a light source.

라이다 센서(200)를 통해 수집된 정보는 제어부(140)로 전송되게 되며, 제어부(140)는 라이다 센서(200)를 통해 수집된 객체정보를 이용하여 자율주행시 도로 및 주변에 존재하는 사람, 사물, 동물의 존재유무를 판단할 수 있게 된다.The information collected through the lidar sensor 200 is transmitted to the control unit 140, and the control unit 140 uses the object information collected through the lidar sensor 200 to enable people present on the road and around during autonomous driving. , the presence or absence of objects and animals can be judged.

또한 제어부(140)는 라이다 센서(200)를 통해 수집된 객체정보를 가공할 수 있도록 형성되어 있는데, 제어부(140)가 객체정보를 가공하는 방법은 도 2를 통해 후술하기로 한다.In addition, the control unit 140 is configured to process object information collected through the lidar sensor 200, and a method of processing the object information by the control unit 140 will be described later with reference to FIG. 2 .

신경망(300)은 제어부(140)에 형성되어 있으며, 라이다 센서(200)를 통해 객체정보가 제어부(140)로 수신되면 수신된 객체정보를 기반으로 객체의 해상도를 높이고 객체의 형상과 위치를 추정하기 위해 사용된다.The neural network 300 is formed in the controller 140, and when object information is received by the controller 140 through the lidar sensor 200, the resolution of the object is increased based on the received object information and the shape and location of the object are determined. used to estimate

이때 신경망(300)은 딥러닝 방식을 이용하여 기존에 수집된 데이터와 비교하여 저해상도로 수집된 객체정보를 초해상도화 함으로써 고해상도로 변환하고 광원반사에 의해 손실된 정보를 추정하고 예측할 수 있게 된다.At this time, the neural network 300 converts the object information collected at low resolution to super-resolution by comparing it with previously collected data using a deep learning method, thereby converting it to high resolution and estimating and predicting information lost due to light source reflection.

또한 신경망(300)은 라이다 센서(200)에서 방사된 광원이 객체에 반사되어 발생되는 반사강도를 통해 각각의 객체가 연결된 것인지 분리된 것인지를 파악할 수 있게 되며, 이를 통해 독립적으로 분리된 객체와 단일화된 객체를 분리하여 파악할 수 있게 된다.In addition, the neural network 300 can determine whether each object is connected or separated through the reflection intensity generated when the light source emitted from the lidar sensor 200 is reflected on the object, and through this, independently separated objects and A unified object can be separated and grasped.

도 2는 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 해상도가 변경되는 순서를 나타낸 예시도이다.Figure 2 is an exemplary view showing the order in which the resolution of the three-dimensional LIDAR obstacle detection system using super-resolution and reflection intensity according to the present invention is changed.

도 2에 도시된 바와 같이, 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 제어부(140)는 라이다 센서(200)에서 수집된 객체의 3차원 저해상 포인트 클라우드(210)를 2차원 저해상 거리 이미지(220)로 변환하고, 신경망(300)을 통해 2차원 저해상 거리 이미지(220)에 포함된 객체의 형상을 딥러닝 방식으로 추정하여 객체의 해상도를 높여 2차원 고해상 거리 이미지(230)로 변환하고, 2차원 고해상 거리 이미지(230)를 3차원 고해상 포인트 클라우드(240)로 변환하여 자율주행에 이용하는 것을 특징으로 한다.As shown in FIG. 2, the controller 140 of the 3D lidar obstacle detection system using super-resolution and reflection intensity according to the present invention is a 3D low-resolution point cloud of objects collected by the lidar sensor 200. 210 is converted into a 2D low-resolution distance image 220, and the shape of an object included in the 2D low-resolution distance image 220 is estimated through a neural network 300 using a deep learning method to increase the resolution of the object. It is characterized in that it is converted into a 2D high resolution distance image 230, and the 2D high resolution distance image 230 is converted into a 3D high resolution point cloud 240 and used for autonomous driving.

제어부(140)는 라이다 센서(200)에서 광원이 객체에 반사되어 돌아오면 이를 수신하여 객체의 형상 및 위치를 나타내는 포인트 클라우드를 형성하게 되는데, 라이다 센서(200)의 성능이나 환경 상태에 따라 수집되는 정보에 오차가 발생되게 된다.When the light source from the lidar sensor 200 is reflected on the object and returns, the control unit 140 receives it to form a point cloud representing the shape and location of the object. Depending on the performance of the lidar sensor 200 or environmental conditions Errors may occur in the collected information.

이러한 오차는 실제 객체 형상이나 위치에 오류를 발생시키므로 객체 형상과 위치를 명확하게 탐지할 수 있도록 제어부(140)는 객체정보를 가공할 수 있게 된다.Since these errors cause errors in the actual object shape or location, the controller 140 can process object information so that the object shape and location can be clearly detected.

먼저 라이다 센서(200)를 통해 객체정보가 수집되면 점으로 구성되는 3차원 저해상도 포인트 클라우드가 형성되게 되는데, 제어부(140)는 신경망(300)이 객체를 분석할 수 있도록 3차원 저해상도 포인트 클라우드를 2차원 저해상 거리 이미지(220)로 변환하게 된다.First, when object information is collected through the lidar sensor 200, a 3D low-resolution point cloud composed of points is formed. The controller 140 creates a 3D low-resolution point cloud so that the neural network 300 can analyze the object. It is converted into a 2D low-resolution distance image 220 .

2차원 저해상 거리 이미지(220)는 신경망(300)이 객체의 형상을 추정할 수 있도록 하기 위해 사용되며, 3차원 저해상도 포인트 클라우드는 2차원으로 변환될 때 파노라마 사진 형태가 되는데, 3차원에서 2차원으로 변환될 때 보정 값을 적용하여 객체가 휘거나 변형되는 왜곡이 발생되지 않도록 형태를 유지시키는 것이 바람직하다.The 2D low-resolution distance image 220 is used to allow the neural network 300 to estimate the shape of an object, and the 3D low-resolution point cloud becomes a panoramic picture when converted to 2D. When converted into dimensions, it is desirable to maintain the shape by applying a correction value so that distortion in which the object is bent or deformed does not occur.

신경망(300)은 2차원으로 변환된 저해상 거리 이미지(220)에서 객체의 형상을 추정하게 되고, 추정된 객체의 형상이 명확하게 표현될 수 있도록 고해상 거리 이미지(230)로 변환하게 된다.The neural network 300 estimates the shape of an object from the low-resolution distance image 220 that has been converted into two dimensions, and converts it into a high-resolution distance image 230 so that the estimated shape of the object can be clearly expressed.

즉, 2차원 이미지로 표현된 객체에 대해 딥러닝 알고리즘으로 학습된 기존 데이터를 기반으로 객체의 형상을 추정함으로써, 객체의 실제 형상에 맞게 이미지를 보정할 수 있게 된다.That is, by estimating the shape of an object based on existing data learned by a deep learning algorithm for an object expressed as a two-dimensional image, it is possible to correct the image to match the actual shape of the object.

여기서 객체는 사물, 장애물, 사람, 동물, 식물, 신호등, 거리, 도로, 건물, 구조물을 포함할 수 있으며, 신경망(300)은 라이다 센서(200)를 통해 수집된 저해상 이미지가 명확해지도록 추정된 형상에 한정하여 해상도를 높이고 2차원 이미지에서 DPI를 높일 수 있게 된다.Here, the objects may include objects, obstacles, people, animals, plants, traffic lights, streets, roads, buildings, and structures, and the neural network 300 makes the low-resolution image collected through the lidar sensor 200 clear. It is possible to increase the resolution by limiting the estimated shape and increase the DPI in the 2D image.

또한 신경망(300)은 추정된 객체의 형상에 맞춰 이미지를 보정할 때 이미지의 크기를 확장할 수 있으며, 이를 통해 라이다 센서(200)의 감지 범위보다 더 넓은 범위까지 신경망(300)이 추정하여 표시할 수 있게 된다.In addition, the neural network 300 may expand the size of the image when correcting the image according to the shape of the estimated object, and through this, the neural network 300 estimates to a wider range than the detection range of the lidar sensor 200 be able to display

신경망(300)에 의해 저해상 거리 이미지(220)가 고해상 거리 이미지(230)로 변환되면 제어부(140)는 2차원의 고해상 거리 이미지(230)를 3차원의 고해상 포인트 클라우드(240)로 변경하여 자율주행에서 객체의 위치와 형태를 명확하게 표현될 수 있도록 변환하게 된다.When the low-resolution distance image 220 is converted into the high-resolution distance image 230 by the neural network 300, the controller 140 changes the 2-dimensional high-resolution distance image 230 into a 3-dimensional high-resolution point cloud 240, In autonomous driving, the position and shape of an object are converted so that they can be clearly expressed.

고해상 포인트 클라우드(240)는 신경망(300)에 의해 객체의 형상이 추정되고 해상도가 높아진 고해상 거리 이미지(230)를 변환하였기 때문에 라이다 센서(200)를 통해 형성된 저해상 포인트 클라우드(210)에 비해 객체가 명확하게 표시될 수 있고, 객체와 객체 사이의 거리나 위치가 명확하게 나타날 수 있어 자율주행을 위한 데이터로 사용될 수 있게 된다.The high-resolution point cloud 240 is compared to the low-resolution point cloud 210 formed through the lidar sensor 200 because the shape of the object is estimated by the neural network 300 and the high-resolution distance image 230 with high resolution is converted. Objects can be clearly displayed, and distances or locations between objects can be clearly displayed, so that they can be used as data for autonomous driving.

도 3은 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템이 가상 시뮬레이션 환경에서 데이터를 수집하는 모습을 나타낸 예시도이다.3 is an exemplary view showing how the 3D lidar obstacle detection system using super-resolution and reflection intensity according to the present invention collects data in a virtual simulation environment.

도 3에 도시된 바와 같이, 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 신경망(300)은 딥러닝 방식으로 객체의 형상을 추정하도록 형성되며, 가상의 시뮬레이션 환경을 이용하여 딥러닝을 통해 객체를 추정하기 위한 데이터를 수집할 수 있는 것을 특징으로 한다.As shown in FIG. 3, the neural network 300 of the 3D lidar obstacle detection system using super-resolution and reflection intensity according to the present invention is formed to estimate the shape of an object by a deep learning method, and a virtual simulation environment It is characterized in that data for estimating an object can be collected through deep learning using

신경망(300)은 딥러닝 알고리즘을 통해 저해상도의 객체정보를 고해상도로 초해상화하게 되는데, 이때 딥러닝에 필요한 데이터는 가상시뮬레이터(400)를 통해 공급받아 실제 데이터 없이 가상의 데이터를 기반으로 딥러닝 알고리즘에 필요한 데이터를 확보할 수 있게 된다.The neural network 300 super-resolutions low-resolution object information to high-resolution through a deep learning algorithm. At this time, the data necessary for deep learning is supplied through the virtual simulator 400 and deep learning based on virtual data without actual data. It is possible to secure the data necessary for the algorithm.

일반적으로 딥러닝 훈련을 위해서는 실제 데이터를 제공한 후 신경망(300)을 통해 추정된 데이터와 실제 데이터가 일치하는지를 반복하여 수행함으로써 신경망(300)의 객체를 추정하기 위한 확률을 높이기 위해 방대한 실제 데이터가 필요하며, 이를 학습시키기 위한 시간이 오래 걸리는 문제점이 있다.In general, for deep learning training, after providing real data, massive real data is used to increase the probability of estimating an object of the neural network 300 by repeating whether the data estimated through the neural network 300 and the actual data match. It is necessary, and there is a problem that it takes a long time to learn it.

이를 해결하기 위해 본 발명의 제어부(140)는 가상시뮬레이터(400)를 통해 가상공간 내에서 이동체(100) 주변의 가상 객체를 이용하여 데이터를 확보할 수 있도록 하며, 신경망(300)을 통해 추론된 객체정보는 가상시뮬레이터(400)에서 추론된 객체정보가 가상의 객체와 일치하는지 판단하여 신경망(300)이 학습할 수 있도록 보조하게 된다.In order to solve this problem, the control unit 140 of the present invention enables data to be secured using virtual objects around the moving object 100 in a virtual space through the virtual simulator 400, and inferred through the neural network 300. The object information assists the neural network 300 to learn by determining whether the object information inferred by the virtual simulator 400 matches a virtual object.

또한 가상시뮬레이터(400)에서는 라이다 센서(200)를 통해 수집된 정보와 유사한 데이터를 고해상도와 저해상도로 제공함으로써, 실제 라이다 센서(200)를 구동하지 않아도 데이터를 통한 추론 학습이 가능해지도록 유도할 수 있게 된다.In addition, the virtual simulator 400 provides data similar to the information collected through the lidar sensor 200 in high resolution and low resolution, thereby inducing inference learning through data without actually driving the lidar sensor 200. be able to

이러한 반복과정은 이동체(100)가 주행하지 않는 상태에서 반복적으로 수행하여 학습하도록 하거나, 사용자가 수동으로 제어부(140)를 업데이트할 때 가상시뮬레이터(400)를 통해 신경망(300)이 학습하도록 제어할 수 있게 된다.This iterative process is to be repeatedly performed and learned while the moving object 100 is not traveling, or when the user manually updates the control unit 140, the neural network 300 is controlled to learn through the virtual simulator 400. be able to

또한 제어부(140)는 외부에 형성된 서버(500)와 통신할 수 있도록 형성되어 있어 신경망(300)의 데이터를 업데이트하거나 딥러닝 또는 객체 추정에 필요한 데이터를 송수신 받을 수 있는 것을 특징으로 한다.In addition, the controller 140 is configured to communicate with the server 500 formed externally, so that it can update data of the neural network 300 or send and receive data necessary for deep learning or object estimation.

제어부(140)는 무선통신을 통해 서버(500)와 실시간으로 통신할 수 있도록 형성되어 있는데, 서버(500)를 통해 교통상황을 송수신 받아 자율주행 경로를 최적화 할 수 있게 된다.The control unit 140 is formed to communicate with the server 500 in real time through wireless communication, and receives traffic conditions through the server 500 to optimize an autonomous driving route.

이때 도로에는 다수 개의 5G 안테나가 형성되어 있어 5G 안테나를 통해 서버(500)와 실시간 무선통신이 가능하고, 5G 안테나 주변에서 발생되는 교통정보, 자율주행 차량 운행 정보, 경로정보가 서버(500)를 통해 공유되면서 안전한 자율주행이 가능해진다.At this time, since a plurality of 5G antennas are formed on the road, real-time wireless communication with the server 500 is possible through the 5G antennas, and traffic information generated around the 5G antenna, autonomous vehicle operation information, and route information are transmitted through the server 500. Through this sharing, safe autonomous driving becomes possible.

또한 서버(500)와 접속된 제어부(140)는 신경망(300)의 데이터를 최신화 할 수 있도록 자동으로 업데이트 하며, 다른 자율주행 차량에서 발생된 딥러닝 알고리즘의 객체 추정 오류나 오판에 대한 정보를 보정한 데이터를 수신 받아 데이터로 사용할 수 있게 된다.In addition, the control unit 140 connected to the server 500 automatically updates the data of the neural network 300 so as to be up to date, and corrects information about object estimation errors or misjudgments of deep learning algorithms generated in other self-driving vehicles. Data is received and can be used as data.

또한 가상시뮬레이터(400)에 사용되는 객체 정보 데이터도 서버(500)를 통해 다운로드 받을 수 있게 되는데, 가상시뮬레이터(400) 내에 객체의 형상, 규격, 사람이나 동물의 움직임을 표현하기 위한 데이터를 통해 가상시뮬레이터(400)가 다양한 가상환경을 구현하여 신경망(300)을 학습시킬 수 있게 된다.In addition, object information data used in the virtual simulator 400 can also be downloaded through the server 500. Through data for expressing the shape, standard, and movement of a person or animal of an object in the virtual simulator 400, the virtual The simulator 400 implements various virtual environments so that the neural network 300 can be trained.

도 4는 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 신경망(300) 구조를 나타낸 예시도이고, 도 5는 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 신경망(300)이 불확실성이 높은 예측을 제거하는 모습을 나타낸 예시도이며, 도 6은 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 라이다 센서(200)가 신경망(300)을 통해 객체를 구분하는 모습을 나타낸 예시도이고, 도 7은 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 라이다 센서(200)를 통해 수집된 반사강도를 나타낸 예시도이다.4 is an exemplary diagram showing the structure of a neural network 300 of a 3D LIDAR obstacle detection system using super-resolution and reflection intensity according to the present invention, and FIG. It is an exemplary view showing how the neural network 300 of the 3D lidar obstacle detection system removes prediction with high uncertainty, and FIG. It is an exemplary view showing how the Ida sensor 200 classifies objects through the neural network 300, and FIG. 7 is a lidar sensor of a 3D lidar obstacle detection system using super-resolution and reflection intensity according to the present invention ( 200) is an exemplary view showing the reflection intensity collected through.

도 4 내지 도 7에 도시된 바와 같이, 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템의 신경망(300)은 몬테 카를로 드롭 아웃(Monte-Carlo dropout)을 적용하여 불확실성이 높은 예측을 제거하여 높은 정확도의 포인트 클라우드를 생성하는 것을 특징으로 한다.As shown in FIGS. 4 to 7, the neural network 300 of the 3D LIDAR obstacle detection system using super-resolution and reflection intensity according to the present invention applies Monte-Carlo dropout to uncertainty It is characterized by removing this high prediction to generate a point cloud with high accuracy.

제어부(140)가 라이다 센서(200)로부터 수집된 3차원의 저해상 포인트 클라우드(210)를 2차원 저해상 거리 이미지(220)로 변환하게 되면, 신경망(300)은 2차원 저해상 거리 이미지(220)에 픽셀 형태로 존재하는 객체의 형상을 예측하고 추정하게 된다.When the controller 140 converts the 3D low-resolution point cloud 210 collected from the lidar sensor 200 into a 2D low-resolution distance image 220, the neural network 300 converts the 2D low-resolution distance image In (220), the shape of an object existing in a pixel form is predicted and estimated.

이때 신경망(300)은 입력층(310), 은닉층(320), 출력층(330)으로 구성되어 있는데, 각 층 사이에는 시냅스가 형성되어 있고, 은닉층(320)은 다수 개의 층으로 형성되어 있다.At this time, the neural network 300 is composed of an input layer 310, a hidden layer 320, and an output layer 330, synapses are formed between each layer, and the hidden layer 320 is formed of a plurality of layers.

먼저 입력층(310)은 2차원 저해상 거리 이미지(220)가 픽셀단위로 입력되며, 입력된 픽셀에 따른 객체의 정보 및 좌표 정보가 제공될 수 있다.First, in the input layer 310, a 2D low-resolution distance image 220 is input in units of pixels, and object information and coordinate information according to the input pixels may be provided.

은닉층(320)은 객체 추정을 위해 논리, 연산이 수행되는 층으로, 함수를 이용하여 객체의 형태나 상태를 추정할 수 있도록 구성되어 있다.The hidden layer 320 is a layer in which logic and calculation are performed for object estimation, and is configured to estimate the shape or state of an object using a function.

출력층(330)은 은닉층(320)을 통해 추정된 객체 정보에 대해 2차원의 고해상도로 출력하여 고해상 거리 이미지(230)로 출력하게 된다.The output layer 330 outputs the object information estimated through the hidden layer 320 in 2D high resolution and outputs the high resolution distance image 230 .

도 4와 같이, 입력층(310)에 입력된 정보는 각각의 은닉층(320)과 모두 연결되어 있어 각각의 입력된 픽셀정보를 기반으로 출력층(330)을 통해 객체 형상을 출력하게 된다.As shown in FIG. 4 , information input to the input layer 310 is connected to each hidden layer 320, so that an object shape is output through the output layer 330 based on each input pixel information.

그러나 이 경우 라이다 센서(200)에서 오수신된 포인트 클라우드나 주변의 고속으로 이동하는 동물, 사물에 의한 왜곡된 정보가 포함될 수 있으므로, 객체 형상을 파악하는데 불필요한 불확실 포인트(340)를 제거할 필요성이 있다.However, in this case, since point clouds incorrectly received from the lidar sensor 200 or distorted information due to nearby animals and objects moving at high speed may be included, it is necessary to remove unnecessary uncertain points 340 to determine the object shape. there is

이를 위해 신경망(300)에는 도 5와 같이 몬테 카를로 드롭 아웃(Monte-Carlo dropout)이 적용되어 신경망(300)이 객체 추정을 위한 판단이나 의사결정에 필요한 정보나 데이터가 부족한 경우 해당 데이터를 추정에 반영하지 않도록 하여 명확한 데이터를 통해 객체 형상을 추론할 수 잇게 된다.To this end, Monte-Carlo dropout is applied to the neural network 300, as shown in FIG. By not reflecting, the object shape can be inferred through clear data.

도 6과 같은 두 개의 서로 독립된 제1감지물체(10)와 제2감지물체(20)가 서로 이격되어 형성되어 있을 때, 몬테 카를로 드롭 아웃(Monte-Carlo dropout)이 미적용된 신경망(300)을 이용하면 붉은색의 불확실 포인트(340)에 의해 제1감지물체(10)와 제2감지물체(20)가 서로 연결된 형태로 인식될 수 있다.When two independent first sensing objects 10 and second sensing objects 20 as shown in FIG. 6 are formed to be spaced apart from each other, the neural network 300 to which Monte-Carlo dropout is not applied When used, the first sensing object 10 and the second sensing object 20 can be recognized as connected to each other by the red uncertain point 340 .

그러나 몬테 카를로 드롭 아웃(Monte-Carlo dropout)을 이용하는 경우 제1감지물체(10)와 제2감지물체(20) 사이의 불확실 포인트(340)가 제거되므로 두 개의 독립된 객체인 것으로 인식할 수 있게 된다.However, when using Monte-Carlo dropout, the uncertainty point 340 between the first sensing object 10 and the second sensing object 20 is removed, so that they can be recognized as two independent objects. .

또한 신경망(300)은 라이다 센서(200)에서 수집된 객체정보 중 객체의 표면상태에 따라 변화되는 펄스 강도를 이용하여 객체의 반사강도를 측정하고, 반사강도를 기반으로 각각의 독립된 객체를 구분할 수 있는 것을 특징으로 한다.In addition, the neural network 300 measures the reflection intensity of the object using the pulse intensity that changes according to the surface state of the object among the object information collected by the lidar sensor 200, and distinguishes each independent object based on the reflection intensity. characterized by being able to

또한 라이다 센서(200)에서 수집되는 객체정보에는 광원이 객체로부터 반사되는 반사강도가 포함되어 있는데, 반사강도는 객체 표면상태, 재질, 반사각도에 따라 상대적으로 차이가 나게 되며 수신되는 펄스의 강도를 기반으로 반사강도를 측정할 수 있게 된다.In addition, the object information collected by the lidar sensor 200 includes the reflection intensity of the light source reflected from the object. The reflection intensity is relatively different depending on the object surface condition, material, and reflection angle, and the intensity of the received pulse Based on this, the reflection intensity can be measured.

이때 반사강도를 이용하는 경우 서로 동일한 위치에 존재하는 둘 이상의 객체를 반사강도를 비교하여 분리된 객체인지 단일화된 객체인지 명확하게 구분할 수 있게 된다.In this case, when the reflection intensity is used, it is possible to clearly distinguish whether the object is a separate object or a unified object by comparing the reflection intensity of two or more objects existing at the same location.

특히 몬테 카를로 드롭 아웃(Monte-Carlo dropout)을 이용하여 제1감지물체(10)와 제2감지물체(20) 사이의 불확실 포인트(340)를 제거할 때 불확실 포인트(340)에서 반사강도 정보를 이용하여 두 물체가 독립된 물체인지 확인할 수 있게 된다.In particular, when the uncertainty point 340 between the first sensing object 10 and the second sensing object 20 is removed using Monte-Carlo dropout, reflection intensity information is obtained from the uncertainty point 340. It can be used to determine if two objects are independent objects.

이를 통해 제1감지물체(10)와 제2감지물체(20)를 보다 명확하게 판단할 수 있게 되며, 불확실 포인트(340)를 통해 배제된 데이터도 반사강도를 통해 추정하여 객체 형태를 판단할 수 있게 된다.Through this, the first sensing object 10 and the second sensing object 20 can be determined more clearly, and the object shape can be determined by estimating data excluded through the uncertainty point 340 through reflection intensity. there will be

상술한 바와 같이, 본 발명에 따른 초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템에 의하면, 라이다 센서를 통해 수집된 객체정보가 저해상도로 판단되는 경우 딥러닝 알고리즘을 통해 고해상도로 변경하여 객체형상 및 위치를 명확하게 인식할 수 있고, 반사된 광원에 의해 수집된 객체 정보 중 위치가 서로 상이한 객체가 존재하는 경우 반사강도를 이용하여 분리된 두 객체를 명확하게 인식할 수 있으며, 가상의 시뮬레이션 환경을 이용하여 현장에서 데이터를 수집하지 않아도 딥러닝에 필요한 데이터를 확보하여 정확도를 높일 수 있도록 하는 효과가 있다.As described above, according to the three-dimensional lidar obstacle detection system using super-resolution and reflection intensity according to the present invention, when the object information collected through the lidar sensor is determined to be low resolution, it is changed to high resolution through a deep learning algorithm. It is possible to clearly recognize the object shape and position, and if there are objects with different positions among the object information collected by the reflected light source, the two separated objects can be clearly recognized using the reflection intensity, and the virtual It has the effect of increasing the accuracy by securing the data necessary for deep learning without having to collect data in the field using the simulation environment.

이상과 같이 본 발명은, 바람직한 실시 예를 중심으로 설명하였지만 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 특허청구범위에 기재된 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여 실시할 수 있다. 따라서 본 발명의 범주는 이러한 많은 변형의 예들을 포함하도록 기술된 청구범위에 의해서 해석되어야 한다.As described above, the present invention has been described with a focus on preferred embodiments, but those skilled in the art can make the present invention various within the range that does not deviate from the technical spirit and scope described in the claims of the present invention. It can be implemented by modifying or transforming accordingly. Accordingly, the scope of the present invention should be construed by the claims which are written to include examples of these many variations.

10 : 제1감지물체
20 : 제2감지물체
100 : 이동체
110 : 구동장치
120 : 제동장치
130 : 조향장치
140 : 제어부
200 : 라이다센서
210 : 저해상 포인트 클라우드
220 : 저해상 거리 이미지
230 : 고해상 거리 이미지
240 : 고해상 포인트 클라우드
300 : 신경망
310 : 입력층
320 : 은닉층
330 : 출력층
340 : 불확실 포인트
400 : 가상시뮬레이터
500 : 서버
10: first sensing object
20: second sensing object
100: mobile body
110: driving device
120: braking device
130: steering device
140: control unit
200: lidar sensor
210: low resolution point cloud
220: low-resolution street image
230: high resolution distance image
240: high resolution point cloud
300: neural network
310: input layer
320: hidden layer
330: output layer
340: Uncertain point
400: virtual simulator
500: server

Claims (5)

자율주행을 통해 이동할 수 있도록 형성되는 이동체와;
상기 이동체에 형성되며 상기 이동체의 주변 및 주행방향에 존재하는 객체로부터 객체정보를 수집할 수 있도록 형성되는 라이다 센서와;
상기 이동체에 형성되며 상기 라이다 센서를 통해 수집된 상기 객체정보를 저장 및 편집하고 상기 이동체의 움직임을 제어하는 제어부와;
상기 제어부에 형성되며 상기 라이다 센서를 통해 수집된 상기 객체정보를 초해상화를 통해 상기 객체 형상을 추정하고 반사강도를 이용하여 상기 객체 위치를 구분하는 신경망;을 포함하는 것을 특징으로 하는
초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템.
A moving body formed to be able to move through autonomous driving;
a LiDAR sensor formed on the mobile body and configured to collect object information from objects existing around the mobile body and in a traveling direction;
a control unit formed on the mobile body to store and edit the object information collected through the lidar sensor and to control the movement of the mobile body;
A neural network formed in the controller and estimating the shape of the object through super-resolution of the object information collected through the LIDAR sensor and distinguishing the location of the object using reflection strength; characterized in that it comprises a
3D lidar obstacle detection system using super-resolution and reflection intensity.
제 1항에 있어서,
상기 제어부는
상기 라이다 센서에서 수집된 상기 객체의 3차원 저해상 포인트 클라우드를 2차원 저해상 거리 이미지로 변환하고,
상기 신경망을 통해 상기 2차원 저해상 거리 이미지에 포함된 상기 객체의 형상을 딥러닝 방식으로 추정하여 상기 객체의 해상도를 높여 2차원 고해상 거리 이미지로 변환하고,
상기 2차원 고해상 거리 이미지를 3차원 고해상 포인트 클라우드로 변환하여 자율주행에 이용하는 것을 특징으로 하는
초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템.
According to claim 1,
The control unit
Converting the 3D low-resolution point cloud of the object collected by the lidar sensor into a 2D low-resolution distance image;
Estimating the shape of the object included in the 2D low-resolution distance image through the neural network using a deep learning method and converting the object into a 2D high-resolution distance image by increasing the resolution of the object;
Characterized in that the 2-dimensional high-resolution distance image is converted into a 3-dimensional high-resolution point cloud and used for autonomous driving
3D lidar obstacle detection system using super-resolution and reflection intensity.
제 1항에 있어서,
상기 신경망은
딥러닝 방식으로 상기 객체의 형상을 추정하도록 형성되며, 가상의 시뮬레이션 환경을 이용하여 딥러닝을 통해 상기 객체를 추정하기 위한 데이터를 수집할 수 있는 것을 특징으로 하는
초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템.
According to claim 1,
The neural network
It is formed to estimate the shape of the object by a deep learning method, and it is characterized in that data for estimating the object can be collected through deep learning using a virtual simulation environment
3D lidar obstacle detection system using super-resolution and reflection intensity.
제 1항에 있어서,
상기 신경망은
상기 라이다 센서에서 수집된 상기 객체정보 중 상기 객체의 표면상태에 따라 변화되는 펄스 강도를 이용하여 상기 객체의 반사강도를 측정하고,
상기 반사강도를 기반으로 각각의 독립된 객체를 구분할 수 있는 것을 특징으로 하는
초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템.
According to claim 1,
The neural network
Among the object information collected by the lidar sensor, the reflected intensity of the object is measured using a pulse intensity that changes according to the surface state of the object,
Characterized in that each independent object can be distinguished based on the reflection intensity
3D lidar obstacle detection system using super-resolution and reflection intensity.
제 1항에 있어서,
상기 제어부는
외부에 형성된 서버와 통신할 수 있도록 형성되어 있어 상기 신경망의 데이터를 업데이트하거나 딥러닝 또는 상기 객체 추정에 필요한 데이터를 송수신 받을 수 있는 것을 특징으로 하는
초해상화와 반사강도를 이용한 3차원 라이다 장애물 탐지시스템.
According to claim 1,
The control unit
Characterized in that it is formed to communicate with an externally formed server so that data of the neural network can be updated or data necessary for deep learning or object estimation can be transmitted and received
3D lidar obstacle detection system using super-resolution and reflection intensity.
KR1020220009556A 2022-01-21 2022-01-21 3D lidar obstacle detection system using super resolution and reflection intensity KR20230113475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220009556A KR20230113475A (en) 2022-01-21 2022-01-21 3D lidar obstacle detection system using super resolution and reflection intensity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220009556A KR20230113475A (en) 2022-01-21 2022-01-21 3D lidar obstacle detection system using super resolution and reflection intensity

Publications (1)

Publication Number Publication Date
KR20230113475A true KR20230113475A (en) 2023-07-31

Family

ID=87458403

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220009556A KR20230113475A (en) 2022-01-21 2022-01-21 3D lidar obstacle detection system using super resolution and reflection intensity

Country Status (1)

Country Link
KR (1) KR20230113475A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101834124B1 (en) 2017-08-08 2018-04-13 (주)에어로스타에스지 Multi Lidar System and Drive Method of the Same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101834124B1 (en) 2017-08-08 2018-04-13 (주)에어로스타에스지 Multi Lidar System and Drive Method of the Same

Similar Documents

Publication Publication Date Title
US11593950B2 (en) System and method for movement detection
US10768628B2 (en) Systems and methods for object detection at various ranges using multiple range imagery
US11836623B2 (en) Object detection and property determination for autonomous vehicles
US20210397185A1 (en) Object Motion Prediction and Autonomous Vehicle Control
US20210025989A1 (en) Hybrid-view lidar-based object detection
US10657391B2 (en) Systems and methods for image-based free space detection
US10310087B2 (en) Range-view LIDAR-based object detection
US11651553B2 (en) Methods and systems for constructing map data using poisson surface reconstruction
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
US11656620B2 (en) Generating environmental parameters based on sensor data using machine learning
US20190310651A1 (en) Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
US20190129429A1 (en) Systems and Methods for Determining Tractor-Trailer Angles and Distances
CN109307869B (en) Device and lighting arrangement for increasing the field of view of a lidar detector
US20210165413A1 (en) Safe traversable area estimation in unstructured free-space using deep convolutional neural network
US11880203B2 (en) Methods and system for predicting trajectories of uncertain road users by semantic segmentation of drivable area boundaries
US20230298301A1 (en) Long range localization with surfel maps
WO2022165498A1 (en) Methods and system for generating a lane-level map for an area of interest for navigation of an autonomous vehicle
US11976939B2 (en) High-definition maps and localization for road vehicles
US20230029900A1 (en) Three-dimensional object detection based on image data
KR20230113475A (en) 3D lidar obstacle detection system using super resolution and reflection intensity
US20230033177A1 (en) Three-dimensional point clouds based on images and depth data
US20240127603A1 (en) Unified framework and tooling for lane boundary annotation
WO2024118992A1 (en) Multi-frame temporal aggregation and dense motion estimation for autonomous vehicles