KR20210065728A - Position recognition method and device based on sparse point group using low channel 3D lidar sensor - Google Patents

Position recognition method and device based on sparse point group using low channel 3D lidar sensor Download PDF

Info

Publication number
KR20210065728A
KR20210065728A KR1020190154816A KR20190154816A KR20210065728A KR 20210065728 A KR20210065728 A KR 20210065728A KR 1020190154816 A KR1020190154816 A KR 1020190154816A KR 20190154816 A KR20190154816 A KR 20190154816A KR 20210065728 A KR20210065728 A KR 20210065728A
Authority
KR
South Korea
Prior art keywords
point cloud
cloud data
autonomous vehicle
location
lidar sensor
Prior art date
Application number
KR1020190154816A
Other languages
Korean (ko)
Inventor
김태형
조봉균
윤윤기
김봉섭
이명수
Original Assignee
재단법인 지능형자동차부품진흥원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 지능형자동차부품진흥원 filed Critical 재단법인 지능형자동차부품진흥원
Priority to KR1020190154816A priority Critical patent/KR20210065728A/en
Priority to PCT/KR2020/014313 priority patent/WO2021107403A1/en
Publication of KR20210065728A publication Critical patent/KR20210065728A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

The present invention relates to a method and device for recognizing a location based on a sparse point group using a low channel three-dimensional Lidar sensor capable of increasing accuracy at low costs. The present invention provides a device for recognizing a location based on a sparse point group using a low channel three-dimensional Lidar sensor, which includes a point group collection portion, a point group matching portion, a point group accumulation portion, a point group filtering portion, and a location recognition portion. The device includes the steps of: collecting point group data according to the location of an object through the Lidar sensor; detecting the movement of an autonomous vehicle; repeatedly accumulating the point group data for each preset unit distance by a preset reference number of times; filtering the accumulated point group data based on a voxel grid; and recognizing the location of the autonomous vehicle. The technical gist is the method for recognizing a location based on a sparse point group using a low channel three-dimensional Lidar sensor.

Description

저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치{Position recognition method and device based on sparse point group using low channel 3D lidar sensor}Position recognition method and device based on sparse point group using low channel 3D lidar sensor

본 발명은 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치에 관한 것이다. The present invention relates to a sparse point cloud-based location recognition method and apparatus using a low-channel three-dimensional lidar sensor.

자율 주행 차량의 구동을 위해서는 해당 차량의 위치인식이 절대적으로 필요하다. 자율 주향 차량의 위치 인식을 위해 GPS를 활용하고 있다. In order to drive an autonomous vehicle, location recognition of the vehicle is absolutely necessary. GPS is used to recognize the location of self-driving vehicles.

그러나 GPS는 정확도 및 정밀도 측면에서 신뢰도가 상대적으로 낮아 자율 주행 차량의 위치 인식을 위해 전적으로 의존하기에는 위험도가 높은 단점이 있다. However, GPS has relatively low reliability in terms of accuracy and precision, so it has a high risk to rely entirely on location recognition of autonomous vehicles.

이러한 단점을 가진 GPS를 단독으로 사용하지 않고 GPS에 카메라모듈과 라이다센서 등을 융합하여 자율 주행 차량에 적용한 위치인식 기술들이 개발되고 있다. Position recognition technologies that are applied to autonomous vehicles by fusion of a camera module and a lidar sensor with GPS are being developed, rather than using GPS alone, which has these drawbacks.

한편 라이다센서는 거리에 대한 측정 정확도 및 정밀도가 높아 위치인식에 활용도가 높을 것으로 기대되고 있다. 특히 고채널 3차원 라이다센서를 이용하면 위치인식의 정확도 및 정밀도를 더욱 높일 수 있다. On the other hand, the lidar sensor is expected to be useful for location recognition due to its high measurement accuracy and precision for distance. In particular, the accuracy and precision of location recognition can be further improved by using a high-channel 3D lidar sensor.

그러나 고채널 3차원 라이다센서는 성능이 우수하지만 고가의 가격대를 이루고 있으므로 자율 주행 차량의 위치인식 기술에 적용할 경우 자율 주행 차량의 비용을 상승시키는 문제점이 있다. However, the high-channel 3D lidar sensor has excellent performance but has an expensive price range, so there is a problem in that it increases the cost of the autonomous vehicle when applied to the location recognition technology of the autonomous vehicle.

따라서 저비용으로 정확도 및 정밀도를 향상시킬 수 있는 자율 주행 차량의 위치 인식 기술에 대한 개발이 필요하다. Therefore, it is necessary to develop a location recognition technology for an autonomous vehicle that can improve accuracy and precision at low cost.

대한민국 공개특허공보 제10-2019-0045006호, 2019.05.02.자 공개.Korean Patent Publication No. 10-2019-0045006, published on May 2, 2019.

본 발명은 상기한 문제점을 해소하기 위해 발명된 것으로서, 저비용으로 자율 주행 차량의 위치 인식에 대한 정확도 및 정밀도를 향상시킬 수 있도록, 저가의 저채널 3차원 라이다센서를 이용하여 점군을 정합하고 필터링하여 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치를 제공하는데 그 목적이 있다. The present invention was invented to solve the above problems. In order to improve the accuracy and precision of location recognition of an autonomous vehicle at low cost, a point cloud is matched and filtered using a low-cost, low-channel 3D lidar sensor. Accordingly, an object of the present invention is to provide a sparse point group-based location recognition method and apparatus using a low-channel three-dimensional lidar sensor that recognizes the location of an autonomous vehicle.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.

상기 목적을 달성하기 위한 본 발명에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치는 라이다센서에서 감지된 객체의 위치에 따른 점군데이터를 수집하는 점군 수집부; 수집된 상기 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출하는 점군 정합부; 검출된 상기 차량의 움직임에 기초하여 상기 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하는 점군 누적부; 누적된 상기 점군데이터를 복셀그리드 기반으로 필터링하여 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 하는 점군 필터링부; 및 GPS로부터 상기 자율 주행 차량의 위치정보를 획득하고 상기 위치정보에 기초하여 필터링된 상기 점군데이터와 전역지도를 매칭하여 상기 전역지도 상에서 상기 자율 주행 차량의 위치를 인식하는 위치 인식부;를 포함할 수 있다. In accordance with the present invention for achieving the above object, there is provided a sparse point cloud-based position recognition apparatus using a low-channel three-dimensional lidar sensor, comprising: a point cloud collection unit for collecting point cloud data according to the position of an object detected by the lidar sensor; a point cloud matching unit for detecting the movement of the autonomous vehicle by matching the point cloud data for the past time and the point cloud data for the current time among the collected point cloud data; a point cloud accumulator for repeatedly accumulating the point cloud data for each preset unit distance based on the detected movement of the vehicle for a preset reference number of times; a point cloud filtering unit configured to filter the accumulated point cloud data based on a voxel grid so that a single point exists in a voxel having a preset size; and a location recognition unit that acquires location information of the autonomous vehicle from GPS and matches the point cloud data filtered based on the location information with a global map to recognize the location of the autonomous vehicle on the global map. can

상기 목적을 달성하기 위한 본 발명에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법은 라이다센서를 통해 객체의 위치에 따른 점군데이터를 수집하는 단계; 수집된 상기 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출하는 단계; 검출된 상기 자율 주행 차량의 움직임에 기초하여 상기 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하는 단계; 누적된 상기 점군데이터를 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 복셀 그리드 기반으로 필터링하는 단계; 및 GPS로부터 획득된 상기 자율 주행 차량의 위치정보를 기초로 하여 필터링된 상기 점군데이터와 전역지도를 매칭하여 상기 자율 주행 차량의 위치를 인식하는 단계;를 포함할 수 있다. According to the present invention for achieving the above object, there is provided a sparse point cloud-based location recognition method using a low-channel three-dimensional lidar sensor, comprising: collecting point cloud data according to the position of an object through a lidar sensor; detecting the movement of the autonomous vehicle by matching the point cloud data for the past time and the point cloud data for the current time among the collected point cloud data; repeatedly accumulating the point cloud data for each predetermined unit distance based on the detected movement of the autonomous vehicle for a predetermined reference number of times; filtering the accumulated point cloud data based on a voxel grid so that a single point exists in a voxel having a preset size; and recognizing the location of the autonomous vehicle by matching the filtered point cloud data with a global map based on the location information of the autonomous vehicle obtained from GPS.

상기한 구성에 의한 본 발명은 저가의 저채널 라이다센서를 사용하여 라이데센서에 의해 감지된 점군데이터를 누적하여 해상도를 높이고, 누적된 점군데이터를 필터링하여 연산에 따른 시간 및 공간 복잡도를 감소시키며, 필터링된 점군데이터와 전역지도를 매칭하여 위치를 인식함에 따라, 저채널 라이다센서만으로 자율 주행 차량의 위치를 정확도 있게 인식할 수 있으므로 비용 절감 효과를 기대할 수 있다. The present invention according to the above configuration uses a low-cost low-channel LiDAR sensor to accumulate point cloud data sensed by the LiDAR sensor to increase the resolution, and to filter the accumulated point cloud data to reduce the time and spatial complexity of calculation. In addition, as the location is recognized by matching the filtered point cloud data with the global map, the location of the autonomous vehicle can be accurately recognized only with the low-channel lidar sensor, so cost savings can be expected.

도 1은 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치를 도시한 구성도이다.
도 2는 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치에서 점군데이터를 정합하는 개념도이다.
도 3은 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치에서 점군데이터의 누적 전후를 비교한 이미지이다.
도 4는 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치에서 점군데이터를 복셀그리드 기반으로 필터링하는 개념도이다.
도 5는 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법을 도시한 순서도이다.
1 is a block diagram illustrating a location recognition device based on a sparse point group using a low-channel three-dimensional lidar sensor according to a preferred embodiment of the present invention.
2 is a conceptual diagram of matching point cloud data in a sparse point cloud-based location recognition apparatus using a low-channel three-dimensional lidar sensor according to a preferred embodiment of the present invention.
3 is an image comparing before and after the accumulation of point cloud data in the sparse point cloud-based location recognition apparatus using a low-channel three-dimensional lidar sensor according to a preferred embodiment of the present invention.
4 is a conceptual diagram of filtering point cloud data based on a voxel grid in a sparse point cloud-based location recognition apparatus using a low-channel 3D lidar sensor according to a preferred embodiment of the present invention.
5 is a flowchart illustrating a sparse point group-based location recognition method using a low-channel 3D lidar sensor according to a preferred embodiment of the present invention.

본 발명은 저비용으로 자율 주행 차량의 위치 인식에 대한 정확도 및 정밀도를 향상시킬 수 있도록 저가의 저채널 3차원 라이다센서를 이용하여 점군을 정합하고 필터링하여 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치에 관한 것이다.The present invention is a low-channel 3 that recognizes the location of an autonomous vehicle by matching and filtering a point cloud using a low-cost, low-channel 3D lidar sensor to improve the accuracy and precision of location recognition of an autonomous vehicle at low cost. It relates to a sparse point group-based location recognition method and apparatus using a dimensional lidar sensor.

이하 본 발명의 바람직한 실시예에 따른 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치를 첨부한 도면을 참조하여 상세하게 설명하면 다음과 같다. Hereinafter, a method and apparatus for recognizing a location based on a sparse point group using a low-channel 3D lidar sensor for recognizing a location of an autonomous vehicle according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 바람직한 실시예에 따른 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치는 도 1에 도시된 바와 같이 점군 수집부(10)와 점군 정합부(20)와 점군 누적부(30)와 점군 필터링부(40) 및 위치 인식부(50)를 포함하여 구성될 수 있다. A sparse point cloud-based location recognition device using a low-channel 3D lidar sensor for recognizing the location of an autonomous vehicle according to a preferred embodiment of the present invention includes a point cloud collection unit 10 and a point cloud matching unit as shown in FIG. 1 . 20 , the point cloud accumulator 30 , the point cloud filtering unit 40 , and the location recognition unit 50 may be included.

상기 점군 수집부(10)는 자율 주행 차량에 장착된 라이다센서로부터 자율 주행 차량의 주변에 존재하는 객체의 위치에 따른 점군데이터(

Figure pat00001
)를 수집할 수 있다.The point cloud collection unit 10 receives point cloud data (
Figure pat00001
) can be collected.

상기 점군 정합부(20)는 점근 수집부()에서 수집된 점군데이터(

Figure pat00002
) 중에서 과거시간(t-1)에 대한 점군데이터(
Figure pat00003
)와 현재시간(t)에 대한 점군데이터(
Figure pat00004
)를 정합하여 자율 주행 차량의 움직임을 검출할 수 있다. The point cloud matching unit 20 collects the point cloud data (
Figure pat00002
) of the point cloud data for the past time (t-1) (
Figure pat00003
) and point cloud data for the current time (t) (
Figure pat00004
) to detect the movement of the autonomous vehicle.

즉, 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 비교함에 따라 시간의 변화에 따른 거리 변화를 산출하여 자율 주행 차량의 움직임을 검출할 수 있다. That is, by comparing the point cloud data for the past time and the point cloud data for the current time, the distance change according to the change in time can be calculated to detect the movement of the autonomous vehicle.

이때 ICP(Iterative Closest Points), NDT(Normal Distribution Transform) 등의 정합 알고리즘을 사용하여 점군데이터를 정합할 수 있다. In this case, the point cloud data may be matched using a matching algorithm such as Iterative Closest Points (ICP) or Normal Distribution Transform (NDT).

상기 점군 누적부(30)는 점군 정합부(20)에서 점군데이터의 정합에 따라 검출된 자율 주행 차량의 움직임에 기초하여 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하여 점군데이터의 해상도를 높일 수 있다. The point cloud accumulator 30 repeatedly accumulates the point cloud data for each preset unit distance based on the movement of the autonomous vehicle detected according to the matching of the point cloud data by the point cloud matching unit 20 for a preset reference number of times. resolution can be increased.

이때 단위거리와 누적횟수는 사용자의 편의에 따라 임의로 설정할 수 있다. 그리고 누적된 점군데이터(

Figure pat00005
)의 기준점은 현재시간의 점군데이터(
Figure pat00006
)를 기준으로 할 수 있다. In this case, the unit distance and the number of accumulations can be arbitrarily set according to the user's convenience. And the accumulated point cloud data (
Figure pat00005
) is the point cloud data of the current time (
Figure pat00006
) can be based on

상기 점군 필터링부(40)는 점군 누적부(30)에서 누적된 점군데이터를 복셀그리드 기반으로 필터링하여 위치 인식을 위한 연산에 소모되는 시간 및 공간 복잡도를 감소시킬 수 있다. The point cloud filtering unit 40 may filter the point cloud data accumulated in the point cloud accumulation unit 30 based on a voxel grid to reduce time and space complexity consumed in an operation for location recognition.

즉, 기설정된 크기를 가진 3차원 공간인 복셀 상에 하나의 점만이 존재하도록 다른 점들을 제거할 수 있다. That is, other points may be removed so that only one point exists on a voxel that is a 3D space having a preset size.

그리고 복셀 상에 적어도 두 개 이상의 점이 존해할 경우 복셀의 정중앙을 대표점으로 삼고 나머지 점들을 제거할 수 있다. 그러면 필터링된 점군데이터(

Figure pat00007
)을 아래의 수학식 1과 같이 생성할 수 있다. In addition, when at least two or more points exist on a voxel, the center of the voxel may be used as a representative point and the remaining points may be removed. Then the filtered point cloud data (
Figure pat00007
) can be generated as in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00008
Figure pat00008

이때 복셀의 크기는 사용자의 편의에 따라 임의로 설정할 수 있다. In this case, the size of the voxel may be arbitrarily set according to the user's convenience.

상기 위치 인식부(50)는 GPS로부터 자율 주행 차량의 대략적인 위치정보를 획득한 후 대략적인 위치정보에 기초하여 필터링된 점군데이터(

Figure pat00009
)와 전역지도(m)를 매칭하여 전역지도 상에서 자율 주행 차량의 위치를 실시간으로 인식할 수 있다. The location recognition unit 50 obtains the approximate location information of the autonomous vehicle from the GPS, and then filters point cloud data (
Figure pat00009
) and the global map (m), the location of the autonomous vehicle on the global map can be recognized in real time.

본 발명의 바람직한 실시예에 따른 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법은 도 5에 도시된 바와 같이 점군 수집 단계(S10)와 점군 정합 단계(S20)와 점군 누적 단계(S30)와 점군 필터링 단계(S40) 및 위치 인식 단계(S50)를 포함하여 구성될 수 있다. The method for recognizing a location based on a sparse point cloud using a low-channel 3D lidar sensor for recognizing the location of an autonomous vehicle according to a preferred embodiment of the present invention includes a point cloud collection step (S10) and a point cloud matching step as shown in FIG. 5 . (S20), the step of accumulating the point cloud (S30), the step of filtering the point cloud (S40), and the step of recognizing the location (S50) may be configured.

상기 점군 수집 단계(S10)는 라이다센서에 의해 수행되어 자율 주행 차량의 주변에 존재하는 객체들의 위치에 따른 점군데이터를 수집할 수 있다. The point cloud collection step S10 may be performed by the lidar sensor to collect point cloud data according to the positions of objects existing in the vicinity of the autonomous vehicle.

상기 점군 정합 단계(S20)는 점군 정합부(20)에 의해 수행되어 점군 수집 단계(S10)에서 수집된 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출할 수 있다.The point cloud matching step (S20) is performed by the point cloud matching unit 20, and from among the point cloud data collected in the point cloud collection step (S10), the point cloud data for the past time and the point cloud data for the current time are matched to match the point cloud data of the autonomous vehicle. motion can be detected.

상기 점군 누적 단계(S30)는 점군 누적부(30)에 의해 수행되어 점군 정합 단계()에서 검출된 자율 주행 차량의 움직임에 기초하여 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적할 수 있다. The point cloud accumulating step S30 is performed by the point cloud accumulator 30, and based on the movement of the autonomous vehicle detected in the point cloud matching step (), the point cloud data is repeatedly accumulated for each preset unit distance by a preset reference number of times. can do.

상기 점군 필터링 단계(S40)는 점군 필터링부(40)에 의해 수행되어 점군 누적 단계(S30)에서 누적된 점군데이터를 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 복셀 그리드 기반으로 필터링할 수 있다. The point cloud filtering step S40 is performed by the point cloud filtering unit 40, and the point cloud data accumulated in the point cloud accumulation step S30 can be filtered based on a voxel grid so that one point exists in a voxel having a preset size. .

상기 위치 인식 단계(S50)는 위치 인식부(50)에 의해 수행되어 GPS로부터 획득된 자율 주행 차량의 대략적인 위치정보를 기초로 하여 필터링된 점군데이터와 전역지도를 매칭하여 자율 주행 차량의 위치를 인식할 수 있다. The location recognition step S50 is performed by the location recognition unit 50 to match the filtered point cloud data with the global map based on the approximate location information of the autonomous vehicle obtained from GPS to determine the location of the autonomous vehicle. can recognize

이상과 같이 본 발명은 저가의 저채널 라이다센서를 사용하여 라이데센서에 의해 감지된 점군데이터를 누적하여 해상도를 높이고 누적된 점군데이터를 필터링하여 연산에 따른 시간 및 공간 복잡도를 감소시키며 필터링된 점군데이터와 전역지도를 매칭하여 위치를 인식함으로써 저비용으로 자율 주행 차량의 위치를 정확도 있게 인식할 수 있다. As described above, the present invention uses a low-cost low-channel lidar sensor to accumulate point cloud data detected by the lidar sensor to increase the resolution, and to filter the accumulated point cloud data to reduce the time and space complexity according to the operation, and By matching the point cloud data with the global map to recognize the location, it is possible to accurately recognize the location of the autonomous vehicle at low cost.

상기한 실시예는 예시적인 것에 불과한 것으로, 당해 기술분야에 대한 통상의 지식을 가진 자라면 이로부터 다양하게 변형된 다른 실시예가 가능하다. The above-described embodiments are merely exemplary, and those of ordinary skill in the art can variously modified other embodiments therefrom.

따라서 본 발명의 진정한 기술적 보호범위에는 하기의 특허청구범위에 기재된 발명의 기술적 사상에 의해 상기의 실시예뿐만 아니라 다양하게 변형된 다른 실시예가 포함되어야 한다. Accordingly, the true technical protection scope of the present invention should include not only the above embodiments but also other variously modified embodiments by the technical spirit of the invention described in the claims below.

10: 점군 수집부
20: 점균 정합부
30: 점군 누적부
40: 점군 필터링부
50: 위치 인식부
S10: 점군 수집 단계
S20: 점군 정합 단계
S30: 점군 누적 단계
S40: 점군 필터링 단계
S50: 위치 인식 단계
10: Point cloud collector
20: slime matching part
30: point cloud accumulation
40: point cloud filtering unit
50: location recognition unit
S10: Point cloud collection step
S20: point cloud registration step
S30: Point cloud accumulation stage
S40: Point cloud filtering step
S50: Location Awareness Phase

Claims (2)

라이다센서에서 감지된 객체의 위치에 따른 점군데이터를 수집하는 점군 수집부;
수집된 상기 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출하는 점군 정합부;
검출된 상기 차량의 움직임에 기초하여 상기 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하는 점군 누적부;
누적된 상기 점군데이터를 복셀그리드 기반으로 필터링하여 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 하는 점군 필터링부; 및
GPS로부터 상기 자율 주행 차량의 위치정보를 획득하고 상기 위치정보에 기초하여 필터링된 상기 점군데이터와 전역지도를 매칭하여 상기 전역지도 상에서 상기 자율 주행 차량의 위치를 인식하는 위치 인식부;를 포함하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치.
a point cloud collecting unit that collects point cloud data according to the position of the object detected by the lidar sensor;
a point cloud matching unit for detecting the movement of the autonomous vehicle by matching the point cloud data for the past time and the point cloud data for the current time among the collected point cloud data;
a point cloud accumulator for repeatedly accumulating the point cloud data for each preset unit distance based on the detected movement of the vehicle for a preset reference number of times;
a point cloud filtering unit configured to filter the accumulated point cloud data based on a voxel grid so that a single point exists in a voxel having a preset size; and
A location recognition unit that acquires the location information of the autonomous vehicle from GPS and matches the point cloud data filtered based on the location information with the global map to recognize the location of the autonomous vehicle on the global map; A sparse point cloud-based location recognition device using a channel 3D lidar sensor.
라이다센서를 통해 객체의 위치에 따른 점군데이터를 수집하는 단계;
수집된 상기 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출하는 단계;
검출된 상기 자율 주행 차량의 움직임에 기초하여 상기 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하는 단계;
누적된 상기 점군데이터를 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 복셀 그리드 기반으로 필터링하는 단계; 및
GPS로부터 획득된 상기 자율 주행 차량의 위치정보를 기초로 하여 필터링된 상기 점군데이터와 전역지도를 매칭하여 상기 자율 주행 차량의 위치를 인식하는 단계;를 포함하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법.
collecting point cloud data according to the position of the object through the lidar sensor;
detecting the movement of the autonomous vehicle by matching the point cloud data for the past time and the point cloud data for the current time among the collected point cloud data;
repeatedly accumulating the point cloud data for each predetermined unit distance based on the detected movement of the autonomous vehicle for a predetermined reference number of times;
filtering the accumulated point cloud data based on a voxel grid so that a single point exists in a voxel having a preset size; and
Recognizing the location of the autonomous vehicle by matching the filtered point cloud data with a global map based on the location information of the autonomous vehicle obtained from GPS; Point cloud-based location recognition method.
KR1020190154816A 2019-11-27 2019-11-27 Position recognition method and device based on sparse point group using low channel 3D lidar sensor KR20210065728A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190154816A KR20210065728A (en) 2019-11-27 2019-11-27 Position recognition method and device based on sparse point group using low channel 3D lidar sensor
PCT/KR2020/014313 WO2021107403A1 (en) 2019-11-27 2020-10-20 Method and apparatus for recognizing location based on sparse point group by using low-channel three-dimensional lidar sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190154816A KR20210065728A (en) 2019-11-27 2019-11-27 Position recognition method and device based on sparse point group using low channel 3D lidar sensor

Publications (1)

Publication Number Publication Date
KR20210065728A true KR20210065728A (en) 2021-06-04

Family

ID=76129292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190154816A KR20210065728A (en) 2019-11-27 2019-11-27 Position recognition method and device based on sparse point group using low channel 3D lidar sensor

Country Status (2)

Country Link
KR (1) KR20210065728A (en)
WO (1) WO2021107403A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115508844B (en) * 2022-11-23 2023-03-21 江苏新宁供应链管理有限公司 Intelligent detection method for deviation of logistics conveyor based on laser radar

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190045006A (en) 2017-10-23 2019-05-02 주식회사 유진로봇 Method and Apparatus for Localization and Mapping Using LIDAR

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
KR20180080828A (en) * 2017-01-05 2018-07-13 서울대학교산학협력단 Method for recognizing lane-level vehicle positioning information based on lidar map matching, recording medium and device for performing the method
US10444759B2 (en) * 2017-06-14 2019-10-15 Zoox, Inc. Voxel based ground plane estimation and object segmentation
KR102589970B1 (en) * 2017-12-15 2023-10-17 삼성전자주식회사 Method and apparatus for determining object position
KR102006148B1 (en) * 2018-01-16 2019-08-01 한국항공대학교산학협력단 Apparatus and method for generating absolute point cloud of the object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190045006A (en) 2017-10-23 2019-05-02 주식회사 유진로봇 Method and Apparatus for Localization and Mapping Using LIDAR

Also Published As

Publication number Publication date
WO2021107403A1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
Grassi et al. Parkmaster: An in-vehicle, edge-based video analytics service for detecting open parking spaces in urban environments
EP3171292B1 (en) Driving lane data processing method, device, storage medium and apparatus
JP5440461B2 (en) Calibration apparatus, distance measurement system, calibration method, and calibration program
US8781732B2 (en) Apparatus and method for recognizing position of moving object
KR101919366B1 (en) Apparatus and method for recognizing vehicle location using in-vehicle network and image sensor
EP2476996B1 (en) Parallax calculation method and parallax calculation device
US20140297092A1 (en) Intensity map-based localization with adaptive thresholding
CN110658539B (en) Vehicle positioning method, device, vehicle and computer readable storage medium
WO2014002692A1 (en) Stereo camera
JP2018180772A (en) Object detection device
US10733768B2 (en) Method and apparatus for data reduction of feature-based environment information of a driver assistance system
CN110657812A (en) Vehicle positioning method and device and vehicle
US20160207473A1 (en) Method of calibrating an image detecting device for an automated vehicle
EP4105829A1 (en) Lane line determination method and system, vehicle, and storage medium
JP2008282386A (en) Object detector, object detection method, and object detection program
CN115240094A (en) Garbage detection method and device
CN104422426A (en) Method and apparatus for providing vehicle navigation information within elevated road region
KR20210065728A (en) Position recognition method and device based on sparse point group using low channel 3D lidar sensor
KR101339255B1 (en) Lane detecting method for vehicle and system thereof
GB2523659A (en) Method and device for determining a distance of a vehicle from a traffic-controlling object
CN112747754A (en) Fusion method, device and system of multi-sensor data
JP2018073275A (en) Image recognition device
US11620832B2 (en) Image based locationing
JP7060334B2 (en) Training data collection device, training data collection system and training data collection method
KR20210076412A (en) Apparatus and method for evaluating vehicle sensor performance