KR20210065728A - Position recognition method and device based on sparse point group using low channel 3D lidar sensor - Google Patents
Position recognition method and device based on sparse point group using low channel 3D lidar sensor Download PDFInfo
- Publication number
- KR20210065728A KR20210065728A KR1020190154816A KR20190154816A KR20210065728A KR 20210065728 A KR20210065728 A KR 20210065728A KR 1020190154816 A KR1020190154816 A KR 1020190154816A KR 20190154816 A KR20190154816 A KR 20190154816A KR 20210065728 A KR20210065728 A KR 20210065728A
- Authority
- KR
- South Korea
- Prior art keywords
- point cloud
- cloud data
- autonomous vehicle
- location
- lidar sensor
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 11
- 238000001914 filtration Methods 0.000 claims abstract description 15
- 238000009825 accumulation Methods 0.000 abstract description 7
- 230000035508 accumulation Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- Optics & Photonics (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
본 발명은 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치에 관한 것이다. The present invention relates to a sparse point cloud-based location recognition method and apparatus using a low-channel three-dimensional lidar sensor.
자율 주행 차량의 구동을 위해서는 해당 차량의 위치인식이 절대적으로 필요하다. 자율 주향 차량의 위치 인식을 위해 GPS를 활용하고 있다. In order to drive an autonomous vehicle, location recognition of the vehicle is absolutely necessary. GPS is used to recognize the location of self-driving vehicles.
그러나 GPS는 정확도 및 정밀도 측면에서 신뢰도가 상대적으로 낮아 자율 주행 차량의 위치 인식을 위해 전적으로 의존하기에는 위험도가 높은 단점이 있다. However, GPS has relatively low reliability in terms of accuracy and precision, so it has a high risk to rely entirely on location recognition of autonomous vehicles.
이러한 단점을 가진 GPS를 단독으로 사용하지 않고 GPS에 카메라모듈과 라이다센서 등을 융합하여 자율 주행 차량에 적용한 위치인식 기술들이 개발되고 있다. Position recognition technologies that are applied to autonomous vehicles by fusion of a camera module and a lidar sensor with GPS are being developed, rather than using GPS alone, which has these drawbacks.
한편 라이다센서는 거리에 대한 측정 정확도 및 정밀도가 높아 위치인식에 활용도가 높을 것으로 기대되고 있다. 특히 고채널 3차원 라이다센서를 이용하면 위치인식의 정확도 및 정밀도를 더욱 높일 수 있다. On the other hand, the lidar sensor is expected to be useful for location recognition due to its high measurement accuracy and precision for distance. In particular, the accuracy and precision of location recognition can be further improved by using a high-channel 3D lidar sensor.
그러나 고채널 3차원 라이다센서는 성능이 우수하지만 고가의 가격대를 이루고 있으므로 자율 주행 차량의 위치인식 기술에 적용할 경우 자율 주행 차량의 비용을 상승시키는 문제점이 있다. However, the high-channel 3D lidar sensor has excellent performance but has an expensive price range, so there is a problem in that it increases the cost of the autonomous vehicle when applied to the location recognition technology of the autonomous vehicle.
따라서 저비용으로 정확도 및 정밀도를 향상시킬 수 있는 자율 주행 차량의 위치 인식 기술에 대한 개발이 필요하다. Therefore, it is necessary to develop a location recognition technology for an autonomous vehicle that can improve accuracy and precision at low cost.
본 발명은 상기한 문제점을 해소하기 위해 발명된 것으로서, 저비용으로 자율 주행 차량의 위치 인식에 대한 정확도 및 정밀도를 향상시킬 수 있도록, 저가의 저채널 3차원 라이다센서를 이용하여 점군을 정합하고 필터링하여 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치를 제공하는데 그 목적이 있다. The present invention was invented to solve the above problems. In order to improve the accuracy and precision of location recognition of an autonomous vehicle at low cost, a point cloud is matched and filtered using a low-cost, low-channel 3D lidar sensor. Accordingly, an object of the present invention is to provide a sparse point group-based location recognition method and apparatus using a low-channel three-dimensional lidar sensor that recognizes the location of an autonomous vehicle.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.
상기 목적을 달성하기 위한 본 발명에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치는 라이다센서에서 감지된 객체의 위치에 따른 점군데이터를 수집하는 점군 수집부; 수집된 상기 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출하는 점군 정합부; 검출된 상기 차량의 움직임에 기초하여 상기 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하는 점군 누적부; 누적된 상기 점군데이터를 복셀그리드 기반으로 필터링하여 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 하는 점군 필터링부; 및 GPS로부터 상기 자율 주행 차량의 위치정보를 획득하고 상기 위치정보에 기초하여 필터링된 상기 점군데이터와 전역지도를 매칭하여 상기 전역지도 상에서 상기 자율 주행 차량의 위치를 인식하는 위치 인식부;를 포함할 수 있다. In accordance with the present invention for achieving the above object, there is provided a sparse point cloud-based position recognition apparatus using a low-channel three-dimensional lidar sensor, comprising: a point cloud collection unit for collecting point cloud data according to the position of an object detected by the lidar sensor; a point cloud matching unit for detecting the movement of the autonomous vehicle by matching the point cloud data for the past time and the point cloud data for the current time among the collected point cloud data; a point cloud accumulator for repeatedly accumulating the point cloud data for each preset unit distance based on the detected movement of the vehicle for a preset reference number of times; a point cloud filtering unit configured to filter the accumulated point cloud data based on a voxel grid so that a single point exists in a voxel having a preset size; and a location recognition unit that acquires location information of the autonomous vehicle from GPS and matches the point cloud data filtered based on the location information with a global map to recognize the location of the autonomous vehicle on the global map. can
상기 목적을 달성하기 위한 본 발명에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법은 라이다센서를 통해 객체의 위치에 따른 점군데이터를 수집하는 단계; 수집된 상기 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출하는 단계; 검출된 상기 자율 주행 차량의 움직임에 기초하여 상기 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하는 단계; 누적된 상기 점군데이터를 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 복셀 그리드 기반으로 필터링하는 단계; 및 GPS로부터 획득된 상기 자율 주행 차량의 위치정보를 기초로 하여 필터링된 상기 점군데이터와 전역지도를 매칭하여 상기 자율 주행 차량의 위치를 인식하는 단계;를 포함할 수 있다. According to the present invention for achieving the above object, there is provided a sparse point cloud-based location recognition method using a low-channel three-dimensional lidar sensor, comprising: collecting point cloud data according to the position of an object through a lidar sensor; detecting the movement of the autonomous vehicle by matching the point cloud data for the past time and the point cloud data for the current time among the collected point cloud data; repeatedly accumulating the point cloud data for each predetermined unit distance based on the detected movement of the autonomous vehicle for a predetermined reference number of times; filtering the accumulated point cloud data based on a voxel grid so that a single point exists in a voxel having a preset size; and recognizing the location of the autonomous vehicle by matching the filtered point cloud data with a global map based on the location information of the autonomous vehicle obtained from GPS.
상기한 구성에 의한 본 발명은 저가의 저채널 라이다센서를 사용하여 라이데센서에 의해 감지된 점군데이터를 누적하여 해상도를 높이고, 누적된 점군데이터를 필터링하여 연산에 따른 시간 및 공간 복잡도를 감소시키며, 필터링된 점군데이터와 전역지도를 매칭하여 위치를 인식함에 따라, 저채널 라이다센서만으로 자율 주행 차량의 위치를 정확도 있게 인식할 수 있으므로 비용 절감 효과를 기대할 수 있다. The present invention according to the above configuration uses a low-cost low-channel LiDAR sensor to accumulate point cloud data sensed by the LiDAR sensor to increase the resolution, and to filter the accumulated point cloud data to reduce the time and spatial complexity of calculation. In addition, as the location is recognized by matching the filtered point cloud data with the global map, the location of the autonomous vehicle can be accurately recognized only with the low-channel lidar sensor, so cost savings can be expected.
도 1은 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치를 도시한 구성도이다.
도 2는 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치에서 점군데이터를 정합하는 개념도이다.
도 3은 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치에서 점군데이터의 누적 전후를 비교한 이미지이다.
도 4는 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치에서 점군데이터를 복셀그리드 기반으로 필터링하는 개념도이다.
도 5는 본 발명의 바람직한 실시예에 따른 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법을 도시한 순서도이다. 1 is a block diagram illustrating a location recognition device based on a sparse point group using a low-channel three-dimensional lidar sensor according to a preferred embodiment of the present invention.
2 is a conceptual diagram of matching point cloud data in a sparse point cloud-based location recognition apparatus using a low-channel three-dimensional lidar sensor according to a preferred embodiment of the present invention.
3 is an image comparing before and after the accumulation of point cloud data in the sparse point cloud-based location recognition apparatus using a low-channel three-dimensional lidar sensor according to a preferred embodiment of the present invention.
4 is a conceptual diagram of filtering point cloud data based on a voxel grid in a sparse point cloud-based location recognition apparatus using a low-channel 3D lidar sensor according to a preferred embodiment of the present invention.
5 is a flowchart illustrating a sparse point group-based location recognition method using a low-channel 3D lidar sensor according to a preferred embodiment of the present invention.
본 발명은 저비용으로 자율 주행 차량의 위치 인식에 대한 정확도 및 정밀도를 향상시킬 수 있도록 저가의 저채널 3차원 라이다센서를 이용하여 점군을 정합하고 필터링하여 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치에 관한 것이다.The present invention is a low-channel 3 that recognizes the location of an autonomous vehicle by matching and filtering a point cloud using a low-cost, low-channel 3D lidar sensor to improve the accuracy and precision of location recognition of an autonomous vehicle at low cost. It relates to a sparse point group-based location recognition method and apparatus using a dimensional lidar sensor.
이하 본 발명의 바람직한 실시예에 따른 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법 및 장치를 첨부한 도면을 참조하여 상세하게 설명하면 다음과 같다. Hereinafter, a method and apparatus for recognizing a location based on a sparse point group using a low-channel 3D lidar sensor for recognizing a location of an autonomous vehicle according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 바람직한 실시예에 따른 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치는 도 1에 도시된 바와 같이 점군 수집부(10)와 점군 정합부(20)와 점군 누적부(30)와 점군 필터링부(40) 및 위치 인식부(50)를 포함하여 구성될 수 있다. A sparse point cloud-based location recognition device using a low-channel 3D lidar sensor for recognizing the location of an autonomous vehicle according to a preferred embodiment of the present invention includes a point
상기 점군 수집부(10)는 자율 주행 차량에 장착된 라이다센서로부터 자율 주행 차량의 주변에 존재하는 객체의 위치에 따른 점군데이터()를 수집할 수 있다.The point
상기 점군 정합부(20)는 점근 수집부()에서 수집된 점군데이터() 중에서 과거시간(t-1)에 대한 점군데이터()와 현재시간(t)에 대한 점군데이터()를 정합하여 자율 주행 차량의 움직임을 검출할 수 있다. The point
즉, 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 비교함에 따라 시간의 변화에 따른 거리 변화를 산출하여 자율 주행 차량의 움직임을 검출할 수 있다. That is, by comparing the point cloud data for the past time and the point cloud data for the current time, the distance change according to the change in time can be calculated to detect the movement of the autonomous vehicle.
이때 ICP(Iterative Closest Points), NDT(Normal Distribution Transform) 등의 정합 알고리즘을 사용하여 점군데이터를 정합할 수 있다. In this case, the point cloud data may be matched using a matching algorithm such as Iterative Closest Points (ICP) or Normal Distribution Transform (NDT).
상기 점군 누적부(30)는 점군 정합부(20)에서 점군데이터의 정합에 따라 검출된 자율 주행 차량의 움직임에 기초하여 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하여 점군데이터의 해상도를 높일 수 있다. The
이때 단위거리와 누적횟수는 사용자의 편의에 따라 임의로 설정할 수 있다. 그리고 누적된 점군데이터()의 기준점은 현재시간의 점군데이터()를 기준으로 할 수 있다. In this case, the unit distance and the number of accumulations can be arbitrarily set according to the user's convenience. And the accumulated point cloud data ( ) is the point cloud data of the current time ( ) can be based on
상기 점군 필터링부(40)는 점군 누적부(30)에서 누적된 점군데이터를 복셀그리드 기반으로 필터링하여 위치 인식을 위한 연산에 소모되는 시간 및 공간 복잡도를 감소시킬 수 있다. The point
즉, 기설정된 크기를 가진 3차원 공간인 복셀 상에 하나의 점만이 존재하도록 다른 점들을 제거할 수 있다. That is, other points may be removed so that only one point exists on a voxel that is a 3D space having a preset size.
그리고 복셀 상에 적어도 두 개 이상의 점이 존해할 경우 복셀의 정중앙을 대표점으로 삼고 나머지 점들을 제거할 수 있다. 그러면 필터링된 점군데이터()을 아래의 수학식 1과 같이 생성할 수 있다. In addition, when at least two or more points exist on a voxel, the center of the voxel may be used as a representative point and the remaining points may be removed. Then the filtered point cloud data ( ) can be generated as in
[수학식 1][Equation 1]
이때 복셀의 크기는 사용자의 편의에 따라 임의로 설정할 수 있다. In this case, the size of the voxel may be arbitrarily set according to the user's convenience.
상기 위치 인식부(50)는 GPS로부터 자율 주행 차량의 대략적인 위치정보를 획득한 후 대략적인 위치정보에 기초하여 필터링된 점군데이터()와 전역지도(m)를 매칭하여 전역지도 상에서 자율 주행 차량의 위치를 실시간으로 인식할 수 있다. The
본 발명의 바람직한 실시예에 따른 자율 주행 차량의 위치를 인식하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법은 도 5에 도시된 바와 같이 점군 수집 단계(S10)와 점군 정합 단계(S20)와 점군 누적 단계(S30)와 점군 필터링 단계(S40) 및 위치 인식 단계(S50)를 포함하여 구성될 수 있다. The method for recognizing a location based on a sparse point cloud using a low-channel 3D lidar sensor for recognizing the location of an autonomous vehicle according to a preferred embodiment of the present invention includes a point cloud collection step (S10) and a point cloud matching step as shown in FIG. 5 . (S20), the step of accumulating the point cloud (S30), the step of filtering the point cloud (S40), and the step of recognizing the location (S50) may be configured.
상기 점군 수집 단계(S10)는 라이다센서에 의해 수행되어 자율 주행 차량의 주변에 존재하는 객체들의 위치에 따른 점군데이터를 수집할 수 있다. The point cloud collection step S10 may be performed by the lidar sensor to collect point cloud data according to the positions of objects existing in the vicinity of the autonomous vehicle.
상기 점군 정합 단계(S20)는 점군 정합부(20)에 의해 수행되어 점군 수집 단계(S10)에서 수집된 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출할 수 있다.The point cloud matching step (S20) is performed by the point
상기 점군 누적 단계(S30)는 점군 누적부(30)에 의해 수행되어 점군 정합 단계()에서 검출된 자율 주행 차량의 움직임에 기초하여 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적할 수 있다. The point cloud accumulating step S30 is performed by the
상기 점군 필터링 단계(S40)는 점군 필터링부(40)에 의해 수행되어 점군 누적 단계(S30)에서 누적된 점군데이터를 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 복셀 그리드 기반으로 필터링할 수 있다. The point cloud filtering step S40 is performed by the point
상기 위치 인식 단계(S50)는 위치 인식부(50)에 의해 수행되어 GPS로부터 획득된 자율 주행 차량의 대략적인 위치정보를 기초로 하여 필터링된 점군데이터와 전역지도를 매칭하여 자율 주행 차량의 위치를 인식할 수 있다. The location recognition step S50 is performed by the
이상과 같이 본 발명은 저가의 저채널 라이다센서를 사용하여 라이데센서에 의해 감지된 점군데이터를 누적하여 해상도를 높이고 누적된 점군데이터를 필터링하여 연산에 따른 시간 및 공간 복잡도를 감소시키며 필터링된 점군데이터와 전역지도를 매칭하여 위치를 인식함으로써 저비용으로 자율 주행 차량의 위치를 정확도 있게 인식할 수 있다. As described above, the present invention uses a low-cost low-channel lidar sensor to accumulate point cloud data detected by the lidar sensor to increase the resolution, and to filter the accumulated point cloud data to reduce the time and space complexity according to the operation, and By matching the point cloud data with the global map to recognize the location, it is possible to accurately recognize the location of the autonomous vehicle at low cost.
상기한 실시예는 예시적인 것에 불과한 것으로, 당해 기술분야에 대한 통상의 지식을 가진 자라면 이로부터 다양하게 변형된 다른 실시예가 가능하다. The above-described embodiments are merely exemplary, and those of ordinary skill in the art can variously modified other embodiments therefrom.
따라서 본 발명의 진정한 기술적 보호범위에는 하기의 특허청구범위에 기재된 발명의 기술적 사상에 의해 상기의 실시예뿐만 아니라 다양하게 변형된 다른 실시예가 포함되어야 한다. Accordingly, the true technical protection scope of the present invention should include not only the above embodiments but also other variously modified embodiments by the technical spirit of the invention described in the claims below.
10: 점군 수집부
20: 점균 정합부
30: 점군 누적부
40: 점군 필터링부
50: 위치 인식부
S10: 점군 수집 단계
S20: 점군 정합 단계
S30: 점군 누적 단계
S40: 점군 필터링 단계
S50: 위치 인식 단계10: Point cloud collector
20: slime matching part
30: point cloud accumulation
40: point cloud filtering unit
50: location recognition unit
S10: Point cloud collection step
S20: point cloud registration step
S30: Point cloud accumulation stage
S40: Point cloud filtering step
S50: Location Awareness Phase
Claims (2)
수집된 상기 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출하는 점군 정합부;
검출된 상기 차량의 움직임에 기초하여 상기 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하는 점군 누적부;
누적된 상기 점군데이터를 복셀그리드 기반으로 필터링하여 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 하는 점군 필터링부; 및
GPS로부터 상기 자율 주행 차량의 위치정보를 획득하고 상기 위치정보에 기초하여 필터링된 상기 점군데이터와 전역지도를 매칭하여 상기 전역지도 상에서 상기 자율 주행 차량의 위치를 인식하는 위치 인식부;를 포함하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 장치.a point cloud collecting unit that collects point cloud data according to the position of the object detected by the lidar sensor;
a point cloud matching unit for detecting the movement of the autonomous vehicle by matching the point cloud data for the past time and the point cloud data for the current time among the collected point cloud data;
a point cloud accumulator for repeatedly accumulating the point cloud data for each preset unit distance based on the detected movement of the vehicle for a preset reference number of times;
a point cloud filtering unit configured to filter the accumulated point cloud data based on a voxel grid so that a single point exists in a voxel having a preset size; and
A location recognition unit that acquires the location information of the autonomous vehicle from GPS and matches the point cloud data filtered based on the location information with the global map to recognize the location of the autonomous vehicle on the global map; A sparse point cloud-based location recognition device using a channel 3D lidar sensor.
수집된 상기 점군데이터 중에서 과거시간에 대한 점군데이터와 현재시간에 대한 점군데이터를 정합하여 자율 주행 차량의 움직임을 검출하는 단계;
검출된 상기 자율 주행 차량의 움직임에 기초하여 상기 점군데이터를 기설정된 단위거리마다 기설정된 기준횟수만큼 반복해서 누적하는 단계;
누적된 상기 점군데이터를 기설정된 크기를 가진 복셀에 하나의 점이 존재하도록 복셀 그리드 기반으로 필터링하는 단계; 및
GPS로부터 획득된 상기 자율 주행 차량의 위치정보를 기초로 하여 필터링된 상기 점군데이터와 전역지도를 매칭하여 상기 자율 주행 차량의 위치를 인식하는 단계;를 포함하는 저채널 3차원 라이다센서를 이용한 희소점군 기반의 위치인식 방법.collecting point cloud data according to the position of the object through the lidar sensor;
detecting the movement of the autonomous vehicle by matching the point cloud data for the past time and the point cloud data for the current time among the collected point cloud data;
repeatedly accumulating the point cloud data for each predetermined unit distance based on the detected movement of the autonomous vehicle for a predetermined reference number of times;
filtering the accumulated point cloud data based on a voxel grid so that a single point exists in a voxel having a preset size; and
Recognizing the location of the autonomous vehicle by matching the filtered point cloud data with a global map based on the location information of the autonomous vehicle obtained from GPS; Point cloud-based location recognition method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190154816A KR20210065728A (en) | 2019-11-27 | 2019-11-27 | Position recognition method and device based on sparse point group using low channel 3D lidar sensor |
PCT/KR2020/014313 WO2021107403A1 (en) | 2019-11-27 | 2020-10-20 | Method and apparatus for recognizing location based on sparse point group by using low-channel three-dimensional lidar sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190154816A KR20210065728A (en) | 2019-11-27 | 2019-11-27 | Position recognition method and device based on sparse point group using low channel 3D lidar sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210065728A true KR20210065728A (en) | 2021-06-04 |
Family
ID=76129292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190154816A KR20210065728A (en) | 2019-11-27 | 2019-11-27 | Position recognition method and device based on sparse point group using low channel 3D lidar sensor |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20210065728A (en) |
WO (1) | WO2021107403A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115508844B (en) * | 2022-11-23 | 2023-03-21 | 江苏新宁供应链管理有限公司 | Intelligent detection method for deviation of logistics conveyor based on laser radar |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190045006A (en) | 2017-10-23 | 2019-05-02 | 주식회사 유진로봇 | Method and Apparatus for Localization and Mapping Using LIDAR |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3078935A1 (en) * | 2015-04-10 | 2016-10-12 | The European Atomic Energy Community (EURATOM), represented by the European Commission | Method and device for real-time mapping and localization |
KR20180080828A (en) * | 2017-01-05 | 2018-07-13 | 서울대학교산학협력단 | Method for recognizing lane-level vehicle positioning information based on lidar map matching, recording medium and device for performing the method |
US10444759B2 (en) * | 2017-06-14 | 2019-10-15 | Zoox, Inc. | Voxel based ground plane estimation and object segmentation |
KR102589970B1 (en) * | 2017-12-15 | 2023-10-17 | 삼성전자주식회사 | Method and apparatus for determining object position |
KR102006148B1 (en) * | 2018-01-16 | 2019-08-01 | 한국항공대학교산학협력단 | Apparatus and method for generating absolute point cloud of the object |
-
2019
- 2019-11-27 KR KR1020190154816A patent/KR20210065728A/en unknown
-
2020
- 2020-10-20 WO PCT/KR2020/014313 patent/WO2021107403A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190045006A (en) | 2017-10-23 | 2019-05-02 | 주식회사 유진로봇 | Method and Apparatus for Localization and Mapping Using LIDAR |
Also Published As
Publication number | Publication date |
---|---|
WO2021107403A1 (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Grassi et al. | Parkmaster: An in-vehicle, edge-based video analytics service for detecting open parking spaces in urban environments | |
EP3171292B1 (en) | Driving lane data processing method, device, storage medium and apparatus | |
JP5440461B2 (en) | Calibration apparatus, distance measurement system, calibration method, and calibration program | |
US8781732B2 (en) | Apparatus and method for recognizing position of moving object | |
KR101919366B1 (en) | Apparatus and method for recognizing vehicle location using in-vehicle network and image sensor | |
EP2476996B1 (en) | Parallax calculation method and parallax calculation device | |
US20140297092A1 (en) | Intensity map-based localization with adaptive thresholding | |
CN110658539B (en) | Vehicle positioning method, device, vehicle and computer readable storage medium | |
WO2014002692A1 (en) | Stereo camera | |
JP2018180772A (en) | Object detection device | |
US10733768B2 (en) | Method and apparatus for data reduction of feature-based environment information of a driver assistance system | |
CN110657812A (en) | Vehicle positioning method and device and vehicle | |
US20160207473A1 (en) | Method of calibrating an image detecting device for an automated vehicle | |
EP4105829A1 (en) | Lane line determination method and system, vehicle, and storage medium | |
JP2008282386A (en) | Object detector, object detection method, and object detection program | |
CN115240094A (en) | Garbage detection method and device | |
CN104422426A (en) | Method and apparatus for providing vehicle navigation information within elevated road region | |
KR20210065728A (en) | Position recognition method and device based on sparse point group using low channel 3D lidar sensor | |
KR101339255B1 (en) | Lane detecting method for vehicle and system thereof | |
GB2523659A (en) | Method and device for determining a distance of a vehicle from a traffic-controlling object | |
CN112747754A (en) | Fusion method, device and system of multi-sensor data | |
JP2018073275A (en) | Image recognition device | |
US11620832B2 (en) | Image based locationing | |
JP7060334B2 (en) | Training data collection device, training data collection system and training data collection method | |
KR20210076412A (en) | Apparatus and method for evaluating vehicle sensor performance |