KR20210028294A - Apparatus and Method for Recognizing Lane Using Lidar Sensor - Google Patents

Apparatus and Method for Recognizing Lane Using Lidar Sensor Download PDF

Info

Publication number
KR20210028294A
KR20210028294A KR1020190108513A KR20190108513A KR20210028294A KR 20210028294 A KR20210028294 A KR 20210028294A KR 1020190108513 A KR1020190108513 A KR 1020190108513A KR 20190108513 A KR20190108513 A KR 20190108513A KR 20210028294 A KR20210028294 A KR 20210028294A
Authority
KR
South Korea
Prior art keywords
lane
candidate group
information
data
lane candidate
Prior art date
Application number
KR1020190108513A
Other languages
Korean (ko)
Other versions
KR102228278B1 (en
Inventor
기석철
김준영
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020190108513A priority Critical patent/KR102228278B1/en
Publication of KR20210028294A publication Critical patent/KR20210028294A/en
Application granted granted Critical
Publication of KR102228278B1 publication Critical patent/KR102228278B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out

Abstract

The present embodiment relates to a lane recognition method using a Lidar sensor and to a device therefor. The method detects a lane candidate group based on brightness information in Lidar data, and performs filtering based on vehicle′s steering wheel information, density information, reliability information, moving average information, or the like from the detected lane candidate group to select the final lane candidate group, accuracy of the lane-based LKAS using the Lidar is improved.

Description

라이다 센서를 이용한 차선인식 방법 및 그를 위한 장치{Apparatus and Method for Recognizing Lane Using Lidar Sensor}A lane recognition method using a lidar sensor and an apparatus therefor

본 실시예는 라이다 센서를 이용한 차선인식 방법 및 그를 위한 장치에 관한 것이다.The present embodiment relates to a lane recognition method using a lidar sensor and an apparatus therefor.

이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the embodiments of the present invention and does not constitute the prior art.

최근 자동차 산업 발달과 안전 기능에 대한 요구 사항이 지속적으로 증가되면서 첨단 운전자 안전 지원 시스템(ADAS: Advanced Driver Assistance System)에 대한 연구가 활발하게 진행되고 있다.With the recent development of the automobile industry and the continuous increase in requirements for safety functions, research on advanced driver assistance systems (ADAS) is being actively conducted.

ADAS에서 각광받는 연구분야 중 하나는 현재 주행중인 차선을 검출하고 이탈 정보를 확인, 이탈하지 않게 제어하는 LKAS(Lane Keeping Assistance system)이다. 주행중에는 차량 내 공조 버튼을 작동하거나 다른 외부요인에 의해 Steering Wheel에 손을 떼야 하는 경우가 종종 발생하는데 이는 큰 사고로 이어질 수 있기 때문에 LKAS는 반드시 필요한 ADAS 기능 중 하나이다.One of the research areas in the spotlight in ADAS is the Lane Keeping Assistance System (LKAS), which detects the currently driving lane, checks the departure information, and controls it so that it does not leave. While driving, it is often necessary to operate the air conditioning button in the vehicle or to release the steering wheel due to other external factors. This can lead to a major accident, so LKAS is one of the necessary ADAS functions.

LKAS에서 높은 성능을 보장받기 위해서는 차선을 정확하게 검출하는 기술이 필수적이다. 일반적으로 차선을 검출할 때는 비교적 가격이 저렴한 카메라 센서를 사용했는데 카메라 센서는 기상악조건에서 라이다 센서보다 신뢰도가 떨어진다. 라이다 센서의 가격이 현재는 비싸지만 기술의 개발과 수요가 증가함에 따라 센서의 가격은 떨어지고 성능은 좋아지고 있기 때문에 라이다 센서를 이용한 차선인식 알고리즘개발이 필수적이다.In order to ensure high performance in LKAS, a technology that accurately detects lanes is essential. In general, a camera sensor, which is relatively inexpensive, is used to detect lanes, but the camera sensor is less reliable than the lidar sensor in bad weather conditions. Although the price of the lidar sensor is currently expensive, the cost of the sensor is falling and the performance is improving as the technology development and demand increase, so it is essential to develop a lane recognition algorithm using the lidar sensor.

본 실시예는 라이다 센서를 이용한 차선인식 방법에 관한 기술로서, 라이다 데이터 내 밝기 정보를 기반으로 차선 후보군을 검출하고, 검출된 차선 후보군으로부터 차량의 스티어링 휠 정보, 밀집도 정보, 신뢰도 정보 및 무빙 에버리지 정보 등을 기반으로 필터링을 수행하여 최종 차선 후보군을 선정함으로써 라이다를 이용한 차선 기반의 LKAS에 대한 정확도가 향상될 수 있도록 하는 데 그 목적이 있다.This embodiment is a technology related to a lane recognition method using a lidar sensor, and detects a lane candidate group based on brightness information in the lidar data, and steering wheel information, density information, reliability information, and moving from the detected lane candidate group. The purpose of this is to improve the accuracy of lane-based LKAS using lidar by selecting a final lane candidate group by performing filtering based on average information, etc.

본 실시예는, 라이다 센서로부터 라이다 데이터를 획득하고, 상기 라이다 데이터 내 지면 데이터를 검출하는 라이다 데이터 처리부; 상기 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 후보 검출부; 상기 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 상기 차선 후보군 내 오류 후보군을 제거하는 제1 필터링부; 상기 제1 필터링부를 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 상기 차선 후보군 내 비신뢰 후보군을 제거하는 제2 필터링부; 및 상기 제2 필터링부를 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정하는 선정부를 포함하는 것을 특징으로 하는 차선인식 장치를 제공한다.In this embodiment, a lidar data processing unit that acquires lidar data from a lidar sensor and detects ground data in the lidar data; A candidate detection unit for detecting a lane candidate group based on brightness information among the ground data; A first filtering unit for removing an error candidate group in the lane candidate group based on at least one of characteristics of the lane candidate group and vehicle status information; A second filtering unit for removing untrusted candidate groups in the lane candidate group by measuring the reliability of the lane candidate group filtered through the first filtering unit; And a selection unit for selecting a final lane candidate group by calculating a moving average for the lane candidate group filtered through the second filtering unit.

또한, 본 실시예의 다른 측면에 의하면, 라이다 센서로부터 라이다 데이터를 획득하고, 상기 라이다 데이터 내 지면 데이터를 검출하는 지면 데이터 검출 과정; 상기 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 차선 후보군 검출 과정; 상기 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 상기 차선 후보군 내 오류 후보군을 제거하는 제1 필터링 과정; 상기 제1 필터링 과정을 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 상기 차선 후보군 내 비신뢰 후보군을 제거하는 제2 필터링 과정; 및 상기 제2 필터링 과정을 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정하는 선정 과정을 포함하는 것을 특징으로 하는 차선인식 방법을 제공한다.In addition, according to another aspect of the present embodiment, a ground data detection process of acquiring lidar data from a lidar sensor and detecting ground data in the lidar data; A lane line candidate group detection process of detecting a lane line candidate group based on brightness information among the ground data; A first filtering process of removing an error candidate group in the lane candidate group based on at least one of characteristics of the lane candidate group and vehicle status information; A second filtering process of removing an untrusted candidate group in the lane candidate group by measuring the reliability of the lane candidate group filtered through the first filtering process; And a selection process of selecting a final lane candidate group by calculating a moving average for the lane candidate group filtered through the second filtering process.

이상에서 설명한 바와 같이 본 실시예에 의하면, 라이다 데이터 내 밝기 정보를 기반으로 차선 후보군을 검출하고, 검출된 차선 후보군으로부터 차량의 스티어링 휠 정보, 밀집도 정보, 신뢰도 정보 및 무빙 에버리지 정보 등을 기반으로 필터링을 수행하여 최종 차선 후보군을 선정함으로써 라이다를 이용한 차선 기반의 LKAS에 대한 정확도를 향상시킬 수 있는 효과가 있다.As described above, according to the present embodiment, a lane candidate group is detected based on brightness information in the lidar data, and based on the vehicle steering wheel information, density information, reliability information, and moving average information from the detected lane candidate group. By performing filtering and selecting the final lane candidate group, there is an effect of improving the accuracy of the lane-based LKAS using the lidar.

도 1은 본 실시예에 따른 차선인식 장치를 개략적으로 나타낸 블록 구성도이다.
도 2는 본 실시예에 따른 차선인식 방법을 설명하기 위한 순서도이다.
도 3은 본 실시예에 따른 라이다 데이터를 예시한 도면이다.
도 4는 본 실시예에 따른 지면 데이터를 예시한 도면이다.
도 5 및 도 6은 본 실시예에 따른 차선 후보군을 설명하기 위한 도면이다.
도 7은 본 실시예에 따른 오류 후보군 제거방법을 설명하기 위한 도면이다.
도 8은 본 실시예에 따른 비신뢰 후보군을 제거방법을 설명하기 위한 도면이다.
도 9는 본 실시예에 따른 최종 차선 후보군을 설명하기 위한 도면이다.
1 is a block diagram schematically showing a lane recognition apparatus according to the present embodiment.
2 is a flowchart illustrating a lane recognition method according to the present embodiment.
3 is a diagram illustrating LiDAR data according to the present embodiment.
4 is a diagram illustrating paper data according to the present embodiment.
5 and 6 are diagrams for explaining a lane candidate group according to the present embodiment.
7 is a diagram for explaining a method of removing an error candidate group according to the present embodiment.
8 is a diagram for explaining a method of removing an untrusted candidate group according to the present embodiment.
9 is a diagram for explaining a final lane candidate group according to the present embodiment.

이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명을 설명함에 있어, '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Hereinafter, the present embodiment will be described in detail with reference to the accompanying drawings. In describing the present invention,'... Terms such as'sub' and'module' mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software.

본 실시예는 자율주행 자동차에 배치되는 적어도 하나의 라이다(LiDAR: Light Detection and Ranging) 센서를 이용한 차선 인식방법에 대해 기재하고 있으나 이는 일 실시예에 따른 것으로서, 라이다 데이터를 이용하여 객체를 검출하는 다양한 분야에 적용될 수 있다.This embodiment describes a lane recognition method using at least one LiDAR (Light Detection and Ranging) sensor disposed in an autonomous vehicle, but this is according to an embodiment, and an object is identified using LiDAR data. It can be applied to various fields of detection.

도 1은 본 실시예에 따른 차선인식 장치를 개략적으로 나타낸 블록 구성도이다. 이하에서는 도 1을 참조하여 본 실시예에 따른 차선인식 장치(100) 및 관련 구성에 대하여 설명하도록 한다.1 is a block diagram schematically showing a lane recognition apparatus according to the present embodiment. Hereinafter, the lane recognition apparatus 100 and related configurations according to the present embodiment will be described with reference to FIG. 1.

차선인식 장치(100)는 라이다 센서(미도시)와 연동하여 차선을 검출하는 장치로서, 라이다 센서로부터 수집된 라이다 데이터를 기반으로 소정의 거리에 있는 전방의 차선을 검출한다. 구체적으로 차선인식 장치(100)는 라이다 센서로부터 획득한 포인트 클라우드 데이터에 대하여 높이 정보 제거를 수행하고, 밝기 정보를 기반으로 차선이 위치할 것으로 추정되는 영역을 차선 후보군으로 검출한다. 이후, 차선인식 장치(100)는 검출된 차선 후보군으로부터 차량의 스티어링 휠 정보, 밀집도 정보, 신뢰도 정보 및 무빙 에버리지 정보 등을 기반으로 필터링을 수행하여 최종 차선 후보군을 선정한다.The lane recognition device 100 is a device that detects a lane in connection with a lidar sensor (not shown), and detects a lane ahead at a predetermined distance based on the lidar data collected from the lidar sensor. In more detail, the lane recognition apparatus 100 removes height information on the point cloud data acquired from the lidar sensor, and detects an area where the lane is estimated to be located based on the brightness information as a lane candidate group. Thereafter, the lane recognition apparatus 100 selects a final lane candidate group by performing filtering based on steering wheel information, density information, reliability information, and moving average information of the vehicle from the detected lane candidate group.

도 1에 도시하듯이, 본 실시예에 따른 차선인식 장치(100)는 라이다 데이터 처리부(110), 후보 검출부(120), 제1 필터링부(130), 제2 필터링부(140), 설정부(150) 및 가이드부(160)를 포함한다. 여기서, 차선인식 장치(100)에 포함되는 구성요소는 반드시 이에 한정되는 것은 아니다. 예컨대, 차선인식 장치(100)는 라이다 센서를 구성요소로서 포함하는 형태로 구현될 수 있다.As shown in FIG. 1, the lane recognition apparatus 100 according to the present embodiment includes a lidar data processing unit 110, a candidate detection unit 120, a first filtering unit 130, a second filtering unit 140, and setting It includes a portion 150 and a guide portion 160. Here, the components included in the lane recognition device 100 are not necessarily limited thereto. For example, the lane recognition device 100 may be implemented in a form including a lidar sensor as a component.

라이다 데이터 처리부(110)는 라이다 센서로부터 획득한 라이다 데이터를 가공 처리하여 라이다 데이터 내 지면 데이터를 검출한다. The lidar data processing unit 110 processes the lidar data obtained from the lidar sensor to detect ground data in the lidar data.

한편, 라이다 센서는 차량의 일측에 장착되며, 차량의 주변(전방)을 향하여 레이저를 발사한다. 라이다 센서에 의해 발사된 레이저는 산란되거나 반사되어 차량으로 되돌아올 수 있다. Meanwhile, the lidar sensor is mounted on one side of the vehicle and emits a laser toward the periphery (front) of the vehicle. The laser emitted by the lidar sensor can be scattered or reflected and returned to the vehicle.

라이다 센서는 레이저를 이용하여 측정한 거리정보(Distance Information)를 3D 공간에서 점들의 집합(Point Cloud) 형태로 나타내며, 이러한 거리정보를 포함하는 라이다 데이터를 차선인식 장치(100)로 전달한다. 예컨대, 포인트 클라우드 내 각 포인트들은 센서의 위치로부터 목표물과 로봇좌표계 기준 X 방향, Y 방향, Z 방향으로 각 몇 M 떨어져 있는지의 거리정보와 목표물의 반사계수값이 포함될 수 있다.The lidar sensor represents distance information measured using a laser in the form of a point cloud in 3D space, and transmits the lidar data including the distance information to the lane recognition device 100. . For example, each point in the point cloud may include distance information of a distance from the sensor position to the target in the X-direction, Y-direction, and Z-direction, and a reflection coefficient value of the target.

이러한, 라이다 데이터의 형태는 도 3을 통해 확인할 수 있다. 한편, 도 3의 (a)와 (b)는 각각 터널 구간에 대하여 카메라로부터 취득한 영상과 이에 대응하여 라이다 센서로부터 취득한 라이다 데이터를 비교 도시하였다.The form of the LiDAR data can be confirmed through FIG. 3. Meanwhile, FIGS. 3A and 3B illustrate comparisons between images acquired from a camera for each tunnel section and LiDAR data acquired from a LiDAR sensor corresponding thereto.

본 실시예에 따른 라이다 데이터 처리부(110)는 3D 입체 데이터인 라이다 데이터 내 높이 정보를 제거하여 지면 데이터를 검출할 수 있다. 즉, 라이다 데이터 처리부(110)는 차선을 쉽게 추출하기 위해서 불필요한 Z축(지면에 수직인 높이 정보)을 제거하여 바닥면만을 추출함으로써 도 4와 같은 지면 데이터를 검출할 수 있다.The lidar data processing unit 110 according to the present embodiment may detect ground data by removing height information in lidar data, which is 3D stereoscopic data. That is, the lidar data processing unit 110 may detect the ground data as shown in FIG. 4 by removing unnecessary Z-axis (height information perpendicular to the ground) and extracting only the bottom surface in order to easily extract the lane.

후보 검출부(120)는 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 기능을 수행한다.The candidate detection unit 120 performs a function of detecting a lane candidate group based on brightness information among ground data.

현재 개발된 라이다 센서를 이용한 차선 알고리즘은 차선 후보군을 생성할 때 주로 Otsu 알고리즘을 이용한다. Otsu 알고리즘은 임계값 T를 기준으로 데이터를 두 클래스로 분류했을 때 두 클래스간의 클래스 내 분산(intra-class variance)을 최소화하거나 또는 클래스 간 변화(inter-class variance)를 최대로 하는 T를 찾는 이진화 방법이다.The currently developed lane algorithm using the lidar sensor mainly uses the Otsu algorithm when generating the lane candidate group. Otsu's algorithm is a binarization to find T that minimizes intra-class variance between two classes or maximizes inter-class variance when data is classified into two classes based on a threshold T. That's the way.

한편, 64 채널 라이다를 기준으로 바닥면만을 추출했을 때 전체 데이터의 수는 약 13000개인데 비해, 차선에 해당하는 데이터의 수는 약 250개 미만으로 이는 수치상으로 2% 미만이다. 즉, 이 데이터를 가지고 두 클래스를 나누는 임계값 T를 찾는 것은 한계가 있다.On the other hand, when only the bottom surface is extracted based on the 64 channel lidar, the total number of data is about 13,000, whereas the number of data corresponding to the lane is less than about 250, which is less than 2% numerically. In other words, there is a limit to finding the threshold T that divides the two classes with this data.

차선의 특징으로는 주변의 데이터에 비해 밝기 값이 큰 점이다. 이 점에 기인하여 후보 검출부(120)는 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출한다.The characteristic of the lane is that the brightness value is larger than the surrounding data. Due to this, the candidate detection unit 120 detects a lane candidate group based on brightness information among the ground data.

본 실시예에 따른 후보 검출부(120)는 지면 데이터의 밝기 변화에 대한 x축의 기울기 변화량 파형을 산출하고, 산출된 기울기 변화량 파형을 미분한 미분 파형을 기반으로 지면 데이터 내 차선 후보군을 검출한다.The candidate detection unit 120 according to the present exemplary embodiment calculates a slope variation waveform of the x-axis with respect to the brightness variation of the ground data, and detects a lane candidate group in the ground data based on a differential waveform obtained by differentiating the calculated slope variation waveform.

보다 자세하게는, 후보 검출부(120)는 미분 파형을 기준으로 밝기 변화량이 기 설정된 임계치 이상 증가하였다가 일정 범위 내에서 다시 기 설정된 임계치 이상 감소하는 영역을 차선 후보군으로서 검출한다.In more detail, the candidate detection unit 120 detects a region in which the brightness change amount increases by more than a preset threshold value based on the differential waveform and then decreases again by more than a preset threshold value within a certain range as a lane candidate group.

예컨대, 도 5를 참조하면, 기준 왼쪽부터 오른쪽으로 밝기의 1차 미분한 파형을 보면 밝기 변화량이 크게 증가했다가 크게 감소하는 것을 확인 할 수 있다. 이 점에 기인하여, 본 실시예에 따른 후보 검출부(120)는 밝기 변화량이 크게 증가했다가 N번째 데이터 내에 밝기 변화량이 크게 감소하는 경우에 차선 후보군으로 설정 하였다. 여기서 N은 기 정의된 도로 내 차선 간의 폭 길이에 따라 결정될 수 있다.For example, referring to FIG. 5, it can be seen that the amount of change in brightness increases and decreases significantly when the first-order differential waveform of brightness is viewed from left to right of the reference. Due to this point, the candidate detection unit 120 according to the present embodiment has set as the next best candidate group when the amount of change in brightness increases and then the amount of change in brightness in the N-th data decreases significantly. Here, N may be determined according to a predefined width and length between lanes within the road.

도 6을 참조하면, 본 실시예에 따른 후보 검출부(120)를 통해 검출된 차선 후보군을 확인할 수 있다. 한편, 도 6에서는 후보 검출부(120)가 밝기 미분값으로 얻은 차선 후보군 데이터를 포인트 클라우드 맵 상에 표시하였다.Referring to FIG. 6, a lane candidate group detected through the candidate detector 120 according to the present embodiment may be identified. Meanwhile, in FIG. 6, the candidate detection unit 120 displays the lane candidate group data obtained as the brightness differential value on the point cloud map.

본 실시예에 있어서, 후보 검출부(120)는 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출함으로써 차선이라고 오인식할 가능성이 있는 정지선을 제거 할 수 있는 효과가 있다.In the present embodiment, the candidate detection unit 120 has an effect of removing a stop line that may be misrecognized as a lane by detecting a lane candidate group based on brightness information among ground data.

한편, 후보 검출부(120)를 통해 차선 후보군을 검출하면 후보군 내에 많은 차선이 검출되지만 가끔 차선이 아닌 데이터(False Positive)가 포함될 수 있다. 이에, 정확한 차선 검출을 위해서는 실제 차선인 데이터(True Positive)를 제거하지 않는 범위 내에서 오류 데이터를 제거해야 한다.Meanwhile, when a lane candidate group is detected through the candidate detection unit 120, many lanes are detected in the candidate group, but data (False Positive) other than the lane may sometimes be included. Accordingly, in order to accurately detect a lane, error data must be removed within a range that does not remove the actual lane data (True Positive).

제1 필터링부(130)는 후보 검출부(120)를 통해 검출된 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 차선 후보군 내 오류 후보군을 제거하는 기능을 수행한다.The first filtering unit 130 performs a function of removing an error candidate group in the lane candidate group based on at least one of the characteristics of the lane candidate group and vehicle status information detected by the candidate detection unit 120.

본 실시예에 있어서, 제1 필터링부(130)는 차량의 상태정보로서 스티어링 휠(Steering Wheel) 정보를 수집하고, 수집된 스티어링 휠 정보를 기반으로 차선 후보군 내 오류 후보군을 제거할 수 있다. 이때, 차량의 스티어링 휠 정보는 차량과의 CAN 통신을 통해 획득할 수 있다.In this embodiment, the first filtering unit 130 may collect steering wheel information as vehicle status information, and remove an error candidate group within the lane candidate group based on the collected steering wheel information. In this case, information on the steering wheel of the vehicle may be obtained through CAN communication with the vehicle.

예컨대, 도 7을 참조하면, 제1 필터링부(130)는 차량의 스티어링 휠 정보를 기준으로 차량과 차선 후보군 사이에 유클리디안 거리정보(Euclidean Distance)를 계산하여 오류 후보군을 제거할 수 있다. 보다 자세하게는, 제1 필터링부(130)는 스티어링 휠 정보를 기준으로 차량의 헤딩의 직선 방정식과 차선 후보군 사이에 유클리디안 거리정보가 기 설정된 임계치 미만인 차선 후보군을 오류 후보군으로서 제거할 수 있다.For example, referring to FIG. 7, the first filtering unit 130 may remove the error candidate group by calculating Euclidean distance information between the vehicle and the lane candidate group based on the steering wheel information of the vehicle. In more detail, the first filtering unit 130 may remove a lane candidate group in which Euclidean distance information is less than a preset threshold between a linear equation of a vehicle heading and a lane candidate group based on the steering wheel information as an error candidate group.

이 경우, 후보 검출부(120)는 도로 바닥에 그려진 표식, 물웅덩이 혹은 울퉁불퉁한 바닥면에 대응되는 오류 후보군을 차선 후보군에서 제외할 수 있는 효과가 있다.In this case, the candidate detection unit 120 has an effect of excluding an error candidate group corresponding to a mark drawn on the road floor, a puddle, or an uneven floor surface from the lane candidate group.

한편, 차선을 주로 실선 혹은 점선으로 되어 있는데 차선 후보군을 생성하게 되면 실제 차선 위에 밀집하여 존재하게 된다.On the other hand, lanes are mainly made of solid lines or dotted lines, and when a lane candidate group is generated, they are densely present on the actual lanes.

이 점에 기인하여, 제1 필터링부(130)는 차선 후보군의 특징으로서 차선 후보군을 기준으로 기 설정된 인접 범위 내에 다른 데이터들에 대한 존재 여부(ex: 밀집도 정보)를 파악하고, 이를 활용하여 오류 후보군을 차선 후보군에서 제외할 수 있다.Due to this, the first filtering unit 130 determines whether other data exist within a preset adjacent range based on the lane candidate group as a characteristic of the lane candidate group (ex: density information), and utilizes this to detect an error. Candidates may be excluded from the second-best candidates.

예컨대, 제1 필터링부(130)는 검출된 차선 후보군을 기분으로 각각 기 설정된 기 설정된 임계치 범위 내에 또 다른 데이터들이 존재하는지를 검사한다. 이후, 제1 필터링부(130)는 기 설정된 임계치 범위 내에 또 다른 차선 후보군이 존재하지 않는다면 오류 후보군일 확률이 매우 높으므로 제거한다.For example, the first filtering unit 130 checks whether other data exist within a preset threshold range, respectively, based on the detected lane candidate group. Thereafter, if there is no other lane candidate group within the preset threshold range, the probability of the error candidate group is very high, and thus the first filtering unit 130 removes it.

제2 필터링부(140)는 제1 필터링부(130)를 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 차선 후보군 내 비신뢰 후보군을 제거한다.The second filtering unit 140 removes the untrusted candidate group in the lane candidate group by measuring the reliability of the lane candidate group filtered through the first filtering unit 130.

제2 필터링부(140)는 제1 필터링부(130)를 통해 필터링된 차선 후보군에 대응되는 N차 방정식의 차선을 나타내고, N차 방정식의 차선을 기준으로 차선 후보군과의 사이에 법선거리를 산출하여 상기의 신뢰도를 측정할 수 있다.The second filtering unit 140 represents the lane of the N-order equation corresponding to the lane candidate group filtered through the first filtering unit 130, and calculates a normal distance between the lane candidate group based on the lane of the N-order equation. Thus, the reliability can be measured.

예컨대, 제2 필터링부(140)는 차선 후보군과의 사이에 산출된 법선거리를 기반으로 차선 후보군이 얼마나 신뢰도가 있고, 실제 LKAS 주행에 사용될 수 있는지 복수의 단계로 나누어 신뢰도가 낮은 차선 후보군을 제외할 수 있다.For example, the second filtering unit 140 divides the lane candidate group into a plurality of steps to determine how reliable the lane candidate group is based on the normal distance calculated between the lane candidate group and can be used for actual LKAS driving, and excludes the lane candidate group with low reliability. can do.

도 8의 (a), (b)를 예시하여 설명하자면, 원은 차선 후보군을 나타낸 것이고, 선은 이 후보군을 기분으로 만든 N차 방정식을 그린 예시이다.8A and 8B are illustrated and described, the circles represent the suboptimal candidate groups, and the lines represent the N-order equations that make this candidate a mood.

도 8의 (a)는 신뢰도가 높은 차선을 그린 예시로서, N차 방정식을 기준으로 차선 후보군이 밀집되어 존재하는 것을 확인할 수 있다.8A is an example of drawing a lane with high reliability, and it can be seen that the lane candidate groups are densely present based on the N-order equation.

도 8의 (b)는 신뢰도가 낮은 차선을 그린 예시로서, N차 방정식을 기준으로 차선 후보군의 밀집도가 도 8의 (a) 대비 떨어지는 것을 확인할 수 있다.FIG. 8(b) is an example of drawing a lane with low reliability, and it can be seen that the density of the lane candidate group is lower than that of FIG. 8(a) based on the N-order equation.

한편, 도 1에서는 차선인식 장치(100) 내 제1 필터링부(130) 및 제2 필터링부(140)가 각각 별개의 장치로 구현된 것으로 예시하였으나 반드시 이에 한정되는 것은 아니며, 제1 필터링부(130) 및 제2 필터링부(140)는 하나의 필터링 장치로 구현될 수도 있다.Meanwhile, in FIG. 1, the first filtering unit 130 and the second filtering unit 140 in the lane recognition device 100 are exemplified as being implemented as separate devices, but are not limited thereto, and the first filtering unit ( 130) and the second filtering unit 140 may be implemented as one filtering device.

선정부(150)는 제2 필터링부(140)를 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정한다. 이러한, 선정부(150)의 동작은 일종의 트레킹 과정으로서 데이터의 노이즈를 평탄화를 수행한다.The selection unit 150 selects a final lane candidate group by calculating a moving average for the lane candidate group filtered through the second filtering unit 140. The operation of the selection unit 150 is a type of tracking process and smoothes the noise of the data.

본 실시예에 있어서, 선정부(150)는 일정 시점동안 수집되는 누적 데이터를 기반으로 차선 후보군에 대응되는 차선 방정식의 기울이게 대한 평균값을 나타내는 무빙 에버리지를 연산한다. 여기서, 무빙 에버리지는 과거부터 현재까지의 정해진 기간동안 평균값을 보여주는 반응성 지표로서, 선정부(150)는 10 ~ 30개의 누적 데이터를 기반으로 무빙 에버리지의 연산을 위한 평균치를 연산하는 것이 바람직하나 반드시 이에 한정되는 것은 아니다.In this embodiment, the selection unit 150 calculates a moving average indicating an average value of the inclination of the lane equation corresponding to the lane candidate group based on the accumulated data collected for a predetermined time. Here, the moving average is a reactivity index showing an average value for a predetermined period from the past to the present, and the selection unit 150 preferably calculates an average value for calculating the moving average based on 10 to 30 accumulated data. It is not limited.

한편, 정해긴 기간동안 차선의 데이터는 천천히 변화하게 된다. 이에, 어느 한 시점만 급격하게 값이 다른 경우는 물리적으로 존재할 수 없게 된다. 이 점에 기인하여, 선정부(150)는 연산한 무빙 에버리지를 기준으로 기 설정된 임계치를 벗어나는 변화 값을 갖는 차선 후보군을 필터링하여 최종 차선 후보군을 선정한다. 즉, 선정부(150)는 무빙 에버리지를 이용하여 급격하게 값이 다른 경우의 차선 데이터를 제거한다.On the other hand, the data of the lane slowly changes during a predetermined period. Accordingly, if the value is sharply different only at one point in time, it cannot be physically present. Due to this, the selection unit 150 selects a final lane candidate group by filtering a lane candidate group having a change value out of a preset threshold based on the calculated moving average. That is, the selection unit 150 removes the lane data when the values are sharply different by using the moving average.

가이드부(160)는 최종 차선 후보군을 기반으로 차량이 차선을 이탈하지 않고 주행할 수 있도록 가이드하는 웨이 포인트(Way Point) 정보를 생성하여 제공하는 기능을 수행한다. 이때, 웨이 포인트 정보는 우리나라 차선 폭이 약 3m ~ 3.5m인 것을 감안해 검출된 차선의 중앙에 위치하게 파라미터를 조절하였다. 이 데이터를 제어장치에 넘겨주게 되면 LKAS가 가능하며, 웨이 포인트 정보에는 차량이 이동해야할 X, Y 좌표의 정보가 저장된다.The guide unit 160 performs a function of generating and providing way point information that guides the vehicle to travel without leaving the lane based on the final lane candidate group. At this time, the parameter was adjusted so that the waypoint information is located in the center of the detected lane considering that the lane width in Korea is about 3m to 3.5m. When this data is passed to the control device, LKAS is possible, and information on the X and Y coordinates to which the vehicle should move is stored in the waypoint information.

한편, 도 9의 (a)는 최종 차선이 인식된 차선 방정식을 도시하였으며, 도 9의 (b)는 차선 방정식을 기준으로 생성된 웨이 포인트를 도시한 도면이다. 이를 기반으로, LKAS를 할 때 차량은 해당 웨이 포인트를 따라 이동하게 된다.Meanwhile, (a) of FIG. 9 shows a lane equation in which the final lane is recognized, and (b) of FIG. 9 is a diagram showing a waypoint generated based on the lane equation. Based on this, when performing LKAS, the vehicle moves along the corresponding waypoint.

도 2는 본 실시예에 따른 차선인식 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a lane recognition method according to the present embodiment.

차선인식 장치(100)는 라이다 센서로부터 라이다 데이터를 획득하고, 라이다 데이터 내 지면 데이터를 검출한다(S202). 단계 S202에서 차선인식 장치(100)는 는 3D 입체 데이터인 라이다 데이터 내 높이 정보를 제거하여 지면 데이터를 검출할 수 있다. The lane recognition apparatus 100 acquires lidar data from the lidar sensor, and detects ground data in the lidar data (S202). In step S202, the lane recognition apparatus 100 may detect ground data by removing height information in lidar data, which is 3D stereoscopic data.

차선인식 장치(100)는 단계 S202에서 검출한 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출한다(S204). 단계 S204에서 차선인식 장치(100)는 지면 데이터의 밝기 변화에 대한 x축의 기울기 변화량 파형을 산출하고, 산출된 기울기 변화량 파형을 미분한 미분 파형을 기반으로 밝기 변화량이 기 설정된 임계치 이상 증가하였다가 일정 범위 내에서 다시 기 설정된 임계치 이상 감소하는 영역을 차선 후보군으로서 검출한다.The lane recognition apparatus 100 detects a lane candidate group based on brightness information among the ground data detected in step S202 (S204). In step S204, the lane recognition device 100 calculates a slope change amount waveform on the x-axis with respect to the brightness change of the ground data, and increases the brightness change amount by more than a preset threshold based on the differential waveform obtained by differentiating the calculated slope change amount waveform. A region that decreases by more than a preset threshold value within the range is detected as a lane candidate group.

이때, 차선인식 장치(100)는 검출된 차선 후보군을 관심 영역으로 설정할 수 있다.In this case, the lane recognition apparatus 100 may set the detected lane lane candidate group as the region of interest.

차선인식 장치(100)는 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 오류 후보군을 제거한다(S206). 단계 S206에서 차선인식 장치(100)는 스티어링 휠 정보를 기준으로 차량의 헤딩의 직선 방정식과 차선 후보군 사이에 유클리디안 거리정보가 기 설정된 임계치 미만인 차선 후보군을 오류 후보군으로서 제거할 수 있다.The lane recognition apparatus 100 removes the error candidate group based on at least one of the characteristics of the lane candidate group and the vehicle status information (S206). In step S206, the lane recognition apparatus 100 may remove a lane candidate group whose Euclidean distance information is less than a preset threshold between the linear equation of the vehicle's heading and the lane candidate group as an error candidate group based on the steering wheel information.

또한, 차선인식 장치(100)는 검출된 차선 후보군을 기분으로 각각 기 설정된 기 설정된 임계치 범위 내에 또 다른 데이터들이 존재하는지를 검사하고, 검사결과에 따라 기 설정된 임계치 범위 내에 또 다른 차선 후보군이 존재하지 않는다면 오류 후보군일 확률이 매우 높으므로 제거할 수 있다.In addition, the lane recognition apparatus 100 checks whether another data exists within a preset threshold range, respectively, based on the detected lane candidate group, and if another lane candidate group does not exist within a preset threshold range according to the test result. The probability of being a candidate group of errors is very high and can be eliminated.

차선인식 장치(100)는 차선 후보군의 신뢰도를 측정하여 비신뢰 후보군을 제거한다(S208). 단계 S208에서 차선인식 장치(100)는 차선 후보군에 대응되는 N차 방정식의 차선을 나타내고, N차 방정식의 차선을 기준으로 차선 후보군과의 사이에 법선거리를 산출하여 신뢰도를 측정할 수 있다.The lane recognition apparatus 100 removes the untrusted candidate group by measuring the reliability of the lane candidate group (S208). In step S208, the lane recognition apparatus 100 may measure reliability by indicating a lane of an N-order equation corresponding to the lane candidate group, and calculating a normal distance between the lane candidate group based on the lane of the N-order equation.

차선인식 장치(100)는 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정한다(S210). 단계 S210에서 차선인식 장치(100)는 일정 시점동안 수집되는 누적 데이터를 기반으로 차선 후보군에 대응되는 차선 방정식의 기울이게 대한 평균값을 나타내는 무빙 에버리지를 연산하고, 연산한 무빙 에버리지를 기준으로 기 설정된 임계치를 벗어나는 변화 값을 갖는 차선 후보군을 필터링하여 최종 차선 후보군을 선정한다.The lane recognition apparatus 100 selects a final lane candidate group by calculating a moving average for the lane candidate group (S210). In step S210, the lane recognition apparatus 100 calculates a moving average indicating an average value of the inclination of the lane equation corresponding to the lane candidate group based on the accumulated data collected for a certain point in time, and a preset threshold value based on the calculated moving average. The final lane candidate group is selected by filtering out the lane candidate group having a change value that deviates from it.

차선인식 장치(100)는 단계 S210에서 선정된 최종 차선 후보군을 기반으로 차량이 차선을 이탈하지 않고 주행할 수 있도록 가이드하는 웨이 포인트 정보를 생성하여 제공한다(S212).The lane recognition apparatus 100 generates and provides waypoint information that guides the vehicle to travel without leaving the lane based on the final lane candidate group selected in step S210 (S212).

여기서, 단계 S202 내지 S212는 앞서 설명된 차선인식 장치(100)의 각 구성요소의 동작에 대응되므로 더 이상의 상세한 설명은 생략한다.Here, since steps S202 to S212 correspond to the operation of each component of the lane recognition apparatus 100 described above, further detailed description will be omitted.

도 2에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 2에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 2는 시계열적인 순서로 한정되는 것은 아니다.In FIG. 2, it is described that each process is sequentially executed, but the present invention is not limited thereto. In other words, since it may be applicable to changing and executing the processes illustrated in FIG. 2 or executing one or more processes in parallel, FIG. 2 is not limited to a time-series order.

전술한 바와 같이 도 2에 기재된 차선 인식방법은 프로그램으로 구현되고 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 기록될 수 있다.As described above, the lane recognition method illustrated in FIG. 2 is a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) that is implemented as a program and can be read using software of a computer. Can be written on.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those of ordinary skill in the technical field to which the present embodiment pertains will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but to explain the technical idea, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

100: 차선인식 장치 110: 라이다 데이터 처리부
120: 후보 검출부 130: 제1 필터링부
140: 제2 필터링부 150: 선정부
160: 가이드부
100: lane recognition device 110: lidar data processing unit
120: candidate detection unit 130: first filtering unit
140: second filtering unit 150: selection unit
160: guide part

Claims (11)

라이다 센서로부터 라이다 데이터를 획득하고, 상기 라이다 데이터 내 지면 데이터를 검출하는 라이다 데이터 처리부;
상기 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 후보 검출부;
상기 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 상기 차선 후보군 내 오류 후보군을 제거하는 제1 필터링부;
상기 제1 필터링부를 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 상기 차선 후보군 내 비신뢰 후보군을 제거하는 제2 필터링부; 및
상기 제2 필터링부를 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정하는 선정부
를 포함하는 것을 특징으로 하는 차선인식 장치.
A lidar data processing unit acquiring lidar data from a lidar sensor and detecting ground data in the lidar data;
A candidate detection unit for detecting a lane candidate group based on brightness information among the ground data;
A first filtering unit for removing an error candidate group in the lane candidate group based on at least one of characteristics of the lane candidate group and vehicle status information;
A second filtering unit for removing untrusted candidate groups in the lane candidate group by measuring the reliability of the lane candidate group filtered through the first filtering unit; And
A selection unit for selecting a final lane candidate group by calculating a moving average for the lane candidate group filtered through the second filtering unit
Lane recognition device comprising a.
제 1항에 있어서,
상기 라이다 데이터 처리부는,
상기 라이다 데이터 내 Z축 정보를 제거하여 지면에 수직인 높이 정보가 제거된 상기 지면 데이터를 검출하는 것을 특징으로 하는 차선인식 장치.
The method of claim 1,
The lidar data processing unit,
And detecting the ground data from which height information perpendicular to the ground is removed by removing Z-axis information in the lidar data.
제 1항에 있어서,
상기 후보 검출부는,
상기 지면 데이터의 밝기 변화에 대한 x축의 기울기 변화량 파형을 산출하고, 산출된 기울기 변화량 파형을 미분한 미분 파형을 기반으로 상기 지면 데이터 내 상기 차선 후보군을 검출하는 것을 특징으로 하는 차선인식 장치.
The method of claim 1,
The candidate detection unit,
A lane recognition device, characterized in that: calculating a slope variation waveform of the x-axis relative to the brightness variation of the ground data, and detecting the lane candidate group in the ground data based on a differential waveform obtained by differentiating the calculated slope variation waveform.
제 3항에 있어서,
상기 후보 검출부는,
상기 미분 파형을 기준으로 밝기 변화량이 기 설정된 임계치 이상 증가하였다가 일정 범위 내에서 다시 기 설정된 임계치 이상 감소하는 영역을 상기 차선 후보군으로서 검출하는 것을 특징으로 하는 차선인식 장치.
The method of claim 3,
The candidate detection unit,
And detecting a region in which a brightness change amount increases by more than a preset threshold value based on the differential waveform and then decreases by more than a preset threshold value within a certain range as the lane candidate group.
제 1항에 있어서,
상기 제1 필터링부는,
상기 차량의 스티어링 휠 정보를 수집하고, 상기 스티어링 휠 정보를 기준으로 상기 차량과 상기 차선 후보군 사이에 유클리디안 거리정보(Euclidean Distance)를 계산하여 상기 오류 후보군을 제거하는 것을 특징으로 하는 차선인식 장치.
The method of claim 1,
The first filtering unit,
A lane recognition device, comprising: collecting steering wheel information of the vehicle, and removing the error candidate group by calculating Euclidean distance information between the vehicle and the lane candidate group based on the steering wheel information. .
제 5항에 있어서,
상기 제1 필러링부는,
상기 스티어링 휠 정보를 기준으로 상기 차량의 헤딩의 직선 방정식과 상기 차선 후보군 사이에 상기 유클리디안 거리정보가 기 설정된 임계치 미만인 차선 후보군을 상기 오류 후보군으로서 제거하는 것을 특징으로 하는 차선인식 장치.
The method of claim 5,
The first pillaring part,
And a lane candidate group in which the Euclidean distance information is less than a preset threshold between a linear equation of a heading of the vehicle and the lane candidate group based on the steering wheel information, as the error candidate group.
제 1항에 있어서,
상기 제1 필터링부는,
상기 차선 후보군을 기준으로 기 설정된 인접 범위 내에 다른 데이터들에 대한 존재 여부를 나타낸 밀집도 정보를 활용하여 상기 오류 후보군을 제거하는 것을 특징으로 하는 차선인식 장치.
The method of claim 1,
The first filtering unit,
And removing the error candidate group by using density information indicating whether other data exist within a preset adjacent range based on the lane candidate group.
제 1항에 있어서,
상기 제2 필터링부는,
상기 제1 필터링부를 통해 필터링된 차선 후보군에 대응되는 N(N=자연수)차 방정식의 차선을 나타내고, 상기 N차 방정식의 차선을 기준으로 상기 차선 후보군과의 사이에 법선거리를 산출하여 상기 신뢰도를 측정하는 것을 특징으로 하는 차선인식 장치.
The method of claim 1,
The second filtering unit,
Represents a lane of an N (N = natural number) order equation corresponding to a lane candidate group filtered through the first filtering unit, and calculates a normal distance between the lane candidate group based on the lane of the N order equation to determine the reliability. Lane recognition device, characterized in that to measure.
제 1항에 있어서,
상기 선정부는,
일정 시점동안 수집되는 누적 데이터를 기반으로 상기 차선 후보군에 대응되는 차선 방정식의 기울기에 대한 평균값을 나타내는 상기 무빙 에버리지를 연산하고, 상기 무빙 에버리지를 기준으로 기 설정된 임계치를 벗어나는 변화 값을 갖는 차선 후보군을 필터링하여 상기 최종 차선 후보군을 선정하는 것을 특징으로 하는 차선인식 장치.
The method of claim 1,
The selection unit,
Based on the accumulated data collected for a certain point in time, the moving average representing the average value of the slope of the lane equation corresponding to the lane candidate group is calculated, and a lane candidate group having a change value deviating from a preset threshold based on the moving average is calculated. The lane recognition device, characterized in that to select the final lane candidate group by filtering.
제 1항에 있어서,
상기 최종 차선 후보군을 기반으로 상기 차량이 차선을 이탈하지 않고 주행할 수 있도록 가이드하는 웨이 포인트(Way Point) 정보를 생성하는 가이드부를 더 포함하는 것을 특징으로 하는 차선인식 장치.
The method of claim 1,
And a guide unit for generating way point information that guides the vehicle to travel without leaving the lane based on the final lane candidate group.
라이다 센서로부터 라이다 데이터를 획득하고, 상기 라이다 데이터 내 지면 데이터를 검출하는 지면 데이터 검출 과정;
상기 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 차선 후보군 검출 과정;
상기 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 상기 차선 후보군 내 오류 후보군을 제거하는 제1 필터링 과정;
상기 제1 필터링 과정을 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 상기 차선 후보군 내 비신뢰 후보군을 제거하는 제2 필터링 과정; 및
상기 제2 필터링 과정을 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정하는 선정 과정
을 포함하는 것을 특징으로 하는 차선인식 방법.
A ground data detection process of acquiring lidar data from a lidar sensor and detecting ground data in the lidar data;
A lane line candidate group detection process of detecting a lane line candidate group based on brightness information among the ground data;
A first filtering process of removing an error candidate group in the lane candidate group based on at least one of characteristics of the lane candidate group and vehicle status information;
A second filtering process of removing an untrusted candidate group in the lane candidate group by measuring the reliability of the lane candidate group filtered through the first filtering process; And
A selection process of selecting a final lane candidate group by calculating a moving average for the lane candidate group filtered through the second filtering process
Lane recognition method comprising a.
KR1020190108513A 2019-09-03 2019-09-03 Apparatus and Method for Recognizing Lane Using Lidar Sensor KR102228278B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190108513A KR102228278B1 (en) 2019-09-03 2019-09-03 Apparatus and Method for Recognizing Lane Using Lidar Sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190108513A KR102228278B1 (en) 2019-09-03 2019-09-03 Apparatus and Method for Recognizing Lane Using Lidar Sensor

Publications (2)

Publication Number Publication Date
KR20210028294A true KR20210028294A (en) 2021-03-12
KR102228278B1 KR102228278B1 (en) 2021-03-16

Family

ID=75177167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190108513A KR102228278B1 (en) 2019-09-03 2019-09-03 Apparatus and Method for Recognizing Lane Using Lidar Sensor

Country Status (1)

Country Link
KR (1) KR102228278B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102333828B1 (en) * 2021-07-21 2021-12-03 (주)뷰런테크놀로지 Lane detection method and system based on lidar data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037472A (en) * 2015-08-10 2017-02-16 富士重工業株式会社 Lane recognition device
JP6407447B1 (en) * 2017-01-10 2018-10-17 三菱電機株式会社 Traveling path recognition device and traveling path recognition method
KR20190082069A (en) * 2017-12-29 2019-07-09 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, apparatus and device for determining lane lines in road

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037472A (en) * 2015-08-10 2017-02-16 富士重工業株式会社 Lane recognition device
JP6407447B1 (en) * 2017-01-10 2018-10-17 三菱電機株式会社 Traveling path recognition device and traveling path recognition method
KR20190082069A (en) * 2017-12-29 2019-07-09 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, apparatus and device for determining lane lines in road

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102333828B1 (en) * 2021-07-21 2021-12-03 (주)뷰런테크놀로지 Lane detection method and system based on lidar data

Also Published As

Publication number Publication date
KR102228278B1 (en) 2021-03-16

Similar Documents

Publication Publication Date Title
CN109284348B (en) Electronic map updating method, device, equipment and storage medium
KR102452550B1 (en) Apparatus for aggregating object based on Lidar data, system having the same and method thereof
CN105549023B (en) Article detection device and its method of work
US8452103B2 (en) Scene matching reference data generation system and position measurement system
Hata et al. Road marking detection using LIDAR reflective intensity data and its application to vehicle localization
US8428362B2 (en) Scene matching reference data generation system and position measurement system
CN113635894A (en) Method for determining a drivable region
US20230204776A1 (en) Vehicle lidar system and object detection method thereof
CN113424240B (en) Road identification device
JP6263453B2 (en) Momentum estimation device and program
KR102228278B1 (en) Apparatus and Method for Recognizing Lane Using Lidar Sensor
JP7037672B2 (en) How to recognize static radar targets with automotive radar sensors
KR20220041485A (en) Method and apparatus for tracking an object using LIDAR sensor, vehicle including the apparatus, and recording medium for recording program performing the method
US20220314979A1 (en) Apparatus and Method for Controlling Driving of Vehicle
CN115308728A (en) Method and apparatus for tracking object using LIDAR sensor and corresponding recording medium
KR20220159575A (en) Vehicle AVM camera system for omnidirectional collision prevention and control method thereof
KR20220081741A (en) Apparatus and method for tracking object using LiDAR sensor
CN114475615A (en) Apparatus and method for identifying driving lane based on multiple sensors
KR20220128787A (en) Method and apparatus for tracking an object using LIDAR sensor, and recording medium for recording program performing the method
JP2021060944A (en) Roadside edge detection method and roadside edge detection device
US11954915B2 (en) Method for detecting guard-rail using LIDAR sensor and guard-rail detection device performing the method
JP5769811B2 (en) Measuring object measuring apparatus, processing method thereof, and program
CN109726677B (en) Wheel axle identification method and device and readable storage medium
JP7471481B2 (en) Information processing device, information processing method, and program
US20230050013A1 (en) Object detection method and object tracking device using lidar sensor

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant