KR20220159575A - Vehicle AVM camera system for omnidirectional collision prevention and control method thereof - Google Patents
Vehicle AVM camera system for omnidirectional collision prevention and control method thereof Download PDFInfo
- Publication number
- KR20220159575A KR20220159575A KR1020210067327A KR20210067327A KR20220159575A KR 20220159575 A KR20220159575 A KR 20220159575A KR 1020210067327 A KR1020210067327 A KR 1020210067327A KR 20210067327 A KR20210067327 A KR 20210067327A KR 20220159575 A KR20220159575 A KR 20220159575A
- Authority
- KR
- South Korea
- Prior art keywords
- candidate group
- lane
- information
- data
- camera system
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000002265 prevention Effects 0.000 title 1
- 238000001914 filtration Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 18
- 230000007423 decrease Effects 0.000 claims description 5
- 230000001186 cumulative effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0021—Differentiating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0052—Filtering, filters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 실시예는 전방위 충돌방지를 위한 차량 AVM 카메라 시스템 및 이의 제어방법에 관한 것이다.This embodiment relates to a vehicle AVM camera system for omnidirectional collision avoidance and a control method thereof.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section simply provide background information on the embodiments of the present invention and do not constitute prior art.
최근 자동차 산업 발달과 안전 기능에 대한 요구 사항이 지속적으로 증가되면서 첨단 운전자 안전 지원 시스템(ADAS: Advanced Driver Assistance System)에 대한 연구가 활발하게 진행되고 있다.Recently, with the development of the automobile industry and the continuous increase in the requirements for safety functions, research on advanced driver assistance systems (ADAS) is being actively conducted.
ADAS에서 각광받는 연구분야 중 하나는 현재 주행중인 차선을 검출하고 이탈 정보를 확인, 이탈하지 않게 제어하는 LKAS(Lane Keeping Assistance system)이다. 주행중에는 차량 내 공조 버튼을 작동하거나 다른 외부요인에 의해 Steering Wheel에 손을 떼야 하는 경우가 종종 발생하는데 이는 큰 사고로 이어질 수 있기 때문에 LKAS는 반드시 필요한 ADAS 기능 중 하나이다.One of the most popular research areas in ADAS is LKAS (Lane Keeping Assistance system), which detects the currently driving lane, checks departure information, and controls it so that it does not deviate. LKAS is one of the essential ADAS functions because it is often necessary to release the steering wheel by operating the air conditioning button in the vehicle or by other external factors while driving, which can lead to a serious accident.
LKAS에서 높은 성능을 보장받기 위해서는 차선을 정확하게 검출하는 기술이 필수적이다. 일반적으로 차선을 검출할 때는 비교적 가격이 저렴한 카메라 센서를 사용했는데 카메라 센서는 기상악조건에서 라이다 센서보다 신뢰도가 떨어진다. 라이다 센서의 가격이 현재는 비싸지만 기술의 개발과 수요가 증가함에 따라 센서의 가격은 떨어지고 성능은 좋아지고 있기 때문에 라이다 센서를 이용한 차선인식 알고리즘개발이 필수적이다.In order to guarantee high performance in LKAS, technology for accurately detecting lanes is essential. In general, when detecting a lane, a relatively inexpensive camera sensor is used, but the camera sensor is less reliable than the LIDAR sensor in adverse weather conditions. Although the price of lidar sensors is currently expensive, the development of lane recognition algorithms using lidar sensors is essential because the price of sensors is falling and their performance is improving as technology development and demand increase.
본 실시예는 라이다 센서를 이용한 차선인식 방법에 관한 기술로서, 라이다 데이터 내 밝기 정보를 기반으로 차선 후보군을 검출하고, 검출된 차선 후보군으로부터 차량의 스티어링 휠 정보, 밀집도 정보, 신뢰도 정보 및 무빙 에버리지 정보 등을 기반으로 필터링을 수행하여 최종 차선 후보군을 선정함으로써 라이다를 이용한 차선 기반의 LKAS에 대한 정확도가 향상될 수 있도록 하는 데 그 목적이 있다.This embodiment relates to a lane recognition method using a lidar sensor, which detects a lane candidate group based on brightness information in lidar data, and from the detected lane candidate group, vehicle steering wheel information, density information, reliability information, and moving information. The purpose is to improve the accuracy of the lane-based LKAS using lidar by selecting the final lane candidate group by performing filtering based on average information.
본 실시예는, 라이다 센서로부터 라이다 데이터를 획득하고, 상기 라이다 데이터 내 지면 데이터를 검출하는 라이다 데이터 처리부; 상기 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 후보 검출부; 상기 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 상기 차선 후보군 내 오류 후보군을 제거하는 제1 필터링부; 상기 제1 필터링부를 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 상기 차선 후보군 내 비신뢰 후보군을 제거하는 제2 필터링부; 및 상기 제2 필터링부를 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정하는 선정부를 포함하는 것을 특징으로 하는 AVM 카메라 시스템를 제공한다.In this embodiment, the lidar data processing unit for acquiring lidar data from the lidar sensor and detecting ground data in the lidar data; a candidate detection unit that detects a lane candidate group based on brightness information among the ground data; a first filtering unit to remove an erroneous candidate group from the lane candidate group based on at least one of characteristics of the lane candidate group and vehicle state information; a second filtering unit for measuring reliability of the next best candidate group filtered through the first filtering unit and removing unreliable candidate groups from the next best candidate group; and a selection unit for selecting a final lane candidate group by calculating a moving average for the lane candidate group filtered through the second filtering unit.
또한, 본 실시예의 다른 측면에 의하면, 라이다 센서로부터 라이다 데이터를 획득하고, 상기 라이다 데이터 내 지면 데이터를 검출하는 지면 데이터 검출 과정; 상기 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 차선 후보군 검출 과정; 상기 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 상기 차선 후보군 내 오류 후보군을 제거하는 제1 필터링 과정; 상기 제1 필터링 과정을 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 상기 차선 후보군 내 비신뢰 후보군을 제거하는 제2 필터링 과정; 및 상기 제2 필터링 과정을 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정하는 선정 과정을 포함하는 것을 특징으로 하는 차선인식 방법을 제공한다.In addition, according to another aspect of the present embodiment, a ground data detection process of acquiring lidar data from a lidar sensor and detecting ground data in the lidar data; a lane candidate group detection process of detecting a lane candidate group based on brightness information among the ground data; a first filtering process of removing an erroneous candidate group from the lane candidate group based on at least one of characteristics of the lane candidate group and vehicle state information; a second filtering process of measuring reliability of the next best candidate group filtered through the first filtering process and removing unreliable candidate groups from the next best candidate group; and a selection process of selecting a final lane candidate group by calculating a moving average for the lane candidate group filtered through the second filtering process.
이상에서 설명한 바와 같이 본 실시예에 의하면, 라이다 데이터 내 밝기 정보를 기반으로 차선 후보군을 검출하고, 검출된 차선 후보군으로부터 차량의 스티어링 휠 정보, 밀집도 정보, 신뢰도 정보 및 무빙 에버리지 정보 등을 기반으로 필터링을 수행하여 최종 차선 후보군을 선정함으로써 라이다를 이용한 차선 기반의 LKAS에 대한 정확도를 향상시킬 수 있는 효과가 있다.As described above, according to the present embodiment, a lane candidate group is detected based on brightness information in lidar data, and based on steering wheel information, density information, reliability information, and moving average information of the vehicle from the detected lane candidate group, By performing filtering to select the final lane candidate group, there is an effect of improving the accuracy of the lane-based LKAS using lidar.
도 1은 본 실시예에 따른 AVM 카메라 시스템를 개략적으로 나타낸 블록 구성도이다.
도 2는 본 실시예에 따른 차선인식 방법을 설명하기 위한 순서도이다.
도 3은 본 실시예에 따른 카메라 센서 기반 전방위 충돌방지 실시 개념도이다.
도 4는 본 실시예에 따른 대상기술을 사용한 카메라 센서 기반 전방위 충돌방지 도면이다.
도 5는 본 실시예에 따른 비신뢰 후보군을 제거방법을 설명하기 위한 도면이다.
도 6은 본 실시예에 따른 최종 차선 후보군을 설명하기 위한 도면이다.1 is a block diagram schematically illustrating an AVM camera system according to an exemplary embodiment.
2 is a flowchart for explaining a lane recognition method according to the present embodiment.
3 is a conceptual diagram of omnidirectional collision avoidance based on a camera sensor according to the present embodiment.
4 is a camera sensor-based omnidirectional collision avoidance diagram using the target technology according to the present embodiment.
5 is a diagram for explaining a method of removing an unreliable candidate group according to the present embodiment.
6 is a diagram for explaining a final lane candidate group according to the present embodiment.
이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명을 설명함에 있어, '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Hereinafter, this embodiment will be described in detail with reference to the accompanying drawings. In describing the present invention, '... Terms such as 'unit' and 'module' refer to a unit that processes at least one function or operation, and may be implemented as hardware, software, or a combination of hardware and software.
본 실시예는 자율주행 자동차에 배치되는 적어도 하나의 라이다(LiDAR: Light Detection and Ranging) 센서를 이용한 차선 인식방법에 대해 기재하고 있으나 이는 일 실시예에 따른 것으로서, 라이다 데이터를 이용하여 객체를 검출하는 다양한 분야에 적용될 수 있다.This embodiment describes a lane recognition method using at least one LiDAR (Light Detection and Ranging) sensor disposed in an autonomous vehicle, but this is according to an embodiment, and detects an object using lidar data. It can be applied to various fields of detection.
도 1은 본 실시예에 따른 AVM 카메라 시스템를 개략적으로 나타낸 블록 구성도이다. 이하에서는 도 1을 참조하여 본 실시예에 따른 AVM 카메라 시스템(100) 및 관련 구성에 대하여 설명하도록 한다.1 is a block diagram schematically illustrating an AVM camera system according to an exemplary embodiment. Hereinafter, the AVM camera system 100 according to the present embodiment and related components will be described with reference to FIG. 1 .
AVM 카메라 시스템(100)는 라이다 센서(미도시)와 연동하여 차선을 검출하는 장치로서, 라이다 센서로부터 수집된 라이다 데이터를 기반으로 소정의 거리에 있는 전방의 차선을 검출한다. 구체적으로 AVM 카메라 시스템(100)는 라이다 센서로부터 획득한 포인트 클라우드 데이터에 대하여 높이 정보 제거를 수행하고, 밝기 정보를 기반으로 차선이 위치할 것으로 추정되는 영역을 차선 후보군으로 검출한다. 이후, AVM 카메라 시스템(100)는 검출된 차선 후보군으로부터 차량의 스티어링 휠 정보, 밀집도 정보, 신뢰도 정보 및 무빙 에버리지 정보 등을 기반으로 필터링을 수행하여 최종 차선 후보군을 선정한다.The AVM camera system 100 is a device that detects a lane in conjunction with a lidar sensor (not shown), and detects a lane ahead at a predetermined distance based on lidar data collected from the lidar sensor. Specifically, the AVM camera system 100 removes height information from the point cloud data obtained from the lidar sensor, and detects an area in which a lane is estimated to be located based on brightness information as a lane candidate group. Thereafter, the AVM camera system 100 selects a final lane candidate group by performing filtering based on vehicle steering wheel information, density information, reliability information, and moving average information from the detected lane candidate group.
도 1에 도시하듯이, 본 실시예에 따른 AVM 카메라 시스템(100)는 라이다 데이터 처리부(110), 후보 검출부(120), 제1 필터링부(130), 제2 필터링부(140), 설정부(150) 및 가이드부(160)를 포함한다. 여기서, AVM 카메라 시스템(100)에 포함되는 구성요소는 반드시 이에 한정되는 것은 아니다. 예컨대, AVM 카메라 시스템(100)는 라이다 센서를 구성요소로서 포함하는 형태로 구현될 수 있다.As shown in FIG. 1, the AVM camera system 100 according to this embodiment includes a lidar data processing unit 110, a candidate detection unit 120, a first filtering unit 130, a second filtering unit 140, a setting It includes a part 150 and a guide part 160. Here, components included in the AVM camera system 100 are not necessarily limited thereto. For example, the AVM camera system 100 may be implemented in a form including a LiDAR sensor as a component.
라이다 데이터 처리부(110)는 라이다 센서로부터 획득한 라이다 데이터를 가공 처리하여 라이다 데이터 내 지면 데이터를 검출한다. The lidar data processing unit 110 processes the lidar data obtained from the lidar sensor to detect lidar data or ground data.
한편, 라이다 센서는 차량의 일측에 장착되며, 차량의 주변(전방)을 향하여 레이저를 발사한다. 라이다 센서에 의해 발사된 레이저는 산란되거나 반사되어 차량으로 되돌아올 수 있다. On the other hand, the lidar sensor is mounted on one side of the vehicle, and emits a laser toward the periphery (front) of the vehicle. The laser emitted by the lidar sensor may be scattered or reflected back to the vehicle.
라이다 센서는 레이저를 이용하여 측정한 거리정보(Distance Information)를 3D 공간에서 점들의 집합(Point Cloud) 형태로 나타내며, 이러한 거리정보를 포함하는 라이다 데이터를 AVM 카메라 시스템(100)로 전달한다. 예컨대, 포인트 클라우드 내 각 포인트들은 센서의 위치로부터 목표물과 로봇좌표계 기준 X 방향, Y 방향, Z 방향으로 각 몇 M 떨어져 있는지의 거리정보와 목표물의 반사계수값이 포함될 수 있다.The lidar sensor represents distance information measured using a laser in the form of a point cloud in 3D space, and transfers lidar data including this distance information to the AVM camera system 100. . For example, each point in the point cloud may include distance information of how many meters away from the target and the robot coordinate system in the X, Y, and Z directions from the position of the sensor, and the reflection coefficient value of the target.
이러한, 라이다 데이터의 형태는 도 3을 통해 확인할 수 있다. 한편, 도 3의 (a)와 (b)는 각각 터널 구간에 대하여 카메라로부터 취득한 영상과 이에 대응하여 라이다 센서로부터 취득한 라이다 데이터를 비교 도시하였다.The form of such LiDAR data can be confirmed through FIG. 3 . On the other hand, Fig. 3 (a) and (b) shows a comparison between the image obtained from the camera and corresponding lidar data obtained from the lidar sensor for each tunnel section.
본 실시예에 따른 라이다 데이터 처리부(110)는 3D 입체 데이터인 라이다 데이터 내 높이 정보를 제거하여 지면 데이터를 검출할 수 있다. 즉, 라이다 데이터 처리부(110)는 차선을 쉽게 추출하기 위해서 불필요한 Z축(지면에 수직인 높이 정보)을 제거하여 바닥면만을 추출함으로써 도 4와 같은 지면 데이터를 검출할 수 있다.The lidar data processing unit 110 according to the present embodiment may detect ground data by removing height information from lidar data, which is 3D stereoscopic data. That is, the lidar data processing unit 110 may detect ground data as shown in FIG. 4 by extracting only the floor surface by removing unnecessary Z-axis (height information perpendicular to the ground) in order to easily extract lanes.
후보 검출부(120)는 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 기능을 수행한다.The candidate detector 120 performs a function of detecting a next best candidate group based on brightness information among ground data.
현재 개발된 라이다 센서를 이용한 차선 알고리즘은 차선 후보군을 생성할 때 주로 Otsu 알고리즘을 이용한다. Otsu 알고리즘은 임계값 T를 기준으로 데이터를 두 클래스로 분류했을 때 두 클래스간의 클래스 내 분산(intra-class variance)을 최소화하거나 또는 클래스 간 변화(inter-class variance)를 최대로 하는 T를 찾는 이진화 방법이다.The currently developed next-best algorithm using the lidar sensor mainly uses the Otsu algorithm when generating a next-best candidate group. The Otsu algorithm is a binarization method that finds T that minimizes the intra-class variance between two classes or maximizes the inter-class variance between two classes when data is classified into two classes based on a threshold value T. way.
한편, 64 채널 라이다를 기준으로 바닥면만을 추출했을 때 전체 데이터의 수는 약 13000개인데 비해, 차선에 해당하는 데이터의 수는 약 250개 미만으로 이는 수치상으로 2% 미만이다. 즉, 이 데이터를 가지고 두 클래스를 나누는 임계값 T를 찾는 것은 한계가 있다.On the other hand, when only the bottom surface is extracted based on 64-channel lidar, the total number of data is about 13,000, whereas the number of data corresponding to the next best is less than about 250, which is less than 2% numerically. That is, there is a limit to finding a threshold value T that divides the two classes with this data.
차선의 특징으로는 주변의 데이터에 비해 밝기 값이 큰 점이다. 이 점에 기인하여 후보 검출부(120)는 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출한다.A characteristic of the lane is that the brightness value is larger than that of the surrounding data. Due to this fact, the candidate detector 120 detects a lane candidate group based on brightness information among ground data.
본 실시예에 따른 후보 검출부(120)는 지면 데이터의 밝기 변화에 대한 x축의 기울기 변화량 파형을 산출하고, 산출된 기울기 변화량 파형을 미분한 미분 파형을 기반으로 지면 데이터 내 차선 후보군을 검출한다.The candidate detector 120 according to the present embodiment calculates an x-axis gradient change waveform for the brightness change of the ground data, and detects a lane candidate group within the ground data based on a differential waveform obtained by differentiating the calculated gradient change waveform.
보다 자세하게는, 후보 검출부(120)는 미분 파형을 기준으로 밝기 변화량이 기 설정된 임계치 이상 증가하였다가 일정 범위 내에서 다시 기 설정된 임계치 이상 감소하는 영역을 차선 후보군으로서 검출한다.More specifically, the candidate detector 120 detects, as a next best candidate group, a region in which the amount of change in brightness increases by more than a preset threshold based on the differential waveform and then decreases by more than a preset threshold within a certain range.
예컨대, 도 5를 참조하면, 기준 왼쪽부터 오른쪽으로 밝기의 1차 미분한 파형을 보면 밝기 변화량이 크게 증가했다가 크게 감소하는 것을 확인 할 수 있다. 이 점에 기인하여, 본 실시예에 따른 후보 검출부(120)는 밝기 변화량이 크게 증가했다가 N번째 데이터 내에 밝기 변화량이 크게 감소하는 경우에 차선 후보군으로 설정 하였다. 여기서 N은 기 정의된 도로 내 차선 간의 폭 길이에 따라 결정될 수 있다.For example, referring to FIG. 5 , looking at the primary derivative waveform of the brightness from the left to the right of the reference, it can be seen that the amount of change in brightness greatly increases and then greatly decreases. Due to this, the candidate detection unit 120 according to the present embodiment sets the next best candidate group when the brightness change amount greatly increases and then the brightness change amount greatly decreases in the N-th data. Here, N may be determined according to a width length between lanes in a predefined road.
도 6을 참조하면, 본 실시예에 따른 후보 검출부(120)를 통해 검출된 차선 후보군을 확인할 수 있다. 한편, 도 6에서는 후보 검출부(120)가 밝기 미분값으로 얻은 차선 후보군 데이터를 포인트 클라우드 맵 상에 표시하였다.Referring to FIG. 6 , a next best candidate group detected through the candidate detection unit 120 according to the present embodiment may be identified. Meanwhile, in FIG. 6 , the next best candidate group data obtained by the candidate detection unit 120 as the brightness differential value is displayed on the point cloud map.
본 실시예에 있어서, 후보 검출부(120)는 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출함으로써 차선이라고 오인식할 가능성이 있는 정지선을 제거 할 수 있는 효과가 있다.In this embodiment, the candidate detection unit 120 has an effect of removing a stop line that may be misrecognized as a lane by detecting a lane candidate group based on brightness information among ground data.
한편, 후보 검출부(120)를 통해 차선 후보군을 검출하면 후보군 내에 많은 차선이 검출되지만 가끔 차선이 아닌 데이터(False Positive)가 포함될 수 있다. 이에, 정확한 차선 검출을 위해서는 실제 차선인 데이터(True Positive)를 제거하지 않는 범위 내에서 오류 데이터를 제거해야 한다.Meanwhile, when a lane candidate group is detected through the candidate detector 120, many lanes are detected in the candidate group, but non-lane data (false positive) may sometimes be included. Therefore, in order to accurately detect lanes, it is necessary to remove erroneous data within a range that does not remove true lane data (true positive).
제1 필터링부(130)는 후보 검출부(120)를 통해 검출된 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 차선 후보군 내 오류 후보군을 제거하는 기능을 수행한다.The first filtering unit 130 performs a function of removing an erroneous candidate group from the lane candidate group based on at least one of the characteristics of the lane candidate group detected by the candidate detection unit 120 and the state information of the vehicle.
본 실시예에 있어서, 제1 필터링부(130)는 차량의 상태정보로서 스티어링 휠(Steering Wheel) 정보를 수집하고, 수집된 스티어링 휠 정보를 기반으로 차선 후보군 내 오류 후보군을 제거할 수 있다. 이때, 차량의 스티어링 휠 정보는 차량과의 CAN 통신을 통해 획득할 수 있다.In this embodiment, the first filtering unit 130 may collect steering wheel information as vehicle state information, and remove error candidate groups from the lane candidate group based on the collected steering wheel information. In this case, vehicle steering wheel information may be acquired through CAN communication with the vehicle.
예컨대, 도 7을 참조하면, 제1 필터링부(130)는 차량의 스티어링 휠 정보를 기준으로 차량과 차선 후보군 사이에 유클리디안 거리정보(Euclidean Distance)를 계산하여 오류 후보군을 제거할 수 있다. 보다 자세하게는, 제1 필터링부(130)는 스티어링 휠 정보를 기준으로 차량의 헤딩의 직선 방정식과 차선 후보군 사이에 유클리디안 거리정보가 기 설정된 임계치 미만인 차선 후보군을 오류 후보군으로서 제거할 수 있다.For example, referring to FIG. 7 , the first filtering unit 130 may remove the error candidate group by calculating Euclidean distance between the vehicle and the lane candidate group based on steering wheel information of the vehicle. In more detail, the first filtering unit 130 may remove, as an error candidate group, the Euclidean distance information between the linear equation of the vehicle's heading and the lane candidate group based on the steering wheel information is less than a preset threshold.
이 경우, 후보 검출부(120)는 도로 바닥에 그려진 표식, 물웅덩이 혹은 울퉁불퉁한 바닥면에 대응되는 오류 후보군을 차선 후보군에서 제외할 수 있는 효과가 있다.In this case, the candidate detection unit 120 has an effect of excluding an error candidate group corresponding to a mark drawn on the road floor, a water puddle, or an uneven floor surface from the lane candidate group.
한편, 차선을 주로 실선 혹은 점선으로 되어 있는데 차선 후보군을 생성하게 되면 실제 차선 위에 밀집하여 존재하게 된다.On the other hand, lanes are mainly composed of solid lines or dotted lines, and when lane candidate groups are generated, they exist densely on the actual lanes.
이 점에 기인하여, 제1 필터링부(130)는 차선 후보군의 특징으로서 차선 후보군을 기준으로 기 설정된 인접 범위 내에 다른 데이터들에 대한 존재 여부(ex: 밀집도 정보)를 파악하고, 이를 활용하여 오류 후보군을 차선 후보군에서 제외할 수 있다.Due to this fact, the first filtering unit 130 determines whether other data exists (ex: density information) within a preset contiguous range based on the next best candidate group as a characteristic of the next best candidate group, and uses this to determine the error Candidates can be excluded from the next best candidate group.
예컨대, 제1 필터링부(130)는 검출된 차선 후보군을 기분으로 각각 기 설정된 기 설정된 임계치 범위 내에 또 다른 데이터들이 존재하는지를 검사한다. 이후, 제1 필터링부(130)는 기 설정된 임계치 범위 내에 또 다른 차선 후보군이 존재하지 않는다면 오류 후보군일 확률이 매우 높으므로 제거한다.For example, the first filtering unit 130 examines whether other data exists within a preset threshold range, based on the detected lane candidate group. Thereafter, the first filtering unit 130 removes the second best candidate group because it is very likely to be an erroneous candidate group if another next best candidate group does not exist within the preset threshold range.
제2 필터링부(140)는 제1 필터링부(130)를 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 차선 후보군 내 비신뢰 후보군을 제거한다.The second filtering unit 140 measures reliability of the next best candidate group filtered through the first filtering unit 130 and removes unreliable candidate groups from the next best candidate group.
제2 필터링부(140)는 제1 필터링부(130)를 통해 필터링된 차선 후보군에 대응되는 N차 방정식의 차선을 나타내고, N차 방정식의 차선을 기준으로 차선 후보군과의 사이에 법선거리를 산출하여 상기의 신뢰도를 측정할 수 있다.The second filtering unit 140 represents a lane of the N-order equation corresponding to the lane candidate group filtered through the first filtering unit 130, and calculates a normal distance between the lane candidate group and the lane candidate group based on the lane of the N-order equation. Thus, the above reliability can be measured.
예컨대, 제2 필터링부(140)는 차선 후보군과의 사이에 산출된 법선거리를 기반으로 차선 후보군이 얼마나 신뢰도가 있고, 실제 LKAS 주행에 사용될 수 있는지 복수의 단계로 나누어 신뢰도가 낮은 차선 후보군을 제외할 수 있다.For example, the second filtering unit 140 determines how reliable the lane candidate group is and whether it can be used for actual LKAS driving based on the calculated normal distance with the lane candidate group, and excludes the lane candidate group with low reliability. can do.
도 8의 (a), (b)를 예시하여 설명하자면, 원은 차선 후보군을 나타낸 것이고, 선은 이 후보군을 기분으로 만든 N차 방정식을 그린 예시이다.Referring to (a) and (b) of FIG. 8 as an example, a circle represents a next-best candidate group, and a line is an example of drawing an N-order equation made of this candidate group.
도 8의 (a)는 신뢰도가 높은 차선을 그린 예시로서, N차 방정식을 기준으로 차선 후보군이 밀집되어 존재하는 것을 확인할 수 있다.8(a) is an example of drawing lanes with high reliability, and it can be confirmed that lane candidate groups are densely present based on an N-order equation.
도 8의 (b)는 신뢰도가 낮은 차선을 그린 예시로서, N차 방정식을 기준으로 차선 후보군의 밀집도가 도 8의 (a) 대비 떨어지는 것을 확인할 수 있다.FIG. 8(b) is an example of drawing a lane with low reliability, and it can be confirmed that the density of lane candidate groups based on the N-order equation is lower than that of FIG. 8(a).
한편, 도 1에서는 AVM 카메라 시스템(100) 내 제1 필터링부(130) 및 제2 필터링부(140)가 각각 별개의 장치로 구현된 것으로 예시하였으나 반드시 이에 한정되는 것은 아니며, 제1 필터링부(130) 및 제2 필터링부(140)는 하나의 필터링 장치로 구현될 수도 있다.Meanwhile, in FIG. 1, it is illustrated that the first filtering unit 130 and the second filtering unit 140 in the AVM camera system 100 are implemented as separate devices, but it is not necessarily limited thereto, and the first filtering unit ( 130) and the second filtering unit 140 may be implemented as one filtering device.
선정부(150)는 제2 필터링부(140)를 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정한다. 이러한, 선정부(150)의 동작은 일종의 트레킹 과정으로서 데이터의 노이즈를 평탄화를 수행한다.The selection unit 150 selects a final lane candidate group by calculating a moving average for the next best candidate group filtered through the second filtering unit 140 . This operation of the selector 150 flattens the noise of the data as a kind of tracking process.
본 실시예에 있어서, 선정부(150)는 일정 시점동안 수집되는 누적 데이터를 기반으로 차선 후보군에 대응되는 차선 방정식의 기울이게 대한 평균값을 나타내는 무빙 에버리지를 연산한다. 여기서, 무빙 에버리지는 과거부터 현재까지의 정해진 기간동안 평균값을 보여주는 반응성 지표로서, 선정부(150)는 10 ~ 30개의 누적 데이터를 기반으로 무빙 에버리지의 연산을 위한 평균치를 연산하는 것이 바람직하나 반드시 이에 한정되는 것은 아니다.In this embodiment, the selector 150 calculates a moving average representing an average value of slopes of lane equations corresponding to a lane candidate group based on accumulated data collected during a certain point in time. Here, the moving average is a reactive index showing an average value for a predetermined period from the past to the present, and it is preferable that the selection unit 150 calculates an average value for calculating the moving average based on 10 to 30 accumulated data, but this It is not limited.
한편, 정해긴 기간동안 차선의 데이터는 천천히 변화하게 된다. 이에, 어느 한 시점만 급격하게 값이 다른 경우는 물리적으로 존재할 수 없게 된다. 이 점에 기인하여, 선정부(150)는 연산한 무빙 에버리지를 기준으로 기 설정된 임계치를 벗어나는 변화 값을 갖는 차선 후보군을 필터링하여 최종 차선 후보군을 선정한다. 즉, 선정부(150)는 무빙 에버리지를 이용하여 급격하게 값이 다른 경우의 차선 데이터를 제거한다.On the other hand, for a long period of time, the next-best data slowly changes. Accordingly, when the value is rapidly different at any one point in time, it cannot physically exist. Due to this point, the selection unit 150 selects a final lane candidate group by filtering lane candidate groups having a change value that exceeds a preset threshold based on the calculated moving average. That is, the selector 150 removes lane data when the value is rapidly different by using the moving average.
가이드부(160)는 최종 차선 후보군을 기반으로 차량이 차선을 이탈하지 않고 주행할 수 있도록 가이드하는 웨이 포인트(Way Point) 정보를 생성하여 제공하는 기능을 수행한다. 이때, 웨이 포인트 정보는 우리나라 차선 폭이 약 3m ~ 3.5m인 것을 감안해 검출된 차선의 중앙에 위치하게 파라미터를 조절하였다. 이 데이터를 제어장치에 넘겨주게 되면 LKAS가 가능하며, 웨이 포인트 정보에는 차량이 이동해야할 X, Y 좌표의 정보가 저장된다.The guide unit 160 performs a function of generating and providing way point information for guiding the vehicle to drive without departing from the lane based on the final lane candidate group. At this time, the parameter was adjusted so that the waypoint information was located at the center of the detected lane considering that the lane width in Korea is about 3m to 3.5m. If this data is passed on to the control device, LKAS is possible, and information of the X and Y coordinates to be moved by the vehicle is stored in the way point information.
한편, 도 9의 (a)는 최종 차선이 인식된 차선 방정식을 도시하였으며, 도 9의 (b)는 차선 방정식을 기준으로 생성된 웨이 포인트를 도시한 도면이다. 이를 기반으로, LKAS를 할 때 차량은 해당 웨이 포인트를 따라 이동하게 된다.Meanwhile, FIG. 9(a) shows a lane equation from which the final lane is recognized, and FIG. 9(b) shows waypoints generated based on the lane equation. Based on this, when performing LKAS, the vehicle moves along the corresponding waypoint.
도 2는 본 실시예에 따른 차선인식 방법을 설명하기 위한 순서도이다.2 is a flowchart for explaining a lane recognition method according to the present embodiment.
AVM 카메라 시스템(100)는 라이다 센서로부터 라이다 데이터를 획득하고, 라이다 데이터 내 지면 데이터를 검출한다(S202). 단계 S202에서 AVM 카메라 시스템(100)는 는 3D 입체 데이터인 라이다 데이터 내 높이 정보를 제거하여 지면 데이터를 검출할 수 있다. The AVM camera system 100 acquires lidar data from lidar sensors and detects ground data within lidar data (S202). In step S202, the AVM camera system 100 may detect ground data by removing height information from lidar data, which is 3D stereoscopic data.
AVM 카메라 시스템(100)는 단계 S202에서 검출한 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출한다(S204). 단계 S204에서 AVM 카메라 시스템(100)는 지면 데이터의 밝기 변화에 대한 x축의 기울기 변화량 파형을 산출하고, 산출된 기울기 변화량 파형을 미분한 미분 파형을 기반으로 밝기 변화량이 기 설정된 임계치 이상 증가하였다가 일정 범위 내에서 다시 기 설정된 임계치 이상 감소하는 영역을 차선 후보군으로서 검출한다.The AVM camera system 100 detects a lane candidate group based on the brightness information among the ground data detected in step S202 (S204). In step S204, the AVM camera system 100 calculates a gradient change waveform of the x-axis for the brightness change of the ground data, and based on the differential waveform obtained by differentiating the calculated tilt change waveform, the brightness change amount increases by more than a preset threshold value and then becomes constant. An area that decreases by more than a predetermined threshold value within the range is detected as a next best candidate group.
이때, AVM 카메라 시스템(100)는 검출된 차선 후보군을 관심 영역으로 설정할 수 있다.At this time, the AVM camera system 100 may set the detected lane candidate group as a region of interest.
AVM 카메라 시스템(100)는 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 오류 후보군을 제거한다(S206). 단계 S206에서 AVM 카메라 시스템(100)는 스티어링 휠 정보를 기준으로 차량의 헤딩의 직선 방정식과 차선 후보군 사이에 유클리디안 거리정보가 기 설정된 임계치 미만인 차선 후보군을 오류 후보군으로서 제거할 수 있다.The AVM camera system 100 removes the error candidate group based on at least one of the characteristics of the lane candidate group and vehicle state information (S206). In step S206, the AVM camera system 100 may remove, as the error candidate group, the Euclidean distance information between the linear equation of the vehicle's heading and the lane candidate group based on the steering wheel information, which is less than a preset threshold.
또한, AVM 카메라 시스템(100)는 검출된 차선 후보군을 기분으로 각각 기 설정된 기 설정된 임계치 범위 내에 또 다른 데이터들이 존재하는지를 검사하고, 검사결과에 따라 기 설정된 임계치 범위 내에 또 다른 차선 후보군이 존재하지 않는다면 오류 후보군일 확률이 매우 높으므로 제거할 수 있다.In addition, the AVM camera system 100 examines whether other data exists within a preset threshold range based on the detected lane candidate group, and if another lane candidate group does not exist within the preset threshold range according to the inspection result, Since it is very likely to be an error candidate, it can be eliminated.
AVM 카메라 시스템(100)는 차선 후보군의 신뢰도를 측정하여 비신뢰 후보군을 제거한다(S208). 단계 S208에서 AVM 카메라 시스템(100)는 차선 후보군에 대응되는 N차 방정식의 차선을 나타내고, N차 방정식의 차선을 기준으로 차선 후보군과의 사이에 법선거리를 산출하여 신뢰도를 측정할 수 있다.The AVM camera system 100 measures the reliability of the next best candidate group and removes the unreliable candidate group (S208). In step S208, the AVM camera system 100 may indicate a lane of the N-order equation corresponding to the lane candidate group, and calculate the normal distance between the lane candidate group and the N-order equation based on the lane of the N-order equation to measure reliability.
AVM 카메라 시스템(100)는 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정한다(S210). 단계 S210에서 AVM 카메라 시스템(100)는 일정 시점동안 수집되는 누적 데이터를 기반으로 차선 후보군에 대응되는 차선 방정식의 기울이게 대한 평균값을 나타내는 무빙 에버리지를 연산하고, 연산한 무빙 에버리지를 기준으로 기 설정된 임계치를 벗어나는 변화 값을 갖는 차선 후보군을 필터링하여 최종 차선 후보군을 선정한다.The AVM camera system 100 selects a final lane candidate group by calculating a moving average for the lane candidate group (S210). In step S210, the AVM camera system 100 calculates a moving average representing the average value of the inclination of the lane equation corresponding to the lane candidate group based on the accumulated data collected during a certain point in time, and calculates a predetermined threshold based on the calculated moving average A final lane candidate group is selected by filtering a lane candidate group having a deviation change value.
AVM 카메라 시스템(100)는 단계 S210에서 선정된 최종 차선 후보군을 기반으로 차량이 차선을 이탈하지 않고 주행할 수 있도록 가이드하는 웨이 포인트 정보를 생성하여 제공한다(S212).The AVM camera system 100 generates and provides waypoint information for guiding the vehicle to drive without departing from the lane based on the final lane candidate group selected in step S210 (S212).
여기서, 단계 S202 내지 S212는 앞서 설명된 AVM 카메라 시스템(100)의 각 구성요소의 동작에 대응되므로 더 이상의 상세한 설명은 생략한다.Here, since steps S202 to S212 correspond to the operation of each component of the AVM camera system 100 described above, further detailed descriptions are omitted.
도 2에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 2에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 2는 시계열적인 순서로 한정되는 것은 아니다.In FIG. 2, it is described that each process is sequentially executed, but is not necessarily limited thereto. In other words, since it will be applicable by changing and executing the process described in FIG. 2 or executing one or more processes in parallel, FIG. 2 is not limited to a time-series sequence.
전술한 바와 같이 도 2에 기재된 차선 인식방법은 프로그램으로 구현되고 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 기록될 수 있다.As described above, the lane recognition method described in FIG. 2 is implemented as a program and can be read using computer software (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) can be recorded in
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present embodiment, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present embodiment. Therefore, the present embodiments are not intended to limit the technical idea of the present embodiment, but to explain, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of this embodiment should be construed according to the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of rights of this embodiment.
100: AVM 카메라 시스템
110: 라이다 데이터 처리부
120: 후보 검출부
130: 제1 필터링부
140: 제2 필터링부
150: 선정부
160: 가이드부100: AVM camera system 110: lidar data processing unit
120: candidate detection unit 130: first filtering unit
140: second filtering unit 150: selection unit
160: guide unit
Claims (8)
상기 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 후보 검출부; 및
상기 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 상기 차선 후보군 내 오류 후보군을 제거하는 제1 필터링부;를 포함하고,
상기 제1 필터링부는,
상기 차량의 스티어링 휠 정보를 수집하고, 상기 스티어링 휠 정보를 기준으로 산출된 상기 차량의 헤딩의 직선 방정식과 상기 차선 후보군 사이의 유클리디안 거리정보(Euclidean Distance)를 계산하고, 상기 유클리디안 거리정보가 기 설정된 임계치 미만인 차선 후보군을 상기 오류 후보군으로서 제거하는 것을 특징으로 하는 AVM 카메라 시스템.LiDAR data processing unit for detecting ground data within lidar data;
a candidate detection unit that detects a lane candidate group based on brightness information among the ground data; and
A first filtering unit to remove an error candidate group from the lane candidate group based on at least one of characteristics of the lane candidate group and vehicle state information;
The first filtering unit,
Steering wheel information of the vehicle is collected, Euclidean distance information between a straight line equation of the heading of the vehicle calculated based on the steering wheel information and the lane candidate group is calculated, and the Euclidean distance The AVM camera system characterized in that the next best candidate group whose information is less than a predetermined threshold value is removed as the error candidate group.
상기 라이다 데이터 처리부는,
상기 라이다 데이터 내 Z축 정보를 제거하여 지면에 수직인 높이 정보가 제거된 상기 지면 데이터를 검출하는 것을 특징으로 하는 AVM 카메라 시스템.According to claim 1,
The lidar data processing unit,
AVM camera system, characterized in that for detecting the ground data from which height information perpendicular to the ground has been removed by removing Z-axis information from the lidar data.
상기 후보 검출부는,
상기 지면 데이터의 밝기 변화에 대한 x축의 기울기 변화량 파형을 산출하고, 산출된 기울기 변화량 파형을 미분한 미분 파형을 기반으로 상기 지면 데이터 내 상기 차선 후보군을 검출하는 것을 특징으로 하는 AVM 카메라 시스템.According to claim 1,
The candidate detection unit,
An AVM camera system, characterized in that for calculating an x-axis gradient change waveform for the brightness change of the ground data, and detecting the lane candidate group in the ground data based on a differential waveform obtained by differentiating the calculated gradient change waveform.
상기 후보 검출부는,
상기 미분 파형을 기준으로 밝기 변화량이 기 설정된 임계치 이상 증가하였다가 일정 범위 내에서 다시 기 설정된 임계치 이상 감소하는 영역을 상기 차선 후보군으로서 검출하는 것을 특징으로 하는 AVM 카메라 시스템.According to claim 3,
The candidate detection unit,
The AVM camera system according to claim 1 , wherein an area in which the amount of change in brightness increases by more than a predetermined threshold based on the differential waveform and then decreases by more than a predetermined threshold within a predetermined range is detected as the lane candidate group.
상기 제1 필터링부는,
상기 차선 후보군을 기준으로 기 설정된 인접 범위 내에 다른 데이터들에 대한 존재 여부를 나타낸 밀집도 정보를 활용하여 상기 오류 후보군을 제거하는 것을 특징으로 하는 AVM 카메라 시스템.According to claim 1,
The first filtering unit,
The AVM camera system, characterized in that for removing the error candidate group by utilizing density information indicating whether other data exists within a predetermined adjacent range based on the lane candidate group.
상기 선정부는,
일정 시점동안 수집되는 누적 데이터를 기반으로 상기 차선 후보군에 대응되는 차선 방정식의 기울기에 대한 평균값을 나타내는 상기 무빙 에버리지를 연산하고, 상기 무빙 에버리지를 기준으로 기 설정된 임계치를 벗어나는 변화 값을 갖는 차선 후보군을 필터링하여 상기 최종 차선 후보군을 선정하는 것을 특징으로 하는 AVM 카메라 시스템.According to claim 1,
The selection department,
The moving average representing the average value of the slope of the lane equation corresponding to the lane candidate group is calculated based on the cumulative data collected during a certain point in time, and the lane candidate group having a change value beyond a preset threshold based on the moving average is calculated The AVM camera system, characterized in that for selecting the final lane candidate group by filtering.
상기 최종 차선 후보군을 기반으로 상기 차량이 차선을 이탈하지 않고 주행할 수 있도록 가이드하는 웨이 포인트(Way Point) 정보를 생성하는 가이드부를 더 포함하는 것을 특징으로 하는 AVM 카메라 시스템.According to claim 1,
The AVM camera system further comprises a guide unit generating way point information for guiding the vehicle to drive without departing from the lane based on the final lane candidate group.
상기 지면 데이터 중 밝기 정보를 기반으로 차선 후보군을 검출하는 차선 후보군 검출 과정;
상기 차선 후보군의 특징 및 차량의 상태정보 중 적어도 하나를 기반으로 상기 차선 후보군 내 오류 후보군을 제거하는 제1 필터링 과정;
상기 제1 필터링 과정을 통해 필터링된 차선 후보군에 대한 신뢰도를 측정하여 상기 차선 후보군 내 비신뢰 후보군을 제거하는 제2 필터링 과정; 및
상기 제2 필터링 과정을 통해 필터링된 차선 후보군에 대한 무빙 에버리지를 연산하여 최종 차선 후보군을 선정하는 선정 과정을 포함하되,
상기 제1 필터링 과정은,
상기 차량의 스티어링 휠 정보를 수집하고, 상기 스티어링 휠 정보를 기준으로 산출된 상기 차량의 헤딩의 직선 방정식과 상기 차선 후보군 사이의 유클리디안 거리정보(Euclidean Distance)를 계산하고, 상기 유클리디안 거리정보가 기 설정된 임계치 미만인 차선 후보군을 상기 오류 후보군으로서 제거하고,
상기 제2 필터링 과정은,
상기 제1 필터링 과정을 통해 필터링된 차선 후보군에 대응되는 제1 내지 N(N=자연수)차 방정식의 차선을 나타내고, 상기 제1 내지 제N차 방정식의 차선을 기준으로 상기 차선 후보군과의 사이에 법선거리를 산출하여 상기 신뢰도를 측정하는 것을 특징으로 하는 차선인식 방법.A ground data detection process of obtaining lidar data from a lidar sensor and detecting ground data in the lidar data;
a lane candidate group detection process of detecting a lane candidate group based on brightness information among the ground data;
a first filtering process of removing an erroneous candidate group from the lane candidate group based on at least one of characteristics of the lane candidate group and vehicle state information;
a second filtering process of measuring reliability of the next best candidate group filtered through the first filtering process and removing unreliable candidate groups from the next best candidate group; and
A selection process of selecting a final lane candidate group by calculating a moving average for the next lane candidate group filtered through the second filtering process;
The first filtering process,
Steering wheel information of the vehicle is collected, Euclidean distance information between a straight line equation of the heading of the vehicle calculated based on the steering wheel information and the lane candidate group is calculated, and the Euclidean distance Eliminate a next best candidate group whose information is less than a preset threshold as the error candidate group;
The second filtering process,
Indicates lanes of first to N (N = natural number) degree equations corresponding to the lane candidate group filtered through the first filtering process, and between the lane candidate groups based on the lanes of the first to Nth order equations A lane recognition method characterized in that the reliability is measured by calculating a normal distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210067327A KR20220159575A (en) | 2021-05-26 | 2021-05-26 | Vehicle AVM camera system for omnidirectional collision prevention and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210067327A KR20220159575A (en) | 2021-05-26 | 2021-05-26 | Vehicle AVM camera system for omnidirectional collision prevention and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220159575A true KR20220159575A (en) | 2022-12-05 |
Family
ID=84391968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210067327A KR20220159575A (en) | 2021-05-26 | 2021-05-26 | Vehicle AVM camera system for omnidirectional collision prevention and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220159575A (en) |
-
2021
- 2021-05-26 KR KR1020210067327A patent/KR20220159575A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hata et al. | Road marking detection using LIDAR reflective intensity data and its application to vehicle localization | |
EP3349041B1 (en) | Object detection system | |
US11294392B2 (en) | Method and apparatus for determining road line | |
US8452103B2 (en) | Scene matching reference data generation system and position measurement system | |
US8428362B2 (en) | Scene matching reference data generation system and position measurement system | |
CN109155107A (en) | Sensory perceptual system for automated vehicle scene perception | |
JP7471481B2 (en) | Information processing device, information processing method, and program | |
EP2052208B1 (en) | Determining the location of a vehicle on a map | |
KR102178992B1 (en) | Method and Apparatus for Planning Car Motion | |
CN113635894A (en) | Method for determining a drivable region | |
US20220314979A1 (en) | Apparatus and Method for Controlling Driving of Vehicle | |
JP4940177B2 (en) | Traffic flow measuring device | |
JP2021135596A (en) | Processor | |
JP6263453B2 (en) | Momentum estimation device and program | |
CN114103993A (en) | Vehicle driving control device and method | |
KR102228278B1 (en) | Apparatus and Method for Recognizing Lane Using Lidar Sensor | |
CN114475615A (en) | Apparatus and method for identifying driving lane based on multiple sensors | |
JP7344744B2 (en) | Roadside edge detection method and roadside edge detection device | |
JP2019179495A (en) | Sensor processing system, distance measuring system, mobile object, sensor processing method, and program | |
KR20220159575A (en) | Vehicle AVM camera system for omnidirectional collision prevention and control method thereof | |
KR20230032628A (en) | Method and apparatus for processing sensor information, and recording medium for recording program performing the method | |
KR20220128787A (en) | Method and apparatus for tracking an object using LIDAR sensor, and recording medium for recording program performing the method | |
KR20160123203A (en) | Road sign detection-based driving lane estimation method and apparatus | |
US11954915B2 (en) | Method for detecting guard-rail using LIDAR sensor and guard-rail detection device performing the method | |
US20230050013A1 (en) | Object detection method and object tracking device using lidar sensor |