KR20230070080A - Lane Departure Prevention Apparatus - Google Patents

Lane Departure Prevention Apparatus Download PDF

Info

Publication number
KR20230070080A
KR20230070080A KR1020210155204A KR20210155204A KR20230070080A KR 20230070080 A KR20230070080 A KR 20230070080A KR 1020210155204 A KR1020210155204 A KR 1020210155204A KR 20210155204 A KR20210155204 A KR 20210155204A KR 20230070080 A KR20230070080 A KR 20230070080A
Authority
KR
South Korea
Prior art keywords
lane
data
curve
unit
vehicle
Prior art date
Application number
KR1020210155204A
Other languages
Korean (ko)
Other versions
KR102660192B1 (en
Inventor
고국원
이지연
소신창
백록담
김우연
방민혁
제현승
한늘찬
염광모
Original Assignee
한라대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한라대학교산학협력단 filed Critical 한라대학교산학협력단
Priority to KR1020210155204A priority Critical patent/KR102660192B1/en
Publication of KR20230070080A publication Critical patent/KR20230070080A/en
Application granted granted Critical
Publication of KR102660192B1 publication Critical patent/KR102660192B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18063Creeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/303Speed sensors
    • B60Y2400/3032Wheel speed sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention provides a lane departure prevention device which comprises: an object detection unit generating information about an object outside a vehicle; a sensing unit detecting position and direction changes of the vehicle; a position generation unit generating position data of the vehicle; an autonomous driving unit collecting object information generated through the object detection unit, sensing information detected by the sensing unit, and the position data generated by the position generation unit to determine whether the vehicle departures a lane; and a driving control unit controlling a vehicle driving device based on a signal received from the autonomous driving unit.

Description

차선 이탈 방지 장치{Lane Departure Prevention Apparatus}Lane Departure Prevention Apparatus}

본 발명은 자율 주행 차량용 차선 이탈 방지 장치에 관한 것이다. The present invention relates to a lane departure prevention device for an autonomous vehicle.

차량에 장착되고 있는 디스플레이 장치의 화면을 통해 내비게이션, 오디오 및 공조 기능 등을 조작하게 되면서, 주행 중 운전자의 시선이 디스플레이 장치로 분산되어 발생하는 교통사고의 비율이 크게 증가하고 있다.As navigation, audio and air conditioning functions are operated through the screen of a display device mounted on a vehicle, the rate of traffic accidents caused by diverting the driver's gaze to the display device while driving is greatly increasing.

이와 같이, 졸음 운전이나 디스플레이 장치의 조작 등으로 인해 주행 중 전방 주시가 제대로 이루어지지 못하는 경우, 차량이 주행차로를 이탈하는 위험한 상황이 발생할 수 있으며 이는 교통사고로 이어질 가능성이 매우 높다.As described above, when forward gaze is not properly performed while driving due to drowsy driving or manipulation of a display device, a dangerous situation in which the vehicle leaves the driving lane may occur, which is highly likely to lead to a traffic accident.

이에, 차량의 주행차로 이탈을 예측하고 주행차로 이탈이 예측되면 차량이 주행 차선을 이탈하지 않도록 차량의 주행 관련 장치를 제어하는 기술이 요구되고 있다.Accordingly, there is a demand for a technology for predicting departure of the vehicle from the driving lane and controlling a driving-related device of the vehicle so that the vehicle does not depart from the driving lane when departure from the driving lane is predicted.

본 발명은 차량 주행시 각종 정보를 입수하여 차선 이탈을 확실하게 방지할 수 있도록 한 자율 주행 차량용 차선 이탈 방지 장치를 제공하는 것이다. An object of the present invention is to provide a lane departure prevention device for an autonomous vehicle capable of reliably preventing lane departure by obtaining various types of information during vehicle driving.

본 발명의 해결 수단은 차량 외부의 오브젝트에 대한 정보를 생성하는 오브젝트 검출부; 차량의 위치 및 방향 변화를 감지하는 센싱부; 차량의 위치 데이터를 생성하는 위치 생성부; 상기 오브젝트 검출부를 통해 생성된 오브젝트 정보와, 상기 센싱부에서 감지한 센싱 정보와, 상기 위치 생성부에서 생성한 위치 데이터를 취합하여 차량의 차선 이탈 여부를 판단하는 자율 주행부; 상기 자율 주행부에서 수신되는 신호에 기초하여 차량 구동 장치를 제어하는 구동 제어부를 포함하는 자율 주행 차량용 차선 이탈 방지 장치가 제공될 수 있다. The solution means of the present invention includes an object detection unit generating information on an object outside the vehicle; a sensing unit that detects changes in the position and direction of the vehicle; a location generating unit generating location data of the vehicle; an autonomous driving unit that determines whether the vehicle departs from a lane by collecting object information generated through the object detection unit, sensing information detected by the sensing unit, and location data generated by the location generating unit; A lane departure prevention device for an autonomous vehicle may include a driving control unit that controls a vehicle driving device based on a signal received from the autonomous driving unit.

이와 같이, 본 발명은 차량 외부의 오브젝트(object)에 대한 정보를 생성하는 오브젝트 검출부, 차량의 구동 장치를 제어하는 구동 제어부, 각종 센싱 정보를 취합하여 자율 주행이 가능하도록 구동 제어부에 정보를 제공하는 자율 주행부, 차량의 위치 데이터를 생성하는 위치 생성부, 차량 자세 등 각종 센서에 의한 정보를 생성하는 센싱부, 차량 주행시 차선의 곡률을 자동적으로 계산하는 차선 곡률 계산부, 센싱부를 구성하는 조향각 센서에 의한 조향각 정보를 이용하여 차량의 주행 곡률을 계산하고, 계산된 주행 곡률에 기초하여 차량의 진행 방향을 예측하는 주행 방향 예측부에 의해 차량 주행시 차선 이탈을 확실하게 방지할 수 있다. As described above, the present invention provides information to the driving control unit to enable autonomous driving by collecting various sensing information including an object detection unit for generating information on an object outside the vehicle, a driving control unit for controlling a driving device of the vehicle, and the like. Autonomous driving unit, location generation unit that generates vehicle location data, sensing unit that generates information from various sensors such as vehicle posture, lane curvature calculation unit that automatically calculates the curvature of the lane while driving the vehicle, and steering angle sensor constituting the sensing unit Lane departure during vehicle driving can be reliably prevented by a driving direction prediction unit that calculates the driving curvature of the vehicle using steering angle information and predicts the driving direction of the vehicle based on the calculated driving curvature.

도 1은 본 발명의 전체 구성도이다.
도 2는 본 발명의 오브젝트 검출부에 의해 오브젝트인 차선을 검출하는 과정을 설명하기 위한 설명도이다.
도 3은 본 발명의 오브젝트 검출부인 카메라를 차량 내부에 설치한 상태에서 전방의 오브젝트를 검출하는 과정을 나타낸 개략도이다.
도 4는 본 발명의 카메라에 의해 차선을 인식하고, 제어부에서 기준 차선 검출부와 차선 검출부를 처리하는 과정을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 곡선 차선의 보정 에지 작업을 설명하기 위한 도면이다.
도 6은 본 발명의 러프하게 인식되는 곡선에 대하여 분할 곡선으로 나누어서 보강 에지 작업을 통해 보강 차선 데이터를 설정하는 과정을 설명하기 위한 도면이다.
1 is an overall configuration diagram of the present invention.
2 is an explanatory diagram for explaining a process of detecting a lane, which is an object, by an object detection unit of the present invention.
3 is a schematic diagram illustrating a process of detecting a forward object in a state in which a camera, which is an object detection unit of the present invention, is installed inside a vehicle.
4 is a diagram for explaining a process of recognizing a lane by a camera of the present invention and processing a standard lane detection unit and a lane detection unit in a control unit.
5 is a diagram for explaining a correction edge operation of a curved lane according to the present invention.
6 is a diagram for explaining a process of setting reinforcement lane data through a reinforcement edge operation by dividing a rough recognized curve into a division curve according to the present invention.

도 1을 참조하면, 본 발명의 차선 이탈 방지 장치(100)는 오브젝트 검출부(110), 구동 제어부(120), 자율 주행 제어부(130), 센싱부(140) 및 위치 생성부(150)를 포함할 수 있다. Referring to FIG. 1 , a lane departure prevention device 100 according to the present invention includes an object detection unit 110, a drive control unit 120, an autonomous driving control unit 130, a sensing unit 140, and a location generator 150. can do.

오브젝트 검출부(110)는 차량 외부의 오브젝트(object)에 대한 정보를 생성할 수 있다. 오브젝트에 대한 정보는, 오브젝트의 존재 유무에 대한 정보, 오브젝트의 위치 정보, 차량과 오브젝트와의 거리 정보, 및 차량과 오브젝트와의 상대 속도 정보 중 적어도 어느 하나를 포함할 수 있다. The object detector 110 may generate information about an object outside the vehicle. The information about the object may include at least one of information about the existence of the object, location information of the object, distance information between the vehicle and the object, and relative speed information between the vehicle and the object.

오브젝트 검출부(110)는 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서중 적어도 하나를 포함할 수 있다. 카메라는 영상을 이용하여 차량 외부의 오브젝트에 대한 정보를 생성할 수 있다. 카메라는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서, 및 적어도 하나의 이미지 시그널 프로세서를 포함할 수 있다. 이미지 시그널 프로세서는 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성할 수 있다.The object detector 110 may include at least one of a camera, radar, lidar, ultrasonic sensor, and infrared sensor. The camera may generate information about an object outside the vehicle using an image. A camera may include at least one lens, at least one image sensor, and at least one image signal processor. The image signal processor may be electrically connected to the image sensor, process a received signal, and generate data about an object based on the processed signal.

카메라는 다양한 영상 처리 알고리즘을 이용하여 오브젝트의 위치 정보, 오브젝트와의 거리 정보 또는 오브젝트와의 상대 속도 정보를 획득할 수 있다.The camera may obtain location information of an object, distance information from the object, or relative speed information from the object using various image processing algorithms.

카메라는 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 즉, 예를 들어 카메라는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서 프런트 윈드 쉴드에 근접하게 배치될 수 있다.The camera may be mounted in a position where a field of view (FOV) can be secured in the vehicle in order to photograph the outside of the vehicle. That is, for example, the camera may be disposed close to the front windshield inside the vehicle to obtain an image of the front of the vehicle.

레이다는 전파를 이용하여 차량 외부의 오브젝트에 대한 정보를 생성할 수 있다.The radar may generate information about an object outside the vehicle using radio waves.

라이다는 레이저 광을 이용하여, 차량 외부의 오브젝트에 대한 정보를 생성할 수 있다.LIDAR may generate information about an object outside the vehicle by using laser light.

구동 제어부(120)는 자율 주행 제어부(130)에서 수신되는 신호에 기초하여, 차량 구동 장치를 제어할 수 있다. 예를 들면, 구동 제어부(120)는, 자율 주행 제어부(130)에서 수신되는 신호에 기초하여, 파워 트레인, 조향 장치 및 브레이크 장치를 제어할 수 있다. The driving control unit 120 may control the vehicle driving device based on a signal received from the autonomous driving control unit 130 . For example, the driving controller 120 may control a power train, a steering device, and a brake device based on a signal received from the autonomous driving controller 130 .

자율 주행 제어부(130)는 적어도 하나의 ADAS(Advanced Drive Assistance System) 기능을 구현할 수 있다. ADAS는 스마트 크루즈 컨트롤 시스템, 차선 유지 보조 시스템(LKAS; Lane Keeping Assist System)중 적어도 어느 하나를 통해 구현할 수 있다. The autonomous driving control unit 130 may implement at least one Advanced Drive Assistance System (ADAS) function. ADAS can be implemented through at least one of a smart cruise control system and a lane keeping assist system (LKAS).

센싱부(140)는 차량의 상태를 감지할 수 있고, IMU(inertial measurement unit) 센서(141)를 포함할 수 있다. IMU(inertial measurement unit) 센서는 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.The sensing unit 140 may detect the state of the vehicle and may include an inertial measurement unit (IMU) sensor 141 . An inertial measurement unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.

IMU 센서(141)는 관성 가속력에 기초하여 자율 주행 차량의 위치 및 방향 변화를 감지할 수 있다. The IMU sensor 141 may detect changes in the position and direction of the autonomous vehicle based on the inertial acceleration force.

센싱부(140)는 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 차량의 상태 데이터는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다. 센싱부(140)는, 차량 자세 데이터, 차량 모션 데이터, 차량 요(yaw) 데이터, 차량 롤(roll) 데이터, 차량 피치(pitch)데이터, 차량 충돌 데이터, 차량 방향 데이터, 차량 각도 데이터, 차량 속도 데이터, 차량 가속도 데이터, 차량 기울기 데이터, 차량 전진/후진 데이터, 차량의 중량 데이터, 배터리 데이터, 연료 데이터, 타이어 공기압 데이터, 차량 내부 온도 데이터, 차량 내부 습도 데이터, 스티어링 휠 회전 각도 데이터, 차량 외부 조도 데이터, 가속 페달에 가해지는 압력 데이터, 브레이크 페달에 가해지는 압력 데이터 등을 생성할 수 있다.The sensing unit 140 may generate vehicle state data based on a signal generated by at least one sensor. The vehicle state data may be information generated based on data sensed by various sensors provided inside the vehicle. The sensing unit 140 includes vehicle posture data, vehicle motion data, vehicle yaw data, vehicle roll data, vehicle pitch data, vehicle collision data, vehicle direction data, vehicle angle data, and vehicle speed. data, vehicle acceleration data, vehicle inclination data, vehicle forward/reverse data, vehicle weight data, battery data, fuel data, tire pressure data, vehicle internal temperature data, vehicle internal humidity data, steering wheel rotation angle data, external illuminance of the vehicle Data, pressure data applied to the accelerator pedal, pressure data applied to the brake pedal, etc. can be generated.

센싱부(140)는 차량 핸들의 회전 각도를 감지하는 조향 센서(142) 및 차량의 휠 속도를 감지하는 휠 센서(143)를 포함할 수 있다. The sensing unit 140 may include a steering sensor 142 that detects a rotational angle of a steering wheel of a vehicle and a wheel sensor 143 that detects a wheel speed of a vehicle.

센싱부(140)는 차량의 자율 주행을 위한 센서부라고 할 수 있다. 따라서, 센싱부(140)에 의해 차량의 속도, 핸들 각도, 차량의 위치 정보에 대한 기준값을 생성할 수 있다. The sensing unit 140 may be referred to as a sensor unit for autonomous driving of a vehicle. Accordingly, the sensing unit 140 may generate reference values for vehicle speed, steering wheel angle, and vehicle location information.

위치 생성부(150)는 차량의 위치 데이터를 생성할 수 있고, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. The location generator 150 may generate vehicle location data, and may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS).

위치 생성부(150)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량의 위치 데이터를 생성할 수 있다. 위치 생성부(150)는, 센싱부(140)의 IMU(Inertial Measurement Unit) 센서 및 오브젝트 검출부(110)를 구성하는 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.The location generating unit 150 may generate vehicle location data based on a signal generated by at least one of GPS and DGPS. The location generating unit 150 may correct location data based on at least one of an Inertial Measurement Unit (IMU) sensor of the sensing unit 140 and a camera constituting the object detection unit 110 .

또한, 본 발명은 자율 주행 차량의 주행시 센싱부(140)에 의한 센싱 정보인 조향각 정보를 이용하여 차량의 주행 방향을 예측할 수 있는 주행 방향 예측부(170)를 포함할 수 있다. In addition, the present invention may include a driving direction predictor 170 capable of predicting the driving direction of the autonomous vehicle using steering angle information, which is information sensed by the sensing unit 140 during driving of the autonomous vehicle.

다시 말해서, 주행 방향 예측부(170)는 센싱부(140)를 구성하는 조향 센서(142)에 의한 조향각 정보를 이용하여 차선 곡률 계산부(160)에서 차량의 주행 곡률을 계산하고, 계산된 주행 곡률값에 기초하여 차량의 진행 방향을 예측할 수 있다.In other words, the driving direction predictor 170 calculates the driving curvature of the vehicle in the lane curvature calculator 160 using steering angle information from the steering sensor 142 constituting the sensing unit 140, and the calculated driving Based on the curvature value, it is possible to predict the traveling direction of the vehicle.

차선 곡률 계산부(160)에서 계산된 차선 곡률 정보는 오브젝트 검출부(110)에서 취득된 차선 정보를 함께 자율 주행 제어부(130)에 보내질 수 있다.The lane curvature information calculated by the lane curvature calculation unit 160 may be sent to the autonomous driving control unit 130 together with the lane information acquired by the object detector 110 .

또한, 주행 방향 예측부(170)에서 예측한 차량의 주행 방향에 대한 정보는 자율 주행 제어부(130)에 보내질 수 있다.In addition, information on the driving direction of the vehicle predicted by the driving direction predictor 170 may be sent to the autonomous driving control unit 130 .

자율 주행 제어부(130)에서는 차선 정보(직선, 곡선, 실선, 점선), 차선 곡률 정보, 차량의 주행 방향에 대한 정보를 취합하여 연산을 통해 판단한 데이터를 구동 제어부(120)에서 차량 구동 장치를 제어하는데 반영할 수 있다. The autonomous driving control unit 130 collects lane information (straight line, curved line, solid line, dotted line), lane curvature information, and information on the driving direction of the vehicle, and the driving control unit 120 controls the vehicle driving device with data determined through calculation. can be reflected in

만일, 야간 또는 비가 오는 날에 차량을 주행하는 경우, 차선이 제대로 보이지 않아 차선을 정확하게 인식하지 못할 수 있다.If the vehicle is driven at night or on a rainy day, the lane may not be accurately recognized because the lane is not properly seen.

차선을 정확하게 인식하지 못하는 경우에는 차선을 이탈할 가능성이 높아질 수 있기 때문에, 주행 환경에 따라 차선 인식 정도가 차이날 수 있다. 따라서, 이러한 차선을 명확하게 인식하는 것이 무엇보다 중요할 수 있다.Since the possibility of leaving the lane may increase when the lane is not accurately recognized, the degree of lane recognition may vary depending on the driving environment. Therefore, clearly recognizing these lanes can be of paramount importance.

본 발명은 이러한 상황을 반영하여 보다 정확한 차선 인식을 통해 정보를 취득하도록 하기 위해서, 오브젝트 검출부(110)에서 각각의 차선에 대한 세부 영역을 설정하여 인식한 차선 정보를 자율 주행 제어부(130)에 보낼 수 있다. In the present invention, in order to acquire information through more accurate lane recognition by reflecting this situation, the object detection unit 110 sets detailed areas for each lane and sends the recognized lane information to the autonomous driving control unit 130. can

도 3은 본 발명의 오브젝트 검출부인 카메라를 차량 내부에 설치한 상태에서 전방의 오브젝트인 차선을 검출하는 과정을 나타낸 개략도로서, 도 3을 참조하면, 오브젝트 검출부(110)를 구성하는 카메라(112)를 차량(10)의 앞 유리창 안쪽에 배치하여 전방을 주시할 수 있다. 3 is a schematic diagram showing a process of detecting a lane, which is a forward object, in a state in which a camera, which is an object detection unit of the present invention, is installed inside a vehicle. Referring to FIG. 3, the camera 112 constituting the object detection unit 110 may be placed on the inside of the windshield of the vehicle 10 to keep an eye on the front.

본 발명의 카메라(112)는 고정된 상태가 아닌 오브젝트를 추종하는 연동형 카메라일 수 있다. 즉, 카메라(112)는 상,하, 좌,우로 카메라 주시 각도를 변경할 수 있도록 추적 기능을 가지고 자동적으로 움직일 수 있다. The camera 112 of the present invention may be an interlocking camera that follows an object that is not in a fixed state. That is, the camera 112 can automatically move with a tracking function to change the camera gaze angle up, down, left, and right.

또한, 카메라(112)는 줌 기능이 이루어지도록 근접 또는 원거리 촬영이 가능할 수 있다. 따라서, 카메라(112)는 이미지 센서, 줌 센서를 포함할 수 있고, 오브젝트를 주시하는 트래킹부와, 트래킹부가 제공하는 정보에 의해 카메라(112)를 움직이는 구동부를 마련할 수 있다. In addition, the camera 112 may be capable of close-up or long-distance photography so as to perform a zoom function. Accordingly, the camera 112 may include an image sensor and a zoom sensor, and may include a tracking unit that looks at an object and a driving unit that moves the camera 112 based on information provided by the tracking unit.

본 발명은 차량 주행시, 차량의 실내 전방에 마련된 오브젝트 검출부(110)를 구성하는 카메라(112)에 의해 전방을 주시하면서 주행할 수 있고, 이때 카메라(112)는 주행 차선의 이미지 정보를 입수할 수 있다. According to the present invention, when driving a vehicle, the camera 112 constituting the object detection unit 110 provided inside the vehicle can drive while looking forward, and at this time, the camera 112 can obtain image information of the driving lane. there is.

도 2를 참조하면, 카메라(112)에 의해 입수된 차선에 대한 정보는 자율 주행 제어 제어부(130)에서 인식 및 처리할 수 있다. Referring to FIG. 2 , the autonomous driving control controller 130 may recognize and process lane information acquired by the camera 112 .

자율 주행 제어부(130)는 자율 주행 차량의 자율 주행이 가능하도록 하기 위한 센싱부(140)로부터 데이터(CAN 통신을 통해서)를 전달받을 수 있다.The autonomous driving control unit 130 may receive data (through CAN communication) from the sensing unit 140 to enable autonomous driving of the autonomous vehicle.

센싱부(140)는 IMU 센서(141), 조향 센서(142) 및 휠 센서(143)를 포함할 수 있다. The sensing unit 140 may include an IMU sensor 141 , a steering sensor 142 , and a wheel sensor 143 .

IMU 센서(141)는 관성 가속력에 기초하여 자율 주행 차량의 위치 및 방향 변화를 감지할 수 있고, 조향 센서(142)는 핸들 조작에 의한 조향각을 감지하며, 휠 센서(143)는 휠의 속도를 감지할 수 있다. The IMU sensor 141 can detect changes in the position and direction of the self-driving vehicle based on the inertial acceleration force, the steering sensor 142 detects the steering angle caused by steering wheel manipulation, and the wheel sensor 143 detects the speed of the wheel. can detect

더욱이, 자율 주행 제어부(130)는 카메라(112)로부터 획득한 이미지를 전달받고, 이를 기초로 자기 차량이 현재 위치한 차선에 대한 각종 정보를 인식하는 기능을 담당할 수 있다. Furthermore, the autonomous driving control unit 130 may receive an image obtained from the camera 112 and, based on this, recognize various types of information about a lane on which the vehicle is currently located.

도 2를 참조하면, 본 발명은 자율 주행 차량의 주행시 차선(직선 또는 곡선)을 검출하고 보정함으로써 보다 정확한 차선을 인식할 수 있는 차선 처리부(180)를 포함할 수 있고, 차선 처리부(180)는 자율 주행 제어부(130)에 의해 전체적인 동작이 제어될 수 있다. Referring to FIG. 2 , the present invention may include a lane processing unit 180 capable of more accurately recognizing a lane by detecting and correcting a lane (straight or curved) during driving of an autonomous vehicle, and the lane processing unit 180 Overall operation may be controlled by the autonomous driving controller 130 .

즉, 차선 처리부(180)는 카메라(112)로부터 획득한 이미지 정보의 에지를 찾아서 차선을 검출하는 차선 검출부(181), 차선 검출부(181)에서 검출한 차선 데이터와 비교하기 위한 기준 차선 데이터 생성부(182), 차선 검출부(181)에 의한 차선 데이터와 기준 차선 데이터 생성부(182)에 의한 기준 차선 데이터를 비교하여 보정하는 차선 보정부(183)를 포함할 수 있다. That is, the lane processing unit 180 includes a lane detecting unit 181 that detects a lane by finding an edge of image information obtained from the camera 112, and a reference lane data generation unit for comparing with lane data detected by the lane detecting unit 181. (182), and a lane correction unit 183 that compares lane data from the lane detection unit 181 and standard lane data from the reference lane data generation unit 182 and corrects them.

차선 검출부(181)는 카메라(112)에 의해 입수된 현재의 차선 이미지 정보를 토대로 차선을 검출할 수 있다. The lane detection unit 181 may detect a lane based on current lane image information acquired by the camera 112 .

차선 검출부(181)에서는 차선 검출시, 직선 또는 곡선인지 여부를 판단하고, 입수된 차선 데이터로부터 제1 픽셀, 제2 픽셀 내지 제N 픽셀을 통해 차선의 에지를 찾아 검출할 수 있다. When detecting a lane, the lane detection unit 181 may determine whether the lane is a straight line or a curve, and find and detect the edge of the lane through the first pixel, the second pixel to the Nth pixel from the obtained lane data.

기준 차선 데이터 생성부(182)에서는 차선 검출부(181)에서 검출한 차선 데이터와 비교하기 위한 기준 차선 데이터가 제공될 수 있다. 기준 차선 데이터는 직선 또는 곡선의 차선 데이터에 대한 기준 패턴에 대한 기준 차선 데이터가 기 저장된 상태일 수 있다. The reference lane data generation unit 182 may provide reference lane data for comparison with the lane data detected by the lane detection unit 181 . The reference lane data may be a state in which reference lane data for a reference pattern of straight or curved lane data is stored in advance.

기준 차선 데이터는 차선 검출부(181)를 통해 검출된 차선 정보를 이용하여 생성된 데이터일 수 있고, 일정 시간 동안 수신된 차선 정보를 분석하고, 그에 따라 유사한 패턴이 연속적으로 입력되는 경우, 이를 기준 차선 데이터로 저장할 수 있다. The reference lane data may be data generated using lane information detected through the lane detection unit 181, and lane information received for a certain period of time is analyzed and, accordingly, when a similar pattern is continuously input, it is converted into the reference lane data. can be stored as data.

차선 보정부(183)에서는 기준 차선 데이터와 현 시점에서 제공된 현재의 차선 데이터에 대한 특성을 추출할 수 있다. The lane correcting unit 183 may extract characteristics of reference lane data and current lane data provided at the present time.

차선 데이터에 대한 정보 특성은 시간에 따른 차선 각도의 변화 정도, 차선 폭의 변화 정도 등을 포함할 수 있다. The information characteristics of the lane data may include a degree of change of a lane angle and a degree of change of a lane width over time.

차선 보정부(183)에서는 기준 차선 데이터 및 현재의 차선 데이터에 대응하는 차선 각도를 생성하여 저장할 수 있고, 저장된 현재의 차선 데이터에 대응하는 차선 각도, 기준 차선 데이터에 대응하는 차선 각도의 변화값을 확인할 수 있다. The lane correction unit 183 may generate and store lane angles corresponding to reference lane data and current lane data, and may generate and store lane angles corresponding to the stored current lane data and change values of lane angles corresponding to the reference lane data. You can check.

또한, 차선 보정부(183)에서는 기준 차선 데이터와 현 시점에서 제공된 현재의 차선 데이터에 대한 특성을 추출한 다음, 이를 토대로 현재의 차선 데이터의 오검출 여부를 감지할 수 있다.In addition, the lane correction unit 183 extracts characteristics of the standard lane data and the current lane data provided at the current point in time, and then detects whether the current lane data is incorrectly detected based on the extracted characteristics.

다시 말해서, 차선 데이터가 정상 검출되면 현 시점에서 차선 검출부(181)를 통해 검출한 차선 데이터에 대한 신호를 그대로 자율 주행 제어부(130)에 전송하고, 차선 데이터가 오검출되면, 생성한 기준 차선 데이터인 과거 차선 데이터를 자율 주행 제어부(130)에 전송할 수 있다. In other words, if the lane data is normally detected, the signal for the lane data detected through the lane detection unit 181 is transmitted to the autonomous driving control unit 130 as it is, and if the lane data is incorrectly detected, the generated standard lane data past lane data may be transmitted to the autonomous driving control unit 130 .

차선 데이터의 오검출시, 차선 각도 변화 정도에 해당하는 차선 각도 변화값은 현재의 차선 데이터에 대한 차선 각도(좌측 및 우측 차선)와 기준 차선 데이터의 차선 각도의 차이값일 수 있다. When erroneous lane data is detected, the lane angle change value corresponding to the degree of lane angle change may be a difference between the lane angle of the current lane data (left and right lanes) and the lane angle of the reference lane data.

이러한 차선 각도 차이값을 임계값과 비교하여 현재 수신된 차선 데이터의 오검출 여부를 판단할 수 있다. By comparing the lane angle difference value with a threshold value, it may be determined whether the currently received lane data is erroneously detected.

오검출 여부 판단 결과, 현재 수신된 차선 데이터가 오검출되었다면, 기준 차선 데이터를 자율 주행 제어부(130)에 전송할 수 있고, 만일, 현재 수신된 차선 데이터가 정상적으로 검출되었고 판단되면, 차선 보정부(183)에서는 현재 수신된 차선 데이터를 그대로 자율 주행 제어부(130)에 전송할 수 있다. As a result of determining whether the currently received lane data is erroneously detected, the reference lane data may be transmitted to the autonomous driving control unit 130, and if it is determined that the currently received lane data is normally detected, the lane correction unit 183 ), the currently received lane data may be transmitted to the autonomous driving control unit 130 as it is.

한편, 기준 차선 데이터에 오류가 있으면, 계속적으로 차선 오검출이 감지될 수 있으므로, 기준 차선 데이터 생성부(182)에서는 차선 보정부(183)에서 일정 회수 이상 차선 오검출이 반복적으로 감지되면, 이러한 기준 차선 데이터를 삭제하고, 현 시점에서 입력되는 차선 데이터를 이용하여 기준 차선 데이터를 재생성할 수 있다. On the other hand, if there is an error in the standard lane data, lane erroneous detection may be continuously detected. Therefore, in the reference lane data generator 182, if the lane correction unit 183 repeatedly detects erroneous lane detection a certain number of times or more, Reference lane data may be deleted, and reference lane data may be regenerated using lane data input at the present time.

따라서, 본 발명은 과거 차선 데이터를 활용하여 순간적인 차선 데이터의 오검출 현황을 검출하고, 그에 따라 오검출된 차선 데이터를 보정해줌으로써, 실제 차선이 마모되거나, 차선 또는 차선 주변에 복잡한 노이즈 오브젝트가 포함되어 있는 경우, 순간적으로 증가하는 오검출 상황을 해결할 수 있고, 그에 따른 차선 이탈 방지 기능을 달성하기 위한 신뢰도를 향상시킬 수 있다. Therefore, the present invention utilizes past lane data to detect the instantaneous error detection status of lane data and corrects the incorrectly detected lane data accordingly, so that actual lanes are worn out or complex noise objects in the lanes or around the lanes are not generated. If included, it is possible to solve an instantaneously increasing false detection situation, and thereby improve reliability for achieving the lane departure prevention function.

이러한 차선 보정부(183)에는 예를 들어, 도 4를 참조하면, 차선 기준 데이터 생성부(182)에서의 기준 차선 데이터(L2)와 차선 검출부(181)에서 검출한 차선 데이터(L1)의 비교를 통해 차이가 발생하면, 오검출로 판단할 수 있다. For example, referring to FIG. 4 , the lane correcting unit 183 compares the standard lane data L2 from the lane reference data generation unit 182 and the lane data L1 detected by the lane detection unit 181. If a difference occurs through , it can be determined as an erroneous detection.

차선 보정부(183)에서는 먼저 직선에 대한 현재의 차선 데이터(L1)와 과거의 기준 차선 데이터(L2)를 비교할 수 있다. 비교 결과, 소정의 임계값 이상으로 차이가 발생하면, 오검출로 인식하고 기준 차선 데이터(L2)를 자율 주행 제어부(130)에 전송하여 보정할 수 있다. The lane correction unit 183 may first compare current lane data L1 and past reference lane data L2 on a straight line. As a result of the comparison, if a difference exceeds a predetermined threshold value, it may be recognized as an erroneous detection and the reference lane data L2 may be transmitted to the autonomous driving control unit 130 to be corrected.

한편, 곡선의 차선인 경우에도 직선 차선과 마찬가지로, 기준 차선 데이터와 비교하여 차이값을 임계값 이상으로 차이가 발생하면, 오검출로 판단할 수 있고, 곡선에 대한 기준 차선 데이터 자율 주행 제어부(130)에 전송하여 보정할 수 있다. On the other hand, even in the case of a curved lane, similar to a straight lane, if the difference value is compared with the reference lane data and the difference exceeds the threshold value, it may be determined as an erroneous detection, and the reference lane data autonomous driving control unit 130 for the curve ) and can be corrected.

여기서, 차선 검출부(181)에서 검출한 곡선 차선 데이터는 직선 차선 데이터에 비해 소정의 곡률을 가지고 변화되기 때문에 상당히 부정확하게 차선 데이터가 입력될 수 있다. Here, since the curved lane data detected by the lane detection unit 181 is changed with a predetermined curvature compared to the straight lane data, lane data may be input significantly inaccurately.

따라서, 차선 보정부(183)에서는 곡선에 대한 기준 차선 데이터와 바로 비교하지 않고, 보정 작업을 통해 곡선 차선의 보정 에지를 파악하여 보정 차선 데이터를 설정한 다음, 곡선 차선 기준 데이터와 비교하여 차이나는 부분을 보정해줄 수 있다. Therefore, the lane correcting unit 183 does not directly compare with the reference lane data for the curve, but determines the correction edge of the curved lane through a correction operation, sets the corrected lane data, and then compares it with the curved lane reference data to determine the difference part can be corrected.

도 5를 참조하면, 곡선 차선의 보정 에지 작업시, 현재의 입수된 차선 데이터에 해당하는 2개의 제1 곡선(S1)과 제2 곡선(S2)을 각각 제1 영역(A1)과 제2 영역(A2)으로 세분화한 현재의 차선 데이터를 기준 차선 데이터에 해당하는 2개의 곡선인 제1 기준 곡선(S3)과 제2 기준 곡선(S4)에 대한 제1 기준 영역(A3) 및 제2 기준 영역(A4)과 비교하여 임계값 이상으로 차이나지 않도록 보강해줄 수 있다. Referring to FIG. 5 , when working on a correction edge of a curved lane, two first and second curves S1 and S2 corresponding to the currently obtained lane data are applied to a first area A1 and a second area, respectively. The first reference area A3 and the second reference area for the first reference curve S3 and the second reference curve S4, which are two curves corresponding to the current lane data subdivided in (A2), corresponding to the reference lane data. Compared to (A4), it can be reinforced so that the difference does not exceed the threshold value.

현재의 입수된 차선 데이터에 해당하는 2개의 제1 곡선(S1)과 제2 곡선(S2)은 하나의 곡선으로 인식되지 못하고 절단된 상태로 불연속적으로 인식될 수 있으므로, 이러한 부정확한 현재의 차선 데이터를 기준 차선 데이터와 바로 비교하면, 그 차이값이 상당히 커질 수 밖에 없다. 따라서, 이러한 현재의 곡선 차선에 대한 차선 데이터를 보강해준 상태에서, 과거의 곡선에 대한 기준 차선 데이터와 비교하여 임계값 이상으로 차이나지 않으면 정상 검출된 것으로 인식하고 이러한 곡선에 대한 차선 데이터를 자율 주행 제어부(130)에 전송할 수 있다. Since the two first curves (S1) and the second curve (S2) corresponding to the currently obtained lane data are not recognized as one curve and may be discontinuously recognized in a truncated state, such inaccurate current lane If the data is directly compared with the reference lane data, the difference value is inevitably large. Therefore, in the state where the lane data for the current curved lane is reinforced, if it is compared with the reference lane data for the past curve and does not differ by more than the threshold value, it is recognized as normal detection and the lane data for these curves is recognized by the autonomous driving control unit. (130).

더욱이, 제1 기준 영역(A3)과 제2 기준 영역(A4)에 존재하는 제1 기준 곡선(S3)과 제2 기준 곡선(S2)의 접선의 기울기인 미분계수는 제1 쓰레스홀드(threshold)(T1)값 보다 크고 제2 쓰레스홀드(T2) 값보다 작은 범위로 설정될 수 있다. 만일, 제1 기준 곡선(S3)과 제2 기준 곡선(S2)의 접선의 기울기인 미분계수가 제1 쓰레스홀드(T1) 값보다 작거나 제2 쓰레스 홀드(T2) 값보다 큰 경우에는 자율 주행 제어부(130)에 제공되는 차선 데이터로 사용하지 않을 수 있다. Moreover, the differential coefficient, which is the slope of the tangent between the first reference curve S3 and the second reference curve S2 existing in the first reference area A3 and the second reference area A4, is set to a first threshold. ) (T1) and may be set to a range smaller than the value of the second threshold (T2). If the differential coefficient, which is the slope of the tangent between the first reference curve S3 and the second reference curve S2, is smaller than the first threshold T1 value or larger than the second threshold T2 value, It may not be used as lane data provided to the autonomous driving control unit 130.

또한, 본 발명은 러프하게 인식되는 곡선에 대하여 다음과 같이 보강 에지 작업을 통해 보강 차선 데이터를 설정할 수 있다.In addition, in the present invention, reinforcement lane data may be set through a reinforcement edge operation for a curve recognized as rough as follows.

즉, 도 6을 참조하면, 러프하게 복수로 분할된 상태로 인식되는 제1 곡선(S10)의 제1 분할 곡선(S11), 제2 분할 곡선(S12)와, 제3 분할 곡선(S13)과, 제2 곡선(S20)의 제1 분할 곡선(S21), 제2 분할 곡선(S22), 제3 분할 곡선(S23)에 대하여 각각 영역을 설정하여 제1 분할 영역(A11) 내지 제 6 분할 영역(A16)으로 형성할 수 있다.That is, referring to FIG. 6, the first division curve S11, the second division curve S12, and the third division curve S13 of the first curve S10 recognized as being roughly divided into a plurality of , By setting areas for the first splitting curve S21, the second splitting curve S22, and the third splitting curve S23 of the second curve S20, the first splitting area A11 to the sixth splitting area (A16).

제1 분할 영역(A11), 제2 분할 영역(A12), 제3 분할 영역(A13)은 제1 곡선(S10)에 대한 영역이고, 제4 분할 영역(A14), 제5 분할 영역(A15), 제6 분할 영역(A16)은 제2 곡선(S20)에 대한 영역일 수 있다.The first split area A11, the second split area A12, and the third split area A13 are areas for the first curve S10, and the fourth split area A14 and the fifth split area A15 , The sixth divided area A16 may be an area for the second curve S20.

이때, 러프하게 분할되어 인식되는 제1 곡선(S10)의 제1 분할 곡선(S11), 제2 분할 곡선(S12)와, 제3 분할 곡선(S13)의 제1 영역(A11), 제2 영역(A12), 제3 영역(A13)은 서로 이어진 영역만 검출하고, 마찬가지로 제4 영역(A14), 제5 영역(A15), 제6 영역(A16)도 이어진 영역만 검출할 수 있다. At this time, the first division curve S11 and the second division curve S12 of the first curve S10 that are roughly divided and recognized, and the first region A11 and the second region of the third division curve S13 (A12) and the third area A13 detect only the connected areas, and similarly, only the connected areas of the fourth area A14, the fifth area A15, and the sixth area A16 can be detected.

또한, 제1 분할 곡선(S11) 내지 제3 분할 곡선(S13)은 그대로 검출하지 않고, 제1 분할 곡선(S11) 내지 제3 분할 곡선(S13)의 평균값을 산출하여 채택할 수 있다. In addition, the first split curve S11 to the third split curve S13 may not be detected as they are, but the average value of the first split curve S11 to third split curve S13 may be calculated and adopted.

제2 곡선(S20)의 제1 분할 곡선(S21) 내지 제3 분할 곡선(S23)도 그대로 검출하지 않고 제1 분할 곡선(S21) 내지 제3 분할 곡선(S23)의 평균값을 산출하여 채택할 수 있다. The first split curve S21 to the third split curve S23 of the second curve S20 may not be detected as they are, but the average value of the first split curve S21 to third split curve S23 may be calculated and adopted. there is.

이러한 평균값에 해당하는 보정 곡선 차선 데이터를 추출하고, 이러한 보강 곡선 차선 데이터를 곡선의 기준 차선 데이터와 비교하여 차선 보정부(183)에서 차이값이 임계값 이상이면 오검출로 판단하고, 곡선의 기준 차선 데이터를 자율 주행 제어부(130)에 전송하는 보정을 할 수 있다. Compensation curve lane data corresponding to this average value is extracted, and the reinforcement curve lane data is compared with the reference lane data of the curve, and the lane correction unit 183 determines that the difference is greater than a threshold value as an erroneous detection, and the curve standard Correction may be performed by transmitting lane data to the autonomous driving control unit 130 .

이와 같이, 본 발명은 오브젝트 검출부(110)에 의해 차선 정보를 입수하고, 센싱부(140)의 IMU 센서에 의해 차량 자세를 파악하며, GPS로 이루어진 위치 생성부(150)에 의한 차량의 위치 데이터를 생성하고, 차선 곡률 계산부(160)에 의한 차선 곡률을 매 순간마다 계산하며, 주행 방향 예측부(170)에 의해 차량의 진행 방향을 미리 예측하여 차량이 차선을 이탈하려는 경우, 이를 방지할 수 있도록 자율 주행 제어부(130)에서 구동 제어부(120)에 신호를 인가하여 차량이 차선 이탈을 하지 않도록 제어할 수 있다. As such, the present invention obtains lane information by the object detection unit 110, grasps the vehicle attitude by the IMU sensor of the sensing unit 140, and vehicle location data by the location generator 150 made of GPS. is generated, the lane curvature is calculated every moment by the lane curvature calculation unit 160, and the driving direction prediction unit 170 predicts the vehicle's traveling direction in advance to prevent the vehicle from departing from the lane. The autonomous driving control unit 130 may apply a signal to the driving control unit 120 so as to prevent the vehicle from departing from its lane.

따라서, 본 발명은 차량 주행시, 각종 차선 정보를 신속하고 정확하게 입수하여 이를 반영함으로써, 차선 이탈시 입수한 정보와 비교 및 판단하여 차량을 제어함으로써 차선 이탈을 보다 신속하고 확실하게 방지하도록 제어할 수 있다. Accordingly, the present invention quickly and accurately obtains and reflects various lane information while driving the vehicle, and compares and determines the obtained information to control the vehicle so as to more quickly and reliably prevent lane departure. .

10... 차량
100... 차선 이탈 방지 장치
110.. 오브젝트 검출부 111... 검출 영역
111a... 제1 영역 111b... 제2 영역
112... 카메라 120... 구동 제어부
130... 자율 주행 제어부 140... 센싱부
141... IMU 센서 142... 조향 센서
143... 휠 센서
150... 위치 생성부 160... 차선 곡률 계산부
170... 주행 방향 예측부 180... 차선 처리부
181... 차선 검출부 182... 차선 기준 패턴부
183... 차선 보정부
A1... 제1 영역 A2... 제2 영역
A3... 제1 기준 영역 A4... 제2 기준 영역
S1... 제1 곡선 S2... 제2 곡선
S3... 제1 기준 곡선 S4... 제2 기준 곡선
S10... 제1 곡선 S11... 제1 분할 곡선
S12... 제2 분할 곡선 S13... 제3 분할 곡선
S20... 제2 곡선 S21... 제1 분할 곡선
S22... 제2 분할 곡선 S23... 제3 분할 곡선
A11... 제1 분할 영역 A12... 제2 분할 영역
A13... 제3 분할 영역 A14... 제4 분할 영역
A15... 제5 분할 영역 A16... 제 6 분할 영역
10... vehicle
100... lane departure prevention device
110.. object detection unit 111.. detection area
111a... first area 111b... second area
112 ... camera 120 ... driving control unit
130... autonomous driving control unit 140... sensing unit
141... IMU sensor 142... steering sensor
143... wheel sensor
150 ... position generation unit 160 ... lane curvature calculation unit
170... Driving direction prediction unit 180... Lane processing unit
181... lane detection unit 182... lane reference pattern unit
183... lane correction unit
A1... 1st area A2... 2nd area
A3... 1st reference area A4... 2nd reference area
S1... first curve S2... second curve
S3... first reference curve S4... second reference curve
S10... first curve S11... first division curve
S12... 2nd split curve S13... 3rd split curve
S20... second curve S21... first division curve
S22... 2nd split curve S23... 3rd split curve
A11... 1st partition A12... 2nd partition
A13... 3rd partition A14... 4th partition
A15... 5th partition A16... 6th partition

Claims (9)

차량 외부의 오브젝트에 대한 정보를 생성하는 오브젝트 검출부;
차량의 위치 및 방향 변화를 감지하는 센싱부;
차량의 위치 데이터를 생성하는 위치 생성부;
상기 오브젝트 검출부를 통해 생성된 오브젝트 정보와, 상기 센싱부에서 감지한 센싱 정보와, 상기 위치 생성부에서 생성한 위치 데이터를 취합하여 차량의 차선 이탈 여부를 판단하는 자율 주행 제어부;
상기 자율 주행부에서 수신되는 신호에 기초하여 차량 구동 장치를 제어하는 구동 제어부;
현재의 차선 데이터와 기준 차선 데이터를 비교하여 차선 오검출 여부를 판단하는 차선 처리부; 를 포함하는 차선 이탈 방지 장치.
an object detection unit generating information about an object outside the vehicle;
a sensing unit that detects changes in the position and direction of the vehicle;
a location generating unit generating location data of the vehicle;
an autonomous driving control unit that determines whether the vehicle departs from a lane by collecting object information generated through the object detection unit, sensing information detected by the sensing unit, and location data generated by the location generating unit;
a driving control unit controlling a vehicle driving device based on a signal received from the autonomous driving unit;
a lane processing unit that compares current lane data with reference lane data to determine whether an erroneous lane is detected; A lane departure prevention device comprising a.
제1 항에 있어서,
상기 센싱부는,
관성 가속력에 기초하여 자율 주행 차량의 위치 및 방향 변화를 감지하는 IMU 센서;
차량의 조향각 정보를 감지하는 조향 센서;
차량의 휠 속도를 감지하는 휠 센서; 를 포함하고,
상기 센싱부에 의한 센싱 정보인 조향각 정보를 이용하여 차량의 주행 방향을 예측할 수 있는 주행 방향 예측부; 를 더 포함하는 차선 이탈 방지 장치.
According to claim 1,
The sensing unit,
an IMU sensor that detects a position and direction change of an autonomous vehicle based on an inertial acceleration force;
Steering sensor for detecting steering angle information of the vehicle;
A wheel sensor for detecting vehicle wheel speed; including,
a driving direction predictor capable of predicting a driving direction of the vehicle using steering angle information sensed by the sensing unit; A lane departure prevention device further comprising a.
제1 항에 있어서,
상기 차선 처리부는,
주행시 카메라에 의해 입수된 현재의 차선 이미지 정보를 토대로 차선을 검출하는 차선 검출부;
기준 차선 데이터를 생성하는 기준 차선 데이터 생성부;
상기 차선 검출부에 의한 현재의 차선 데이터와 상기 기준 차선 데이터 생성부에 의해 생성된 기준 차선 데이터를 비교하여 그 차이값과 임계값 이상이면 오검출로 판단하고 차선을 보정해주는 차선 보정부; 를 포함하는 차선 이탈 방지 장치.
According to claim 1,
The lane processing unit,
a lane detection unit that detects a lane based on current lane image information acquired by a camera during driving;
a reference lane data generating unit generating reference lane data;
a lane correcting unit that compares the current lane data by the lane detection unit with the standard lane data generated by the reference lane data generation unit, determines an error detection if the difference value is equal to or greater than a threshold value, and corrects the lane; A lane departure prevention device comprising a.
제3 항에 있어서,
상기 기준 차선 데이터 생성부에서는,
상기 차선 검출부를 통해 검출된 차선 정보를 이용하여 생성된 데이터를 일정 시간 동안 수신된 차선 정보를 분석하고, 그에 따라 유사한 패턴이 연속적으로 입력되는 경우, 이를 기준 차선 데이터로 저장하는 차선 이탈 방지 장치.
According to claim 3,
In the reference lane data generating unit,
The lane departure prevention device analyzes lane information received for a predetermined period of time using data generated using the lane information detected through the lane detection unit, and stores the result as reference lane data when a similar pattern is continuously input.
제3 항에 있어서,
상기 차선 보정부는,
기준 차선 데이터와 현 시점에서 제공된 현재의 차선 데이터에 대한 특성을 추출하고,
현재의 상기 차선 데이터에 대한 정보 특성은 시간에 따른 차선 각도의 변화 정도, 차선 폭의 변화 정도를 포함하며,
기준 차선 데이터 및 현재의 차선 데이터에 대응하는 차선 각도를 생성하여 저장하고,
저장된 현재의 차선 데이터에 대응하는 차선 각도, 기준 차선 데이터에 대응하는 차선 각도의 변화값을 확인하며,.
기준 차선 데이터와 현 시점에서 제공된 현재의 차선 데이터에 대한 특성을 추출한 다음, 이를 토대로 현재의 차선 데이터의 오검출 여부를 감지하고,
차선 데이터가 정상 검출되면 현 시점에서 상기 차선 검출부를 통해 검출한 차선 데이터에 대한 신호를 그대로 자율 주행 제어부에 전송하고,
차선 데이터가 오검출되면, 생성한 기준 차선 데이터인 과거 차선 데이터를 자율 주행 제어부에 전송하며,
차선 데이터의 오검출시, 차선 각도 변화 정도에 해당하는 차선 각도 변화값은 현재의 차선 데이터에 대한 차선 각도와 기준 차선 데이터의 차선 각도의 차이값이고,
상기 차선 각도 차이값을 임계값과 비교하여 현재 수신된 차선 데이터의 오검출 여부를 판단하는 차선 이탈 방지 장치.
According to claim 3,
The lane correction unit,
extracting characteristics of the reference lane data and the current lane data provided at the present time;
The information characteristics of the current lane data include a degree of change in the angle of the lane and a degree of change in the width of the lane over time;
generating and storing lane angles corresponding to reference lane data and current lane data;
Checking lane angles corresponding to the stored current lane data and change values of the lane angles corresponding to the reference lane data;
After extracting the characteristics of the standard lane data and the current lane data provided at the present time, based on this, detecting whether the current lane data is incorrectly detected,
When the lane data is normally detected, a signal for the lane data detected through the lane detection unit is transmitted to the autonomous driving control unit as it is,
If the lane data is incorrectly detected, the past lane data, which is the generated standard lane data, is transmitted to the autonomous driving control unit.
When erroneous lane data is detected, the lane angle change value corresponding to the degree of lane angle change is a difference between the lane angle of the current lane data and the lane angle of the reference lane data;
A lane departure prevention device that compares the lane angle difference value with a threshold value to determine whether currently received lane data is erroneously detected.
제5 항에 있어서,
상기 기준 차선 데이터 생성부에서는 상기 차선 보정부에서 일정 회수 이상 차선 오검출이 반복적으로 감지되면, 기준 차선 데이터를 삭제하고, 현 시점에서 입력되는 차선 데이터를 이용하여 기준 차선 데이터를 재생성하는 차선 이탈 방지 장치.
According to claim 5,
The reference lane data generation unit deletes the reference lane data and regenerates the reference lane data using the lane data input at the current point in time to prevent lane departure, when the lane correcting unit repeatedly detects lane error detection at least a certain number of times. Device.
제1 항에 있어서,
상기 차선 보정부에서는 곡선에 대한 현재의 차선 데이터와 기준 차선 데이터와 바로 비교하지 않고, 보정 작업을 통해 곡선 차선의 보정 에지를 파악하여 보정 차선 데이터를 설정한 다음, 곡선 차선 기준 데이터와 비교하여 차이나는 부분을 보정해주며,
곡선 차선의 보정 에지 작업시, 현재의 입수된 차선 데이터에 해당하는 2개의 제1 곡선과 제2 곡선을 각각 제1 영역과 제2 영역으로 세분화한 현재의 차선 데이터를 기준 차선 데이터에 해당하는 2개의 곡선인 제1 기준 곡선과 제2 기준 곡선에 대한 제1 기준 영역 및 제2 기준 영역과 비교하여 임계값 이상으로 차이나지 않도록 보강해주며,
과거의 곡선에 대한 기준 차선 데이터와 비교하여 임계값 이상으로 차이나지 않으면 정상 검출된 것으로 인식하고 이러한 곡선에 대한 차선 데이터를 자율 주행 제어부에 전송하는 차선 이탈 방지 장치.
According to claim 1,
The lane correcting unit does not immediately compare the current lane data for the curve with the reference lane data, but identifies the correction edge of the curved lane through a correction operation, sets the corrected lane data, and then compares it with the curved lane reference data to determine the difference corrects the part of
During the correction edge operation of the curved lane, the current lane data obtained by subdividing the two first and second curves corresponding to the currently acquired lane data into the first and second regions, respectively, is divided into 2 curves corresponding to the reference lane data Comparing the first reference area and the second reference area for the first reference curve and the second reference curve, which are curves, and reinforcing them so that they do not differ by more than a threshold value,
A lane departure prevention device that compares past lane data for past curves, recognizes them as normal detection if the difference is not greater than a threshold, and transmits the lane data for these curves to the autonomous driving control unit.
제1 항에 있어서,
상기 차선 보정부에서는 곡선에 대한 현재의 차선 데이터와 기준 차선 데이터와 바로 비교하지 않고, 보정 작업을 통해 곡선 차선의 보정 에지를 파악하여 보정 차선 데이터를 설정한 다음, 곡선 차선 기준 데이터와 비교하여 차이나는 부분을 보정해주며,
현재의 입수된 차선 데이터에 해당하는 2개의 제1 곡선과 제2 곡선은 하나의 곡선으로 인식되지 못하고 절단된 상태로 불연속적으로 인식되면,
제1 기준 영역과 제2 기준 영역에 존재하는 제1 기준 곡선과 제2 기준 곡선의 접선의 기울기인 미분계수는 제1 쓰레스홀드값 보다 크고 제2 쓰레스홀드 값보다 작은 범위로 설정되고,
제1 기준 곡선과 제2 기준 곡선의 접선의 기울기인 미분계수가 제1 쓰레스홀드 값보다 작거나 제2 쓰레스 홀드 값보다 큰 경우에는 자율 주행 제어부에 제공되는 차선 데이터로 사용하지 않는 자율 주행 차량.
According to claim 1,
The lane correcting unit does not immediately compare the current lane data for the curve with the reference lane data, but identifies the correction edge of the curved lane through a correction operation, sets the corrected lane data, and then compares it with the curved lane reference data to determine the difference corrects the part of
If the two first curves and the second curve corresponding to the currently obtained lane data are not recognized as one curve and are discontinuously recognized as being cut,
The differential coefficient, which is the slope of the tangent of the first reference curve and the second reference curve existing in the first reference region and the second reference region, is set to a range greater than the first threshold value and less than the second threshold value,
Autonomous driving that is not used as lane data provided to the autonomous driving control unit when the differential coefficient, which is the slope of the tangent between the first reference curve and the second reference curve, is smaller than the first threshold value or larger than the second threshold value vehicle.
제1 항에 있어서,
차선 보정부에서는 차선 데이터의 인식시, 차선을 이루는 제1 곡선과 제2 곡선이 복수로 분할된 상태로 인식되는 제1 곡선의 제1 분할 곡선, 제2 분할 곡선 및 제3 분할 곡선과,
제2 곡선의 제1 분할 곡선, 제2 분할 곡선 및 제3 분할 곡선에 대하여 각각 영역을 설정하여 복수의 분할 영역으로 형성하며,
상기 제1 곡선의 제1 분할 곡선, 제2 분할 곡선, 및 제3 분할 곡선에 각각 해당하는 제1 영역, 제2 영역 및 제3 영역은 서로 이어진 영역만 검출하고,
제2 곡선의 제1 분할 곡선, 제2 분할 곡선, 및 제3 분할 곡선에 각각 해당하는 제4 영역, 제5 영역, 제6 영역은 서로 이어진 영역만 검출하며,
상기 제1 분할 곡선 내지 제3 분할 곡선은 그대로 검출하지 않고, 제1 분할 곡선 내지 제3 분할 곡선의 평균값을 산출하여 채택하고,
상기 제2 곡선의 제1 분할 곡선 내지 제3 분할 곡선도 그대로 검출하지 않고 제1 분할 곡선 내지 제3 분할 곡선의 평균값을 산출하여 채택하며,
이러한 평균값에 해당하는 보정 곡선 차선 데이터를 추출하고, 보강 곡선 차선 데이터를 곡선의 기준 차선 데이터와 비교하여 차이값에 따라 오검출 여부를 판단하여 보정하는 차선 이탈 방지 장치.
According to claim 1,
In the lane correction unit, when recognizing lane data, a first division curve, a second division curve, and a third division curve of the first curve recognized as being divided into a plurality of first and second curves constituting the lane;
Setting regions for each of the first division curve, the second division curve, and the third division curve of the second curve to form a plurality of division regions;
The first region, the second region, and the third region respectively corresponding to the first division curve, the second division curve, and the third division curve of the first curve detect only regions connected to each other;
The fourth region, the fifth region, and the sixth region respectively corresponding to the first division curve, the second division curve, and the third division curve of the second curve detect only regions connected to each other;
The first to third split curves are not detected as they are, and the average value of the first to third split curves is calculated and adopted,
The first to third split curves of the second curve are also not detected as they are, and the average value of the first to third split curves is calculated and adopted,
A lane departure prevention device that extracts the correction curve lane data corresponding to the average value, compares the reinforcement curve lane data with the reference lane data of the curve, determines whether or not an error is detected according to the difference value, and corrects it.
KR1020210155204A 2021-11-11 2021-11-11 Lane Departure Prevention Apparatus KR102660192B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210155204A KR102660192B1 (en) 2021-11-11 2021-11-11 Lane Departure Prevention Apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210155204A KR102660192B1 (en) 2021-11-11 2021-11-11 Lane Departure Prevention Apparatus

Publications (2)

Publication Number Publication Date
KR20230070080A true KR20230070080A (en) 2023-05-22
KR102660192B1 KR102660192B1 (en) 2024-04-25

Family

ID=86545119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210155204A KR102660192B1 (en) 2021-11-11 2021-11-11 Lane Departure Prevention Apparatus

Country Status (1)

Country Link
KR (1) KR102660192B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001176000A (en) * 1999-12-17 2001-06-29 Mitsubishi Motors Corp Out-of-lane suppressing device
KR20140030636A (en) * 2012-09-03 2014-03-12 엘지이노텍 주식회사 Traffic lane correction system, traffic lane correction apparatus and correction method
JP2016181015A (en) * 2015-03-23 2016-10-13 富士重工業株式会社 Vehicle travel control device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001176000A (en) * 1999-12-17 2001-06-29 Mitsubishi Motors Corp Out-of-lane suppressing device
KR20140030636A (en) * 2012-09-03 2014-03-12 엘지이노텍 주식회사 Traffic lane correction system, traffic lane correction apparatus and correction method
JP2016181015A (en) * 2015-03-23 2016-10-13 富士重工業株式会社 Vehicle travel control device

Also Published As

Publication number Publication date
KR102660192B1 (en) 2024-04-25

Similar Documents

Publication Publication Date Title
US11046331B2 (en) Driving assist system
US11001258B2 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
US9767686B2 (en) Method and control and detection device for determining the plausibility of a wrong-way travel of a motor vehicle
CN112154455B (en) Data processing method, equipment and movable platform
US10604150B2 (en) Vehicle stop position setting apparatus and method
US11740093B2 (en) Lane marking localization and fusion
US20110128136A1 (en) On-vehicle device and recognition support system
US20200377082A1 (en) Method and apparatus for vision based lateral acceleration prediction
US20190283747A1 (en) Vehicle control device and recording medium
CN112046481B (en) Automatic driving device and method
KR20170079096A (en) Intelligent black-box for vehicle
KR102115905B1 (en) Driver assistance system and control method for the same
CN113771867A (en) Method and device for predicting driving state and terminal equipment
KR101588787B1 (en) Method for determining lateral distance of forward vehicle and head up display system using the same
EP3581467B1 (en) Object tracking after object turns off host-vehicle roadway
KR101602021B1 (en) An Active Cruise Control Apparatus and A Method for the same
KR102660192B1 (en) Lane Departure Prevention Apparatus
US11987251B2 (en) Adaptive rationalizer for vehicle perception systems toward robust automated driving control
US20220204046A1 (en) Vehicle control device, vehicle control method, and storage medium
US11919515B2 (en) Vehicle control device and vehicle control method
EP3919338A1 (en) Autonomous driving control method and device
KR101519214B1 (en) Driver Assistance apparatus and controlling method for the same
US11066078B2 (en) Vehicle position attitude calculation apparatus and vehicle position attitude calculation program
US20230001923A1 (en) Vehicular automatic emergency braking system with cross-path threat determination
US20230408264A1 (en) Lane marking localization and fusion

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant