KR102544640B1 - Lane detection and prediction system, apparatus and method - Google Patents

Lane detection and prediction system, apparatus and method Download PDF

Info

Publication number
KR102544640B1
KR102544640B1 KR1020220165692A KR20220165692A KR102544640B1 KR 102544640 B1 KR102544640 B1 KR 102544640B1 KR 1020220165692 A KR1020220165692 A KR 1020220165692A KR 20220165692 A KR20220165692 A KR 20220165692A KR 102544640 B1 KR102544640 B1 KR 102544640B1
Authority
KR
South Korea
Prior art keywords
lane
section
vehicle
image
unit
Prior art date
Application number
KR1020220165692A
Other languages
Korean (ko)
Inventor
류승기
장지용
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020220165692A priority Critical patent/KR102544640B1/en
Application granted granted Critical
Publication of KR102544640B1 publication Critical patent/KR102544640B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60K2370/177
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a lane detection and prediction system, apparatus, and method, and more specifically, to a lane detection and prediction system, apparatus, and method which acquire and preprocess road images, detect and predict lanes through the preprocessed road images, and display AR images. The lane detection and prediction apparatus of the present invention comprises a driving data collecting unit, an image acquiring unit, an image quality converting unit, a labeling and grouping unit, a lane detecting unit, an eccentricity information generating unit, and an AR image generating unit.

Description

차선 감지 및 예측 시스템, 장치 및 방법{Lane detection and prediction system, apparatus and method}Lane detection and prediction system, apparatus and method {Lane detection and prediction system, apparatus and method}

본 발명은 차선 감지 및 예측 시스템, 장치 및 방법에 관하 것으로, 더욱 상세하게는 도로 이미지를 획득 및 전처리하고, 전처리된 도로 이미지를 통해 차선을 감지 및 예측하여 AR 이미지로 디스플레이 해주는 차선 감지 및 예측 시스템, 장치 및 방법에 관한 것이다.The present invention relates to a lane detection and prediction system, apparatus and method, and more particularly, a lane detection and prediction system that acquires and preprocesses road images, detects and predicts lanes through the preprocessed road images, and displays them as AR images. , device and method.

자동차 기술의 발전으로 인해, 자동차에는 운전자와 보행자의 안전을 보장하고, 운전자의 편의를 향상시킬 수 있는 기술이 적용되고 있다. 이러한 기술의 일 예로는 크루즈 컨트롤 시스템(adaptive cruise control)과 차선 이탈 경보시스템(lane departure warning system) 등이 있으며, 이러한 자동차 안전성 향상 기술들을 융합하고 제어하여 차량 주변 환경을 인지해서 차량이 스스로 모든 안전 관련 기능을 제어하고 주행하는 자율주행 기술이 발달하고 있다. 따라서 자율주행 기술을 위해 보행자, 차량, 신호등, 도로/교통안전표지, 노면 표시 및 차선을 검지하기 위해 비전 센서를 활용하여 도로 위의 물체를 인식하고 검출하는 기술이 개발되고 있다.Due to the development of automobile technology, technologies capable of ensuring the safety of drivers and pedestrians and improving driver convenience have been applied to automobiles. An example of such technology is an adaptive cruise control system and a lane departure warning system, and by integrating and controlling these vehicle safety enhancement technologies, the vehicle recognizes the environment around the vehicle and the vehicle autonomously performs all safety measures. Autonomous driving technology that controls and drives related functions is developing. Therefore, technology for recognizing and detecting objects on the road using vision sensors to detect pedestrians, vehicles, traffic lights, road/traffic safety signs, road markings, and lanes for autonomous driving technology is being developed.

하지만 종래의 비전 센서를 활용한 객체 검출 기술은 아직까지 센서 성능의 제약으로 인간의 눈을 대신하기에는 한계가 있으며, 특히 도로를 주행하는 차량의 주행차로 내 현재 횡방향 위치를 파악하고 다른 차량과의 충돌을 방지하며 주행차로 내에서 차량의 위치를 유지하는데 필수적인 기술인 차선 검출은 비전 센서로 차선을 검출하지 못하는 환경, 차선 노후화로 인한 부분 혹은 전체 유실, 야간 주행 및 조명 문제 등으로 인해 제 기능을 발휘하지 못하고 있다는 문제점이 존재한다. However, object detection technology using conventional vision sensors still has limitations in replacing human eyes due to limitations in sensor performance. Lane detection, which is an essential technology for preventing collisions and maintaining the vehicle's position within the driving lane, is not fully functional in environments where the lane cannot be detected by vision sensors, partial or total loss due to lane deterioration, night driving and lighting problems, etc. There is a problem with not being able to do it.

등록특허 10-21672191, 등록일자 2020년 10월 13일, '도로 상태 정보 수집 시스템 및 방법'Registered Patent No. 10-21672191, Registration Date October 13, 2020, 'Road Condition Information Collection System and Method' 등록특허 10-2119033, 등록일자 2020년 05월 29일, '영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법'Registered Patent No. 10-2119033, Registration Date May 29, 2020, 'Apparatus and method for providing road marking damage information using video'

본 발명은 상기한 문제점을 해결하기 위해 창출된 것으로, 본 발명의 목적은 도로 이미지를 획득 및 전처리하고, 전처리된 도로 이미지를 통해 차선을 감지 및 예측하여 AR 이미지로 디스플레이 해주는 차선 감지 및 예측 시스템, 장치 및 방법을 제공하는데 있다.The present invention was created to solve the above problems, and an object of the present invention is a lane detection and prediction system that obtains and preprocesses road images, detects and predicts lanes through the preprocessed road images, and displays them as AR images, It is to provide an apparatus and method.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 차선 감지 및 예측 장치는 차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는 주행데이터 수집부; 차량 전방의 도로 이미지를 획득하는 이미지 획득부; 상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는 화질 변환부; 딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는 라벨링 그룹화부; 상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는 차선감지부; 상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성하는 편측정보 생성부; 및 상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는 AR 이미지 생성부를 포함하는 것을 특징으로 한다.An apparatus for detecting and predicting lanes according to the present invention for achieving the above object includes a driving data collection unit that collects driving data including a current location of a vehicle, a driving speed, and a driving route to a final destination; an image acquiring unit acquiring an image of a road in front of the vehicle; a picture quality conversion unit generating a final image by upscaling the road image; Using a deep learning-based object extraction model, a plurality of objects are detected from the final image, outlines are set, and object types are labeled and grouped based on the coordinates of each object for which the outlines are set and the size of the outlines. a labeling grouping unit to; Based on the grouped object group, a first section within a predetermined distance from the vehicle in the traveling direction of the vehicle is detected, and present in a second section within a predetermined distance from a point exceeding the predetermined distance in the traveling direction of the vehicle. a lane detection unit for predicting a lane in a second section; a one-sided information generating unit generating current one-sided information or optimized one-sided information according to the gradients of lanes in the first section and the second section; and an AR image generator generating an AR image based on the current lateral information or optimized lateral information and displaying the AR image.

또한, 상기 그룹화된 객체 그룹은, 차선 마킹 객체 그룹, 가이드레일 객체 그룹 및 방음벽 객체 그룹 중 적어도 하나를 포함하는 것을 특징으로 한다.The grouped object group may include at least one of a lane marking object group, a guide rail object group, and a sound barrier object group.

또한, 상기 차선감지부는, 차선 마킹 객체 그룹에 기초하여 상기 제1구간 차선을 감지하고, 가이드레일 객체 그룹 및 방음벽 객체 그룹에 기초하여 상기 제2 구간 차선의 형태를 예측하는 것을 특징으로 한다.The lane detecting unit may detect the lane in the first section based on the lane marking object group and predict the shape of the lane in the second section based on the guide rail object group and the sound barrier object group.

또한, 상기 편측정보 생성부는, 제1구간 및 제2구간 차선의 기울기가 같을 경우, 제1구간 차선의 중심선 및 기설정된 차량의 중심선을 비교하여 제1구간 차선 내 차량의 편측 정도를 나타내는 현재 편측정보를 생성하고, 제1구간 및 제2구간 차선의 기울기가 다를 경우, 제1구간 차선의 기울기와 제2구간 차선의 기울기 변화 및 차량의 주행속도에 기초하여 제1구간 차선 및 제2구간 차선을 주행하는 차량에 적용되는 원심을 최소화할 수 있도록 하는 최적화 편측 정보를 생성하는 것을 특징으로 한다.In addition, when the slopes of the lanes of the first section and the second section are the same, the one-side information generation unit compares the center line of the lane of the first section and the center line of the vehicle in advance to indicate the degree of sideways of the vehicle in the lane of the first section. information is generated, and when the slopes of the lanes of the first section and the second section are different, the lanes of the first section and the lanes of the second section are based on the change in slope of the lanes of the first section and the slope of the second section and the driving speed of the vehicle. It is characterized in that the optimized one-sided information is generated to minimize the centrifugal force applied to the vehicle running.

또한, 상기 AR 이미지 생성부는, 도로 이미지 상에 중심선을 점선으로 표시하고, 점선을 기준으로 차량의 중심선을 소정의 너비를 갖는 실선으로 표시하고, 제1구간 차선과 제2구간 차선의 경계 지점에서 차량의 중심점이 차선 내의 어느 지점에 위치해야 하는지를 포인트로 표시하거나 제1구간 차선과 제2구간 차선 내에 차량의 중심선이 위치해야 하는 경로를 소정의 색상으로 표시하고, 차선의 폭을 실제 차선 폭보다 소정의 비율만큼 축소시켜 표시한 AR 이미지를 생성하는 것을 특징으로 한다.In addition, the AR image generation unit displays the center line as a dotted line on the road image, displays the center line of the vehicle as a solid line having a predetermined width based on the dotted line, and displays the center line of the vehicle as a solid line having a predetermined width, at a boundary point between the lanes of the first section and the lanes of the second section. The point where the center point of the vehicle should be located within the lane is displayed as a point, or the path where the center line of the vehicle should be located within the first section lane and the second section lane is displayed in a predetermined color, and the width of the lane is smaller than the actual lane width. It is characterized by generating an AR image that is reduced by a predetermined ratio and displayed.

한편, 상기와 같은 목적을 달성하기 위한 차선 감지 및 예측 방법은 주행데이터 수집부가 차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는 단계; 이미지 획득부가 차량 전방의 도로 이미지를 획득하는 단계; 화질 변환부가 상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는 단계; 라벨링 그룹화부가 딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는 단계; 차선감지부가 상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는 단계; 편측정보 생성부가 상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성하는 단계; 및 AR 이미지 생성부가 상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는 단계를 포함하는 것을 특징으로 한다On the other hand, a lane detection and prediction method for achieving the above object includes collecting driving data including a current location, driving speed, and a driving route to a final destination by a driving data collector; Acquiring a road image in front of the vehicle by an image acquisition unit; Up-scaling the road image by an image quality conversion unit to generate a final image; A labeling grouping unit detects a plurality of objects from the final image using a deep learning-based object extraction model, sets an outline, and determines the type of the object based on the coordinates of each object for which the outline is set and the size of the outline. labeling and grouping; A lane detecting unit detects a first section within a predetermined distance from the vehicle based on the grouped object group, and a second section within a predetermined distance from the point exceeding the predetermined distance in the traveling direction of the vehicle. predicting a lane of a second section existing in the section; generating, by a one-sided information generator, current one-sided information or optimized one-sided information according to the gradients of lanes in the first section and the second section; and generating an AR image based on the current one-sided information or the optimized one-sided information by an AR image generating unit and displaying the AR image.

또한, 상기 그룹화된 객체 그룹은, 차선 마킹 객체 그룹, 가이드레일 객체 그룹 및 방음벽 객체 그룹 중 적어도 하나를 포함하는 것을 특징으로 한다.The grouped object group may include at least one of a lane marking object group, a guide rail object group, and a sound barrier object group.

또한, 상기 차선감지부는, 차선 마킹 객체 그룹에 기초하여 상기 제1구간 차선을 감지하고, 가이드레일 객체 그룹 및 방음벽 객체 그룹에 기초하여 상기 제2 구간 차선의 형태를 예측하는 것을 특징으로 한다.The lane detecting unit may detect the lane in the first section based on the lane marking object group and predict the shape of the lane in the second section based on the guide rail object group and the sound barrier object group.

또한, 상기 편측정보 생성부는, 제1구간 및 제2구간 차선의 기울기가 같을 경우, 제1구간 차선의 중심선 및 기설정된 차량의 중심선을 비교하여 제1구간 차선 내 차량의 편측 정도를 나타내는 현재 편측정보를 생성하고, 제1구간 및 제2구간 차선의 기울기가 다를 경우, 제1구간 차선의 기울기와 제2구간 차선의 기울기 변화 및 차량의 주행속도에 기초하여 제1구간 차선 및 제2구간 차선을 주행하는 차량에 적용되는 원심을 최소화할 수 있도록 하는 최적화 편측 정보를 생성하는 것을 특징으로 한다.In addition, when the slopes of the lanes of the first section and the second section are the same, the one-side information generation unit compares the center line of the lane of the first section and the center line of the vehicle in advance to indicate the degree of sideways of the vehicle in the lane of the first section. information is generated, and when the slopes of the lanes of the first section and the second section are different, the lanes of the first section and the lanes of the second section are based on the change in slope of the lanes of the first section and the slope of the second section and the driving speed of the vehicle. It is characterized in that the optimized one-sided information is generated to minimize the centrifugal force applied to the vehicle running.

또한, 상기 AR 이미지 생성부는, 도로 이미지 상에 중심선을 점선으로 표시하고, 점선을 기준으로 차량의 중심선을 소정의 너비를 갖는 실선으로 표시하고, 제1구간 차선과 제2구간 차선의 경계 지점에서 차량의 중심점이 차선 내의 어느 지점에 위치해야 하는지를 포인트로 표시하거나, 제1구간 차선과 제2구간 차선 내에 차량의 중심선이 위치해야 하는 경로를 소정의 색상으로 표시하고, 차선의 폭을 실제 차선 폭보다 소정의 비율만큼 축소시켜 표시한 AR 이미지를 생성하는 것을 특징으로 한다.In addition, the AR image generation unit displays the center line as a dotted line on the road image, displays the center line of the vehicle as a solid line having a predetermined width based on the dotted line, and displays the center line of the vehicle as a solid line having a predetermined width, at a boundary point between the lanes of the first section and the lanes of the second section. The point where the center point of the vehicle should be located within the lane is displayed as a point, or the path where the center line of the vehicle should be located within the lanes of the first section and the second section is displayed in a predetermined color, and the width of the lane is the actual lane width It is characterized by generating an AR image that is reduced by a predetermined ratio and displayed.

한편, 상기와 같은 목적을 달성하기 위한 본 발명에 따른 차선 감지 및 예측 시스템은 상기 차량이 위치한 도로 이미지를 획득하고 도로 이미지의 전처리를 통해 차량의 진행방향으로 차선을 감지 및 예측하여 AR 이미지로 디스플레이 해주는 차선 감지 및 예측 장치; 및 상기 차선 감지 및 예측 장치로부터 주행 데이터를 전송받아 저장하고, AR 이미지를 디스플레이 할 수 있는 어플리케이션이 실장된 사용자단말기를 포함하는 것을 특징으로 한다.On the other hand, the lane detection and prediction system according to the present invention for achieving the above object acquires a road image where the vehicle is located, detects and predicts a lane in the direction of the vehicle through pre-processing of the road image, and displays it as an AR image. lane detection and prediction devices; and a user terminal equipped with an application capable of receiving and storing driving data from the lane detection and prediction device and displaying an AR image.

또한, 상기 감지 및 예측 장치는, 차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는 주행데이터 수집부; 차량 전방의 도로 이미지를 획득하는 이미지 획득부; 상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는 화질 변환부; 딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는 라벨링 그룹화부; 상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는 차선감지부; 상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성하는 편측정보 생성부; 및 상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는 AR 이미지 생성부를 포함하는 것을 특징으로 한다.In addition, the sensing and predicting device may include: a driving data collection unit that collects driving data including a current location of the vehicle, a driving speed, and a driving route to a final destination; an image acquiring unit acquiring an image of a road in front of the vehicle; a picture quality conversion unit generating a final image by upscaling the road image; Using a deep learning-based object extraction model, a plurality of objects are detected from the final image, outlines are set, and object types are labeled and grouped based on the coordinates of each object for which the outlines are set and the size of the outlines. a labeling grouping unit to; Based on the grouped object group, a first section within a predetermined distance from the vehicle in the traveling direction of the vehicle is detected, and present in a second section within a predetermined distance from a point exceeding the predetermined distance in the traveling direction of the vehicle. a lane detection unit for predicting a lane in a second section; a one-sided information generating unit generating current one-sided information or optimized one-sided information according to the gradients of lanes in the first section and the second section; and an AR image generator generating an AR image based on the current lateral information or optimized lateral information and displaying the AR image.

본 발명에 따른 차선 감지 및 예측 시스템, 장치 및 방법은 차선을 감지 및 예측하고 차량이 차선 내에서 편향되는 정도를 표시함으로써 차량의 안전한 운행이 가능하도록 하는 것은 물론, 운전자에게 해당 차선 내에서의 최적화된 주행 경로를 표시함으로써 운전자의 주행 편의를 향상시킬 수 있다. A lane detection and prediction system, apparatus, and method according to the present invention detects and predicts a lane and displays the degree of deflection of the vehicle within the lane, thereby enabling safe driving of the vehicle and providing the driver with optimization within the lane. Driving convenience of the driver can be improved by displaying the selected driving route.

또한, 감지된 차선을 소정의 조건에 따라 차선의 폭을 축소하여 표시함으로써 운전자의 주의환기를 유도하는 것은 물론 안전한 운행을 유도할 수 있다.In addition, by reducing the width of the detected lane according to a predetermined condition and displaying the lane, it is possible to induce the driver's attention as well as induce safe driving.

도 1은 본 발명의 일실시예에 따른 차선 감지 및 예측 시스템의 블록구성도
도 2는 본 발명의 일실시예에 따른 차선 감지 및 예측 장치의 블록구성도
도 3은 본 발명의 일실시예에 따른 차선 감지 및 예측 방법의 순서도
도 4는 본 발명의 일실시예에 따른 차선 감지 및 예측 실시예시도
도 5는 본 발명의 일실시예에 따른 AR 이미지 디스플레이 실시예시도
1 is a block diagram of a lane detection and prediction system according to an embodiment of the present invention.
2 is a block diagram of an apparatus for detecting and predicting lanes according to an embodiment of the present invention;
3 is a flowchart of a lane detection and prediction method according to an embodiment of the present invention
4 is an exemplary diagram of lane detection and prediction according to an embodiment of the present invention;
5 is an example of an AR image display according to an embodiment of the present invention;

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete and the spirit of the present invention will be sufficiently conveyed to those skilled in the art.

어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.In some cases, it is mentioned in advance that parts that are commonly known in describing the invention and are not greatly related to the invention are not described in order to prevent confusion for no particular reason in explaining the present invention.

본 명세서에서 제1구성요소가 제2구성요소 상(ON)에서 동작 또는 실행된다고 언급될 때, 제1구성요소는 제2구성요소가 동작 또는 실행되는 환경에서 동작 또는 실행되거나 또는 제2구성요소와 직접 또는 간접적으로 상호 작용을 통해서 동작 또는 실행되는 것으로 이해되어야 할 것이다.In this specification, when a first component is referred to as being operated or executed on a second component (ON), the first component is operated or executed in an environment in which the second component operates or is executed, or the second component is operated or executed. It should be understood that it is operated or executed through direct or indirect interaction with.

어떤 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.When a component, device, or system is referred to as comprising a component consisting of a program or software, even if not explicitly stated otherwise, the component, device, or system refers to hardware (necessary for the program or software to execute or operate). For example, memory, CPU, etc.) or other programs or software (eg, operating system or driver required to drive hardware) should be understood as including.

또한, 어떤 구성요소가 구현됨에 있어서 특별한 언급이 없다면, 그 구성요소는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, it should be understood that, unless otherwise specified, the component may be implemented in any form of software, hardware, or both software and hardware.

또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, terms used in this specification are for describing embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. The terms 'comprises' and/or 'comprising' used in the specification do not exclude the presence or addition of one or more other elements.

또한, 본 명세서에서 '부', '장치' 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되거나 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 지칭하는 것으로 의도될 수 있다. 예를 들어, 여기서 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.Also, in this specification, terms such as 'unit' and 'device' may be intended to refer to functional and structural combinations of hardware and software driven by the corresponding hardware or for driving the hardware. For example, the hardware herein may be a data processing device including a CPU or other processor. Also, software driven by hardware may refer to a running process, an object, an executable file, a thread of execution, a program, and the like.

또한, 상기 용어들은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것이 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In addition, the terms may mean a predetermined code and a logical unit of hardware resources for executing the predetermined code, and do not necessarily mean physically connected codes or one type of hardware in the present invention. can be easily deduced to the average expert in the art.

이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, with reference to the accompanying drawings for the specific technical content to be carried out in the present invention will be described in detail.

도 1 및 2에 도시된 각각의 구성은 기능 및/또는 논리적으로 분리될 수도 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 작성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.Each component shown in FIGS. 1 and 2 indicates that it may be functionally and/or logically separated, and does not necessarily mean that each component is divided into a separate physical device or written in a separate code according to the present invention. The average expert in a technical field of .

도 1은 본 발명의 일실시예에 따른 차선 감지 및 예측 시스템의 블록구성도이다. 도 1에 도시된 바와 같이, 본 발명에 따른 차선 감지 및 예측 시스템은 상기 차량이 위치한 도로 이미지를 획득하고 도로 이미지의 전처리를 통해 차량의 진행방향으로 차선을 감지 및 예측하여 AR 이미지로 디스플레이 해주는 차선 감지 및 예측 장치(100) 및 상기 차선 감지 및 예측 장치(100)로부터 주행 데이터를 전송받아 저장하고, AR 이미지를 디스플레이 할 수 있는 어플리케이션이 실장된 사용자단말기(200)를 포함한다.1 is a block diagram of a lane detection and prediction system according to an embodiment of the present invention. As shown in FIG. 1, the lane detection and prediction system according to the present invention obtains a road image where the vehicle is located, detects and predicts a lane in the direction of the vehicle through pre-processing of the road image, and displays the lane as an AR image. It includes a sensing and predicting device 100 and a user terminal 200 equipped with an application capable of receiving and storing driving data from the lane detecting and predicting device 100 and displaying an AR image.

도 2는 본 발명의 일실시예에 따른 차선 감지 및 예측 장치의 블록구성도이다. 도 2에 도시된 바와 같이, 상기 차선 감지 및 예측 장치(100)는 차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는 주행데이터 수집부(110)와 차량 전방에 대한 도로 이미지를 획득하는 이미지 획득부(120)와 상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는 화질 변환부(130)와 딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는 라벨링 그룹화부(140)와 상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는 차선감지부(150)와 상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성하는 편측정보 생성부(160) 및 상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는 AR 이미지 생성부(170)를 포함한다.2 is a block diagram of an apparatus for detecting and predicting lanes according to an embodiment of the present invention. As shown in FIG. 2 , the lane detection and prediction device 100 includes a driving data collection unit 110 that collects driving data including a current location of the vehicle, a driving speed, and a driving route to a final destination, and a front of the vehicle. A plurality of objects are obtained from the final image by using an image acquisition unit 120 that acquires a road image for , an image quality conversion unit 130 that generates a final image by upscaling the road image, and a deep learning-based object extraction model. Based on the labeling grouping unit 140 that detects and sets an outline, labels and groups the type of object based on the coordinates of each object for which the outline is set and the size of the outline, and the grouped object group. Detecting a first section within a predetermined distance in the traveling direction of the vehicle from the vehicle, and predicting a lane of the second section existing in the second section within a predetermined distance from a point exceeding the predetermined distance in the traveling direction of the vehicle AR based on the lane detection unit 150 and the current one-side information generation unit 160 that generates current one-side information or optimized one-side information according to the slope of the lanes of the first and second sections, and the current one-side information or optimized one-side information It includes an AR image generating unit 170 that generates an image and displays it.

이때, 상기 차선 감지 및 예측 장치(100)는 도면에는 도시되어 있지 않지만, 화면에 AR 이미지를 표시할 수 있는 디스플레이부, 차량이 차선의 한쪽에 너무 편향되었을 경우 경고 음성을 표출할 수 있는 스피커부, 네트워크 통신이 가능한 통신부 등이 더 포함될 수 있다. At this time, although the lane detection and prediction device 100 is not shown in the drawing, a display unit capable of displaying an AR image on the screen and a speaker unit capable of expressing a warning sound when the vehicle is too biased to one side of the lane. , a communication unit capable of network communication may be further included.

이하에서는 상기와 같이 구성되는 차선 감지 및 예측 장치를 통한 차선 감지 및 예측 방법에 대해서 도 3 내지 5를 통해서 상세하게 설명하도록 한다.Hereinafter, a method for detecting and predicting a lane through the apparatus for detecting and predicting a lane configured as described above will be described in detail with reference to FIGS. 3 to 5 .

도 3은 본 발명의 일실시예에 따른 차선 감지 및 예측 방법 순서도이다. 도 3에 도시된 바와 같이, 본 발명에 따른 차선 감지 및 예측 장치를 통한 차선 감지 및 예측 방법은 주행데이터 수집부(110)가 차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는 단계(S110)와 이미지 획득부(120)가 차량 전방의 도로 이미지를 획득하는 단계(S120)와 화질 변환부(130)가 상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는 단계(S130)와 라벨링 그룹화부(140)가 딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는 단계(S140)와 차선감지부(150)가 상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는 단계(S150)와 편측정보 생성부(160)가 상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성하는 단계(S160) 및 AR 이미지 생성부(170)가 상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는 단계(S170)로 이루어진다.3 is a flow chart of a method for detecting and predicting lanes according to an embodiment of the present invention. As shown in FIG. 3 , in the lane detection and prediction method through the lane detection and prediction device according to the present invention, the driving data collection unit 110 includes the current location of the vehicle, the driving speed, and the driving route to the final destination. Collecting driving data (S110), acquiring a road image in front of the vehicle by the image acquisition unit 120 (S120), and generating a final image by upscaling the road image by the image quality conversion unit 130 (S130) and the labeling grouping unit 140 detects a plurality of objects from the final image using a deep learning-based object extraction model and sets an outline, and sets the coordinates of each object for which the outline is set and the size of the outline Labeling and grouping the types of objects based on (S140), and the lane detecting unit 150 detects a first section within a predetermined distance from the vehicle based on the grouped object groups in the traveling direction of the vehicle. and predicting a lane of a second section existing in a second section within a predetermined distance from a point exceeding a predetermined distance in the traveling direction of the vehicle (S150) and generating current hemilateral information or optimized hemilateral information according to the slope of the lane in the second section (S160). The AR image generating unit 170 generates an AR image based on the current hemilateral information or optimized hemilateral information and displays it. It consists of a step (S170) to do.

먼저, 상기 단계(S110)에서 상기 주행데이터 수집부(110)는 차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는데, 이에 한정하지 않고 일반적으로 차량에 설치되는 시스템들을 통해 수집가능한 차량의 상태정보를 실시간으로 수집할 수 있다.First, in the step S110, the driving data collection unit 110 collects driving data including the current location, driving speed, and driving route to the final destination of the vehicle. Vehicle condition information that can be collected through the systems can be collected in real time.

다음으로, 상기 단계(S120)에서 상기 이미지 획득부(120)는 차량의 전방에 대한 도로 이미지를 실시간으로 촬영하는데, 상기 이미지 획득부(120)는 바람직하게 차량에 설치된 블랙박스 장치일 수 있다.Next, in the step S120, the image acquisition unit 120 captures a road image of the front of the vehicle in real time. The image acquisition unit 120 may preferably be a black box device installed in the vehicle.

보다 구체적으로, 상기 이미지 획득부(120)는 도로 영상을 실시간으로 촬영하고 수집한 도로 영상을 각각의 프레임 별로 분할하여 도로 이미지를 수집할 수 있다.More specifically, the image acquisition unit 120 may capture road images in real time and collect road images by dividing the collected road images for each frame.

다음으로, 상기 단계(S130)에서 화질 변환부(130)가 상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는데, 구체적으로 화질변환부(130)는 사전에 학습된 딥러닝 기반의 모델 또는 알고리즘 보간법을 사용하여 복수의 도로 이미지 각각을 업스케일링 함으로써 복수의 도로 이미지를 고화질 도로 이미지로 변환할 수 있다. Next, in the step S130, the quality conversion unit 130 upscales the road image to generate a final image. Specifically, the quality conversion unit 130 uses a pre-learned deep learning-based model or algorithm interpolation method. A plurality of road images may be converted into a high-quality road image by upscaling each of a plurality of road images using .

이때 화질변환부(130)는 딥러닝 기반의 모델로 GAN 기반의 Real-ESRGAN 모델, SRGAN 모델, SinGAN 모델, EDSR 모델, MDSR 모델 및 SRCNN 모델 중 어느 하나의 모델을 사용하거나 바이큐빅(Bicubic) 알고리즘 보간법, 란초스(Lanczcos) 보간법 및 쌍 선형(Bilinear Interpolation) 보간법 중 어느 하나의 보간법을 사용하여 업스케일링을 수행할 수 있다.At this time, the image quality conversion unit 130 uses any one of the GAN-based Real-ESRGAN model, SRGAN model, SinGAN model, EDSR model, MDSR model, and SRCNN model as a deep learning-based model, or a Bicubic algorithm Upscaling may be performed using any one interpolation method among interpolation, Lanczcos interpolation, and bilinear interpolation.

그리고, 본 발명에서는 Real-ESRGAN 모델을 이용하는 것을 설명하나, 이상에서 상술한 딥러닝 기반의 모델 또는 알고리즘 보간법 중 어느 하나를 사용하여 업스케일링을 수행할 수 있으므로 이에 한정되지 않는다. Further, in the present invention, the use of the Real-ESRGAN model is described, but since upscaling can be performed using any one of the above-described deep learning-based model or algorithm interpolation, it is not limited thereto.

그리고 화질변환부(130)는 노이즈 제거 모듈을 포함하도록 마련되어 최종 이미지를 획득하는 단계에서는 노이즈를 제거하는 단계를 포함할 수 있다.Also, the image quality conversion unit 130 is provided to include a noise removal module, and the acquiring of the final image may include removing noise.

노이즈를 제거하는 단계에서는 화질변환부(130)가 업스케일링된 도로 이미지 내에서 미세먼지 또는 안개를 제거할 수도 있다. 이러한 노이즈 제거 모듈은 이미지 내 주변 광원으로부터 반사되어 섞인 대기 산란광으로 인해 발생한 노이즈 또는 카메라의 렌즈가 노후화되어 흐릿하거나, 미세먼지, 안개 등으로 인해 발생하는 노이즈를 제거하는 모듈일 수 있다.In the step of removing noise, the image quality conversion unit 130 may remove fine dust or fog from the upscaled road image. Such a noise removal module may be a module that removes noise caused by air scattered light reflected from ambient light sources in an image, or noise caused by aging of a camera lens, or noise caused by fine dust, fog, or the like.

따라서 노이즈를 제거하는 단계에서 화질변환부(130)는 노이즈 제거 모듈을 이용하여 업스케일링된 각각의 도로 이미지에서의 노이즈 픽셀을 분석하여 R, G, B의 픽셀을 HSI(Hue(색상), Saturation(채도), Intensity(명도)로 변경함으로써 그 값을 추출하고, 추출된 값을 DCP(Dark Channel Prior)를 적용하여 노이즈를 제거할 수 있다.Therefore, in the step of removing noise, the image quality conversion unit 130 analyzes the noise pixels in each upscaled road image using the noise removal module and converts the R, G, and B pixels into HSI (Hue (color), Saturation (Chroma) and Intensity (brightness), the value is extracted, and DCP (Dark Channel Prior) is applied to the extracted value to remove noise.

보다 구체적으로, 노이즈를 제거하는 단계에서 전처리부는, 업스케일링된 도로 이미지에 트랜스미션 맵으로 형성된 DCP를 적용하고, DCP가 적용되지 않은 업스케일링된 도로 이미지를 매핑한 후, 노이즈 제거 이미지를 적용하여 업스케일링 도로 이미지에서의 노이즈를 제거할 수 있다.More specifically, in the step of removing noise, the pre-processing unit applies DCP formed as a transmission map to the upscaled road image, maps the upscaled road image to which DCP is not applied, and then applies the denoising image to the upscaled road image. Noise can be removed from the scaling road image.

이를 더욱 자세히 설명하면, DCP는 노이즈 성분이 포함된 기존의 업스케일링된 도로 이미지에 대응하는 이미지의 정보를 나타내며, 기존의 업스케일링된 도로 이미지에서의 영역 화소들에 대응하는 DCP 수치를 기초로 기존의 업스케일링된 도로 이미지의 노이즈 값을 추정하고, 추정된 노이즈 값을 기초로 기존의 업스케일링된 도로 이미지에서 노이즈를 제거하는 것일 수 있다.To explain this in more detail, DCP represents information of an image corresponding to an existing up-scaled road image including a noise component, and based on DCP values corresponding to area pixels in the existing up-scaled road image, the existing up-scaled road image It may be to estimate a noise value of an upscaled road image of , and remove noise from an existing upscaled road image based on the estimated noise value.

이로써, 노이즈를 제거하는 단계를 포함하는 최종 이미지를 획득하는 단계에서 화질변환부(130)는, 복수의 도로 이미지를 업스케일링하여 고화질의 도로 이미지로 변환하는 것은 물론, 더 나아가 업스케일링된 도로 이미지 내에서 대기 산란광, 렌즈의 노후화로 인한 흐릿함, 미세먼지 및 안개 등과 같은 노이즈를 제거하여 최종 이미지를 획득할 수 있다.Thus, in the step of acquiring the final image including the step of removing noise, the image quality conversion unit 130 upscales a plurality of road images and converts them into high-quality road images, and furthermore, the upscaled road image. It is possible to obtain a final image by removing noise such as atmospheric scattering light, blurring due to aging of the lens, fine dust, and fog.

다음으로 상기 단계(S140)에서 라벨링 그룹화부(140)는 딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는데, 라벨링 그룹화부(140)는 최종 이미지 내에서 차선, 차량, 나무, 보도블록, 하늘, 가이드레일, 방음벽 등의 모든 객체를 탐지할 수 있다.Next, in the step S140, the labeling grouping unit 140 detects a plurality of objects from the final image using a deep learning-based object extraction model, sets the outline, and sets the coordinates and Based on the size of the outline, the types of objects are labeled and grouped. The labeling grouping unit 140 detects all objects such as lanes, vehicles, trees, sidewalk blocks, sky, guide rails, and sound barriers in the final image. can

그리고 라벨링 그룹화부(140)는 플리곤 라벨링 기법을 이용하여 탐지된 각각의 객체의 외곽선을 설정하고, 외곽선이 설정된 각각의 객체의 최종 이미지 내에서의 좌표 및 외곽선의 크기에 기초하여 객체의 종류를 라벨링하고 그룹화할 수 있다.In addition, the labeling grouping unit 140 sets the outline of each detected object using the polygon labeling technique, and classifies the type of object based on the size of the outline and the coordinates in the final image of each object for which the outline is set. You can label and group them.

이때 그룹화된 객체 그룹은 차선 마킹 객체 그룹, 가이드레일 객체 그룹 및 방음벽 객체 그룹 중 적어도 하나를 포함할 수 있다.In this case, the grouped object group may include at least one of a lane marking object group, a guide rail object group, and a sound barrier object group.

그리고 객체를 추출하여 그룹화하는 단계에서, 그룹화된 객체 그룹별로 사전에 설정된 제1 가중치를 부여하는 단계를 포함할 수 있다. In the step of extracting and grouping the objects, a step of assigning a pre-set first weight to each group of grouped objects may be included.

구체적으로 제1 가중치를 부여하는 단계에서는 라벨링 그룹화부(140)가 차선 마킹 객체 그룹에는 제1 가중치 중 가장 높은 가중치를 부여하고, 차선 마킹 객체 그룹을 제외한 그룹에는 차선 마킹 객체 그룹에 부여되는 가중치보다 낮은 가중치를 부여할 수 있다. 예컨대 차선 마킹 객체 그룹에 부여되는 제1 가중치는 10점 기준으로 8점 내지 10점일 수 있다. Specifically, in the step of assigning the first weight, the labeling grouping unit 140 assigns the highest weight among the first weights to the lane marking object group, and assigns a higher weight than the weight given to the lane marking object group to groups other than the lane marking object group. A low weight may be assigned. For example, the first weight given to the lane marking object group may be 8 to 10 points based on 10 points.

라벨링 그룹화부(140)는 각각의 객체에 외곽선이 설정되면 외곽선의 x축 및 y축 값을 산출할 수 있다. 따라서 이러한 x축 및 y축 값에 기초하여 도로에 마킹된 차선을 판단할 수 있다. When an outline is set for each object, the labeling grouping unit 140 may calculate x-axis and y-axis values of the outline. Accordingly, lanes marked on the road may be determined based on the x-axis and y-axis values.

다음으로 상기 단계(S150)에서 상기 차선감지부(150)는 상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는데, 이는 도 4와 같을 수 있다. 도 4는 본 발명의 일실시예에 따른 차선 감지 및 예측 실시예시도이다.Next, in the step S150, the lane detecting unit 150 detects a first section within a predetermined distance from the vehicle based on the grouped object group in the traveling direction of the vehicle, and is constant in the traveling direction of the vehicle. A lane of a second section existing in a second section within a predetermined distance from a point exceeding the distance is predicted, which may be the same as in FIG. 4 . 4 is an exemplary diagram of lane detection and prediction according to an embodiment of the present invention.

차선감지부(150)는 그룹화된 객체 그룹에 기초해 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간에 존재하는 제1구간 차선을 감지할 수 있다. 바람직하게 여기서 제1구간은 차량의 전단 중심으로부터 100m 이내에 해당하는 구간일 수 있다.The lane detecting unit 150 may detect a first section lane existing in a first section within a predetermined distance from the vehicle in the traveling direction of the vehicle based on the grouped object group. Preferably, the first section may be a section corresponding to within 100 m from the front end center of the vehicle.

그리고 제1구간 차선을 감지하는 단계에서 차선감지부(150)는 제1가중치 중 가장 높은 가중치를 부여받은 차선 마킹 객체 그룹에 기초하여 제1구간 차선을 감지할 수 있다. In the step of detecting the lanes of the first section, the lane detecting unit 150 may detect the lanes of the first section based on the lane marking object group to which the highest weight is assigned among the first weights.

또한, 차선감지부(150)는 그룹화된 객체 그룹에 기초해 차량으로부터 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간 차선의 형태를 예측하는 단계를 수행할 수 있다. In addition, the lane detecting unit 150 predicts the shape of a lane in the second section existing in the second section within a predetermined distance from a point exceeding a predetermined distance in the traveling direction of the vehicle based on the grouped object group. steps can be performed.

여기서 제2구간은 예컨대 도로의 혼잡으로 인해 육안으로 확인이 어려운 구간일 수 있다. 이러한 제2구간 차선의 형태를 예측하는 단계에서는 학습된 머신러닝 모델을 사용할 수 있다. Here, the second section may be, for example, a section that is difficult to check with the naked eye due to congestion on the road. In the step of predicting the shape of the lane in the second section, a learned machine learning model may be used.

그리고 제2구간 차선의 형태를 예측하는 단계에서는 인접 차량 객체 그룹, 가이드레일 객체 그룹 및 방음벽 객체 그룹에 기초하여 제2구간 차선의 형태를 예측할 수 있다.In the step of estimating the shape of the lane in the second section, the shape of the lane in the second section may be predicted based on the adjacent vehicle object group, the guide rail object group, and the sound barrier object group.

구체적으로 예를 들면 차선감지부(150)는 객체 그룹 중 동일 차선에서 주행중인 차량의 전방에 위치한 복수의 인접 차량 외곽선의 좌측 또는 우측 끝단이 소정의 개수 이상으로 보이되 각각의 끝단이 보이는 정도가 균일하면 해당 제2구간 차선은 곡선인 것으로 예측할 수 있다. 이를 통해 차선 감지부는 제2구간 차선의 형태를 예측하고 예측된 차선의 형태에 기초하여 제2구간 차선을 생성할 수 있다. Specifically, for example, the lane detecting unit 150 sees more than a predetermined number of left or right ends of a plurality of adjacent vehicle outlines located in front of a vehicle traveling in the same lane among object groups, but determines the degree to which each end is visible. If it is uniform, it can be predicted that the lane of the second section is a curve. Through this, the lane detecting unit may predict the shape of the lane in the second section and generate the lane in the second section based on the predicted shape of the lane.

다음으로 상기 단계(S160)에서 편측정보 생성부(160)는 상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성한다.Next, in step S160, the one-sided information generation unit 160 generates current one-sided information or optimized one-sided information according to the gradient of the lanes in the first section and the second section.

편측정보 생성을 위해 제1구간 차선의 중심선 및 기설정된 차량의 중심선을 비교하여 제1구간 차선 내 차량의 편측 정도를 나타내는 현재 편측정보를 생성할 수 있다. In order to generate lateral information, current lateral information indicating the degree of lateralization of the vehicle in the lane of the first section may be generated by comparing the center line of the lane in the first section with the center line of the preset vehicle.

이를 위해 도로 이미지를 수집하는 이미지 획득부(120)의 화각 및 픽셀값에 기초하여 사전에 차량의 중심선을 감지하기 위한 기준점이 사전에 설정되어 있을 수 있다.To this end, a reference point for detecting the center line of the vehicle may be set in advance based on the angle of view and the pixel value of the image acquisition unit 120 that collects the road image.

그리고 제1구간 차선의 기울기와 예측된 제2구간 차선의 기울기가 일치하지 않으면, 제1구간 차선의 기울기와 제2구간 차선의 기울기 변화 및 차량의 주행속도에 기초하여 제1구간 차선 및 제2구간 차선을 주행하는 차량에 적용되는 원심을 최소화할 수 있도록 하는 최적화 편측정보를 생성할 수 있다.If the slope of the lane in the first section and the slope of the predicted lane in the second section do not match, the slope of the lane in the first section and the slope of the lane in the second section are changed based on the change in slope of the lane in the first section and the slope of the lane in the second section and the driving speed of the vehicle. Optimization one-sided information for minimizing centrifugal force applied to a vehicle traveling in a section lane may be generated.

마지막으로 상기 단계(S160)에서 AR 이미지 생성부(160)는 상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는데, 이는 도 5와 같을 수 있다. 도 5는 본 발명의 일실시예에 따른 AR 이미지 디스플레이 실시예시도이다.Finally, in the step S160, the AR image generation unit 160 generates an AR image based on the current one-side information or the optimized one-side information and displays it, which may be as shown in FIG. 5. 5 is an exemplary diagram of an AR image display according to an embodiment of the present invention.

AR 이미지 생성부(160)는 도로 이미지 상에 중심선을 점선으로 표시하고, 점선을 기준으로 차량의 중심선을 소정의 너비를 갖는 실선으로 표시하여 운전자 또는 탑승자가 해당 차량의 편측 정도를 육안으로 확인하도록 할 수 있다. 또한 점선을 기준으로 차량의 중심선이 얼마나 편향되어 있는지에 대한 비율을 좌(-) 0.0m 우(+) 0.0m와 같은 수치적으로 편향 정보를 표시한 AR 이미지를 생성할 수도 있다.The AR image generating unit 160 displays the center line as a dotted line on the road image, and displays the center line of the vehicle as a solid line having a predetermined width based on the dotted line so that the driver or occupant can visually check the degree of one side of the vehicle. can do. In addition, an AR image displaying numerical deflection information such as left (-) 0.0 m and right (+) 0.0 m as a ratio of how much the center line of the vehicle is biased based on the dotted line may be generated.

또한, AR 이미지 생성부(160)는 제1구간 차선과 제2구간 차선의 경계 지점에서 차량의 중심점이 차선 내의 어느 지점에 위치해야 하는지를 포인트로 표시하거나, 제1구간 차선과 제2구간 차선 내에 차량의 중심선이 위치해야 하는 경로를 소정의 색상으로 표시한 AR 이미지를 생성할 수도 있다.In addition, the AR image generating unit 160 displays a point within the lane where the center point of the vehicle should be located at the boundary point between the first section lane and the second section lane, or within the first section lane and the second section lane. An AR image in which a path along which the center line of the vehicle should be located may be displayed in a predetermined color may be generated.

또한, AR 이미지 생성부(160)는 차량의 현재 위치, 주행 속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터에 기초하여 제1구간 차선 및 제2구간 차선의 폭을 실제 차선 폭보다 소정의 비율만큼 축소시킨 AR 이미지를 생성할 수 있다. 예컨데 차량의 현재 위치가 어린이 보호구역인 경우 실제 차선의 폭보다 5~10% 정도 축소시켜 표시한 AR 이미지를 생성할 수도 있다.In addition, the AR image generating unit 160 sets the widths of the lanes of the first section and the second section to a predetermined value greater than the actual lane width based on the driving data including the current location of the vehicle, the driving speed, and the driving route to the final destination. An AR image reduced by the ratio can be created. For example, if the vehicle's current location is in a child protection area, an AR image that is reduced by 5 to 10% from the actual lane width may be generated.

따라서, 상기한 바와 같이 본 발명에 따른 차선 감지 및 예측 시스템, 장치 및 방법을 통해 차선을 감지 및 예측하고 차량이 차선 내에서 편향되는 정도를 표시함으로써 차량의 안전한 운행이 가능하도록 하는 것은 물론, 운전자에게 해당 차선 내에서의 최적화된 주행 경로를 표시함으로써 운전자의 주행 편의를 향상시킬 수 있다. Therefore, as described above, the lane detection and prediction system, apparatus, and method according to the present invention detect and predict the lane and display the degree of deviation of the vehicle within the lane, thereby enabling safe driving of the vehicle as well as the driver. Driver's driving convenience can be improved by displaying an optimized driving path within the corresponding lane to the driver.

또한, 감지된 차선을 소정의 조건에 따라 차선의 폭을 축소하여 표시함으로써 운전자의 주의환기를 유도하는 것은 물론 안전한 운행을 유도할 수 있다.In addition, by reducing the width of the detected lane according to a predetermined condition and displaying the lane, it is possible to induce the driver's attention as well as induce safe driving.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽어지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, although all of the components may be implemented as a single independent piece of hardware, some or all of the components are selectively combined to perform some or all of the combined functions in one or a plurality of pieces of hardware. It may be implemented as a computer program having. Codes and code segments constituting the computer program may be easily inferred by a person skilled in the art. Such a computer program may implement an embodiment of the present invention by being stored in a computer readable storage medium, read and executed by a computer.

한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.On the other hand, although the above has been described and illustrated in relation to preferred embodiments for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described in this way, and departs from the scope of the technical idea. It will be apparent to those skilled in the art that many changes and modifications can be made to the present invention without modification. Accordingly, all such appropriate alterations and modifications and equivalents are to be regarded as falling within the scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.

100 : 차선 감지 및 예측 장치
110 : 주행데이터 수집부
120 : 이미지 획득부
130 : 화질 변환부
140 : 라벨링 그룹화부
150 : 차선감지부
160 : 편측정보 생성부
170 : AR 이미지 생성부
200 : 사용자단말기
100: lane detection and prediction device
110: driving data collection unit
120: image acquisition unit
130: quality conversion unit
140: labeling grouping unit
150: lane detection unit
160: one-sided information generation unit
170: AR image generation unit
200: user terminal

Claims (12)

차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는 주행데이터 수집부;
차량 전방의 도로 이미지를 획득하는 이미지 획득부;
상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는 화질 변환부;
딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 폴리곤 라벨링 기법을 이용하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는 라벨링 그룹화부;
상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는 차선감지부;
상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성하는 편측정보 생성부; 및
상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는 AR 이미지 생성부;
를 포함하되,
상기 차선감지부는,
차선 마킹 객체 그룹에 기초하여 상기 제1구간 차선을 감지하고,
가이드레일 객체 그룹 및 방음벽 객체 그룹에 기초하여 상기 제2구간 차선의 형태를 예측하되,
객체 그룹 중 동일 차선에서 주행중인 차량의 전방에 위치한 복수의 인접 차량 외곽선의 좌측 또는 우측 끝단이 소정의 개수 이상으로 보이되 각각의 끝단이 보이는 정도가 균일하면 제2구간 차선의 형태를 곡선으로 예측하는 것을 특징으로 하며,
상기 AR 이미지 생성부는,
도로 이미지 상에 중심선을 점선으로 표시하고, 점선을 기준으로 차량의 중심선을 소정의 너비를 갖는 실선으로 표시하되, 점선을 기준으로 차량의 중심선이 얼마나 편향되어 있는지에 대한 비율을 수치적으로 표시하고,
제1구간 차선과 제2구간 차선의 경계 지점에서 차량의 중심점이 차선 내의 어느 지점에 위치해야 하는지를 포인트로 표시하거나 제1구간 차선과 제2구간 차선 내에 차량의 중심선이 위치해야 하는 경로를 소정의 색상으로 표시하고,
차선의 폭을 실제 차선 폭보다 소정의 비율만큼 축소시켜 표시한 AR 이미지를 생성하는 것을 특징으로 하는 차선 감지 및 예측 장치.
a driving data collection unit that collects driving data including a current location of the vehicle, a driving speed, and a driving route to a final destination;
an image acquiring unit acquiring an image of a road in front of the vehicle;
a picture quality conversion unit generating a final image by upscaling the road image;
A plurality of objects are detected from the final image using a deep learning-based object extraction model, an outline is set using a polygon labeling technique, and the object is detected based on the coordinates of each object for which the outline is set and the size of the outline. a labeling grouping unit for labeling and grouping types of;
Based on the grouped object group, a first section within a predetermined distance from the vehicle in the traveling direction of the vehicle is detected, and present in a second section within a predetermined distance from a point exceeding the predetermined distance in the traveling direction of the vehicle. a lane detection unit for predicting a lane in a second section;
a one-sided information generating unit generating current one-sided information or optimized one-sided information according to the gradients of lanes in the first section and the second section; and
an AR image generating unit generating an AR image based on the current lateral information or optimized lateral information and displaying the AR image;
Including,
The lane detection unit,
Detecting a lane in the first section based on a lane marking object group;
Based on the guide rail object group and the sound barrier object group, the shape of the lane in the second section is predicted,
Among the object groups, if the left or right ends of a plurality of adjacent vehicle outlines located in front of a vehicle running in the same lane are visible at a predetermined number or more, but the degree of visibility of each end is uniform, the shape of the lane in the second section is predicted as a curve. characterized in that,
The AR image generating unit,
The center line is displayed as a dotted line on the road image, and the center line of the vehicle is displayed as a solid line having a predetermined width based on the dotted line. ,
At the boundary point between the first section lane and the second section lane, the point within the lane where the center point of the vehicle should be located is indicated by a point, or the route where the center line of the vehicle should be located within the first section lane and the second section lane is specified marked with color,
An apparatus for detecting and predicting lanes characterized by generating an AR image displayed by reducing a width of a lane by a predetermined ratio from an actual lane width.
제1항에 있어서,
상기 그룹화된 객체 그룹은,
차선 마킹 객체 그룹, 가이드레일 객체 그룹 및 방음벽 객체 그룹 중 적어도 하나를 포함하는 것을 특징으로 하는 차선 감지 및 예측 장치.
According to claim 1,
The grouped object group,
A lane detection and prediction device comprising at least one of a lane marking object group, a guide rail object group, and a sound barrier object group.
삭제delete 제1항에 있어서,
상기 편측정보 생성부는,
제1구간 및 제2구간 차선의 기울기가 같을 경우,
제1구간 차선의 중심선 및 기설정된 차량의 중심선을 비교하여 제1구간 차선 내 차량의 편측 정도를 나타내는 현재 편측정보를 생성하고,
제1구간 및 제2구간 차선의 기울기가 다를 경우,
제1구간 차선의 기울기와 제2구간 차선의 기울기 변화 및 차량의 주행속도에 기초하여 제1구간 차선 및 제2구간 차선을 주행하는 차량에 적용되는 원심을 최소화할 수 있도록 하는 최적화 편측 정보를 생성하는 것을 특징으로 하는 차선 감지 및 예측 장치.
According to claim 1,
The one-sided information generating unit,
If the slopes of the lanes of Section 1 and Section 2 are the same,
Comparing the center line of a lane in the first section with a center line of a preset vehicle to generate current side information indicating the degree of lateralization of the vehicle in the lane in the first section;
If the slopes of the lanes of section 1 and section 2 are different,
Based on the change in slope of the lane in section 1, the slope of the lane in section 2, and the driving speed of the vehicle, optimization one-sided information that minimizes the centrifugal force applied to the vehicle traveling in the lane in section 1 and section 2 is generated. Lane detection and prediction device, characterized in that for.
삭제delete 주행데이터 수집부가 차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는 단계;
이미지 획득부가 차량 전방의 도로 이미지를 획득하는 단계;
화질 변환부가 상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는 단계;
라벨링 그룹화부가 딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 폴리곤 라벨링 기법을 이용하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는 단계;
차선감지부가 상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는 단계;
편측정보 생성부가 상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성하는 단계; 및
AR 이미지 생성부가 상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는 단계;
를 포함하되,
상기 차선감지부는,
차선 마킹 객체 그룹에 기초하여 상기 제1구간 차선을 감지하고,
가이드레일 객체 그룹 및 방음벽 객체 그룹에 기초하여 상기 제2구간 차선의 형태를 예측하되,
객체 그룹 중 동일 차선에서 주행중인 차량의 전방에 위치한 복수의 인접 차량 외곽선의 좌측 또는 우측 끝단이 소정의 개수 이상으로 보이되 각각의 끝단이 보이는 정도가 균일하면 제2구간 차선의 형태를 곡선으로 예측하는 것을 특징으로 하며,
상기 AR 이미지 생성부는,
도로 이미지 상에 중심선을 점선으로 표시하고, 점선을 기준으로 차량의 중심선을 소정의 너비를 갖는 실선으로 표시하되, 점선을 기준으로 차량의 중심선이 얼마나 편향되어 있는지에 대한 비율을 수치적으로 표시하고,
제1구간 차선과 제2구간 차선의 경계 지점에서 차량의 중심점이 차선 내의 어느 지점에 위치해야 하는지를 포인트로 표시하거나 제1구간 차선과 제2구간 차선 내에 차량의 중심선이 위치해야 하는 경로를 소정의 색상으로 표시하고,
차선의 폭을 실제 차선 폭보다 소정의 비율만큼 축소시켜 표시한 AR 이미지를 생성하는 것을 특징으로 하는 차선 감지 및 예측 방법.
Collecting driving data including a current location of the vehicle, a driving speed, and a driving route to a final destination by a driving data collection unit;
Acquiring a road image in front of the vehicle by an image acquisition unit;
Up-scaling the road image by an image quality conversion unit to generate a final image;
A labeling grouping unit detects a plurality of objects from the final image using a deep learning-based object extraction model, sets an outline using a polygon labeling technique, and based on the coordinates of each object for which the outline is set and the size of the outline labeling and grouping the types of the objects by using a method;
A lane detecting unit detects a first section within a predetermined distance from the vehicle based on the grouped object group, and a second section within a predetermined distance from the point exceeding the predetermined distance in the traveling direction of the vehicle. predicting a lane of a second section existing in the section;
generating, by a one-sided information generator, current one-sided information or optimized one-sided information according to the gradients of lanes in the first section and the second section; and
generating an AR image based on the current one-side information or the optimized one-side information and displaying the AR image by an AR image generating unit;
Including,
The lane detection unit,
Detecting a lane in the first section based on a lane marking object group;
Based on the guide rail object group and the sound barrier object group, the shape of the lane in the second section is predicted,
Among the object groups, if the left or right ends of a plurality of adjacent vehicle outlines located in front of a vehicle running in the same lane are visible at a predetermined number or more, but the degree of visibility of each end is uniform, the shape of the lane in the second section is predicted as a curve. characterized in that,
The AR image generating unit,
The center line is displayed as a dotted line on the road image, and the center line of the vehicle is displayed as a solid line having a predetermined width based on the dotted line. ,
At the boundary point between the first section lane and the second section lane, the point within the lane where the center point of the vehicle should be located is indicated by a point, or the route where the center line of the vehicle should be located within the first section lane and the second section lane is specified marked with color,
A lane detection and prediction method characterized by generating an AR image displayed by reducing a lane width by a predetermined ratio from an actual lane width.
제6항에 있어서,
상기 그룹화된 객체 그룹은,
차선 마킹 객체 그룹, 가이드레일 객체 그룹 및 방음벽 객체 그룹 중 적어도 하나를 포함하는 것을 특징으로 하는 차선 감지 및 예측 방법.
According to claim 6,
The grouped object group,
A lane detection and prediction method comprising at least one of a lane marking object group, a guide rail object group, and a sound barrier object group.
삭제delete 제6항에 있어서,
상기 편측정보 생성부는,
제1구간 및 제2구간 차선의 기울기가 같을 경우,
제1구간 차선의 중심선 및 기설정된 차량의 중심선을 비교하여 제1구간 차선 내 차량의 편측 정도를 나타내는 현재 편측정보를 생성하고,
제1구간 및 제2구간 차선의 기울기가 다를 경우,
제1구간 차선의 기울기와 제2구간 차선의 기울기 변화 및 차량의 주행속도에 기초하여 제1구간 차선 및 제2구간 차선을 주행하는 차량에 적용되는 원심을 최소화할 수 있도록 하는 최적화 편측 정보를 생성하는 것을 특징으로 하는 차선 감지 및 예측 방법.
According to claim 6,
The one-sided information generating unit,
If the slopes of the lanes of Section 1 and Section 2 are the same,
Comparing the center line of a lane in the first section with a center line of a preset vehicle to generate current side information indicating the degree of lateralization of the vehicle in the lane in the first section;
If the slopes of the lanes of section 1 and section 2 are different,
Based on the change in slope of the lane in section 1, the slope of the lane in section 2, and the driving speed of the vehicle, optimization one-sided information that minimizes the centrifugal force applied to the vehicle traveling in the lane in section 1 and section 2 is generated. Lane detection and prediction method characterized in that.
삭제delete 차량이 위치한 도로 이미지를 획득하고 도로 이미지의 전처리를 통해 차량의 진행방향으로 차선을 감지 및 예측하여 AR 이미지로 디스플레이 해주는 차선 감지 및 예측 장치; 및
상기 차선 감지 및 예측 장치로부터 주행 데이터를 전송받아 저장하고, AR 이미지를 디스플레이 할 수 있는 어플리케이션이 실장된 사용자단말기;
를 포함하되,
상기 감지 및 예측 장치는,
차량의 현재 위치, 주행속도 및 최종 목적지까지의 주행 경로를 포함하는 주행 데이터를 수집하는 주행데이터 수집부;
차량 전방의 도로 이미지를 획득하는 이미지 획득부;
상기 도로 이미지를 업스케일링하여 최종 이미지를 생성하는 화질 변환부;
딥러닝 기반의 객체 추출 모델을 이용하여 상기 최종 이미지로부터 복수의 객체를 탐지하여 폴리곤 라벨링 기법을 이용하여 외곽선을 설정하고, 상기 외곽선이 설정된 각각의 객체의 좌표 및 상기 외곽선의 크기에 기초하여 상기 객체의 종류를 라벨링하여 그룹화하는 라벨링 그룹화부;
상기 그룹화된 객체 그룹에 기초하여 상기 차량으로부터 차량의 진행방향으로 소정의 거리 이내인 제1구간을 감지하고, 차량의 진행방향으로 일정거리를 초과한 지점으로부터 소정의 거리 이내인 제2구간에 존재하는 제2구간의 차선을 예측하는 차선감지부;
상기 제1구간 및 제2구간 차선의 기울기에 따라 현재 편측정보 또는 최적화 편측정보를 생성하는 편측정보 생성부; 및
상기 현재 편측정보 또는 최적화 편측정보에 기초하여 AR 이미지를 생성하고 이를 디스플레이해주는 AR 이미지 생성부;
를 포함하되,
상기 차선감지부는,
차선 마킹 객체 그룹에 기초하여 상기 제1구간 차선을 감지하고,
가이드레일 객체 그룹 및 방음벽 객체 그룹에 기초하여 상기 제2구간 차선의 형태를 예측하되,
객체 그룹 중 동일 차선에서 주행중인 차량의 전방에 위치한 복수의 인접 차량 외곽선의 좌측 또는 우측 끝단이 소정의 개수 이상으로 보이되 각각의 끝단이 보이는 정도가 균일하면 제2구간 차선의 형태를 곡선으로 예측하는 것을 특징으로 하며,
상기 AR 이미지 생성부는,
도로 이미지 상에 중심선을 점선으로 표시하고, 점선을 기준으로 차량의 중심선을 소정의 너비를 갖는 실선으로 표시하되, 점선을 기준으로 차량의 중심선이 얼마나 편향되어 있는지에 대한 비율을 수치적으로 표시하고,
제1구간 차선과 제2구간 차선의 경계 지점에서 차량의 중심점이 차선 내의 어느 지점에 위치해야 하는지를 포인트로 표시하거나 제1구간 차선과 제2구간 차선 내에 차량의 중심선이 위치해야 하는 경로를 소정의 색상으로 표시하고,
차선의 폭을 실제 차선 폭보다 소정의 비율만큼 축소시켜 표시한 AR 이미지를 생성하는 것을 특징으로 하는 차선 감지 및 예측 시스템.
A lane detection and prediction device that obtains a road image on which the vehicle is located, detects and predicts a lane in the direction of the vehicle through pre-processing of the road image, and displays the AR image; and
a user terminal equipped with an application capable of receiving and storing driving data from the lane detection and prediction device and displaying an AR image;
Including,
The sensing and predicting device,
a driving data collection unit that collects driving data including a current location of the vehicle, a driving speed, and a driving route to a final destination;
an image acquiring unit acquiring an image of a road in front of the vehicle;
a picture quality conversion unit generating a final image by upscaling the road image;
A plurality of objects are detected from the final image using a deep learning-based object extraction model, an outline is set using a polygon labeling technique, and the object is detected based on the coordinates of each object for which the outline is set and the size of the outline. a labeling grouping unit for labeling and grouping types of;
Based on the grouped object group, a first section within a predetermined distance from the vehicle in the traveling direction of the vehicle is detected, and present in a second section within a predetermined distance from a point exceeding the predetermined distance in the traveling direction of the vehicle. a lane detection unit for predicting a lane in a second section;
a one-sided information generating unit generating current one-sided information or optimized one-sided information according to the gradients of lanes in the first section and the second section; and
an AR image generating unit generating an AR image based on the current lateral information or optimized lateral information and displaying the AR image;
Including,
The lane detection unit,
Detecting a lane in the first section based on a lane marking object group;
Based on the guide rail object group and the sound barrier object group, the shape of the lane in the second section is predicted,
Among the object groups, if the left or right ends of a plurality of adjacent vehicle outlines located in front of a vehicle running in the same lane are visible at a predetermined number or more, but the degree of visibility of each end is uniform, the shape of the lane in the second section is predicted as a curve. characterized in that,
The AR image generating unit,
The center line is displayed as a dotted line on the road image, and the center line of the vehicle is displayed as a solid line having a predetermined width based on the dotted line. ,
At the boundary point between the first section lane and the second section lane, the point within the lane where the center point of the vehicle should be located is indicated by a point, or the route where the center line of the vehicle should be located within the first section lane and the second section lane is specified marked with color,
A lane detection and prediction system, characterized in that for generating an AR image displayed by reducing the width of the lane by a predetermined ratio from the actual lane width.
삭제delete
KR1020220165692A 2022-12-01 2022-12-01 Lane detection and prediction system, apparatus and method KR102544640B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220165692A KR102544640B1 (en) 2022-12-01 2022-12-01 Lane detection and prediction system, apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220165692A KR102544640B1 (en) 2022-12-01 2022-12-01 Lane detection and prediction system, apparatus and method

Publications (1)

Publication Number Publication Date
KR102544640B1 true KR102544640B1 (en) 2023-06-21

Family

ID=86989551

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220165692A KR102544640B1 (en) 2022-12-01 2022-12-01 Lane detection and prediction system, apparatus and method

Country Status (1)

Country Link
KR (1) KR102544640B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118155002A (en) * 2024-05-11 2024-06-07 枣庄鼎汇建设工程有限公司 Roadbed detection method based on data identification analysis

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101751298B1 (en) * 2016-02-18 2017-07-11 한국전자통신연구원 Method and apparatus for predicting vehicle route
KR20190052912A (en) * 2017-11-09 2019-05-17 삼성전자주식회사 Method and apparatus of dispalying virtual route
KR20190103078A (en) * 2019-07-11 2019-09-04 엘지전자 주식회사 Method and apparatus for providing service of vehicle in autonomous driving system
KR102119033B1 (en) 2019-09-27 2020-06-05 한국건설기술연구원 Apparatus and method for providing road marking information using image data and vibration
KR20210137893A (en) * 2020-05-11 2021-11-18 네이버랩스 주식회사 Method and system for determining position of vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101751298B1 (en) * 2016-02-18 2017-07-11 한국전자통신연구원 Method and apparatus for predicting vehicle route
KR20190052912A (en) * 2017-11-09 2019-05-17 삼성전자주식회사 Method and apparatus of dispalying virtual route
KR20190103078A (en) * 2019-07-11 2019-09-04 엘지전자 주식회사 Method and apparatus for providing service of vehicle in autonomous driving system
KR102119033B1 (en) 2019-09-27 2020-06-05 한국건설기술연구원 Apparatus and method for providing road marking information using image data and vibration
KR20210137893A (en) * 2020-05-11 2021-11-18 네이버랩스 주식회사 Method and system for determining position of vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118155002A (en) * 2024-05-11 2024-06-07 枣庄鼎汇建设工程有限公司 Roadbed detection method based on data identification analysis

Similar Documents

Publication Publication Date Title
CN111212772B (en) Method and device for determining a driving strategy of a vehicle
CN108082037B (en) Brake light detection
CN109941286B (en) Method and device for evaluating a vehicle driving surface
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
EP2879384B1 (en) Three-dimensional object detection device
JP6082802B2 (en) Object detection device
CN110619747A (en) Intelligent monitoring method and system for highway road
US20030095080A1 (en) Method and system for improving car safety using image-enhancement
JP2014153167A (en) Object recognition device, object recognition method, and object recognition program
JP4807354B2 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
KR102544640B1 (en) Lane detection and prediction system, apparatus and method
EP2741234B1 (en) Object localization using vertical symmetry
KR101809088B1 (en) Apparatus and method for forward collision warning
CN110874559A (en) Method and device for evaluating a vehicle driving surface
JP5423764B2 (en) Moving object detection apparatus, computer program, and moving object detection method
CN111079675A (en) Driving behavior analysis method based on target detection and target tracking
KR101405085B1 (en) Device and method for video analysis
US11697346B1 (en) Lane position in augmented reality head-up display system
CN101369312A (en) Method and equipment for detecting intersection in image
JP2012164026A (en) Image recognition device and display device for vehicle
CN113706901A (en) Intelligent prevention, control and early warning system for accidents at entrance section of highway tunnel
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
KR101865958B1 (en) Method and apparatus for recognizing speed limit signs
CN102779272B (en) A kind of changing method of vehicle detection mode
Yusuf et al. GPU Implementation for Automatic Lane Tracking in Self-Driving Cars

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant