KR102255924B1 - Vehicle and method for detecting lane - Google Patents

Vehicle and method for detecting lane Download PDF

Info

Publication number
KR102255924B1
KR102255924B1 KR1020190120131A KR20190120131A KR102255924B1 KR 102255924 B1 KR102255924 B1 KR 102255924B1 KR 1020190120131 A KR1020190120131 A KR 1020190120131A KR 20190120131 A KR20190120131 A KR 20190120131A KR 102255924 B1 KR102255924 B1 KR 102255924B1
Authority
KR
South Korea
Prior art keywords
lane
lane line
information
models
model
Prior art date
Application number
KR1020190120131A
Other languages
Korean (ko)
Other versions
KR20210037468A (en
Inventor
정동하
홍 민 트루엉
토르스테인 발드빈 존슨
박재일
김영성
Original Assignee
주식회사 서울로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 서울로보틱스 filed Critical 주식회사 서울로보틱스
Priority to KR1020190120131A priority Critical patent/KR102255924B1/en
Priority to PCT/KR2019/013501 priority patent/WO2021060599A1/en
Publication of KR20210037468A publication Critical patent/KR20210037468A/en
Application granted granted Critical
Publication of KR102255924B1 publication Critical patent/KR102255924B1/en

Links

Images

Classifications

    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • G06K9/00201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

적어도 하나의 센서를 이용하여 3차원 공간을 감지하고, 공간 정보를 출력하는 센서부, 컴퓨터 실행가능 명령어(computer executable instruction)를 저장하는 메모리, 및 컴퓨터 실행가능 명령어를 실행함으로써, 획득한 공간 정보로부터 도로 영역 정보를 획득하고, 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하며, 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하고, 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하며, 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 프로세서를 포함하는 차량이 개시된다.From spatial information obtained by detecting a three-dimensional space using at least one sensor, a sensor unit that outputs spatial information, a memory storing a computer executable instruction, and a computer executable instruction Acquire road area information, extract road marking information based on an intensity value from the obtained road area information, cluster the extracted road marking information, and perform filtering based on lane line width information. To obtain lane line information by performing the operation, generate lane line models based on the lane line information continuously obtained in the driving direction of the vehicle, and use two adjacent lane lines among the lane lines based on the generated lane line models. Disclosed is a vehicle comprising a processor for generating lanes made.

Description

레인을 검출하는 차량 및 방법{VEHICLE AND METHOD FOR DETECTING LANE}Vehicle and method for detecting lanes {VEHICLE AND METHOD FOR DETECTING LANE}

레인을 검출하는 차량 및 방법에 관한 것이다.It relates to a vehicle and method for detecting lanes.

자율 주행 차량 또는 주행보조 시스템에서, 차량의 주행이 이루어지는 이동로에 있는 레인을 검출하는 것이 중요하다. 카메라의 이미지를 활용하여 레인을 검출하는 방식은 차량의 실제 주행에 활용하기 위해 3차원 형태의 정보로 가공하는 과정에서 오차가 발생될 수 있다. 미리 준비된 고해상도 맵을 이용하여 레인을 검출하는 방식은 차량에 방대한 양의 데이터를 저장할 리소스 문제와 실시간으로 변화되는 상황을 반영하기 위해 고해상도 맵의 지속적인 업데이트를 해야 하는 문제가 있다. In an autonomous vehicle or a driving assistance system, it is important to detect a lane in a moving path in which the vehicle is driven. A method of detecting a lane using an image of a camera may cause an error in the process of processing information in a three-dimensional form for use in actual driving of a vehicle. The method of detecting lanes using a pre-prepared high-resolution map has a problem in that there is a problem of resources to store a large amount of data in the vehicle and a problem in that the high-resolution map must be continuously updated to reflect a situation that changes in real time.

차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 실시간으로 레인을 검출하는 차량 및 방법, 그리고 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 제공하는 것이다.A vehicle and a method for detecting lanes in real time based on lane line information continuously acquired in a driving direction of a vehicle, and a computer program stored in a computer-readable storage medium are provided.

제 1 측면에 따른 차량은, 적어도 하나의 센서를 이용하여 3차원 공간을 감지하고, 공간 정보를 출력하는 센서부; 컴퓨터 실행가능 명령어(computer executable instruction)를 저장하는 메모리; 및 상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 획득한 공간 정보로부터 도로 영역 정보를 획득하고, 상기 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하며, 상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하고, 차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하며, 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 프로세서를 포함할 수 있다.A vehicle according to a first aspect includes: a sensor unit configured to sense a three-dimensional space using at least one sensor and output spatial information; A memory storing computer executable instructions; And by executing the computer-executable command, obtaining road area information from the obtained spatial information, extracting road marking information based on an intensity value from the obtained road area information, and extracting the extracted road area information. After clustering the mark information, filtering is performed based on lane line width information to obtain lane line information, and lane line models are generated based on the lane line information successively obtained in the driving direction of the vehicle. And a processor for generating a lane comprising two adjacent lane lines among lane lines based on the generated lane line models.

제 2 측면에 따른 레인을 검출하는 방법은, 3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득하는 단계; 상기 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하는 단계; 상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 단계; 차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 단계; 및 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 단계를 포함할 수 있다.A method of detecting a lane according to a second aspect includes: obtaining road area information from spatial information obtained by detecting a three-dimensional space; Extracting road marking information based on an intensity value from the obtained road area information; Obtaining lane line information by performing filtering based on lane line width information after clustering the extracted road marking information; Generating lane line models based on the lane line information continuously acquired in a driving direction of the vehicle; And generating a lane including two adjacent lane lines among lane lines based on the generated lane line models.

제 3 측면에 따른 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램은, 차량에서, 3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득하는 단계; 상기 획득된 도로 영역 정보에서 인텐시티 값에 기초하여, 도로 표식 정보를 추출하는 단계; 상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 단계; 차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 단계; 및 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 단계를 포함하는 레인을 검출하는 방법을 수행할 수 있다.A computer program stored in a computer-readable storage medium according to a third aspect includes: in a vehicle, obtaining road area information from spatial information obtained by sensing a three-dimensional space; Extracting road marking information based on an intensity value from the obtained road area information; Obtaining lane line information by performing filtering based on lane line width information after clustering the extracted road marking information; Generating lane line models based on the lane line information continuously acquired in a driving direction of the vehicle; And generating a lane including two adjacent lane lines among lane lines based on the generated lane line models.

도 1은 일 실시예에 따른 차량의 구성을 나타낸 블록도이다.
도 2는 일 실시예에 따른 레인을 검출하는 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따라 공간 정보로부터 도로 영역 정보를 획득한 예를 나타낸 도면이다.
도 4는 일 실시예에 따라 도로 영역 정보에서 인텐시티 값에 기초하여 도로 표식 정보를 추출한 예를 나타낸 도면이다.
도 5는 일 실시예에 따라 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따라 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 과정을 설명하기 위한 상세 흐름도이다.
도 7a, 도 7b, 및 도 7c는 레인 라인 정보의 분포 거리에 따른 방향 추정 가능성과 레인 라인 정보의 분포 개수에 따른 방향 추정 가능성을 설명하기 위한 도면이다.
도 8은 일 실시예에 따라 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하는 과정을 설명하기 위한 도면이다.
도 9는 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 레인 라인 모델들을 소정의 곡선 모델들로 피팅하는 이유를 설명하기 위한 도면이다.
도 10은 일 실시예에 따라 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 과정을 설명하기 위한 상세 흐름도이다.
도 11은 일 실시예에 따라 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하여, 생성된 레인 모델들 중 동일한 레인을 구성하는 레인 모델들을 하나의 레인 모델로 병합하는 과정을 설명하기 위한 도면이다.
1 is a block diagram showing a configuration of a vehicle according to an exemplary embodiment.
2 is a flowchart illustrating a method of detecting a lane according to an exemplary embodiment.
3 is a diagram illustrating an example of obtaining road area information from spatial information according to an exemplary embodiment.
4 is a diagram illustrating an example of extracting road marking information based on an intensity value from road area information according to an embodiment.
FIG. 5 is a diagram illustrating a process of obtaining lane line information by performing filtering based on lane line width information after clustering road marking information according to an exemplary embodiment.
6 is a detailed flowchart illustrating a process of generating lane line models based on lane line information continuously acquired in a driving direction of a vehicle according to an exemplary embodiment.
7A, 7B, and 7C are diagrams for explaining a possibility of estimating a direction according to a distribution distance of lane line information and a possibility of estimating a direction according to the number of distributions of lane line information.
FIG. 8 is a diagram illustrating a process of updating an existing lane line model or adding a new lane line model based on lane line information continuously acquired in a driving direction of a vehicle according to an exemplary embodiment.
9 is a diagram for explaining a reason why lane line models are fitted to predetermined curve models using direction information of an entire road and lane line information of each lane line model.
10 is a detailed flowchart illustrating a process of generating a lane including two adjacent lane lines among lane lines based on lane line models generated according to an exemplary embodiment.
FIG. 11 is a diagram illustrating a process of generating lane models including two adjacent lane lines and merging lane models constituting the same lane among the generated lane models into one lane model, according to an exemplary embodiment.

이하에서는 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 이하에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략한다.Hereinafter, various embodiments will be described in detail with reference to the drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the features of the embodiments, detailed descriptions of matters widely known to those of ordinary skill in the art to which the following embodiments belong will be omitted.

본 실시예들은 레인을 검출하는 차량 및 방법, 그리고 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.The present embodiments relate to a vehicle and a method for detecting a lane, and a computer program stored in a computer-readable storage medium, and details that are widely known to those of ordinary skill in the art to which the following embodiments belong. The explanation is omitted.

도 1은 일 실시예에 따른 차량(100)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a vehicle 100 according to an embodiment.

차량(100)은 자율 주행 차량 또는 주행보조 시스템이 탑재된 차량일 수 있다. 차량(100)은 주행을 위하여, 라이다 장치와 같은 센서를 이용하여 주변의 3차원 공간에 대한 공간 정보를 획득하여, 차량(100)의 주행이 이루어지는 도로에서 레인을 검출할 수 있다.The vehicle 100 may be an autonomous vehicle or a vehicle equipped with a driving assistance system. For driving, the vehicle 100 may acquire spatial information on a surrounding 3D space using a sensor such as a lidar device to detect a lane on a road where the vehicle 100 is driven.

도 1을 참조하면, 일 실시예에 따른 차량(100)은 메모리(110), 프로세서(120), 통신 인터페이스 장치(130), 센서부(140), 사용자 인터페이스 장치(150)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. Referring to FIG. 1, a vehicle 100 according to an embodiment may include a memory 110, a processor 120, a communication interface device 130, a sensor unit 140, and a user interface device 150. . Those of ordinary skill in the art related to the present embodiment can see that other general-purpose components may be further included in addition to the components illustrated in FIG. 1.

메모리(110)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 예를 들어, 메모리(110)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 메모리(110)는 프로세서(120)에 의해 실행 가능한 명령어들을 저장할 수 있다. The memory 110 may store software and/or programs. For example, the memory 110 may store an application, a program such as an application programming interface (API), and various types of data. The memory 110 may store instructions executable by the processor 120.

프로세서(120)는 메모리(110)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(110)에 저장할 수 있다. 프로세서(120)는 메모리(110)에 저장된 명령어들을 실행할 수 있다. 프로세서(120)는 차량(100)에 설치된 컴퓨터 프로그램을 실행할 수 있다. 또한, 프로세서(120)는 외부로부터 수신한 컴퓨터 프로그램 또는 애플리케이션을 메모리(110)에 설치할 수도 있다. 프로세서(120)는 적어도 하나의 프로세싱 모듈을 포함할 수 있다. 프로세싱 모듈은 소정의 프로그램을 실행하기 위한 전용 프로세싱 모듈일 수 있다. 예를 들어, 프로세서(120)는 ADAS(Advanced Driver Assistance System)와 같이 자율주행을 위한 차량 제어 프로그램을 실행하는 다양한 종류의 프로세싱 모듈이나 3차원 공간 추적 프로그램을 실행하는 프로세싱 모듈을 각각 별도의 전용 칩 형태로 포함할 수 있다. 프로세서(120)는 명령어 또는 컴퓨터 프로그램 등의 실행 결과에 대응되는 동작을 수행하도록 차량(100)에 포함된 다른 구성들을 제어할 수 있다. The processor 120 may access and use data stored in the memory 110 or may store new data in the memory 110. The processor 120 may execute instructions stored in the memory 110. The processor 120 may execute a computer program installed in the vehicle 100. In addition, the processor 120 may install a computer program or application received from the outside in the memory 110. The processor 120 may include at least one processing module. The processing module may be a dedicated processing module for executing a predetermined program. For example, the processor 120 includes various types of processing modules that execute vehicle control programs for autonomous driving, such as ADAS (Advanced Driver Assistance System), or processing modules that execute a three-dimensional space tracking program, respectively, as separate dedicated chips. It can be included in the form. The processor 120 may control other components included in the vehicle 100 to perform an operation corresponding to an execution result such as a command or a computer program.

통신 인터페이스 장치(130)는 다른 장치 또는 네트워크와 무선 통신을 수행할 수 있다. 이를 위해, 통신 인터페이스 장치(130)는 다양한 무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, Wi-Fi(Wireless Fidelity)와 같은 근거리 통신, 3G, 4G, 5G 등과 같은 다양한 종류의 이동 통신 또는 초광대역 통신을 수행하는 통신 모듈이 포함될 수 있다. 통신 인터페이스 장치(130)는 차량(100)의 외부에 위치한 장치와 연결되어 신호 또는 데이터를 송수신할 수 있다. 차량(100)은 통신 인터페이스 장치(130)를 통해 다른 차량과 통신을 수행하거나, 차량(100)이 위치하는 구역을 관리하는 서버와도 연결될 수 있다.The communication interface device 130 may perform wireless communication with another device or network. To this end, the communication interface device 130 may include a communication module supporting at least one of various wireless communication methods. For example, a communication module that performs short-range communication such as Wi-Fi (Wireless Fidelity), various types of mobile communication such as 3G, 4G, 5G, or ultra-wideband communication may be included. The communication interface device 130 may be connected to a device located outside the vehicle 100 to transmit and receive signals or data. The vehicle 100 may communicate with other vehicles through the communication interface device 130 or may be connected to a server that manages an area in which the vehicle 100 is located.

센서부(140)는 3차원 공간을 감지하기 위한 적어도 하나의 센서를 포함할 수 있다. 센서부(140)는 감지 범위 내에 위치한 객체를 감지할 수 있고, 감지된 객체의 3차원 공간상의 좌표를 생성할 수 있는 데이터를 획득할 수 있다. 센서부(140)는 감지 범위 내에 위치한 객체에 대한 형상 데이터 또는 거리 데이터를 획득할 수 있다. 센서부(140)는 라이다(Light Detection and Ranging) 센서, 레이더(radar) 센서, 카메라 센서, 적외선 영상 센서, 초음파 센서 등과 같은 다양한 종류의 센서들 중 적어도 하나를 포함할 수 있다. The sensor unit 140 may include at least one sensor for sensing a 3D space. The sensor unit 140 may detect an object located within a detection range, and obtain data capable of generating coordinates of the detected object in a three-dimensional space. The sensor unit 140 may acquire shape data or distance data for an object located within the sensing range. The sensor unit 140 may include at least one of various types of sensors such as a light detection and ranging sensor, a radar sensor, a camera sensor, an infrared image sensor, and an ultrasonic sensor.

3차원 공간에 대한 공간 정보를 획득하기 위해, 각 종류의 센서가 가지고 있는 감지 범위나 획득할 수 있는 데이터의 종류 등을 고려하여, 동종의 센서를 복수 개 이용하거나, 이종의 센서들을 조합하여 이용할 수 있다. 예를 들어, 센서부(140)는 적어도 하나의 3차원 라이다 센서를 포함하여 360도 범위의 공간에 대한 데이터를 획득하고, 레이더 센서 및 초음파 센서 중 적어도 하나를 더 포함하여 3차원 라이다 센서가 감지할 수 없는 사각 영역 또는 차량(100)으로부터 소정의 거리 내의 근접 공간에 대한 데이터를 획득할 수 있다. In order to acquire spatial information on a three-dimensional space, a plurality of sensors of the same type or a combination of different types of sensors are used in consideration of the sensing range of each type of sensor or the type of data that can be obtained. I can. For example, the sensor unit 140 acquires data on a space in a range of 360 degrees including at least one 3D lidar sensor, and further includes at least one of a radar sensor and an ultrasonic sensor. It is possible to obtain data on a blind area that cannot be detected or a proximity space within a predetermined distance from the vehicle 100.

사용자 인터페이스 장치(150)는 사용자로부터 사용자 입력 등을 수신할 수 있다. 사용자 인터페이스 장치(150)는 차량(100)에서 컴퓨터 프로그램의 실행 결과, 사용자 입력에 대응되는 처리 결과, 차량(100)의 상태 등의 정보를 디스플레이할 수 있다. 사용자 인터페이스 장치(150)는 입력을 수신하거나 출력을 제공하기 위한 하드웨어 유닛들을 포함할 수 있으며, 이들을 구동하기 위한 전용 소프트웨어 모듈을 포함할 수도 있다. 예를 들어, 사용자 인터페이스 장치(150)는 터치 스크린이 될 수 있으나, 이에 한정되지 않는다. The user interface device 150 may receive a user input or the like from a user. The user interface device 150 may display information such as an execution result of a computer program in the vehicle 100, a processing result corresponding to a user input, and a state of the vehicle 100. The user interface device 150 may include hardware units for receiving inputs or providing outputs, and may include a dedicated software module for driving them. For example, the user interface device 150 may be a touch screen, but is not limited thereto.

도 1에 도시되지 않았으나, 차량(100)은 GPS(Global Positioning System), IMU(Inertial Measurement Units) 등과 같은 자율 주행에 요구되는 구성들을 더 포함할 수 있다. GPS는 GPS 위성에서 보내는 신호를 수신해 차량(100)의 현재 위치를 계산하는 위성항법시스템이다. IMU는 차량(100)의 속도와 방향, 중력, 가속도를 측정하는 장치이다. 프로세서(120)는 GPS와 IMU를 이용하여, 차량(100)의 이동 및 자세에 관련된 정보를 획득할 수 있다. 프로세서(120)는 차량(100)에 구비된 다른 센서나 메모리로부터 차량(100) 제어에 관련된 그 외의 정보들을 획득할 수도 있다.Although not shown in FIG. 1, the vehicle 100 may further include components required for autonomous driving, such as Global Positioning System (GPS) and Inertial Measurement Units (IMU). GPS is a satellite navigation system that calculates the current position of the vehicle 100 by receiving signals from GPS satellites. The IMU is a device that measures the speed, direction, gravity, and acceleration of the vehicle 100. The processor 120 may acquire information related to the movement and posture of the vehicle 100 using GPS and IMU. The processor 120 may acquire other information related to the control of the vehicle 100 from another sensor or memory provided in the vehicle 100.

전술한 차량(100)의 구성 요소들의 명칭은 달라질 수 있고, 차량(100)은 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다.The names of the components of the vehicle 100 described above may be different, and the vehicle 100 may be configured to include at least one of the aforementioned components, and some components may be omitted or additional other components may be added. Can include.

자율 주행 차량이나 주행보조 시스템이 탑재된 차량(100)은 라이다 센서를 이용하여 주변의 3차원 공간에 대한 공간 정보를 획득하여, 차량(100)의 주행이 이루어지는 도로에서 레인을 검출할 수 있다. 이하, 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 실시간으로 레인을 검출하는 방식에 대해 상세히 설명한다.An autonomous vehicle or vehicle 100 equipped with a driving assistance system may use a lidar sensor to obtain spatial information on a three-dimensional space around it, thereby detecting a lane on a road in which the vehicle 100 is driven. . Hereinafter, a method of detecting a lane in real time based on lane line information continuously acquired in the driving direction of the vehicle will be described in detail.

프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 적어도 하나의 센서를 이용하여 감지된 3차원 공간에 대한 공간 정보로부터 도로 영역 정보를 획득하고, 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하며, 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득할 수 있다. 도로 표식 정보는 레인의 경계선인 레인 라인, 제한 속도, 횡단 보도, 주행 방향 표시선 등 도로에 표시된 교통 정보 관련 표지들일 수 있다.The processor 120 acquires road area information from spatial information on a three-dimensional space sensed using at least one sensor by executing a computer-executable instruction, and based on an intensity value from the obtained road area information. Thus, lane line information may be obtained by extracting road marking information, clustering the extracted road marking information, and performing filtering based on lane line width information. The road marking information may be traffic information related signs displayed on a road, such as a lane line, a speed limit, a crosswalk, and a driving direction indicator line, which are lane boundaries.

프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 차량(100)의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 획득된 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하고, 획득된 레인 라인 정보의 분포 거리 및 분포 개수에 기초하여, 방향 추정이 가능한지 판단하여, 기존의 레인 라인 모델 또는 상기 새로운 레인 라인 모델의 방향을 결정할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 기존의 레인 라인 모델과 새로운 레인 라인 모델에 대해 레인 폭 정보에 기초한 레인 라인 모델 필터링을 수행하고, 레인 라인 모델 필터링이 수행된 레인 라인 모델의 방향을 결정할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 레인 라인 모델들을 소정의 곡선 모델들로 피팅(fitting)함으로써 레인 라인 모델들을 생성할 수 있다.The processor 120 may generate lane line models based on lane line information continuously acquired in the driving direction of the vehicle 100 by executing a computer executable command. The processor 120 updates the existing lane line model or adds a new lane line model based on the continuity of the obtained lane line information by executing a computer-executable instruction, and the distribution distance and distribution of the obtained lane line information Based on the number, it is possible to determine whether direction estimation is possible, and the direction of the existing lane line model or the new lane line model may be determined. The processor 120 executes a computer-executable instruction to perform lane line model filtering based on lane width information for the existing lane line model and the new lane line model, and the direction of the lane line model on which the lane line model filtering is performed. Can be determined. The processor 120 generates lane line models by fitting the lane line models into predetermined curve models using the direction information of the entire road and the lane line information of each lane line model by executing a computer-executable instruction. can do.

프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하고, 생성된 레인 모델들 중 동일한 레인을 구성하는 레인 모델들을 하나의 레인 모델로 병합할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 생성된 레인 모델들의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽(extrapolation)을 수행하고, 외삽을 수행함에 따라 확장된, 생성된 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는 경우, 겹치는 레인 모델들은 동일한 레인을 구성하는 것으로 판단하며, 동일한 레인을 구성하는 것으로 판단된 레인 모델들을 하나의 레인 모델로 병합할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 병합된 하나의 레인 모델의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 곡선 모델로 피팅을 수행할 수 있다.The processor 120 may generate a lane including two adjacent lane lines among lane lines based on the generated lane line models by executing a computer-executable instruction. The processor 120 executes a computer-executable instruction to compare a distance between two lane lines and a predetermined width information value among lane lines based on the generated lane line models, and a lane model consisting of two adjacent lane lines. Are generated, and lane models constituting the same lane among the generated lane models may be merged into one lane model. The processor 120 performs extrapolation on lane line models corresponding to both lane lines of the generated lane models by executing a computer-executable instruction, and the generated lane model, which is extended by performing the extrapolation. When each of the lanes overlaps each other by more than a predetermined criterion, it is determined that the overlapping lane models constitute the same lane, and the lane models determined to constitute the same lane may be merged into one lane model. The processor 120 may perform fitting of the lane line models corresponding to both lane lines of the merged one lane model into a curved model by executing a computer-executable instruction.

도 2는 일 실시예에 따른 레인을 검출하는 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method of detecting a lane according to an exemplary embodiment.

210 단계에서, 차량(100)은 3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득할 수 있다. 차량(100)은 라이다 센서를 이용하여 3차원 공간을 감지하고, 점군 형태의 공간 정보를 획득할 수 있다. 획득된 공간 정보에는 차량(100)이 이동하는 도로 영역 정보뿐만 아니라, 다른 차량, 건물, 보행자 등에 대한 정보도 함께 포함되기 때문에, 차량(100)은 획득된 공간 정보로부터 도로 영역 정보를 추출할 수 있다. 예를 들어, 차량(100)은 라이다 센서를 이용하여 획득한 점군 형태의 공간 정보를 복셀화(voxelization) 과정을 통해 정해진 크기의 균일한 정보로 샘플링할 수 있다. 차랑(100)은 샘플링된 복셀에서의 높이 값에 기초하여, 도로 영역 정보를 추출할 수 있다.In step 210, the vehicle 100 may acquire road area information from spatial information obtained by sensing a 3D space. The vehicle 100 may sense a three-dimensional space using a lidar sensor and obtain spatial information in the form of a point cloud. Since the acquired spatial information includes not only information on the road area on which the vehicle 100 moves, but also information on other vehicles, buildings, and pedestrians, the vehicle 100 can extract road area information from the acquired spatial information. have. For example, the vehicle 100 may sample spatial information in the form of a point cloud acquired using a lidar sensor as uniform information of a predetermined size through a voxelization process. The vehicle 100 may extract road area information based on a height value in the sampled voxels.

도 3은 일 실시예에 따라 공간 정보로부터 도로 영역 정보를 획득한 예를 나타낸 도면이다.3 is a diagram illustrating an example of obtaining road area information from spatial information according to an exemplary embodiment.

도 3을 참조하면, 점군 형태의 공간 정보에서 레인이 존재하는 지면 높이의 도로 영역 정보에 해당하는 점군을 추출한 것을 확인할 수 있다.Referring to FIG. 3, it can be seen that a point group corresponding to road area information of a ground height in which a lane exists is extracted from spatial information in the form of a point group.

다시 도 2를 참조하면, 220 단계에서, 차량(100)은 획득된 도로 영역 정보에서 인텐시티 값에 기초하여, 도로 표식 정보를 추출할 수 있다. 차량(100)은 도로 영역 정보에 해당하는 점군 중에서 각 점의 인텐시티 값에 기초하여, 레인 라인을 포함한 도로 표식 정보를 추출할 수 있다. 레인 라인, 제한 속도, 횡단 보도, 주행 방향 표시선 등 도로에 표시된 교통 정보 관련 표지들은 반사율이 높은 색 및 재료로 되어 있으므로, 인텐시티 값이 높은 점들을 추출함으로써, 도로 표식 정보를 추출할 수 있다.Referring back to FIG. 2, in step 220, the vehicle 100 may extract road marking information based on an intensity value from the obtained road area information. The vehicle 100 may extract road marking information including a lane line based on an intensity value of each point from a point group corresponding to the road area information. Since traffic information related signs displayed on the road, such as lane lines, speed limits, crosswalks, and driving direction indication lines, are made of colors and materials with high reflectivity, road marking information can be extracted by extracting points with high intensity values.

도 4는 일 실시예에 따라 도로 영역 정보에서 인텐시티 값에 기초하여 도로 표식 정보를 추출한 예를 나타낸 도면이다.4 is a diagram illustrating an example of extracting road marking information based on an intensity value from road area information according to an embodiment.

도 4를 참조하면, 왼쪽은 도로 영역 정보에 대응되는 점군의 분포를 나타내며, 오른쪽은 점군 중에서 높은 인텐시티 값을 갖는 점들을 구별하여 표시한 것이다. 이와 같이, 높은 인텐시티 값을 갖는 점들이 레인 라인에 해당될 수 있다. 다만, 레인 라인뿐만 아니라, 그 외 도로 위의 표식들도 높은 인텐시티 값을 갖기 때문에, 레인 라인에 해당하는 점군을 필터링하는 작업이 더 요구된다.Referring to FIG. 4, the left side shows the distribution of point groups corresponding to the road area information, and the right side shows points having a high intensity value among the point groups by distinguishing them. In this way, points having a high intensity value may correspond to lane lines. However, since not only the lane line but also the other signs on the road have a high intensity value, it is further required to filter the point group corresponding to the lane line.

다시 도 2를 참조하면, 230 단계에서, 차량(100)은 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득할 수 있다. 앞서, 설명한 바와 같이, 인텐시티 값만으로는 레인 라인에 해당하는 점군만을 추출해 낼 수 없기 때문에, 차량(100)은 추출된 도로 표식 정보에 대해, 가까운 점군끼리 클러스터링하고, 레인 라인의 폭 정보에 기초한 필터링을 수행하여, 일반적인 레인 라인의 폭이라고 볼 수 없는 폭을 가진 클러스터링된 점군을 제거할 수 있다. 예를 들어, 차량(100)은 도로 표식 정보에 대응되는 점군을 가까이 있는 점들끼리 클러스터링하고, 각 클러스터 안의 점들의 좌표의 최대값과 최소값의 차로 각 클러스터의 폭 정보를 구할 수 있다. 차량(100)은 각 클러스터에 대응되는 영역에 대해, 차량 진행 방향으로 클러스터 내의 점군의 폭을 확인하는 윈도우를 이동시켜가며, 폭이 소정의 값을 초과하는 점군을 제거함으로써, 레인 라인에 대응되는 점군을 획득할 수 있다.Referring back to FIG. 2, in step 230, the vehicle 100 may obtain lane line information by clustering the extracted road marking information and then performing filtering based on the width information of the lane line. As described above, since only the point group corresponding to the lane line cannot be extracted using only the intensity value, the vehicle 100 clusters nearby point groups on the extracted road marking information, and filtering based on the width information of the lane line is performed. By doing so, it is possible to remove clustered point groups having a width that cannot be regarded as the width of a general lane line. For example, the vehicle 100 may cluster a point group corresponding to the road marking information between adjacent points, and obtain width information of each cluster by a difference between the maximum and minimum coordinates of the points in each cluster. The vehicle 100 moves a window for checking the width of the point group in the cluster in the vehicle traveling direction for the area corresponding to each cluster, and removes the point group whose width exceeds a predetermined value, thereby corresponding to the lane line. Point group can be acquired.

도 5는 일 실시예에 따라 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a process of obtaining lane line information by performing filtering based on lane line width information after clustering road marking information according to an exemplary embodiment.

도 5를 참조하면, 도로 영역 정보에 해당하는 점군 형태의 공간 정보에서 인텐시티 값이 높은 도로 표식 정보를 추출하고, 도로 표식 정보에 대응되는 점군을 다시 클러스터링하여, 윈도우 서치를 통해, 각 클러스터의 폭 정보를 확인하는 것을 볼 수 있다. 도 5에서, W1의 폭을 가지는 클러스터는 폭이 일반적인 레인 라인의 폭의 범위에 해당하여 레인 라인 정보로 볼 수 있고, W2의 폭을 가지는 클러스터는 횡단보도에 해당하는 부분으로서, 폭이 일반적인 레인 라인의 폭의 범위를 벗어나기 때문에 필터링되어 제거될 수 있다. 다만, 이와 같이 획득한 레인 라인 정보에도 레인 라인이 아닌, 좌회전이나 직진 등의 주행 방향 표시 등이 포함되어 있을 수 있으므로, 이에 대해서는 이후 레인 라인 정보에 기초하여 레인 라인 모델을 생성하는 과정에서 다시 한번 필터링 과정을 수행할 수 있다.Referring to FIG. 5, road marking information having a high intensity value is extracted from spatial information in the form of a point cloud corresponding to road area information, and the point group corresponding to the road marking information is re-clustered, and the width of each cluster is performed through a window search. You can see the information confirmed. In FIG. 5, a cluster having a width of W1 corresponds to a range of the width of a general lane line and can be viewed as lane line information, and a cluster having a width of W2 corresponds to a crosswalk, and a lane having a general width. Because it is outside the range of the width of the line, it can be filtered and removed. However, since the lane line information obtained in this way may include not a lane line, but a driving direction indication such as a left turn or a straight line, this will be done once again in the process of generating a lane line model based on the lane line information. Filtering process can be performed.

다시 도 2를 참조하면, 240 단계에서, 차량(100)은 차량(100)의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성할 수 있다. 도 6 내지 도 9를 참조하여, 레인 라인 모델들을 생성하는 과정을 상세히 설명한다.Referring back to FIG. 2, in step 240, the vehicle 100 may generate lane line models based on lane line information continuously acquired in the driving direction of the vehicle 100. A process of generating lane line models will be described in detail with reference to FIGS. 6 to 9.

도 6은 일 실시예에 따라 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 과정을 설명하기 위한 상세 흐름도이다.6 is a detailed flowchart illustrating a process of generating lane line models based on lane line information continuously acquired in a driving direction of a vehicle according to an exemplary embodiment.

610 단계에서, 차량(100)은 획득된 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가할 수 있다. 차량(100)은 획득된 레인 라인 정보에 소정의 기준 이내로 가까운 레인 라인 모델이 있는지 확인하여, 기존의 레인 라인 모델을 확장하거나 새로운 레인 라인 모델을 추가할 수 있다. 다시 말해서, 기존의 레인 라인에 가까운 점들은 흡수하여 기존의 레인 라인을 연장하고, 기존의 레인 라인에 먼 점들은 그 점들을 시작점으로 하는 새로운 레인 라인을 생성할 수 있다. 레인 라인 모델은 흡수된 점들의 좌표들, 방향성을 갱신하기 위해 저장되는 점들의 좌표들, 그리고 현재의 레인 라인 모델의 방향성 값을 가질 수 있다. In step 610, the vehicle 100 may update an existing lane line model or add a new lane line model based on the continuity of the acquired lane line information. The vehicle 100 may check whether there is a lane line model close to within a predetermined criterion in the obtained lane line information, and expand an existing lane line model or add a new lane line model. In other words, points close to the existing lane line may be absorbed to extend the existing lane line, and points far from the existing lane line may generate a new lane line using the points as a starting point. The lane line model may have coordinates of absorbed points, coordinates of points stored to update a directionality, and a directional value of a current lane line model.

620 단계에서, 차량(100)은 기존의 레인 라인 모델과 새로운 레인 라인 모델에 대해 레인 폭 정보에 기초한 레인 라인 모델 필터링을 수행할 수 있다. 예를 들어, 레인 라인이 아닌, 좌회전이나 직진 등의 주행 방향 표시 등의 일부나 전체는 그 폭이 레인 라인의 폭과 비슷할 수도 있으므로, 앞서 도 2의 230 단계에서 설명한 레인 라인의 폭 정보에 기초한 필터링을 수행하더라도 제거되지 않을 수 있다. 따라서, 이와 같은 레인 라인이 아닌 도로 표식 정보를 제거하기 위해, 레인의 폭 정보에 기초한 레인 라인 모델 필터링을 수행할 수 있다. 인접하는 두 개의 레인 라인들 사이에는 하나의 레인이 존재하므로, 두 개의 레인 라인들 사이의 거리가 하나의 레인 폭 정도의 거리에 비해 너무 가까운 경우, 신뢰도가 낮은 레인 라인 모델은 제거될 수 있다. 레인 라인 모델의 신뢰도는 레인 라인 모델에 포함된 점들의 개수와 레인 라인 모델의 일관성에 기초하여 계산될 수 있다.In step 620, the vehicle 100 may perform lane line model filtering based on lane width information on the existing lane line model and the new lane line model. For example, not a lane line, but part or all of a driving direction indication such as a left turn or a straight line may have a width similar to the width of the lane line. Therefore, based on the width information of the lane line described in step 230 of FIG. Even if filtering is performed, it may not be removed. Accordingly, in order to remove the road marking information other than the lane line, filtering a lane line model based on the width information of the lane may be performed. Since one lane exists between two adjacent lane lines, if the distance between the two lane lines is too close to a distance of about the width of one lane, a lane line model with low reliability may be removed. The reliability of the lane line model may be calculated based on the number of points included in the lane line model and the consistency of the lane line model.

630 단계에서, 차량(100)은 획득된 레인 라인 정보의 분포 거리 및 분포 개수에 기초하여, 각 레인 라인 모델의 신뢰할 수 있는 방향 추정이 가능한지 판단할 수 있다. 레인 라인 모델의 방향성은 방향성을 갱신하기 위해 저장된 점들의 좌표들을 이용하여, 좌표들 간 직선을 맞춤으로서 계산이 될 수 있으며, 계산된 직선의 불확실성이 소정의 불확실성 값 이하이면 레인 라인 모델의 방향성이 갱신될 수 있다. 이산화된 점들의 분포 및 노이즈로 인하여, 레인 라인 모델의 잘못된 방향성이 계산되는 것을 방지하기 위함이다. 레인 라인 모델의 방향성이 갱신되면, 방향성을 갱신하기 위해 저장된 점들의 좌표는 삭제되고, 대신 다시 포함된 점들의 좌표를 저장할 수 있다.In step 630, the vehicle 100 may determine whether reliable direction estimation of each lane line model is possible based on the distribution distance and the number of distributions of the obtained lane line information. The direction of the lane line model can be calculated by aligning a straight line between the coordinates using the coordinates of the stored points to update the directionality.If the calculated uncertainty of the straight line is less than a predetermined uncertainty value, the direction of the lane line model is Can be updated. This is to prevent the misdirection of the lane line model from being calculated due to the distribution and noise of the discrete points. When the direction of the lane line model is updated, the coordinates of the points stored to update the direction are deleted, and instead, the coordinates of the included points may be stored.

도 7a, 도 7b, 및 도 7c는 레인 라인 정보의 분포 거리에 따른 방향 추정 가능성과 레인 라인 정보의 분포 개수에 따른 방향 추정 가능성을 설명하기 위한 도면이다.7A, 7B, and 7C are diagrams for explaining a possibility of estimating a direction according to a distribution distance of lane line information and a possibility of estimating a direction according to the number of distributions of lane line information.

도 7a와 도 7b를 비교해 보면, 레인 라인 정보에 포함된 점들의 분포 거리가 멀어짐에 따라 추정된 직선 방향성의 불확실성이 낮아지는 것을 알 수 있다. 도 7b와 도 7c를 보면, 레인 라인 정보에 포함된 점들의 분포 개수가 많아짐에 따라 추정된 직선 방향성의 불확실성이 낮아지는 것을 알 수 있다.Comparing FIGS. 7A and 7B, it can be seen that the uncertainty of the estimated linear direction decreases as the distribution distance of points included in the lane line information increases. 7B and 7C, it can be seen that as the number of distributions of points included in the lane line information increases, the uncertainty of the estimated linear direction decreases.

다시 도 6을 참조하면, 640 단계에서, 신뢰할 수 있는 방향 추정이 가능하면, 차량(100)은 획득된 레인 라인 정보에 기초하여, 레인 라인 모델의 방향을 결정할 수 있다.Referring back to FIG. 6, in step 640, if reliable direction estimation is possible, the vehicle 100 may determine the direction of the lane line model based on the obtained lane line information.

650 단계에서, 신뢰할 수 있는 방향 추정이 불가능하면, 차량(100)은 전체 도로의 방향 정보에 기초하여, 레인 라인 모델의 방향을 결정할 수 있다.In step 650, if reliable direction estimation is not possible, the vehicle 100 may determine the direction of the lane line model based on the direction information of the entire road.

660 단계에서, 차량(100)은 관심 영역의 레인 라인 정보 전체에 대한 윈도우 스캔이 완료되었는지 판단하여, 완료되지 않았으면, 윈도우 스캔을 더 수행하여 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 과정을 계속 수행할 수 있다. In step 660, the vehicle 100 determines whether a window scan for the entire lane line information of the ROI is completed, and if not, based on the lane line information obtained by further performing a window scan, the vehicle 100 determines the lane line models. You can continue the creation process.

도 8은 일 실시예에 따라 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating a process of updating an existing lane line model or adding a new lane line model based on lane line information continuously acquired in a driving direction of a vehicle according to an exemplary embodiment.

도 8을 참조하면, 차량(100)의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 과정이 나타나 있다. 관심 영역에 대해 윈도우를 설정하여, 윈도우를 차량(100)의 주행 방향으로 이동시키면서 검출되는 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하고, 각 레인 라인 모델을 확장해 나갈 수 있다. 차폐 영역이나 라이다 센서가 감지할 수 없었던 영역이 연속적으로 나타나는 경우, 레인 라인 모델의 확장을 종료할 수 있다.Referring to FIG. 8, a process of generating lane line models based on lane line information continuously acquired in a driving direction of the vehicle 100 is illustrated. By setting a window for the region of interest, based on the continuity of lane line information detected while moving the window in the driving direction of the vehicle 100, the existing lane line model is updated or a new lane line model is added, and each lane is The line model can be expanded. If the shielding area or the area that the lidar sensor could not detect appears continuously, the extension of the lane line model can be terminated.

한편, 차량(100)은 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성할 때, 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 레인 라인 모델들을 B-spline, polynomial spline과 같은 다양한 곡선 모델로 피팅할 수 있다. 차량(100)은 각 레인 라인 모델에 저장된 점들의 위치와 전반적인 방향성 정보를 이용하여, 오버피팅을 방지한 레인 라인 모델을 구할 수 있다.Meanwhile, when generating lane line models based on the lane line information continuously acquired in the driving direction of the vehicle, the vehicle 100 uses the direction information of the entire road and the lane line information of each lane line model. Models can be fitted with various curve models such as B-spline and polynomial spline. The vehicle 100 may obtain a lane line model that prevents overfitting by using the location of points and overall direction information stored in each lane line model.

도 9는 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 레인 라인 모델들을 소정의 곡선 모델들로 피팅하는 이유를 설명하기 위한 도면이다.9 is a diagram for explaining a reason why lane line models are fitted to predetermined curve models using direction information of an entire road and lane line information of each lane line model.

도 9를 참조하여, 레인 라인 모델을 위한 측정된 점들의 위치로만 구해진 곡선 모델과 점들의 위치와 각 위치에서의 방향성을 같이 이용해 추정된 모델을 비교하면, 전자의 경우, 이산화된 점들의 좌표 및 노이즈의 영향으로 오버피팅이 발생할 수 있고, 후자의 경우, 전반적인 방향성 정보를 같이 이용하여 오버피팅을 방지할 수 있음을 알 수 있다.Referring to FIG. 9, comparing a curve model obtained only from the positions of measured points for a lane line model and a model estimated using the positions of points and the directions at each position together. In the former case, the coordinates of the discrete points and It can be seen that overfitting may occur due to the influence of noise, and in the latter case, overfitting can be prevented by using the overall directional information together.

다시 도 2를 참조하면, 250 단계에서, 차량(100)은 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성할 수 있다. 도 10 내지 도 11을 참조하여, 레인을 생성하는 과정을 상세히 설명한다.Referring back to FIG. 2, in step 250, the vehicle 100 may generate a lane including two adjacent lane lines among lane lines based on the generated lane line models. A process of creating a lane will be described in detail with reference to FIGS. 10 to 11.

도 10은 일 실시예에 따라 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 과정을 설명하기 위한 상세 흐름도이다.10 is a detailed flowchart illustrating a process of generating a lane including two adjacent lane lines among lane lines based on lane line models generated according to an exemplary embodiment.

1010 단계에서, 차량(100)은 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성할 수 있다. 차량(100)은 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성할 수 있다. 두 레인 라인들 간의 거리가 하나의 레인의 폭에 해당하는 소정의 폭 정보 값의 범위 내이면, 그 두 레인 라인들로 이루어지는 하나의 레인에 대한 레인 모델을 생성할 수 있다.In operation 1010, the vehicle 100 may generate lane models including two adjacent lane lines among lane lines based on the generated lane line models. The vehicle 100 may generate lane models including two adjacent lane lines by comparing a distance between two lane lines and a predetermined width information value among lane lines based on the generated lane line models. If the distance between the two lane lines is within a range of a predetermined width information value corresponding to the width of one lane, a lane model for one lane composed of the two lane lines may be generated.

1020 단계에서, 차량(100)은 생성된 레인 모델들의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽을 수행할 수 있다.In step 1020, the vehicle 100 may perform extrapolation on lane line models corresponding to both lane lines of the generated lane models.

1030 단계에서, 차량(100)은 외삽을 수행함에 따라 확장된, 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는지 판단할 수 있다.In step 1030, the vehicle 100 may determine whether lanes of each of the expanded lane models overlap each other by more than a predetermined criterion as the extrapolation is performed.

1040 단계에서, 차량(100)은 소정의 기준 이상으로 서로 겹치는 레인들이 있으면, 이에 대응되는 레인 모델들은 동일한 레인을 구성하는 것으로 판단할 수 있다.In step 1040, if there are lanes that overlap each other by more than a predetermined criterion, the vehicle 100 may determine that lane models corresponding thereto constitute the same lane.

1050 단계에서, 차량(100)은 동일한 레인을 구성하는 것으로 판단된 레인 모델들을 하나의 레인 모델로 병합할 수 있다.In step 1050, the vehicle 100 may merge the lane models determined to form the same lane into one lane model.

한편, 병합된 하나의 레인 모델의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 곡선 모델로 피팅을 수행함으로써, 병합된 레인 전체에 대한 연속적인 레인 라인 모델을 생성할 수 있다.Meanwhile, by performing fitting with a curved model for lane line models corresponding to both lane lines of one merged lane model, a continuous lane line model for the entire merged lane may be generated.

1060 단계에서, 차량(100)은 모든 레인에 대해, 각 레인 라인 모델들에 대한 외삽을 수행하여, 동일한 레인을 구성하는 것으로 판단되는 레인 모델들 간의 병합이 완료되었는지 판단할 수 있다.In step 1060, the vehicle 100 may determine whether merging between lane models determined to constitute the same lane is completed by performing extrapolation for each lane line model for all lanes.

도 11은 일 실시예에 따라 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하여, 생성된 레인 모델들 중 동일한 레인을 구성하는 레인 모델들을 하나의 레인 모델로 병합하는 과정을 설명하기 위한 도면이다.FIG. 11 is a diagram illustrating a process of generating lane models including two adjacent lane lines and merging lane models constituting the same lane among the generated lane models into one lane model, according to an exemplary embodiment.

차폐 영역이나 라이다 센서가 도달할 수 없는 영역 등에 의해 레인 라인 정보가 획득되지 않은 영역으로 인하여, 레인 라인 모델들에 따른 레인 라인들이 서로 연속적이지 않으므로, 레인 라인들을 기반으로 생성되는 레인도 도 11에 도시된 바와 같이 끊겨서 생성될 수 있다. 도 11의 끊긴 부분과 관련하여, 각 레인의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대한 외삽을 수행함으로써, 확장되는 레인들이 서로 동일한 레인을 구성하는 것으로 판단되면, 각 레인의 레인 모델들을 하나의 레인 모델로 병합하여, 이어진 하나의 레인에 대한 레인 모델을 생성할 수 있다. 이와 같은 방식을 모든 레인들에 대해 적용하여, 전체 레인을 검출할 수 있다. Since the lane lines according to the lane line models are not continuous with each other due to an area in which lane line information is not obtained due to a shielding area or an area that cannot be reached by a lidar sensor, the lanes generated based on the lane lines are also shown in FIG. It can be created by breaking as shown in. With respect to the broken part of FIG. 11, if it is determined that the lanes that are extended constitute the same lane by performing extrapolation on the lane line models corresponding to both lane lines of each lane, the lane models of each lane are By merging into the lane model of, it is possible to generate a lane model for one continuous lane. By applying this method to all lanes, all lanes can be detected.

한편, 이어진 하나의 레인의 양쪽 레인 라인에 대해, 이어진 전체 길이의 레인 라인의 레인 라인 모델에 대한 곡선 피팅을 다시 해주어, 연속적인 레인 라인 모델을 생성할 수 있다. On the other hand, for both lane lines of one continuous lane, curve fitting for the lane line model of the continuous full length lane line may be performed again to generate a continuous lane line model.

상술한 실시예들 각각은 차량(100)에서, 레인을 검출하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다. 다시 말해서, 상술한 실시예들 각각은 차량(100)으로 하여금, 레인을 검출하는 소정의 단계들을 포함하는 방법을 실행시키기 위한 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다. Each of the above-described embodiments may be provided in the form of a computer program or application stored in a computer-readable storage medium that enables the vehicle 100 to perform a method of detecting a lane. In other words, each of the above-described embodiments may be provided in the form of a computer program or application stored in a computer-readable storage medium for causing the vehicle 100 to execute a method including predetermined steps of detecting a lane.

상술한 실시예들은 컴퓨터 또는 프로세서에 의하여 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터 판독 가능 저장매체의 형태로 구현될 수 있다. 상기 명령어 및 데이터 중 적어도 하나는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 이와 같은 컴퓨터 판독 가능 저장매체는 read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs, DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, 마그네틱 테이프, 플로피 디스크, 광자기 데이터 저장 장치, 광학 데이터 저장 장치, 하드 디스크, 솔리드-스테이트 디스크(SSD), 그리고 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 저장할 수 있고, 프로세서나 컴퓨터가 명령어를 실행할 수 있도록 프로세서나 컴퓨터에 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 제공할 수 있는 어떠한 장치라도 될 수 있다. The above-described embodiments may be implemented in the form of a computer-readable storage medium storing instructions and data executable by a computer or a processor. At least one of the command and data may be stored in the form of a program code, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. Such computer-readable storage media include read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, and DVD-ROMs. , DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, magnetic tapes, floppy disks, magneto-optical data storage devices, Optical data storage devices, hard disks, solid-state disks (SSDs), and can store instructions or software, related data, data files, and data structures, and can store instructions or instructions on a processor or computer so that the processor or computer can execute the instructions. It can be any device capable of providing software, associated data, data files, and data structures.

이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 발명의 범위는 전술한 실시예들의 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.So far, it looked at the center of the examples. Those of ordinary skill in the art to which the disclosed embodiments belong will be able to understand that the disclosed embodiments may be implemented in a modified form without departing from the essential characteristics. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the invention is shown in the claims rather than the description of the above-described embodiments, and all differences within the scope equivalent thereto should be construed as being included in the scope of the invention.

Claims (15)

적어도 하나의 센서를 이용하여 3차원 공간을 감지하고, 공간 정보를 출력하는 센서부;
컴퓨터 실행가능 명령어(computer executable instruction)를 저장하는 메모리; 및
상기 컴퓨터 실행가능 명령어를 실행함으로써,
상기 공간 정보로부터 도로 영역 정보를 획득하고, 상기 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하며, 상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하고, 차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하며, 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 프로세서를 포함하고,
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 상기 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하고, 상기 생성된 레인 모델들 각각의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽을 수행하고, 상기 외삽을 수행함에 따라 확장된 상기 생성된 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는 경우, 상기 겹치는 레인 모델들을 상기 하나의 레인 모델로 병합하여 상기 레인을 생성하는, 차량.
A sensor unit detecting a three-dimensional space using at least one sensor and outputting spatial information;
A memory storing computer executable instructions; And
By executing the computer executable instruction,
Road area information is obtained from the spatial information, road marking information is extracted based on an intensity value from the obtained road area information, the extracted road marking information is clustered, and the width of a lane line is ) Information-based filtering is performed to obtain lane line information, and lane line models are generated based on the lane line information continuously obtained in the driving direction of the vehicle, and a lane line based on the generated lane line models Including a processor for generating a lane consisting of two adjacent lane lines among them,
The processor,
By executing the computer-executable command, a distance between two lane lines among lane lines based on the generated lane line models and a predetermined width information value are compared to generate lane models composed of the two adjacent lane lines. Then, extrapolation is performed on the lane line models corresponding to both lane lines of each of the generated lane models, and the lanes of each of the generated lane models expanded by performing the extrapolation exceed a predetermined standard. When overlapping each other, the vehicle to generate the lane by merging the overlapping lane models into the one lane model.
제 1 항에 있어서,
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 획득된 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하고, 상기 획득된 레인 라인 정보의 분포 거리 및 분포 개수에 기초하여, 방향 추정이 가능한지 판단하여, 상기 기존의 레인 라인 모델 또는 상기 새로운 레인 라인 모델의 방향을 결정하는, 차량.
The method of claim 1,
The processor,
By executing the computer-executable instruction, based on the continuity of the obtained lane line information, an existing lane line model is updated or a new lane line model is added, and the distribution distance and the number of distributions of the obtained lane line information Based on the determination of whether a direction can be estimated, the vehicle to determine the direction of the existing lane line model or the new lane line model.
제 2 항에 있어서,
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 기존의 레인 라인 모델과 상기 새로운 레인 라인 모델에 대해 레인 폭 정보에 기초한 레인 라인 모델 필터링을 수행하고, 상기 레인 라인 모델 필터링이 수행된 레인 라인 모델의 방향을 결정하는, 차량.
The method of claim 2,
The processor,
By executing the computer-executable command, lane line model filtering based on lane width information is performed on the existing lane line model and the new lane line model, and the direction of the lane line model on which the lane line model filtering is performed is determined. Deciding, vehicle.
제 1 항에 있어서,
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 상기 레인 라인 모델들을 소정의 곡선 모델들로 피팅(fitting)함으로써 상기 레인 라인 모델들을 생성하는, 차량.
The method of claim 1,
The processor,
By executing the computer-executable instruction, generating the lane line models by fitting the lane line models into predetermined curve models using direction information of the entire road and lane line information of each lane line model, vehicle.
삭제delete 삭제delete 제 1 항에 있어서,
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 병합된 하나의 레인 모델의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 곡선 모델로 피팅을 수행하는, 차량.
The method of claim 1,
The processor,
The vehicle, by executing the computer-executable instruction, performing fitting into a curved model for lane line models corresponding to both lane lines of the merged one lane model.
3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득하는 단계;
상기 획득된 도로 영역 정보에서 인텐시티 값에 기초하여, 도로 표식 정보를 추출하는 단계;
상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 단계;
차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 단계; 및
상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 단계를 포함하고,
상기 레인을 생성하는 단계는,
상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 상기 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하는 단계;
상기 생성된 레인 모델들 각각의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽을 수행하는 단계; 및
상기 외삽을 수행함에 따라 확장된 상기 생성된 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는 경우, 상기 겹치는 레인 모델들을 하나의 레인 모델로 병합하는 단계를 포함하는 레인을 검출하는 방법.
Acquiring road area information from spatial information obtained by detecting a 3D space;
Extracting road marking information based on an intensity value from the obtained road area information;
Obtaining lane line information by performing filtering based on lane line width information after clustering the extracted road marking information;
Generating lane line models based on the lane line information continuously acquired in a driving direction of the vehicle; And
Including the step of generating a lane consisting of two adjacent lane lines among lane lines based on the generated lane line models,
The step of creating the lane,
Generating lane models including the two adjacent lane lines by comparing a distance between two lane lines based on the generated lane line models and a predetermined width information value;
Extrapolating lane line models corresponding to both lane lines of each of the generated lane models; And
And when the lanes of each of the generated lane models expanded by performing the extrapolation overlap each other by more than a predetermined criterion, merging the overlapping lane models into one lane model.
제 8 항에 있어서,
상기 레인 라인 모델들을 생성하는 단계는,
상기 획득된 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하는 단계; 및
상기 획득된 레인 라인 정보의 분포 거리 및 분포 개수에 기초하여, 방향 추정이 가능한지 판단하여, 상기 기존의 레인 라인 모델 또는 상기 새로운 레인 라인 모델의 방향을 결정하는 단계;
를 포함하는, 방법.
The method of claim 8,
Generating the lane line models,
Updating an existing lane line model or adding a new lane line model based on the continuity of the obtained lane line information; And
Determining whether direction estimation is possible based on the distribution distance and the number of distributions of the obtained lane line information, and determining a direction of the existing lane line model or the new lane line model;
Containing, the method.
제 9 항에 있어서,
상기 레인 라인 모델들을 생성하는 단계는,
상기 기존의 레인 라인 모델과 상기 새로운 레인 라인 모델에 대해 레인 폭 정보에 기초한 레인 라인 모델 필터링을 수행하는 단계를 더 포함하고,
상기 방향을 결정하는 단계는,
상기 레인 라인 모델 필터링이 수행된 레인 라인 모델의 방향을 결정하는, 방법.
The method of claim 9,
Generating the lane line models,
Further comprising the step of performing lane line model filtering based on lane width information for the existing lane line model and the new lane line model,
The step of determining the direction,
Determining the direction of the lane line model on which the lane line model filtering has been performed.
제 8 항에 있어서,
상기 레인 라인 모델들을 생성하는 단계는,
전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 상기 레인 라인 모델들을 소정의 곡선 모델들로 피팅함으로써 생성하는, 방법.
The method of claim 8,
Generating the lane line models,
A method of generating by fitting the lane line models into predetermined curve models using direction information of an entire road and lane line information of each lane line model.
삭제delete 삭제delete 제 8 항에 있어서,
상기 레인을 생성하는 단계는,
상기 병합된 하나의 레인 모델의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 곡선 모델로 피팅을 수행하는 단계를 더 포함하는, 방법.
The method of claim 8,
The step of creating the lane,
The method of claim 1, further comprising performing a fitting with a curved model for lane line models corresponding to both lane lines of the merged one lane model.
차량에서,
3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득하는 단계;
상기 획득된 도로 영역 정보에서 인텐시티 값에 기초하여, 도로 표식 정보를 추출하는 단계;
상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 단계; 및
차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 단계; 및
상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 단계를 포함하고,
상기 레인을 생성하는 단계는,
상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 상기 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하는 단계;
상기 생성된 레인 모델들 각각의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽을 수행하는 단계; 및
상기 외삽을 수행함에 따라 확장된 상기 생성된 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는 경우, 상기 겹치는 레인 모델들을 하나의 레인 모델로 병합하는 단계를 포함하는 레인을 검출하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램.
In the vehicle,
Acquiring road area information from spatial information obtained by detecting a 3D space;
Extracting road marking information based on an intensity value from the obtained road area information;
Obtaining lane line information by performing filtering based on lane line width information after clustering the extracted road marking information; And
Generating lane line models based on the lane line information continuously acquired in a driving direction of the vehicle; And
Including the step of generating a lane consisting of two adjacent lane lines among lane lines based on the generated lane line models,
The step of creating the lane,
Generating lane models including the two adjacent lane lines by comparing a distance between two lane lines based on the generated lane line models and a predetermined width information value;
Extrapolating lane line models corresponding to both lane lines of each of the generated lane models; And
When the lanes of each of the generated lane models expanded by performing the extrapolation overlap each other by more than a predetermined criterion, a method of detecting a lane comprising the step of merging the overlapping lane models into one lane model is performed. A computer program stored on a computer-readable storage medium that allows you to
KR1020190120131A 2019-09-27 2019-09-27 Vehicle and method for detecting lane KR102255924B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190120131A KR102255924B1 (en) 2019-09-27 2019-09-27 Vehicle and method for detecting lane
PCT/KR2019/013501 WO2021060599A1 (en) 2019-09-27 2019-10-15 Vehicle and method for detecting lane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190120131A KR102255924B1 (en) 2019-09-27 2019-09-27 Vehicle and method for detecting lane

Publications (2)

Publication Number Publication Date
KR20210037468A KR20210037468A (en) 2021-04-06
KR102255924B1 true KR102255924B1 (en) 2021-05-25

Family

ID=75165034

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190120131A KR102255924B1 (en) 2019-09-27 2019-09-27 Vehicle and method for detecting lane

Country Status (2)

Country Link
KR (1) KR102255924B1 (en)
WO (1) WO2021060599A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113591618B (en) * 2021-07-14 2024-02-20 重庆长安汽车股份有限公司 Method, system, vehicle and storage medium for estimating shape of road ahead
CN116153057A (en) * 2022-09-12 2023-05-23 东北林业大学 Method for estimating lane width based on laser radar point cloud

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150165972A1 (en) * 2012-06-19 2015-06-18 Toyota Jidosha Kabushiki Kaisha Roadside object detection apparatus
WO2018126228A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Sign and lane creation for high definition maps used for autonomous vehicles

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170104287A (en) * 2016-03-07 2017-09-15 한국전자통신연구원 Driving area recognition apparatus and method for recognizing driving area thereof
KR102372390B1 (en) * 2017-06-20 2022-03-08 현대모비스 주식회사 Lane recognition apparatus and method thereof
KR101998584B1 (en) * 2017-11-15 2019-07-10 전자부품연구원 Lane detection apparatus and lane detection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150165972A1 (en) * 2012-06-19 2015-06-18 Toyota Jidosha Kabushiki Kaisha Roadside object detection apparatus
WO2018126228A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Sign and lane creation for high definition maps used for autonomous vehicles

Also Published As

Publication number Publication date
KR20210037468A (en) 2021-04-06
WO2021060599A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
EP3673407B1 (en) Automatic occlusion detection in road network data
CN107145578B (en) Map construction method, device, equipment and system
US10260892B2 (en) Data structure of environment map, environment map preparing system and method, and environment map updating system and method
US11346682B2 (en) Augmented 3D map
JP6469220B2 (en) Traveling lane discrimination device and traveling lane discrimination method
JP6325806B2 (en) Vehicle position estimation system
KR102338370B1 (en) Vehicle and sensing device of utilizing spatial information acquired using sensor, and server for the same
US20180154901A1 (en) Method and system for localizing a vehicle
US10782411B2 (en) Vehicle pose system
US11668573B2 (en) Map selection for vehicle pose system
AU2020356082B2 (en) Vehicle and method for generating map corresponding to three-dimensional space
JPWO2018221454A1 (en) Map creation device, control method, program, and storage medium
KR102255924B1 (en) Vehicle and method for detecting lane
WO2020156923A2 (en) Map and method for creating a map
US10436582B2 (en) Device orientation detection
EP4105908A1 (en) Method, apparatus, server, and computer program for collision accident prevention
CN113450455A (en) Method, device and computer program product for generating a map of road links of a parking lot
US20220234621A1 (en) Augmented 3d map
US11215459B2 (en) Object recognition device, object recognition method and program
KR102543871B1 (en) Method and system for updating road information changes in map data
US20210048819A1 (en) Apparatus and method for determining junction
US20210407114A1 (en) Systems and methods for transferring map data between different maps
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
JPWO2020054293A1 (en) Judgment method and judgment device
US20230236021A1 (en) Information processing device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant