KR102255924B1 - Vehicle and method for detecting lane - Google Patents
Vehicle and method for detecting lane Download PDFInfo
- Publication number
- KR102255924B1 KR102255924B1 KR1020190120131A KR20190120131A KR102255924B1 KR 102255924 B1 KR102255924 B1 KR 102255924B1 KR 1020190120131 A KR1020190120131 A KR 1020190120131A KR 20190120131 A KR20190120131 A KR 20190120131A KR 102255924 B1 KR102255924 B1 KR 102255924B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- lane line
- information
- models
- model
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000001914 filtration Methods 0.000 claims abstract description 22
- 238000009826 distribution Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 10
- 238000013213 extrapolation Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 238000004883 computer application Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
Images
Classifications
-
- G06K9/00798—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G06K9/00201—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
적어도 하나의 센서를 이용하여 3차원 공간을 감지하고, 공간 정보를 출력하는 센서부, 컴퓨터 실행가능 명령어(computer executable instruction)를 저장하는 메모리, 및 컴퓨터 실행가능 명령어를 실행함으로써, 획득한 공간 정보로부터 도로 영역 정보를 획득하고, 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하며, 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하고, 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하며, 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 프로세서를 포함하는 차량이 개시된다.From spatial information obtained by detecting a three-dimensional space using at least one sensor, a sensor unit that outputs spatial information, a memory storing a computer executable instruction, and a computer executable instruction Acquire road area information, extract road marking information based on an intensity value from the obtained road area information, cluster the extracted road marking information, and perform filtering based on lane line width information. To obtain lane line information by performing the operation, generate lane line models based on the lane line information continuously obtained in the driving direction of the vehicle, and use two adjacent lane lines among the lane lines based on the generated lane line models. Disclosed is a vehicle comprising a processor for generating lanes made.
Description
레인을 검출하는 차량 및 방법에 관한 것이다.It relates to a vehicle and method for detecting lanes.
자율 주행 차량 또는 주행보조 시스템에서, 차량의 주행이 이루어지는 이동로에 있는 레인을 검출하는 것이 중요하다. 카메라의 이미지를 활용하여 레인을 검출하는 방식은 차량의 실제 주행에 활용하기 위해 3차원 형태의 정보로 가공하는 과정에서 오차가 발생될 수 있다. 미리 준비된 고해상도 맵을 이용하여 레인을 검출하는 방식은 차량에 방대한 양의 데이터를 저장할 리소스 문제와 실시간으로 변화되는 상황을 반영하기 위해 고해상도 맵의 지속적인 업데이트를 해야 하는 문제가 있다. In an autonomous vehicle or a driving assistance system, it is important to detect a lane in a moving path in which the vehicle is driven. A method of detecting a lane using an image of a camera may cause an error in the process of processing information in a three-dimensional form for use in actual driving of a vehicle. The method of detecting lanes using a pre-prepared high-resolution map has a problem in that there is a problem of resources to store a large amount of data in the vehicle and a problem in that the high-resolution map must be continuously updated to reflect a situation that changes in real time.
차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 실시간으로 레인을 검출하는 차량 및 방법, 그리고 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 제공하는 것이다.A vehicle and a method for detecting lanes in real time based on lane line information continuously acquired in a driving direction of a vehicle, and a computer program stored in a computer-readable storage medium are provided.
제 1 측면에 따른 차량은, 적어도 하나의 센서를 이용하여 3차원 공간을 감지하고, 공간 정보를 출력하는 센서부; 컴퓨터 실행가능 명령어(computer executable instruction)를 저장하는 메모리; 및 상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 획득한 공간 정보로부터 도로 영역 정보를 획득하고, 상기 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하며, 상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하고, 차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하며, 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 프로세서를 포함할 수 있다.A vehicle according to a first aspect includes: a sensor unit configured to sense a three-dimensional space using at least one sensor and output spatial information; A memory storing computer executable instructions; And by executing the computer-executable command, obtaining road area information from the obtained spatial information, extracting road marking information based on an intensity value from the obtained road area information, and extracting the extracted road area information. After clustering the mark information, filtering is performed based on lane line width information to obtain lane line information, and lane line models are generated based on the lane line information successively obtained in the driving direction of the vehicle. And a processor for generating a lane comprising two adjacent lane lines among lane lines based on the generated lane line models.
제 2 측면에 따른 레인을 검출하는 방법은, 3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득하는 단계; 상기 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하는 단계; 상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 단계; 차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 단계; 및 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 단계를 포함할 수 있다.A method of detecting a lane according to a second aspect includes: obtaining road area information from spatial information obtained by detecting a three-dimensional space; Extracting road marking information based on an intensity value from the obtained road area information; Obtaining lane line information by performing filtering based on lane line width information after clustering the extracted road marking information; Generating lane line models based on the lane line information continuously acquired in a driving direction of the vehicle; And generating a lane including two adjacent lane lines among lane lines based on the generated lane line models.
제 3 측면에 따른 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램은, 차량에서, 3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득하는 단계; 상기 획득된 도로 영역 정보에서 인텐시티 값에 기초하여, 도로 표식 정보를 추출하는 단계; 상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 단계; 차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 단계; 및 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 단계를 포함하는 레인을 검출하는 방법을 수행할 수 있다.A computer program stored in a computer-readable storage medium according to a third aspect includes: in a vehicle, obtaining road area information from spatial information obtained by sensing a three-dimensional space; Extracting road marking information based on an intensity value from the obtained road area information; Obtaining lane line information by performing filtering based on lane line width information after clustering the extracted road marking information; Generating lane line models based on the lane line information continuously acquired in a driving direction of the vehicle; And generating a lane including two adjacent lane lines among lane lines based on the generated lane line models.
도 1은 일 실시예에 따른 차량의 구성을 나타낸 블록도이다.
도 2는 일 실시예에 따른 레인을 검출하는 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따라 공간 정보로부터 도로 영역 정보를 획득한 예를 나타낸 도면이다.
도 4는 일 실시예에 따라 도로 영역 정보에서 인텐시티 값에 기초하여 도로 표식 정보를 추출한 예를 나타낸 도면이다.
도 5는 일 실시예에 따라 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따라 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 과정을 설명하기 위한 상세 흐름도이다.
도 7a, 도 7b, 및 도 7c는 레인 라인 정보의 분포 거리에 따른 방향 추정 가능성과 레인 라인 정보의 분포 개수에 따른 방향 추정 가능성을 설명하기 위한 도면이다.
도 8은 일 실시예에 따라 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하는 과정을 설명하기 위한 도면이다.
도 9는 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 레인 라인 모델들을 소정의 곡선 모델들로 피팅하는 이유를 설명하기 위한 도면이다.
도 10은 일 실시예에 따라 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 과정을 설명하기 위한 상세 흐름도이다.
도 11은 일 실시예에 따라 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하여, 생성된 레인 모델들 중 동일한 레인을 구성하는 레인 모델들을 하나의 레인 모델로 병합하는 과정을 설명하기 위한 도면이다.1 is a block diagram showing a configuration of a vehicle according to an exemplary embodiment.
2 is a flowchart illustrating a method of detecting a lane according to an exemplary embodiment.
3 is a diagram illustrating an example of obtaining road area information from spatial information according to an exemplary embodiment.
4 is a diagram illustrating an example of extracting road marking information based on an intensity value from road area information according to an embodiment.
FIG. 5 is a diagram illustrating a process of obtaining lane line information by performing filtering based on lane line width information after clustering road marking information according to an exemplary embodiment.
6 is a detailed flowchart illustrating a process of generating lane line models based on lane line information continuously acquired in a driving direction of a vehicle according to an exemplary embodiment.
7A, 7B, and 7C are diagrams for explaining a possibility of estimating a direction according to a distribution distance of lane line information and a possibility of estimating a direction according to the number of distributions of lane line information.
FIG. 8 is a diagram illustrating a process of updating an existing lane line model or adding a new lane line model based on lane line information continuously acquired in a driving direction of a vehicle according to an exemplary embodiment.
9 is a diagram for explaining a reason why lane line models are fitted to predetermined curve models using direction information of an entire road and lane line information of each lane line model.
10 is a detailed flowchart illustrating a process of generating a lane including two adjacent lane lines among lane lines based on lane line models generated according to an exemplary embodiment.
FIG. 11 is a diagram illustrating a process of generating lane models including two adjacent lane lines and merging lane models constituting the same lane among the generated lane models into one lane model, according to an exemplary embodiment.
이하에서는 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 이하에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략한다.Hereinafter, various embodiments will be described in detail with reference to the drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the features of the embodiments, detailed descriptions of matters widely known to those of ordinary skill in the art to which the following embodiments belong will be omitted.
본 실시예들은 레인을 검출하는 차량 및 방법, 그리고 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.The present embodiments relate to a vehicle and a method for detecting a lane, and a computer program stored in a computer-readable storage medium, and details that are widely known to those of ordinary skill in the art to which the following embodiments belong. The explanation is omitted.
도 1은 일 실시예에 따른 차량(100)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a
차량(100)은 자율 주행 차량 또는 주행보조 시스템이 탑재된 차량일 수 있다. 차량(100)은 주행을 위하여, 라이다 장치와 같은 센서를 이용하여 주변의 3차원 공간에 대한 공간 정보를 획득하여, 차량(100)의 주행이 이루어지는 도로에서 레인을 검출할 수 있다.The
도 1을 참조하면, 일 실시예에 따른 차량(100)은 메모리(110), 프로세서(120), 통신 인터페이스 장치(130), 센서부(140), 사용자 인터페이스 장치(150)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. Referring to FIG. 1, a
메모리(110)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 예를 들어, 메모리(110)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 메모리(110)는 프로세서(120)에 의해 실행 가능한 명령어들을 저장할 수 있다. The
프로세서(120)는 메모리(110)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(110)에 저장할 수 있다. 프로세서(120)는 메모리(110)에 저장된 명령어들을 실행할 수 있다. 프로세서(120)는 차량(100)에 설치된 컴퓨터 프로그램을 실행할 수 있다. 또한, 프로세서(120)는 외부로부터 수신한 컴퓨터 프로그램 또는 애플리케이션을 메모리(110)에 설치할 수도 있다. 프로세서(120)는 적어도 하나의 프로세싱 모듈을 포함할 수 있다. 프로세싱 모듈은 소정의 프로그램을 실행하기 위한 전용 프로세싱 모듈일 수 있다. 예를 들어, 프로세서(120)는 ADAS(Advanced Driver Assistance System)와 같이 자율주행을 위한 차량 제어 프로그램을 실행하는 다양한 종류의 프로세싱 모듈이나 3차원 공간 추적 프로그램을 실행하는 프로세싱 모듈을 각각 별도의 전용 칩 형태로 포함할 수 있다. 프로세서(120)는 명령어 또는 컴퓨터 프로그램 등의 실행 결과에 대응되는 동작을 수행하도록 차량(100)에 포함된 다른 구성들을 제어할 수 있다. The
통신 인터페이스 장치(130)는 다른 장치 또는 네트워크와 무선 통신을 수행할 수 있다. 이를 위해, 통신 인터페이스 장치(130)는 다양한 무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, Wi-Fi(Wireless Fidelity)와 같은 근거리 통신, 3G, 4G, 5G 등과 같은 다양한 종류의 이동 통신 또는 초광대역 통신을 수행하는 통신 모듈이 포함될 수 있다. 통신 인터페이스 장치(130)는 차량(100)의 외부에 위치한 장치와 연결되어 신호 또는 데이터를 송수신할 수 있다. 차량(100)은 통신 인터페이스 장치(130)를 통해 다른 차량과 통신을 수행하거나, 차량(100)이 위치하는 구역을 관리하는 서버와도 연결될 수 있다.The
센서부(140)는 3차원 공간을 감지하기 위한 적어도 하나의 센서를 포함할 수 있다. 센서부(140)는 감지 범위 내에 위치한 객체를 감지할 수 있고, 감지된 객체의 3차원 공간상의 좌표를 생성할 수 있는 데이터를 획득할 수 있다. 센서부(140)는 감지 범위 내에 위치한 객체에 대한 형상 데이터 또는 거리 데이터를 획득할 수 있다. 센서부(140)는 라이다(Light Detection and Ranging) 센서, 레이더(radar) 센서, 카메라 센서, 적외선 영상 센서, 초음파 센서 등과 같은 다양한 종류의 센서들 중 적어도 하나를 포함할 수 있다. The
3차원 공간에 대한 공간 정보를 획득하기 위해, 각 종류의 센서가 가지고 있는 감지 범위나 획득할 수 있는 데이터의 종류 등을 고려하여, 동종의 센서를 복수 개 이용하거나, 이종의 센서들을 조합하여 이용할 수 있다. 예를 들어, 센서부(140)는 적어도 하나의 3차원 라이다 센서를 포함하여 360도 범위의 공간에 대한 데이터를 획득하고, 레이더 센서 및 초음파 센서 중 적어도 하나를 더 포함하여 3차원 라이다 센서가 감지할 수 없는 사각 영역 또는 차량(100)으로부터 소정의 거리 내의 근접 공간에 대한 데이터를 획득할 수 있다. In order to acquire spatial information on a three-dimensional space, a plurality of sensors of the same type or a combination of different types of sensors are used in consideration of the sensing range of each type of sensor or the type of data that can be obtained. I can. For example, the
사용자 인터페이스 장치(150)는 사용자로부터 사용자 입력 등을 수신할 수 있다. 사용자 인터페이스 장치(150)는 차량(100)에서 컴퓨터 프로그램의 실행 결과, 사용자 입력에 대응되는 처리 결과, 차량(100)의 상태 등의 정보를 디스플레이할 수 있다. 사용자 인터페이스 장치(150)는 입력을 수신하거나 출력을 제공하기 위한 하드웨어 유닛들을 포함할 수 있으며, 이들을 구동하기 위한 전용 소프트웨어 모듈을 포함할 수도 있다. 예를 들어, 사용자 인터페이스 장치(150)는 터치 스크린이 될 수 있으나, 이에 한정되지 않는다. The
도 1에 도시되지 않았으나, 차량(100)은 GPS(Global Positioning System), IMU(Inertial Measurement Units) 등과 같은 자율 주행에 요구되는 구성들을 더 포함할 수 있다. GPS는 GPS 위성에서 보내는 신호를 수신해 차량(100)의 현재 위치를 계산하는 위성항법시스템이다. IMU는 차량(100)의 속도와 방향, 중력, 가속도를 측정하는 장치이다. 프로세서(120)는 GPS와 IMU를 이용하여, 차량(100)의 이동 및 자세에 관련된 정보를 획득할 수 있다. 프로세서(120)는 차량(100)에 구비된 다른 센서나 메모리로부터 차량(100) 제어에 관련된 그 외의 정보들을 획득할 수도 있다.Although not shown in FIG. 1, the
전술한 차량(100)의 구성 요소들의 명칭은 달라질 수 있고, 차량(100)은 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다.The names of the components of the
자율 주행 차량이나 주행보조 시스템이 탑재된 차량(100)은 라이다 센서를 이용하여 주변의 3차원 공간에 대한 공간 정보를 획득하여, 차량(100)의 주행이 이루어지는 도로에서 레인을 검출할 수 있다. 이하, 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 실시간으로 레인을 검출하는 방식에 대해 상세히 설명한다.An autonomous vehicle or
프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 적어도 하나의 센서를 이용하여 감지된 3차원 공간에 대한 공간 정보로부터 도로 영역 정보를 획득하고, 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하며, 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득할 수 있다. 도로 표식 정보는 레인의 경계선인 레인 라인, 제한 속도, 횡단 보도, 주행 방향 표시선 등 도로에 표시된 교통 정보 관련 표지들일 수 있다.The
프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 차량(100)의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 획득된 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하고, 획득된 레인 라인 정보의 분포 거리 및 분포 개수에 기초하여, 방향 추정이 가능한지 판단하여, 기존의 레인 라인 모델 또는 상기 새로운 레인 라인 모델의 방향을 결정할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 기존의 레인 라인 모델과 새로운 레인 라인 모델에 대해 레인 폭 정보에 기초한 레인 라인 모델 필터링을 수행하고, 레인 라인 모델 필터링이 수행된 레인 라인 모델의 방향을 결정할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 레인 라인 모델들을 소정의 곡선 모델들로 피팅(fitting)함으로써 레인 라인 모델들을 생성할 수 있다.The
프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하고, 생성된 레인 모델들 중 동일한 레인을 구성하는 레인 모델들을 하나의 레인 모델로 병합할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 생성된 레인 모델들의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽(extrapolation)을 수행하고, 외삽을 수행함에 따라 확장된, 생성된 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는 경우, 겹치는 레인 모델들은 동일한 레인을 구성하는 것으로 판단하며, 동일한 레인을 구성하는 것으로 판단된 레인 모델들을 하나의 레인 모델로 병합할 수 있다. 프로세서(120)는 컴퓨터 실행가능 명령어를 실행함으로써, 병합된 하나의 레인 모델의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 곡선 모델로 피팅을 수행할 수 있다.The
도 2는 일 실시예에 따른 레인을 검출하는 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method of detecting a lane according to an exemplary embodiment.
210 단계에서, 차량(100)은 3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득할 수 있다. 차량(100)은 라이다 센서를 이용하여 3차원 공간을 감지하고, 점군 형태의 공간 정보를 획득할 수 있다. 획득된 공간 정보에는 차량(100)이 이동하는 도로 영역 정보뿐만 아니라, 다른 차량, 건물, 보행자 등에 대한 정보도 함께 포함되기 때문에, 차량(100)은 획득된 공간 정보로부터 도로 영역 정보를 추출할 수 있다. 예를 들어, 차량(100)은 라이다 센서를 이용하여 획득한 점군 형태의 공간 정보를 복셀화(voxelization) 과정을 통해 정해진 크기의 균일한 정보로 샘플링할 수 있다. 차랑(100)은 샘플링된 복셀에서의 높이 값에 기초하여, 도로 영역 정보를 추출할 수 있다.In step 210, the
도 3은 일 실시예에 따라 공간 정보로부터 도로 영역 정보를 획득한 예를 나타낸 도면이다.3 is a diagram illustrating an example of obtaining road area information from spatial information according to an exemplary embodiment.
도 3을 참조하면, 점군 형태의 공간 정보에서 레인이 존재하는 지면 높이의 도로 영역 정보에 해당하는 점군을 추출한 것을 확인할 수 있다.Referring to FIG. 3, it can be seen that a point group corresponding to road area information of a ground height in which a lane exists is extracted from spatial information in the form of a point group.
다시 도 2를 참조하면, 220 단계에서, 차량(100)은 획득된 도로 영역 정보에서 인텐시티 값에 기초하여, 도로 표식 정보를 추출할 수 있다. 차량(100)은 도로 영역 정보에 해당하는 점군 중에서 각 점의 인텐시티 값에 기초하여, 레인 라인을 포함한 도로 표식 정보를 추출할 수 있다. 레인 라인, 제한 속도, 횡단 보도, 주행 방향 표시선 등 도로에 표시된 교통 정보 관련 표지들은 반사율이 높은 색 및 재료로 되어 있으므로, 인텐시티 값이 높은 점들을 추출함으로써, 도로 표식 정보를 추출할 수 있다.Referring back to FIG. 2, in
도 4는 일 실시예에 따라 도로 영역 정보에서 인텐시티 값에 기초하여 도로 표식 정보를 추출한 예를 나타낸 도면이다.4 is a diagram illustrating an example of extracting road marking information based on an intensity value from road area information according to an embodiment.
도 4를 참조하면, 왼쪽은 도로 영역 정보에 대응되는 점군의 분포를 나타내며, 오른쪽은 점군 중에서 높은 인텐시티 값을 갖는 점들을 구별하여 표시한 것이다. 이와 같이, 높은 인텐시티 값을 갖는 점들이 레인 라인에 해당될 수 있다. 다만, 레인 라인뿐만 아니라, 그 외 도로 위의 표식들도 높은 인텐시티 값을 갖기 때문에, 레인 라인에 해당하는 점군을 필터링하는 작업이 더 요구된다.Referring to FIG. 4, the left side shows the distribution of point groups corresponding to the road area information, and the right side shows points having a high intensity value among the point groups by distinguishing them. In this way, points having a high intensity value may correspond to lane lines. However, since not only the lane line but also the other signs on the road have a high intensity value, it is further required to filter the point group corresponding to the lane line.
다시 도 2를 참조하면, 230 단계에서, 차량(100)은 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득할 수 있다. 앞서, 설명한 바와 같이, 인텐시티 값만으로는 레인 라인에 해당하는 점군만을 추출해 낼 수 없기 때문에, 차량(100)은 추출된 도로 표식 정보에 대해, 가까운 점군끼리 클러스터링하고, 레인 라인의 폭 정보에 기초한 필터링을 수행하여, 일반적인 레인 라인의 폭이라고 볼 수 없는 폭을 가진 클러스터링된 점군을 제거할 수 있다. 예를 들어, 차량(100)은 도로 표식 정보에 대응되는 점군을 가까이 있는 점들끼리 클러스터링하고, 각 클러스터 안의 점들의 좌표의 최대값과 최소값의 차로 각 클러스터의 폭 정보를 구할 수 있다. 차량(100)은 각 클러스터에 대응되는 영역에 대해, 차량 진행 방향으로 클러스터 내의 점군의 폭을 확인하는 윈도우를 이동시켜가며, 폭이 소정의 값을 초과하는 점군을 제거함으로써, 레인 라인에 대응되는 점군을 획득할 수 있다.Referring back to FIG. 2, in
도 5는 일 실시예에 따라 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a process of obtaining lane line information by performing filtering based on lane line width information after clustering road marking information according to an exemplary embodiment.
도 5를 참조하면, 도로 영역 정보에 해당하는 점군 형태의 공간 정보에서 인텐시티 값이 높은 도로 표식 정보를 추출하고, 도로 표식 정보에 대응되는 점군을 다시 클러스터링하여, 윈도우 서치를 통해, 각 클러스터의 폭 정보를 확인하는 것을 볼 수 있다. 도 5에서, W1의 폭을 가지는 클러스터는 폭이 일반적인 레인 라인의 폭의 범위에 해당하여 레인 라인 정보로 볼 수 있고, W2의 폭을 가지는 클러스터는 횡단보도에 해당하는 부분으로서, 폭이 일반적인 레인 라인의 폭의 범위를 벗어나기 때문에 필터링되어 제거될 수 있다. 다만, 이와 같이 획득한 레인 라인 정보에도 레인 라인이 아닌, 좌회전이나 직진 등의 주행 방향 표시 등이 포함되어 있을 수 있으므로, 이에 대해서는 이후 레인 라인 정보에 기초하여 레인 라인 모델을 생성하는 과정에서 다시 한번 필터링 과정을 수행할 수 있다.Referring to FIG. 5, road marking information having a high intensity value is extracted from spatial information in the form of a point cloud corresponding to road area information, and the point group corresponding to the road marking information is re-clustered, and the width of each cluster is performed through a window search. You can see the information confirmed. In FIG. 5, a cluster having a width of W1 corresponds to a range of the width of a general lane line and can be viewed as lane line information, and a cluster having a width of W2 corresponds to a crosswalk, and a lane having a general width. Because it is outside the range of the width of the line, it can be filtered and removed. However, since the lane line information obtained in this way may include not a lane line, but a driving direction indication such as a left turn or a straight line, this will be done once again in the process of generating a lane line model based on the lane line information. Filtering process can be performed.
다시 도 2를 참조하면, 240 단계에서, 차량(100)은 차량(100)의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성할 수 있다. 도 6 내지 도 9를 참조하여, 레인 라인 모델들을 생성하는 과정을 상세히 설명한다.Referring back to FIG. 2, in
도 6은 일 실시예에 따라 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 과정을 설명하기 위한 상세 흐름도이다.6 is a detailed flowchart illustrating a process of generating lane line models based on lane line information continuously acquired in a driving direction of a vehicle according to an exemplary embodiment.
610 단계에서, 차량(100)은 획득된 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가할 수 있다. 차량(100)은 획득된 레인 라인 정보에 소정의 기준 이내로 가까운 레인 라인 모델이 있는지 확인하여, 기존의 레인 라인 모델을 확장하거나 새로운 레인 라인 모델을 추가할 수 있다. 다시 말해서, 기존의 레인 라인에 가까운 점들은 흡수하여 기존의 레인 라인을 연장하고, 기존의 레인 라인에 먼 점들은 그 점들을 시작점으로 하는 새로운 레인 라인을 생성할 수 있다. 레인 라인 모델은 흡수된 점들의 좌표들, 방향성을 갱신하기 위해 저장되는 점들의 좌표들, 그리고 현재의 레인 라인 모델의 방향성 값을 가질 수 있다. In
620 단계에서, 차량(100)은 기존의 레인 라인 모델과 새로운 레인 라인 모델에 대해 레인 폭 정보에 기초한 레인 라인 모델 필터링을 수행할 수 있다. 예를 들어, 레인 라인이 아닌, 좌회전이나 직진 등의 주행 방향 표시 등의 일부나 전체는 그 폭이 레인 라인의 폭과 비슷할 수도 있으므로, 앞서 도 2의 230 단계에서 설명한 레인 라인의 폭 정보에 기초한 필터링을 수행하더라도 제거되지 않을 수 있다. 따라서, 이와 같은 레인 라인이 아닌 도로 표식 정보를 제거하기 위해, 레인의 폭 정보에 기초한 레인 라인 모델 필터링을 수행할 수 있다. 인접하는 두 개의 레인 라인들 사이에는 하나의 레인이 존재하므로, 두 개의 레인 라인들 사이의 거리가 하나의 레인 폭 정도의 거리에 비해 너무 가까운 경우, 신뢰도가 낮은 레인 라인 모델은 제거될 수 있다. 레인 라인 모델의 신뢰도는 레인 라인 모델에 포함된 점들의 개수와 레인 라인 모델의 일관성에 기초하여 계산될 수 있다.In
630 단계에서, 차량(100)은 획득된 레인 라인 정보의 분포 거리 및 분포 개수에 기초하여, 각 레인 라인 모델의 신뢰할 수 있는 방향 추정이 가능한지 판단할 수 있다. 레인 라인 모델의 방향성은 방향성을 갱신하기 위해 저장된 점들의 좌표들을 이용하여, 좌표들 간 직선을 맞춤으로서 계산이 될 수 있으며, 계산된 직선의 불확실성이 소정의 불확실성 값 이하이면 레인 라인 모델의 방향성이 갱신될 수 있다. 이산화된 점들의 분포 및 노이즈로 인하여, 레인 라인 모델의 잘못된 방향성이 계산되는 것을 방지하기 위함이다. 레인 라인 모델의 방향성이 갱신되면, 방향성을 갱신하기 위해 저장된 점들의 좌표는 삭제되고, 대신 다시 포함된 점들의 좌표를 저장할 수 있다.In
도 7a, 도 7b, 및 도 7c는 레인 라인 정보의 분포 거리에 따른 방향 추정 가능성과 레인 라인 정보의 분포 개수에 따른 방향 추정 가능성을 설명하기 위한 도면이다.7A, 7B, and 7C are diagrams for explaining a possibility of estimating a direction according to a distribution distance of lane line information and a possibility of estimating a direction according to the number of distributions of lane line information.
도 7a와 도 7b를 비교해 보면, 레인 라인 정보에 포함된 점들의 분포 거리가 멀어짐에 따라 추정된 직선 방향성의 불확실성이 낮아지는 것을 알 수 있다. 도 7b와 도 7c를 보면, 레인 라인 정보에 포함된 점들의 분포 개수가 많아짐에 따라 추정된 직선 방향성의 불확실성이 낮아지는 것을 알 수 있다.Comparing FIGS. 7A and 7B, it can be seen that the uncertainty of the estimated linear direction decreases as the distribution distance of points included in the lane line information increases. 7B and 7C, it can be seen that as the number of distributions of points included in the lane line information increases, the uncertainty of the estimated linear direction decreases.
다시 도 6을 참조하면, 640 단계에서, 신뢰할 수 있는 방향 추정이 가능하면, 차량(100)은 획득된 레인 라인 정보에 기초하여, 레인 라인 모델의 방향을 결정할 수 있다.Referring back to FIG. 6, in
650 단계에서, 신뢰할 수 있는 방향 추정이 불가능하면, 차량(100)은 전체 도로의 방향 정보에 기초하여, 레인 라인 모델의 방향을 결정할 수 있다.In
660 단계에서, 차량(100)은 관심 영역의 레인 라인 정보 전체에 대한 윈도우 스캔이 완료되었는지 판단하여, 완료되지 않았으면, 윈도우 스캔을 더 수행하여 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 과정을 계속 수행할 수 있다. In
도 8은 일 실시예에 따라 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating a process of updating an existing lane line model or adding a new lane line model based on lane line information continuously acquired in a driving direction of a vehicle according to an exemplary embodiment.
도 8을 참조하면, 차량(100)의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 과정이 나타나 있다. 관심 영역에 대해 윈도우를 설정하여, 윈도우를 차량(100)의 주행 방향으로 이동시키면서 검출되는 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하고, 각 레인 라인 모델을 확장해 나갈 수 있다. 차폐 영역이나 라이다 센서가 감지할 수 없었던 영역이 연속적으로 나타나는 경우, 레인 라인 모델의 확장을 종료할 수 있다.Referring to FIG. 8, a process of generating lane line models based on lane line information continuously acquired in a driving direction of the
한편, 차량(100)은 차량의 주행 방향으로 연속적으로 획득된 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성할 때, 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 레인 라인 모델들을 B-spline, polynomial spline과 같은 다양한 곡선 모델로 피팅할 수 있다. 차량(100)은 각 레인 라인 모델에 저장된 점들의 위치와 전반적인 방향성 정보를 이용하여, 오버피팅을 방지한 레인 라인 모델을 구할 수 있다.Meanwhile, when generating lane line models based on the lane line information continuously acquired in the driving direction of the vehicle, the
도 9는 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 레인 라인 모델들을 소정의 곡선 모델들로 피팅하는 이유를 설명하기 위한 도면이다.9 is a diagram for explaining a reason why lane line models are fitted to predetermined curve models using direction information of an entire road and lane line information of each lane line model.
도 9를 참조하여, 레인 라인 모델을 위한 측정된 점들의 위치로만 구해진 곡선 모델과 점들의 위치와 각 위치에서의 방향성을 같이 이용해 추정된 모델을 비교하면, 전자의 경우, 이산화된 점들의 좌표 및 노이즈의 영향으로 오버피팅이 발생할 수 있고, 후자의 경우, 전반적인 방향성 정보를 같이 이용하여 오버피팅을 방지할 수 있음을 알 수 있다.Referring to FIG. 9, comparing a curve model obtained only from the positions of measured points for a lane line model and a model estimated using the positions of points and the directions at each position together. In the former case, the coordinates of the discrete points and It can be seen that overfitting may occur due to the influence of noise, and in the latter case, overfitting can be prevented by using the overall directional information together.
다시 도 2를 참조하면, 250 단계에서, 차량(100)은 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성할 수 있다. 도 10 내지 도 11을 참조하여, 레인을 생성하는 과정을 상세히 설명한다.Referring back to FIG. 2, in
도 10은 일 실시예에 따라 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 과정을 설명하기 위한 상세 흐름도이다.10 is a detailed flowchart illustrating a process of generating a lane including two adjacent lane lines among lane lines based on lane line models generated according to an exemplary embodiment.
1010 단계에서, 차량(100)은 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성할 수 있다. 차량(100)은 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성할 수 있다. 두 레인 라인들 간의 거리가 하나의 레인의 폭에 해당하는 소정의 폭 정보 값의 범위 내이면, 그 두 레인 라인들로 이루어지는 하나의 레인에 대한 레인 모델을 생성할 수 있다.In
1020 단계에서, 차량(100)은 생성된 레인 모델들의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽을 수행할 수 있다.In
1030 단계에서, 차량(100)은 외삽을 수행함에 따라 확장된, 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는지 판단할 수 있다.In
1040 단계에서, 차량(100)은 소정의 기준 이상으로 서로 겹치는 레인들이 있으면, 이에 대응되는 레인 모델들은 동일한 레인을 구성하는 것으로 판단할 수 있다.In
1050 단계에서, 차량(100)은 동일한 레인을 구성하는 것으로 판단된 레인 모델들을 하나의 레인 모델로 병합할 수 있다.In
한편, 병합된 하나의 레인 모델의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 곡선 모델로 피팅을 수행함으로써, 병합된 레인 전체에 대한 연속적인 레인 라인 모델을 생성할 수 있다.Meanwhile, by performing fitting with a curved model for lane line models corresponding to both lane lines of one merged lane model, a continuous lane line model for the entire merged lane may be generated.
1060 단계에서, 차량(100)은 모든 레인에 대해, 각 레인 라인 모델들에 대한 외삽을 수행하여, 동일한 레인을 구성하는 것으로 판단되는 레인 모델들 간의 병합이 완료되었는지 판단할 수 있다.In
도 11은 일 실시예에 따라 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하여, 생성된 레인 모델들 중 동일한 레인을 구성하는 레인 모델들을 하나의 레인 모델로 병합하는 과정을 설명하기 위한 도면이다.FIG. 11 is a diagram illustrating a process of generating lane models including two adjacent lane lines and merging lane models constituting the same lane among the generated lane models into one lane model, according to an exemplary embodiment.
차폐 영역이나 라이다 센서가 도달할 수 없는 영역 등에 의해 레인 라인 정보가 획득되지 않은 영역으로 인하여, 레인 라인 모델들에 따른 레인 라인들이 서로 연속적이지 않으므로, 레인 라인들을 기반으로 생성되는 레인도 도 11에 도시된 바와 같이 끊겨서 생성될 수 있다. 도 11의 끊긴 부분과 관련하여, 각 레인의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대한 외삽을 수행함으로써, 확장되는 레인들이 서로 동일한 레인을 구성하는 것으로 판단되면, 각 레인의 레인 모델들을 하나의 레인 모델로 병합하여, 이어진 하나의 레인에 대한 레인 모델을 생성할 수 있다. 이와 같은 방식을 모든 레인들에 대해 적용하여, 전체 레인을 검출할 수 있다. Since the lane lines according to the lane line models are not continuous with each other due to an area in which lane line information is not obtained due to a shielding area or an area that cannot be reached by a lidar sensor, the lanes generated based on the lane lines are also shown in FIG. It can be created by breaking as shown in. With respect to the broken part of FIG. 11, if it is determined that the lanes that are extended constitute the same lane by performing extrapolation on the lane line models corresponding to both lane lines of each lane, the lane models of each lane are By merging into the lane model of, it is possible to generate a lane model for one continuous lane. By applying this method to all lanes, all lanes can be detected.
한편, 이어진 하나의 레인의 양쪽 레인 라인에 대해, 이어진 전체 길이의 레인 라인의 레인 라인 모델에 대한 곡선 피팅을 다시 해주어, 연속적인 레인 라인 모델을 생성할 수 있다. On the other hand, for both lane lines of one continuous lane, curve fitting for the lane line model of the continuous full length lane line may be performed again to generate a continuous lane line model.
상술한 실시예들 각각은 차량(100)에서, 레인을 검출하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다. 다시 말해서, 상술한 실시예들 각각은 차량(100)으로 하여금, 레인을 검출하는 소정의 단계들을 포함하는 방법을 실행시키기 위한 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다. Each of the above-described embodiments may be provided in the form of a computer program or application stored in a computer-readable storage medium that enables the
상술한 실시예들은 컴퓨터 또는 프로세서에 의하여 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터 판독 가능 저장매체의 형태로 구현될 수 있다. 상기 명령어 및 데이터 중 적어도 하나는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 이와 같은 컴퓨터 판독 가능 저장매체는 read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs, DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, 마그네틱 테이프, 플로피 디스크, 광자기 데이터 저장 장치, 광학 데이터 저장 장치, 하드 디스크, 솔리드-스테이트 디스크(SSD), 그리고 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 저장할 수 있고, 프로세서나 컴퓨터가 명령어를 실행할 수 있도록 프로세서나 컴퓨터에 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 제공할 수 있는 어떠한 장치라도 될 수 있다. The above-described embodiments may be implemented in the form of a computer-readable storage medium storing instructions and data executable by a computer or a processor. At least one of the command and data may be stored in the form of a program code, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. Such computer-readable storage media include read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, and DVD-ROMs. , DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, magnetic tapes, floppy disks, magneto-optical data storage devices, Optical data storage devices, hard disks, solid-state disks (SSDs), and can store instructions or software, related data, data files, and data structures, and can store instructions or instructions on a processor or computer so that the processor or computer can execute the instructions. It can be any device capable of providing software, associated data, data files, and data structures.
이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 발명의 범위는 전술한 실시예들의 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.So far, it looked at the center of the examples. Those of ordinary skill in the art to which the disclosed embodiments belong will be able to understand that the disclosed embodiments may be implemented in a modified form without departing from the essential characteristics. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the invention is shown in the claims rather than the description of the above-described embodiments, and all differences within the scope equivalent thereto should be construed as being included in the scope of the invention.
Claims (15)
컴퓨터 실행가능 명령어(computer executable instruction)를 저장하는 메모리; 및
상기 컴퓨터 실행가능 명령어를 실행함으로써,
상기 공간 정보로부터 도로 영역 정보를 획득하고, 상기 획득된 도로 영역 정보에서 인텐시티(intensity) 값에 기초하여, 도로 표식 정보를 추출하며, 상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭(width) 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하고, 차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하며, 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 프로세서를 포함하고,
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 상기 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하고, 상기 생성된 레인 모델들 각각의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽을 수행하고, 상기 외삽을 수행함에 따라 확장된 상기 생성된 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는 경우, 상기 겹치는 레인 모델들을 상기 하나의 레인 모델로 병합하여 상기 레인을 생성하는, 차량.A sensor unit detecting a three-dimensional space using at least one sensor and outputting spatial information;
A memory storing computer executable instructions; And
By executing the computer executable instruction,
Road area information is obtained from the spatial information, road marking information is extracted based on an intensity value from the obtained road area information, the extracted road marking information is clustered, and the width of a lane line is ) Information-based filtering is performed to obtain lane line information, and lane line models are generated based on the lane line information continuously obtained in the driving direction of the vehicle, and a lane line based on the generated lane line models Including a processor for generating a lane consisting of two adjacent lane lines among them,
The processor,
By executing the computer-executable command, a distance between two lane lines among lane lines based on the generated lane line models and a predetermined width information value are compared to generate lane models composed of the two adjacent lane lines. Then, extrapolation is performed on the lane line models corresponding to both lane lines of each of the generated lane models, and the lanes of each of the generated lane models expanded by performing the extrapolation exceed a predetermined standard. When overlapping each other, the vehicle to generate the lane by merging the overlapping lane models into the one lane model.
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 획득된 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하고, 상기 획득된 레인 라인 정보의 분포 거리 및 분포 개수에 기초하여, 방향 추정이 가능한지 판단하여, 상기 기존의 레인 라인 모델 또는 상기 새로운 레인 라인 모델의 방향을 결정하는, 차량.The method of claim 1,
The processor,
By executing the computer-executable instruction, based on the continuity of the obtained lane line information, an existing lane line model is updated or a new lane line model is added, and the distribution distance and the number of distributions of the obtained lane line information Based on the determination of whether a direction can be estimated, the vehicle to determine the direction of the existing lane line model or the new lane line model.
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 기존의 레인 라인 모델과 상기 새로운 레인 라인 모델에 대해 레인 폭 정보에 기초한 레인 라인 모델 필터링을 수행하고, 상기 레인 라인 모델 필터링이 수행된 레인 라인 모델의 방향을 결정하는, 차량.The method of claim 2,
The processor,
By executing the computer-executable command, lane line model filtering based on lane width information is performed on the existing lane line model and the new lane line model, and the direction of the lane line model on which the lane line model filtering is performed is determined. Deciding, vehicle.
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 상기 레인 라인 모델들을 소정의 곡선 모델들로 피팅(fitting)함으로써 상기 레인 라인 모델들을 생성하는, 차량.The method of claim 1,
The processor,
By executing the computer-executable instruction, generating the lane line models by fitting the lane line models into predetermined curve models using direction information of the entire road and lane line information of each lane line model, vehicle.
상기 프로세서는,
상기 컴퓨터 실행가능 명령어를 실행함으로써, 상기 병합된 하나의 레인 모델의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 곡선 모델로 피팅을 수행하는, 차량.The method of claim 1,
The processor,
The vehicle, by executing the computer-executable instruction, performing fitting into a curved model for lane line models corresponding to both lane lines of the merged one lane model.
상기 획득된 도로 영역 정보에서 인텐시티 값에 기초하여, 도로 표식 정보를 추출하는 단계;
상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 단계;
차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 단계; 및
상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 단계를 포함하고,
상기 레인을 생성하는 단계는,
상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 상기 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하는 단계;
상기 생성된 레인 모델들 각각의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽을 수행하는 단계; 및
상기 외삽을 수행함에 따라 확장된 상기 생성된 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는 경우, 상기 겹치는 레인 모델들을 하나의 레인 모델로 병합하는 단계를 포함하는 레인을 검출하는 방법.Acquiring road area information from spatial information obtained by detecting a 3D space;
Extracting road marking information based on an intensity value from the obtained road area information;
Obtaining lane line information by performing filtering based on lane line width information after clustering the extracted road marking information;
Generating lane line models based on the lane line information continuously acquired in a driving direction of the vehicle; And
Including the step of generating a lane consisting of two adjacent lane lines among lane lines based on the generated lane line models,
The step of creating the lane,
Generating lane models including the two adjacent lane lines by comparing a distance between two lane lines based on the generated lane line models and a predetermined width information value;
Extrapolating lane line models corresponding to both lane lines of each of the generated lane models; And
And when the lanes of each of the generated lane models expanded by performing the extrapolation overlap each other by more than a predetermined criterion, merging the overlapping lane models into one lane model.
상기 레인 라인 모델들을 생성하는 단계는,
상기 획득된 레인 라인 정보의 연속성에 기초하여, 기존의 레인 라인 모델을 업데이트하거나 새로운 레인 라인 모델을 추가하는 단계; 및
상기 획득된 레인 라인 정보의 분포 거리 및 분포 개수에 기초하여, 방향 추정이 가능한지 판단하여, 상기 기존의 레인 라인 모델 또는 상기 새로운 레인 라인 모델의 방향을 결정하는 단계;
를 포함하는, 방법.The method of claim 8,
Generating the lane line models,
Updating an existing lane line model or adding a new lane line model based on the continuity of the obtained lane line information; And
Determining whether direction estimation is possible based on the distribution distance and the number of distributions of the obtained lane line information, and determining a direction of the existing lane line model or the new lane line model;
Containing, the method.
상기 레인 라인 모델들을 생성하는 단계는,
상기 기존의 레인 라인 모델과 상기 새로운 레인 라인 모델에 대해 레인 폭 정보에 기초한 레인 라인 모델 필터링을 수행하는 단계를 더 포함하고,
상기 방향을 결정하는 단계는,
상기 레인 라인 모델 필터링이 수행된 레인 라인 모델의 방향을 결정하는, 방법.The method of claim 9,
Generating the lane line models,
Further comprising the step of performing lane line model filtering based on lane width information for the existing lane line model and the new lane line model,
The step of determining the direction,
Determining the direction of the lane line model on which the lane line model filtering has been performed.
상기 레인 라인 모델들을 생성하는 단계는,
전체 도로의 방향 정보와 각 레인 라인 모델의 레인 라인 정보를 이용하여 상기 레인 라인 모델들을 소정의 곡선 모델들로 피팅함으로써 생성하는, 방법.The method of claim 8,
Generating the lane line models,
A method of generating by fitting the lane line models into predetermined curve models using direction information of an entire road and lane line information of each lane line model.
상기 레인을 생성하는 단계는,
상기 병합된 하나의 레인 모델의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 곡선 모델로 피팅을 수행하는 단계를 더 포함하는, 방법.The method of claim 8,
The step of creating the lane,
The method of claim 1, further comprising performing a fitting with a curved model for lane line models corresponding to both lane lines of the merged one lane model.
3차원 공간을 감지하여 획득한 공간 정보로부터 도로 영역 정보를 획득하는 단계;
상기 획득된 도로 영역 정보에서 인텐시티 값에 기초하여, 도로 표식 정보를 추출하는 단계;
상기 추출된 도로 표식 정보를 클러스터링한 후 레인 라인의 폭 정보에 기초한 필터링을 수행하여 레인 라인 정보를 획득하는 단계; 및
차량의 주행 방향으로 연속적으로 획득된 상기 레인 라인 정보에 기초하여, 레인 라인 모델들을 생성하는 단계; 및
상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 인접한 두 레인 라인들로 이루어지는 레인을 생성하는 단계를 포함하고,
상기 레인을 생성하는 단계는,
상기 생성된 레인 라인 모델들에 기초한 레인 라인들 중 두 레인 라인들 간의 거리와 소정의 폭 정보 값을 비교하여, 상기 인접한 두 레인 라인들로 이루어지는 레인 모델들을 생성하는 단계;
상기 생성된 레인 모델들 각각의 양쪽 레인 라인에 대응되는 레인 라인 모델들에 대해 외삽을 수행하는 단계; 및
상기 외삽을 수행함에 따라 확장된 상기 생성된 레인 모델들 각각의 레인들이 소정의 기준 이상으로 서로 겹치는 경우, 상기 겹치는 레인 모델들을 하나의 레인 모델로 병합하는 단계를 포함하는 레인을 검출하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램.In the vehicle,
Acquiring road area information from spatial information obtained by detecting a 3D space;
Extracting road marking information based on an intensity value from the obtained road area information;
Obtaining lane line information by performing filtering based on lane line width information after clustering the extracted road marking information; And
Generating lane line models based on the lane line information continuously acquired in a driving direction of the vehicle; And
Including the step of generating a lane consisting of two adjacent lane lines among lane lines based on the generated lane line models,
The step of creating the lane,
Generating lane models including the two adjacent lane lines by comparing a distance between two lane lines based on the generated lane line models and a predetermined width information value;
Extrapolating lane line models corresponding to both lane lines of each of the generated lane models; And
When the lanes of each of the generated lane models expanded by performing the extrapolation overlap each other by more than a predetermined criterion, a method of detecting a lane comprising the step of merging the overlapping lane models into one lane model is performed. A computer program stored on a computer-readable storage medium that allows you to
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190120131A KR102255924B1 (en) | 2019-09-27 | 2019-09-27 | Vehicle and method for detecting lane |
PCT/KR2019/013501 WO2021060599A1 (en) | 2019-09-27 | 2019-10-15 | Vehicle and method for detecting lane |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190120131A KR102255924B1 (en) | 2019-09-27 | 2019-09-27 | Vehicle and method for detecting lane |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210037468A KR20210037468A (en) | 2021-04-06 |
KR102255924B1 true KR102255924B1 (en) | 2021-05-25 |
Family
ID=75165034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190120131A KR102255924B1 (en) | 2019-09-27 | 2019-09-27 | Vehicle and method for detecting lane |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102255924B1 (en) |
WO (1) | WO2021060599A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113591618B (en) * | 2021-07-14 | 2024-02-20 | 重庆长安汽车股份有限公司 | Method, system, vehicle and storage medium for estimating shape of road ahead |
CN116153057A (en) * | 2022-09-12 | 2023-05-23 | 东北林业大学 | Method for estimating lane width based on laser radar point cloud |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150165972A1 (en) * | 2012-06-19 | 2015-06-18 | Toyota Jidosha Kabushiki Kaisha | Roadside object detection apparatus |
WO2018126228A1 (en) * | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Sign and lane creation for high definition maps used for autonomous vehicles |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170104287A (en) * | 2016-03-07 | 2017-09-15 | 한국전자통신연구원 | Driving area recognition apparatus and method for recognizing driving area thereof |
KR102372390B1 (en) * | 2017-06-20 | 2022-03-08 | 현대모비스 주식회사 | Lane recognition apparatus and method thereof |
KR101998584B1 (en) * | 2017-11-15 | 2019-07-10 | 전자부품연구원 | Lane detection apparatus and lane detection method |
-
2019
- 2019-09-27 KR KR1020190120131A patent/KR102255924B1/en active IP Right Grant
- 2019-10-15 WO PCT/KR2019/013501 patent/WO2021060599A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150165972A1 (en) * | 2012-06-19 | 2015-06-18 | Toyota Jidosha Kabushiki Kaisha | Roadside object detection apparatus |
WO2018126228A1 (en) * | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Sign and lane creation for high definition maps used for autonomous vehicles |
Also Published As
Publication number | Publication date |
---|---|
KR20210037468A (en) | 2021-04-06 |
WO2021060599A1 (en) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3673407B1 (en) | Automatic occlusion detection in road network data | |
CN107145578B (en) | Map construction method, device, equipment and system | |
US10260892B2 (en) | Data structure of environment map, environment map preparing system and method, and environment map updating system and method | |
US11346682B2 (en) | Augmented 3D map | |
JP6469220B2 (en) | Traveling lane discrimination device and traveling lane discrimination method | |
JP6325806B2 (en) | Vehicle position estimation system | |
KR102338370B1 (en) | Vehicle and sensing device of utilizing spatial information acquired using sensor, and server for the same | |
US20180154901A1 (en) | Method and system for localizing a vehicle | |
US10782411B2 (en) | Vehicle pose system | |
US11668573B2 (en) | Map selection for vehicle pose system | |
AU2020356082B2 (en) | Vehicle and method for generating map corresponding to three-dimensional space | |
JPWO2018221454A1 (en) | Map creation device, control method, program, and storage medium | |
KR102255924B1 (en) | Vehicle and method for detecting lane | |
WO2020156923A2 (en) | Map and method for creating a map | |
US10436582B2 (en) | Device orientation detection | |
EP4105908A1 (en) | Method, apparatus, server, and computer program for collision accident prevention | |
CN113450455A (en) | Method, device and computer program product for generating a map of road links of a parking lot | |
US20220234621A1 (en) | Augmented 3d map | |
US11215459B2 (en) | Object recognition device, object recognition method and program | |
KR102543871B1 (en) | Method and system for updating road information changes in map data | |
US20210048819A1 (en) | Apparatus and method for determining junction | |
US20210407114A1 (en) | Systems and methods for transferring map data between different maps | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest | |
JPWO2020054293A1 (en) | Judgment method and judgment device | |
US20230236021A1 (en) | Information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |