KR102650906B1 - Detecting traffic lane apparatus and method - Google Patents

Detecting traffic lane apparatus and method Download PDF

Info

Publication number
KR102650906B1
KR102650906B1 KR1020220151028A KR20220151028A KR102650906B1 KR 102650906 B1 KR102650906 B1 KR 102650906B1 KR 1020220151028 A KR1020220151028 A KR 1020220151028A KR 20220151028 A KR20220151028 A KR 20220151028A KR 102650906 B1 KR102650906 B1 KR 102650906B1
Authority
KR
South Korea
Prior art keywords
coordinate
coordinates
lane
axis
core
Prior art date
Application number
KR1020220151028A
Other languages
Korean (ko)
Inventor
이재민
배경렬
조진제
Original Assignee
이인텔리전스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이인텔리전스 주식회사 filed Critical 이인텔리전스 주식회사
Priority to KR1020220151028A priority Critical patent/KR102650906B1/en
Application granted granted Critical
Publication of KR102650906B1 publication Critical patent/KR102650906B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 개시는 차선 검출 장치 및 방법에 관한 것이다. 구체적으로 본 개시에 따른 차선 검출 장치는 자차량의 주변이 촬영된 이미지 데이터를 수신하는 이미지 수신부, 이미지 데이터를 기초로 차선이 포함되었다고 판단되는 섹터를 검출하는 제1 이미지 처리부, 이미지 데이터를 기초로 미리 정해진 갯수의 그리드(Grid)로 분할하고, 이미지 데이터에서 차선이 포함되었다고 판단되는 그리드를 검출하는 제2 이미지 처리부 및 차선이 포함된 그리드 및 차선이 포함된 섹터를 기초로 차선을 검출하는 차선 검출부를 포함하는 한다.This disclosure relates to a lane detection apparatus and method. Specifically, the lane detection device according to the present disclosure includes an image receiving unit that receives image data in which the surroundings of the own vehicle are captured, a first image processing unit that detects a sector determined to contain a lane based on the image data, and an image processing unit that detects a sector determined to contain a lane based on the image data. A second image processing unit that divides the image data into a predetermined number of grids and detects a grid that is determined to contain a lane in the image data, and a lane detection unit that detects a lane based on the grid containing the lane and the sector containing the lane. It should include.

Description

차선 검출 장치 및 방법{DETECTING TRAFFIC LANE APPARATUS AND METHOD}Lane detection device and method {DETECTING TRAFFIC LANE APPARATUS AND METHOD}

본 실시예들은 차선을 검출하는 차선 검출 장치 및 방법에 관한 것이다.The present embodiments relate to a lane detection apparatus and method for detecting lanes.

최근 각종 센서들의 활용으로 운전자에게 주행에 대한 편의 기능을 제공하는 ADAS(Advanced Driver Assistance System)가 차량에 탑재되고 있다. 구체적으로, ADAS는 차량이 차로를 이탈하지 않게 도와주거나(LKAS, Line Keeping Assist System), 주행 기능 자체를 제공(SCC, Smart Cruise Control)할 수 있다.Recently, ADAS (Advanced Driver Assistance System), which provides driving convenience functions to drivers through the use of various sensors, is being installed in vehicles. Specifically, ADAS can help prevent a vehicle from leaving its lane (LKAS, Line Keeping Assist System) or provide the driving function itself (SCC, Smart Cruise Control).

전술한 기능들은 차량과 주변 객체 간에 거리를 검출하거나, 차량에 탑재된 카메라가 차선 등을 검출하여 검출한 차선을 기준으로 수행될 수 있다.The above-described functions may be performed by detecting the distance between the vehicle and surrounding objects, or by detecting the lane, etc., by a camera mounted on the vehicle.

그러나, 정확한 차선을 검출하는 것은 전술한 기능들의 수행능력을 위해 필수적이며, 정확한 차선 검출을 위해 오검출률을 낮추는 연구들은 여전히 어려운 과제로 남아있다.However, accurate lane detection is essential for the performance of the above-mentioned functions, and research to reduce the false detection rate for accurate lane detection still remains a difficult task.

이러한 배경에서, 본 개시는 복수의 이미지 검출 방법을 활용하여 자차량 주변의 차선을 검출하는 차선 검출 장치 및 방법을 제공하고자 한다.Against this background, the present disclosure seeks to provide a lane detection device and method for detecting lanes around a host vehicle by utilizing a plurality of image detection methods.

전술한 과제를 해결하기 위하여, 일 측면에서, 본 개시는 자차량의 주변이 촬영된 이미지 데이터를 수신하는 이미지 수신부, 이미지 데이터를 기초로 차선이 포함되었다고 판단되는 섹터를 검출하는 제1 이미지 처리부, 이미지 데이터를 기초로 미리 정해진 갯수의 그리드(Grid)로 분할하고, 이미지 데이터에서 차선이 포함되었다고 판단되는 그리드를 검출하는 제2 이미지 처리부 및 차선이 포함된 그리드 및 차선이 포함된 섹터를 기초로 차선을 검출하는 차선 검출부를 포함하는 차선 검출 장치를 제공한다. In order to solve the above-described problem, in one aspect, the present disclosure includes an image receiving unit that receives image data in which the surroundings of the own vehicle are photographed, a first image processing unit that detects a sector determined to contain a lane based on the image data, and A second image processing unit that divides the image data into a predetermined number of grids and detects a grid that is determined to contain a lane in the image data, and a second image processing unit that detects a grid containing the lane and a sector containing the lane Provided is a lane detection device including a lane detection unit that detects.

다른 측면에서, 본 개시는 자차량의 주변이 촬영된 이미지 데이터를 수신하는 이미지 수신 단계, 이미지 데이터를 기초로 차선이 포함되었다고 판단되는 섹터를 검출하는 제1 이미지 처리 단계, 이미지 데이터를 기초로 미리 정해진 갯수의 그리드(Grid)로 분할하고, 이미지 데이터에서 차선이 포함되었다고 판단되는 그리드를 검출하는 제2 이미지 처리 단계 및 차선이 포함된 그리드 및 차선이 포함된 섹터를 기초로 차선을 검출하는 차선 검출 단계를 포함하는 차선 검출 방법을 제공한다.In another aspect, the present disclosure includes an image receiving step of receiving image data in which the surroundings of the own vehicle are captured, a first image processing step of detecting a sector determined to contain a lane based on the image data, and a first image processing step of detecting a sector determined to contain a lane based on the image data. A second image processing step of dividing the image data into a set number of grids and detecting a grid that is determined to contain a lane, and lane detection of detecting a lane based on the grid containing the lane and the sector containing the lane. A lane detection method including the following steps is provided.

본 개시에 의하면, 차선 검출 장치는 차선을 검출하는 복수의 방법을 통해 서로의 데이터를 비교하여, 오차를 줄이고, 후처리 시간을 단축시킬 수 있다.According to the present disclosure, a lane detection device can reduce errors and shorten post-processing time by comparing data through a plurality of methods for detecting lanes.

도 1은 본 개시의 일 실시예에 따른 차선 검출 장치를 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 차선 검출 과정을 간단하게 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 제1 이미지 처리부가 이미지 데이터를 처리하여 차선을 검출하는 것을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 섹터 검출 결과에 대해서 모폴로지 연산하는 것을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 제2 이미지 처리부가 이미지 데이터를 처리하여 차선을 검출하는 것을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 이미지 데이터를 동일한 간격을 갖는 복수의 y축 좌표로 분할하는 것을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 제1 이미지 처리부가 이미지 데이터에서 차선을 검출하는 것을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 폐색 현상의 종류를 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 제2 이미지 처리부가 이미지 데이터에서 차선을 검출하는 것을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 핵심 좌표 및 후보 좌표를 산출하는 것을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 검출된 차선을 3가지 케이스로 분류하는 것을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 후보 좌표를 후처리하는 것을 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 핵심 좌표들에 대해 스플라인 피팅 알고리즘을 수행하는 것을 설명하기 위한 도면이다.
도 14는 본 개시의 일 실시예에 따른 차선 검출 방법을 설명하는 흐름도이다.
1 is a block diagram for explaining a lane detection device according to an embodiment of the present disclosure.
FIG. 2 is a diagram briefly illustrating a lane detection process according to an embodiment.
FIG. 3 is a diagram illustrating how a first image processor detects a lane by processing image data according to an embodiment.
FIG. 4 is a diagram for explaining a morphology operation on a sector detection result according to an embodiment.
FIG. 5 is a diagram illustrating how a second image processor detects a lane by processing image data according to an embodiment.
FIG. 6 is a diagram illustrating dividing image data into a plurality of y-axis coordinates with equal intervals, according to an embodiment.
FIG. 7 is a diagram illustrating how a first image processor detects a lane line from image data according to an embodiment.
Figure 8 is a diagram for explaining types of occlusion phenomenon according to one embodiment.
FIG. 9 is a diagram illustrating how a second image processor detects a lane line from image data according to an embodiment.
Figure 10 is a diagram for explaining calculating core coordinates and candidate coordinates according to an embodiment.
FIG. 11 is a diagram illustrating classification of detected lanes into three cases according to an embodiment.
Figure 12 is a diagram for explaining post-processing of candidate coordinates according to an embodiment.
FIG. 13 is a diagram illustrating performing a spline fitting algorithm on key coordinates according to an embodiment.
Figure 14 is a flowchart explaining a lane detection method according to an embodiment of the present disclosure.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure will be described in detail with reference to illustrative drawings. In adding reference numerals to components in each drawing, the same components may have the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present embodiments, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When “comprises,” “has,” “consists of,” etc. mentioned in the specification are used, other parts may be added unless “only” is used. When a component is expressed in the singular, it can also include the plural, unless specifically stated otherwise.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. Additionally, in describing the components of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, order, or number of the components are not limited by the term.

구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of components, when two or more components are described as being “connected,” “coupled,” or “connected,” the two or more components are directly “connected,” “coupled,” or “connected.” ", but it should be understood that two or more components and other components may be further "interposed" and "connected," "combined," or "connected." Here, other components may be included in one or more of two or more components that are “connected,” “coupled,” or “connected” to each other.

구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of temporal flow relationships related to components, operation methods, production methods, etc., for example, temporal precedence relationships such as “after”, “after”, “after”, “before”, etc. Or, when a sequential relationship is described, non-continuous cases may be included unless “immediately” or “directly” is used.

한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when a numerical value or corresponding information (e.g., level, etc.) for a component is mentioned, even if there is no separate explicit description, the numerical value or corresponding information is related to various factors (e.g., process factors, internal or external shocks, It can be interpreted as including the error range that may occur due to noise, etc.).

도 1은 본 개시의 일 실시예에 따른 차선 검출 장치를 설명하기 위한 블록도이다.1 is a block diagram for explaining a lane detection device according to an embodiment of the present disclosure.

도 1를 참조하면, 본 개시에 따른 차선 검출 장치는 이미지 수신부, 제2 이미지 처리부, 제1 이미지 처리부 및 차선 검출부 등을 포함할 수 있다.Referring to FIG. 1, the lane detection device according to the present disclosure may include an image receiver, a second image processor, a first image processor, and a lane detection unit.

본 개시의 일 실시예에 따른 차선 검출 장치는 자차량의 주행에 도움을 주는 정보를 제공하거나, 운전자의 자차량 제어에 도움을 제공하는 ADAS(Advance Driver Assistance Systems)일 수 있다. The lane detection device according to an embodiment of the present disclosure may be an ADAS (Advance Driver Assistance Systems) that provides information to help the driver drive the vehicle or to help the driver control the vehicle.

여기서, ADAS는 다양한 종류의 첨단 운전자 보조 시스템을 의미할 수 있으며, 운전자 보조 시스템으로는 예를 들면, 교통 신호 인식 시스템(Traffic Sign Recognition) 긴급 제동 시스템(Autonomous Emergency Braking), 스마트 주차 보조 시스템(SPAS: Smart Parking Assistance System), 사각 감지(BSD: Blind Spot Detection) 시스템, 적응형 크루즈 컨트롤(ACC: Adaptive Cruise Control) 시스템, 차선 이탈 경고 시스템(LDWS: Lane Departure Warning System), 차선 유지 보조 시스템(LKAS: Lane Keeping Assist System), 차선 변경 보조 시스템(LCAS: Lane Change Assist System) 등을 포함할 수 있다. 하지만, 이에 한정되는 것은 아니다.Here, ADAS can refer to various types of advanced driver assistance systems, and driver assistance systems include, for example, Traffic Sign Recognition, Autonomous Emergency Braking, and Smart Parking Assistance System (SPAS). : Smart Parking Assistance System, Blind Spot Detection (BSD) system, Adaptive Cruise Control (ACC) system, Lane Departure Warning System (LDWS), Lane Keeping Assist System (LKAS) : Lane Keeping Assist System), Lane Change Assist System (LCAS), etc. However, it is not limited to this.

이미지 수신부는 자차량의 주변이 촬영된 이미지 데이터를 수신할 수 있다.The image receiver may receive image data captured around the vehicle.

여기서, 이미지 데이터는 이미지 센서로부터 수신할 수 있으며, 이미지 센서는 카메라 센서, 라이다(LiDAR) 센서 등을 포함할 수 있다.Here, image data may be received from an image sensor, and the image sensor may include a camera sensor, LiDAR sensor, etc.

카메라 센서는 화상을 전기적 신호로 변환시켜 재현하는 비디오 카메라 모듈일 수 있다. 여기서 전기적 신호를 규격신호(NTSC)에 맞게 처리하여 비디오테이프리코더(VTR) 및 모니터 텔레비전에 연결하면 피사체의 영상이 재현될 수 있다.A camera sensor may be a video camera module that converts and reproduces images into electrical signals. Here, if the electrical signal is processed into a standard signal (NTSC) and connected to a video tape recorder (VTR) and a monitor television, the image of the subject can be reproduced.

일 예에서, 이미지 수신부는 자차량의 양 끝에 탑재되어 전방을 촬영하는 제1 카메라 및 제2 카메라로부터 이미지 데이터를 수신할 수 있다.In one example, the image receiver may receive image data from a first camera and a second camera mounted on both ends of the vehicle and photographing the front.

이미지 데이터는 일련의 단위 프레임 영상을 포함한다. 다시 말해, 일련의 비디오 프레임으로 구성된다. 가령 프레임률이 60FPS(Frames Per Second)라 하면, 1초당 60장의 정지 영상 즉 단위 프레임 영상이 송수신되거나 하는 것을 의미할 수 있다. 따라서, 비디오 프레임, 프레임 비디오 또는 단위 프레임이라는 것은 거의 유사한 개념으로 사용되지만, 그 지칭하는 대상이 프레임이냐 아니면 데이터냐에 따라 사용하는 용어는 조금 상이할 수 있다.Image data includes a series of unit frame images. In other words, it consists of a series of video frames. For example, if the frame rate is 60 FPS (Frames Per Second), this may mean that 60 still images, or unit frame images, are transmitted and received per second. Accordingly, video frame, frame video, or unit frame are used as almost similar concepts, but the terminology used may be slightly different depending on whether the object being referred to is a frame or data.

이하, 본 개시에서는 이미지 센서로부터 촬영된 영상 정보는 이미지 센서로부터 캡처된 이미지 데이터를 의미하는 것일 수 있다.Hereinafter, in the present disclosure, image information captured from an image sensor may refer to image data captured from an image sensor.

이미지 센서에 의해 캡처된 이미지 데이터는, 예를 들어, Raw 형태의 AVI, MPEG-4, H.264, DivX, JPEG 중 하나의 포맷으로 생성될 수 있다. 예를 들어, 전방 이미지 센서 또는 측면 이미지 센서에서 캡처된 이미지 데이터는 프로세서에서 처리될 수 있다. 여기서 프로세서는 각각의 이미지 센서에 포함될 수 있으며, 후술하는 제2 이미지 처리부, 제1 이미지 처리부 또는 차선 검출부에 포함될 수 있다. 또한, 프로세서의 기능을 수행하는 별도의 모듈이 장착될 수 있다.Image data captured by an image sensor may be generated, for example, in one of the following formats: raw AVI, MPEG-4, H.264, DivX, or JPEG. For example, image data captured from a front image sensor or a side image sensor may be processed by the processor. Here, the processor may be included in each image sensor, and may be included in a second image processing unit, a first image processing unit, or a lane detection unit, which will be described later. Additionally, a separate module that performs the functions of a processor may be installed.

도 2는 일 실시예에 따른 차선 검출 과정을 간단하게 설명하기 위한 도면이다.FIG. 2 is a diagram briefly illustrating a lane detection process according to an embodiment.

차선 검출 장치는 자차량에 탑재되어 자차량이 주행하는 차선이나 인근 차선을 검출할 수 있다. 일 예로, 차선 검출 장치는 자차량의 주변이 촬영된 이미지 데이터를 수신하고, 이미지 데이터를 기초로 미리 정해진 갯수의 그리드(Grid)로 분할하고, 이미지 데이터에서 차선이 포함되었다고 판단되는 그리드를 검출하고, 이미지 데이터를 기초로 차선이 포함되었다고 판단되는 섹터를 검출하고, 차선이 포함된 그리드 및 차선이 포함된 섹터를 기초로 차선을 검출할 수 있다.The lane detection device is mounted on the vehicle and can detect the lane in which the vehicle is traveling or nearby lanes. As an example, the lane detection device receives image data captured around the vehicle, divides it into a predetermined number of grids based on the image data, and detects a grid that is determined to contain a lane in the image data. , A sector determined to contain a lane may be detected based on image data, and a lane may be detected based on the grid containing the lane and the sector containing the lane.

차선 검출 장치는 이미지 데이터를 수신하여, 두 가지의 방법(Row-wise Classification, Segmentation)을 통해 각각의 차선을 검출하고, 후처리(Post Processing)을 수행하여 차선을 검출할 수 있다.The lane detection device can receive image data, detect each lane through two methods (Row-wise Classification, Segmentation), and detect the lanes by performing post processing.

도 3은 일 실시예에 따른 제1 이미지 처리부가 이미지 데이터를 처리하여 차선을 검출하는 것을 설명하기 위한 도면이다.FIG. 3 is a diagram illustrating how a first image processor detects a lane by processing image data according to an embodiment.

도 3을 참조하면, 이미지 데이터를 기초로 차선이 포함되었다고 판단되는 섹터를 검출할 수 있다.Referring to FIG. 3, a sector determined to contain a lane can be detected based on image data.

일 예에서, 제1 이미지 처리부는 미리 지정된 기법(예 : Mask R CNN 기법)을 활용하여 이미지(예 : 프레임 이미지)내의 객체들을 검출하고, 객체들을 인스턴스(instance) 단위로 구분할 수 있다. 그리고, 제1 이미지 처리부는 객체들의 클래스를 분류할 수 있다.In one example, the first image processing unit may detect objects in an image (e.g., frame image) using a pre-specified technique (e.g., Mask R CNN technique) and classify the objects on an instance basis. Additionally, the first image processing unit may classify classes of objects.

여기서 전술한 Mask R CNN 기법은, 2017년에 제안된 기술로서 이미지에서 인스턴스 객체(instance object) 기술을 인식하는데 가장 좋은 알고리즘 중에 하나로서, 이미지내에서 인스턴스 객체에 해당하는 모든 픽셀들이 찾아질 수 있다.The Mask R CNN technique described above is a technology proposed in 2017 and is one of the best algorithms for recognizing instance object technology in images, and all pixels corresponding to instance objects can be found in the image. .

여기서 전술한 이미지(예: 프레임 이미지) 내에는 검출해야 하는 다양한 객체들이 존재하는데, 이 중 같은 속성을 가지는 객체를 묶어서 정의하는 것을 클래스(class)라고 한다. 그리고 적용하는 어플리케이션에 따라 클래스의 형태는 가변적이다. 이 때 정의된 클래스의 형태에 따라서, 동일한 객체일 수도 있으며 다른 객체일 수도 있다.Here, there are various objects that need to be detected in the above-mentioned image (e.g., frame image), and among these, objects that have the same properties are grouped and defined and are called classes. And the form of the class is variable depending on the application to which it is applied. At this time, depending on the type of class defined, it may be the same object or a different object.

예를 들어, 하늘(sky) 클래스가 있다고 할 때 이미지(예: 프레임 이미지)내에 서로 고립된 하늘(sky) 영역이 두 군데 이상에서 나타날 수 있는데, 이 때 이 영역들은 같은 객체(object)가 되는 것이다. 또한 야채와 같이 서로 다른 객체이지만 경계가 애매하여 구분이 어려운 경우에는 객체 구분을 하지 않고 클래스만 정의하고 있다. 그러나 교통 표지판(traffic signs), 자동차(car), 보행자(pedestrian), 자전거(bicycle)와 같은 클래스를 정의할 때, 이 각각의 객체들은 경계 가 명확하고 때에 따라서 구분하여 인식하는 것이 중요한 정보이기에 각 객체를 필수적으로 구분한다.For example, when there is a sky class, isolated sky areas may appear in two or more places within an image (e.g. frame image). In this case, these areas are the same object. will be. Also, in cases where objects are different, such as vegetables, but the boundaries are vague and difficult to distinguish, only classes are defined without distinguishing between objects. However, when defining classes such as traffic signs, cars, pedestrians, and bicycles, each of these objects has clear boundaries and it is important information to distinguish them depending on the time. Objects are essentially distinguished.

이 때 전술한 바와 같이 구분하는 각 객체를 인스턴스 객체(instance object)라고 할 수 있다.At this time, each object classified as described above may be referred to as an instance object.

도 4는 일 실시예에 따른 섹터 검출 결과에 대해서 모폴로지 연산하는 것을 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining a morphology operation on a sector detection result according to an embodiment.

도 4를 참조하면, 일 예에서, 제1 이미지 처리부는 섹터 검출 결과에 대해서 모폴로지 연산을 수행하여 배경 노이즈를 제거할 수 있다. 여기서, 모폴로지 연산은, 예를 들면, 3번의 침식(erosion)과 3번의 팽창(dilation)을 3x3 커널(kernel)을 사용하여 처리할 수 있다. 제1 이미지 처리부는 침식을 통해 배경 노이즈들을 제거하고 팽창을 통해 감소된 차선 픽셀을 다시 증가하도록 처리할 수 있다.Referring to FIG. 4 , in one example, the first image processor may remove background noise by performing a morphology operation on the sector detection result. Here, the morphology operation, for example, 3 erosions and 3 dilations can be processed using a 3x3 kernel. The first image processor may remove background noise through erosion and increase the reduced suboptimal pixels again through dilation.

도 5는 일 실시예에 따른 제2 이미지 처리부가 이미지 데이터를 처리하여 차선을 검출하는 것을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating how a second image processor detects a lane by processing image data according to an embodiment.

도 5를 참조하면, 제2 이미지 처리부는 이미지 데이터를 기초로 미리 정해진 갯수의 그리드(Grid)로 분할하고, 이미지 데이터에서 차선이 포함되었다고 판단되는 그리드를 검출할 수 있다. 이에 따라, 도 3에서, 제2 이미지 처리부가 좌측 차선과 우측 차선을 포함하는 그리드가 검출되는 것을 확인할 수 있다.Referring to FIG. 5, the second image processor may divide the image data into a predetermined number of grids and detect a grid that is determined to contain a lane in the image data. Accordingly, in FIG. 3, it can be seen that the second image processing unit detects a grid including the left lane and the right lane.

이러한 그리드로 분할하고 차선을 검출하는 것은 Row-wise classification 방법을 활용할 수 있다. 구체적으로, Row-wise classification 방법은 그리드 기반의 분류방법을 의미할 수 있으며, 들어온 이미지를 일정 그리드 갯수로 분할한 뒤 각 그리드가 차선인지 아닌지를 분류할 수 있다.Row-wise classification methods can be used to divide into such grids and detect lanes. Specifically, the row-wise classification method may refer to a grid-based classification method, and can divide the incoming image into a certain number of grids and then classify whether each grid is a lane or not.

차선 검출부는 차선이 포함된 그리드 및 차선이 포함된 섹터를 기초로 차선을 검출할 수 있다.The lane detection unit may detect the lane based on the grid containing the lane and the sector containing the lane.

도 6은 일 실시예에 따른 이미지 데이터를 동일한 간격을 갖는 복수의 y축 좌표로 분할하는 것을 설명하기 위한 도면이다.FIG. 6 is a diagram illustrating dividing image data into a plurality of y-axis coordinates with equal intervals, according to an embodiment.

도 6을 참조하면, 차선 검출부는 이미지 데이터에서 동일한 간격을 갖는 복수의 y축 좌표를 고정 좌표로 설정할 수 있다. 즉, 도 6과 같이 이미지 데이터를 균등하게 분할하는 복수의 가로선을 설정할 수 있다. 여기서, y축 좌표는 이미지 데이터를 x값과 y값을 갖는 좌표들로 구성된 x-y윈도우로 맵핑할 수 있다. 이에 따라, 이미지 데이터에 포함된 특정 섹터는 x값과 y값을 갖는 특정 좌표로 표현될 수 있다.Referring to FIG. 6, the lane detection unit may set a plurality of y-axis coordinates at equal intervals in the image data as fixed coordinates. That is, as shown in FIG. 6, a plurality of horizontal lines that equally divide the image data can be set. Here, the y-axis coordinate can map image data to an x-y window consisting of coordinates with x and y values. Accordingly, a specific sector included in image data can be expressed as specific coordinates with x and y values.

전술한 복수의 가로선은 TuSimple Dataset의 평가 방법일 수 있다. 그리고, 이미지 데이터에서 차선이 일부만 검출되는 경우, 차선 검출부는 검출되지 않는 영역에 y축 고정 좌표를 설정하지 않을 수 있다. 즉, 차선 검출부는 차선이 검출되는 영역에서는 동일한 간격을 갖는 복수의 가로선을 설정하고, 차선이 검출되지 않은 영역에서는 가로선을 설정하지 않을 수 있다.The plurality of horizontal lines described above may be an evaluation method of TuSimple Dataset. Additionally, when only a portion of the lane is detected in the image data, the lane detection unit may not set the y-axis fixed coordinates to the non-detected area. That is, the lane detection unit may set a plurality of horizontal lines with equal intervals in areas where lanes are detected, and may not set horizontal lines in areas where lanes are not detected.

도 6을 참조하면, 일 예에서 차선 검출부는 이미지 데이터의 하단에서 10의 간격으로 56개의 y축 고정 좌표를 설정할 수 있다.Referring to FIG. 6, in one example, the lane detection unit may set 56 y-axis fixed coordinates at intervals of 10 at the bottom of the image data.

도 7은 일 실시예에 따른 제1 이미지 처리부가 이미지 데이터에서 차선을 검출하는 것을 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating how a first image processor detects a lane line from image data according to an embodiment.

도 7을 참조하면, 제1 이미지 처리부는 차선이 검출되지 않는 폐색(Occlusion) 현상이 발생할 때(b)와 발생하지 않을 때(a)를 구분할 수 있다. 여기서 폐색 현상은 특정 객체에 의해서 차선이 가려지는 현상을 의미할 수 있다.Referring to FIG. 7, the first image processing unit can distinguish between when an occlusion phenomenon in which a lane is not detected occurs (b) and when it does not occur (a). Here, the occlusion phenomenon may mean a phenomenon in which a lane is obscured by a specific object.

도 8은 일 실시예에 따른 폐색 현상의 종류를 설명하기 위한 도면이다.Figure 8 is a diagram for explaining types of occlusion phenomenon according to one embodiment.

이러한 현상은 자차량의 주행 환경에서 빈번하게 발생할 수 있으므로, 차선을 검출할 때 검출되는 차선에 폐색 현상이 발생하는 경우, 복수 개의 케이스(Case)로 분류할 수 있다. 도 8을 참조하여 예를 들면, 차선 검출부는 폐색 현상(810)이 발생한 경우, 폐색 현상(810)이 발생한 위치에 따라, 상단(Top)(a), 중단(Mid)(b) 및 하단(Bottom)(c) 등으로 분류할 수 있다. 그리고, 차선 검출부는 이러한 분류를 기초로 후처리를 진행하여 차선을 검출할 수 있다.Since this phenomenon can occur frequently in the driving environment of the own vehicle, when a blockage phenomenon occurs in a detected lane when detecting a lane, it can be classified into a plurality of cases. Referring to FIG. 8 , for example, when a blockage phenomenon 810 occurs, the lane detection unit determines the top (a), middle (b), and bottom ( Bottom)(c), etc. Additionally, the lane detection unit may detect the lane by performing post-processing based on this classification.

전술한 폐색 현상(810)에 대한 케이스 분류를 위해, 차선 검출부는 차선이 포함된 섹터 및 차선이 포함된 그리드에 포함되는 좌표 중 고정 좌표와 중복되는 y축 좌표를 갖는 좌표를 핵심 좌표로 설정하고, 핵심 좌표를 기초로 차선을 검출할 수 있다.In order to classify cases for the above-described occlusion phenomenon 810, the lane detection unit sets as the core coordinate a coordinate having a y-axis coordinate that overlaps the fixed coordinate among the coordinates included in the sector containing the lane and the grid containing the lane, , lanes can be detected based on key coordinates.

구체적으로, 차선 검출부는 차선에 포함된 그리드에 포함되는 좌표를 산출할 수 있다.Specifically, the lane detection unit may calculate coordinates included in the grid included in the lane.

도 9는 일 실시예에 따른 제2 이미지 처리부가 이미지 데이터에서 차선을 검출하는 것을 설명하기 위한 도면이다.FIG. 9 is a diagram illustrating how a second image processor detects a lane line from image data according to an embodiment.

도 9를 참조하면, 차선 검출부는 제2 이미지 처리부가 검출한 그리드에서 적어도 하나의 x값과 y값을 갖는 좌표를 산출할 수 있다. 따라서, n개의 그리드가 검출되면, 차선 검출부는 각각의 그리드에서 총합 n개 이상의 좌표를 산출할 수 있다. 여기서, 각각의 그리드에서 산출되는 좌표값은 각 그리드의 중심값으로 산출될 수 있으며, 산출된 좌표값이 검출된 그리드에 포함될 수 있다면 특정 기준에 한정되지 않는다.Referring to FIG. 9, the lane detection unit may calculate coordinates having at least one x value and one y value from the grid detected by the second image processing unit. Accordingly, when n grids are detected, the lane detection unit can calculate a total of n or more coordinates in each grid. Here, the coordinate value calculated from each grid can be calculated as the center value of each grid, and is not limited to a specific standard as long as the calculated coordinate value can be included in the detected grid.

도 10은 일 실시예에 따른 핵심 좌표 및 후보 좌표를 산출하는 것을 설명하기 위한 도면이다.Figure 10 is a diagram for explaining calculating core coordinates and candidate coordinates according to an embodiment.

도 10을 참조하면, 차선 검출부는 제1 이미지 처리부에서 검출된 픽셀들 중 미리 설정된 y축 고정 좌표에 해당하는 픽셀들의 x축 범위 a에 제2 이미지 처리부에서 검출된 그리드 산출된 좌표가 y축 고정 좌표를 갖고 있고, x축 범위 a에 포함되는 경우, 해당 좌표를 핵심 좌표(910)로 설정할 수 있다.Referring to FIG. 10, the lane detection unit determines the grid-calculated coordinates detected by the second image processor in the x-axis range a of the pixels corresponding to the preset y-axis fixed coordinates among the pixels detected by the first image processor. If you have a coordinate and it is included in the x-axis range a, that coordinate can be set as the core coordinate (910).

그리고, 제1 이미지 처리부는 차선이 포함된 섹터와 미리 정해진 거리 이내에 존재하는 인접 섹터들을 더 추출할 수 있고, 차선 검출부는 인접 섹터들이 갖는 x축 범위(b)에 전술한 그리드에 포함된 좌표가 y축 고정 좌표를 갖고 있고, x좌표가 도 10의 b 범위에 포함되는 경우, 해당 좌표를 후보 좌표로 설정할 수 있다.In addition, the first image processing unit may further extract adjacent sectors that exist within a predetermined distance from the sector containing the lane, and the lane detection unit may detect the coordinates included in the above-described grid in the x-axis range (b) of the adjacent sectors. If there is a fixed y-axis coordinate and the x-coordinate is included in the b range of FIG. 10, the corresponding coordinate can be set as a candidate coordinate.

일 예에서, 차선 검출부는 전술한 바에 따라 산출된 핵심 좌표가 미리 정해진 개수 이하인 경우, 차선이 없다고 판단할 수 있다. 예를 들면, 차선 검출부는 산출된 핵심 좌표가 4개 이하인 경우, 자차량이 주행하는 차로의 차선이 없다고 판단할 수 있다.In one example, the lane detection unit may determine that there is no lane if the core coordinates calculated as described above are less than a predetermined number. For example, if the calculated core coordinates are four or less, the lane detection unit may determine that there is no lane in the lane in which the host vehicle is traveling.

도 11은 일 실시예에 따른 검출된 차선을 3가지 케이스로 분류하는 것을 설명하기 위한 도면이다.FIG. 11 is a diagram illustrating classification of detected lanes into three cases according to an embodiment.

차선 검출부는 핵심 좌표와 후보 좌표 간에 적응적 위치 비교를 수행하여 후보 좌표들을 상단, 중단 및 하단으로 분류하고, 분류된 상단, 중단 및 하단의 각 경계에 포함되는 핵심 좌표 및 후보 좌표들의 위치를 기초로 차선을 검출할 수 있다.The lane detection unit performs adaptive position comparison between core coordinates and candidate coordinates and classifies candidate coordinates into top, middle, and bottom, based on the positions of the core coordinates and candidate coordinates included in each boundary of the classified top, middle, and bottom. You can detect lanes with

도 11을 참조하며 예를 들면, 차선 검출부는 핵심 좌표 중 y축 최하단 핵심 좌표 a와 후보 좌표 b간에 y축 값을 비교하여, 후보 좌표가 핵심 좌표보다 하단에 위치하는 경우, 해당 핵심 좌표 a부터 y축 최상단 핵심 좌표까지 포함된 후보 좌표들을 중단 c로, 해당 후보 좌표 b부터 y축 최하단 후보 좌표까지 포함되는 후보 좌표들을 하단 d로 분류할 수 있다.Referring to FIG. 11, for example, the lane detection unit compares the y-axis value between the core coordinate a at the bottom of the y-axis and the candidate coordinate b among the core coordinates, and if the candidate coordinate is located below the core coordinate, starting from the core coordinate a. Candidate coordinates including the key coordinates at the top of the y-axis can be classified as middle c, and candidate coordinates including from the candidate coordinate b to the bottom of the y-axis can be classified as bottom d.

마찬가지로, 차선 검출부는 핵심 좌표 중 y축 최상단 핵심 좌표와 후보 좌표 간에 y축 값을 비교하여 후보 좌표가 핵심 좌표보다 상단에 위치하는 경우, 해당 핵심 좌표부터 y축 최하단 핵심 좌표까지 포함된 후보 좌표들을 중단으로, 해당 부호 좌표부터 y축 최상단 후보 좌표까지 포함되는 후보 좌표들을 상단으로 분류할 수 있다.Likewise, the lane detection unit compares the y-axis value between the core coordinate at the top of the y-axis and the candidate coordinate among the core coordinates, and if the candidate coordinate is located above the core coordinate, the candidate coordinates included from the core coordinate to the bottom core coordinate on the y-axis are compared. As a stop, the candidate coordinates included from the corresponding sign coordinate to the top candidate coordinate of the y-axis can be classified into the top.

여기서, 핵심 좌표의 최상단 및 최하단 y값 좌표는 핵심 좌표 영역에 포함되는 핵심 좌표들 중에서 선정될 수 있다. Here, the top and bottom y-value coordinates of the core coordinates may be selected from among the core coordinates included in the core coordinate area.

일 예에서, 핵심 좌표 영역에 포함되는 핵심 좌표들은 각각 가장 가까운 핵심 좌표가 미리 정해진 거리 이내에 위치할 수 있다.In one example, the core coordinates included in the core coordinate area may each be located within a predetermined distance from the nearest core coordinate.

다른 일 예에서, 핵심 좌표 영역이 복수 개인 경우, 차선 검출부는 가장 핵심 좌표가 많이 포함된 핵심 좌표 영역을 기초로 이미지 데이터에서 검출된 후보 좌표들을 상단, 중단 및 하단으로 분류할 수 있다.In another example, when there are multiple core coordinate areas, the lane detection unit may classify the candidate coordinates detected from the image data into top, middle, and bottom based on the core coordinate area containing the most core coordinates.

도 12는 일 실시예에 따른 후보 좌표를 후처리하는 것을 설명하기 위한 도면이다.Figure 12 is a diagram for explaining post-processing of candidate coordinates according to an embodiment.

차선 검출부는 중단에 포함되는 좌표 중 최하단 좌표와 차하단 좌표를 지나는 제1 직선과 최하단 좌표와 하단에 포함되는 좌표 중 최상단 좌표를 지나는 제2 직선이 이루는 사이각이 기준각 이하인 경우, 제1 직선 및 제2 직선이 포함하는 좌표들을 핵심 좌표로 설정할 수 있다.If the angle between the first straight line passing through the lowest coordinate and the lowest coordinate among the coordinates included in the middle stop and the second straight line passing through the highest coordinate among the lowest coordinates and the bottom coordinate is less than or equal to the reference angle, the first straight line And the coordinates included in the second straight line can be set as key coordinates.

도 12를 참조하여 예를 들면, 차선 검출부는 중단 a에 포함된 좌표 중 최하단 핵심 좌표 b와 차하단 핵심 좌표 c가 지나는 제1 직선(1210)과 최하단 핵심 좌표 b와 하단 d에 포함된 좌표 중 최상단 후보 좌표 e가 지나는 제2 직선(1220)이 이루는 사이각을 산출하고, 산출된 사이각이 기준각 이하인 경우, 후보 좌표 e를 핵심 좌표로 설정할 수 있다.Referring to FIG. 12 , for example, the lane detection unit detects a first straight line 1210 through which the bottom core coordinate b and the bottom core coordinate c among the coordinates included in middle a and the coordinates included in the bottom core coordinate b and bottom d. The included angle formed by the second straight line 1220 passing through the top candidate coordinate e is calculated, and if the calculated included angle is less than or equal to the reference angle, the candidate coordinate e can be set as the core coordinate.

마찬가지로, 차선 검출부는 중단에 포함된 좌표 중 최상단 핵심 좌표와 차상단 핵심 좌표를 지나는 직선과 전술한 최상단 핵심 좌표와 상단에 포함된 좌표 중 최하단 후보 좌표를 지나는 직선이 이루는 사이각이 기준각 이하인 경우, 최하단 후보 좌표를 핵심 좌표로 설정할 수 있다.Likewise, the lane detection unit detects when the angle between the straight line passing through the top key coordinate and the next top core coordinate among the coordinates included in the middle and the straight line passing through the lowest candidate coordinate among the coordinates included in the top and the top core coordinate described above is less than the reference angle. , the lowest candidate coordinates can be set as the core coordinates.

그리고, 차선 검출부는 중단에 포함된 후보 좌표에 대하여, 중단의 중심에서 최단거리에 위치한 핵심 좌표와 두 번째로 가까운 거리에 위치한 핵심 좌표를 지나는 직선을 기준으로 상단 또는 하단과 같이 인접한 좌표에 대한 직선을 비교하여 후보 좌표들을 사이각에 따라 핵심 좌표로 설정할 수 있다. 여기서, 중단의 중심은 중단의 y축 최상단 값과 y축 최하단 값의 중간 값일 수 있다. 그리고, 중심에서 가장 가까운 거리는 y축 거리일 수 있다.And, for the candidate coordinates included in the interruption, the lane detection unit is based on a straight line passing through the core coordinate located at the shortest distance from the center of the interruption and the core coordinate located at the second closest distance, and a straight line to adjacent coordinates such as the top or bottom. Candidate coordinates can be set as key coordinates according to the included angle by comparing . Here, the center of the break may be the middle value between the top value of the y-axis and the bottom value of the y-axis. And, the closest distance from the center may be the y-axis distance.

전술한 사이각은 아래의 [수학식 1]을 통해 산출될 수 있다.The above-mentioned included angle can be calculated through [Equation 1] below.

[수학식 1][Equation 1]

도 13은 일 실시예에 따른 핵심 좌표들에 대해 스플라인 피팅 알고리즘을 수행하는 것을 설명하기 위한 도면이다.FIG. 13 is a diagram illustrating performing a spline fitting algorithm on key coordinates according to an embodiment.

도 13을 참조하면, 차선 검출부는 스플라인 피팅(Spline fitting) 알고리즘을 수행하여 산출된 핵심 좌표들의 위치를 보정할 수 있다.Referring to FIG. 13, the lane detection unit may correct the positions of key coordinates calculated by performing a spline fitting algorithm.

이러한 스플라인 피팅 알고리즘은 아래의 수학식 2를 통해 수행될 수 있다.This spline fitting algorithm can be performed through Equation 2 below.

[수학식 2][Equation 2]

일 예에서, 차선 검출 장치는 핵심 좌표들을 포함하는 핵심 좌표 영역을 차선으로 검출할 수 있다.In one example, the lane detection device may detect a key coordinate area including key coordinates as a lane.

이에 따라, 본 개시에 따른 차선 검출 장치는 차선을 검출하는 복수의 방법을 통해 서로의 데이터를 비교하여, 오차를 줄이고, 후처리 시간을 단축시킬 수 있다. Accordingly, the lane detection device according to the present disclosure can compare data through a plurality of methods for detecting lanes, thereby reducing errors and shortening post-processing time.

이러한 차선 검출 장치는 전자 제어 유닛(Electronic Controller Unit; ECU), 마이컴 등으로 구현될 수 있다.This lane detection device can be implemented with an electronic control unit (ECU), microcomputer, etc.

일 실시예에서, 차선 검출 장치 등의 컴퓨터 시스템(미도시됨)은 전자 제어 유닛으로 구현될 수 있다. 전자 제어 유닛은 하나 이상의 프로세서, 메모리, 저장부, 사용자 인터페이스 입력부 및 사용자 인터페이스 출력부 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스를 통해 서로 통신할 수 있다. 또한, 컴퓨터 시스템은 네트워크에 접속하기 위한 네트워크 인터페이스를 또한 포함할 수 있다. 프로세서는 메모리 및/또는 저장소에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리 및 저장부는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM 및 RAM을 포함할 수 있다.In one embodiment, a computer system (not shown), such as a lane detection device, may be implemented as an electronic control unit. The electronic control unit may include at least one of one or more processors, memory, storage, user interface input, and user interface output, which may communicate with each other through a bus. Additionally, the computer system may also include a network interface for connecting to a network. A processor may be a CPU or a semiconductor device that executes processing instructions stored in memory and/or storage. Memory and storage may include various types of volatile/non-volatile storage media. For example, memory may include ROM and RAM.

일 예에서, 아래는 전술한 본 개시를 모두 수행할 수 있는 예시적인 코딩 데이터이다.In one example, below is exemplary coding data that can carry out all of the foregoing disclosure.

# Input: Segmentation S, Row-wise classification C, # Input: Segmentation S, Row-wise classification C,

# Coordinates Threshold CT, Angle Threshold AT# Coordinates Threshold CT, Angle Threshold AT

# Output: Coordinates of lanes# Output: Coordinates of lanes

# 노이즈 제거를 위한 모폴로지 연산# Morphology calculation for noise removal

morp_map <- dilate(erode(S))morph_map <- dilate(erode(S))

for x, y in points dofor x, y in points do

S_guide <- where(S==255) S_guide <- where(S==255)

if len(S_guide) == 0 if len(S_guide) == 0

Candidate <- (x,y) Candidate <- (x,y)

Continue Continue

# AND 연산을 위한 S 결과의 x좌표 범위 계산 # Calculate the x-coordinate range of the S result for AND operation

max_width <- max(S_guide_width) + margin max_width <- max(S_guide_width) + margin

min_width <- min(S_guide_width) - margin min_width <- min(S_guide_width) - margin

# S와 C의 x좌표에 대해 AND 연산을 통한 핵심 좌표들(core)와 후보 좌표들(candidate) 분류 # Classification of core coordinates and candidate coordinates through AND operation for x-coordinates of S and C

if AND(S, C) then if AND(S, C) then

Candidate <- (x, y) Candidate <- (x, y)

continue continue

Core <- (x, y) Core <- (x, y)

else else

if y not in S if y not in S

Candidate <- (x, y) Candidate <- (x, y)

# 핵심 좌표들의 개수 > 좌표 개수의 임계값 (Coordinate Threshold) # Number of core coordinates > Coordinate Threshold

if len(core) < CT if len(core) < CT

continue continue

# 적응적 위치 비교를 통해 후보 좌표들을 Top, Mid, Bottom으로 분할 # Divide candidate coordinates into Top, Mid, and Bottom through adaptive position comparison

if len(candidate) > 0 if len(candidate) > 0

# Top, Mid, Bottom의 후보 좌표들과 핵심 좌표간의 벡터 생성 및 벡터 간의 내적 계산 # Create a vector between the candidate coordinates of Top, Mid, Bottom and the core coordinates and calculate the inner product between the vectors

if candidate의 y좌표 < core의 가장 낮은 y좌표 if candidate's y-coordinate < lowest y-coordinate of core

bottom_angle <- inner_product(vector1, vector2) bottom_angle <- inner_product(vector1, vector2)

elif candidate의 좌표 > core의 가장 높은 y좌표 Coordinates of elif candidate > Highest y coordinate of core

top_angle <- inner_product(vector1, vector2) top_angle <- inner_product(vector1, vector2)

else else

mid_angle <- inner_product(vector1, vector2) mid_angle <- inner_product(vector1, vector2)

# 내적을 통해 계산된 후보 좌표들의 각도가 AT보다 크면 Top, Mid, Bottom의 후보 좌표들을 핵심 좌표로 분류 # If the angle of the candidate coordinates calculated through the inner product is greater than AT, the candidate coordinates of Top, Mid, and Bottom are classified as core coordinates.

if top_angle < AT or bottom_angle < AT or mid_angle < AT if top_angle < AT or bottom_angle < AT or mid_angle < AT

core <- candidate core <- candidate

# 핵심 좌표들의 smooth한 위치보정을 위해 spline fitting 적용 -> 최종결과는 각 차선의 좌표정보 # Apply spline fitting for smooth position correction of key coordinates -> Final result is coordinate information of each lane

Coordinates of lane <- Spline_fitting(core) Coordinates of lane <- Spline_fitting(core)

이하에서는 전술한 본 개시를 모두 수행할 수 있는 차선 검출 장치를 이용하는 차선 검출 방법에 대해 설명하기로 한다.Hereinafter, a lane detection method using a lane detection device that can perform all of the above-described present disclosure will be described.

도 14는 본 개시의 일 실시예에 따른 차선 검출 방법을 설명하는 흐름도이다.Figure 14 is a flowchart explaining a lane detection method according to an embodiment of the present disclosure.

도 14를 참조하면, 본 개시의 차선 검출 방법은 자차량의 주변이 촬영된 이미지 데이터를 수신하는 이미지 수신 단계(S1410), 이미지 데이터를 기초로 차선이 포함되었다고 판단되는 섹터를 검출하는 제1 이미지 처리 단계(S1420), 이미지 데이터를 기초로 미리 정해진 갯수의 그리드(Grid)로 분할하고, 이미지 데이터에서 차선이 포함되었다고 판단되는 그리드를 검출하는 제2 이미지 처리 단계(S1430) 및 차선이 포함된 그리드 및 차선이 포함된 섹터를 기초로 차선을 검출하는 차선 검출 단계(S1440)를 포함할 수 있다.Referring to FIG. 14, the lane detection method of the present disclosure includes an image receiving step (S1410) of receiving image data in which the surroundings of the own vehicle are photographed, and a first image detecting a sector determined to contain a lane based on the image data. Processing step (S1420), dividing the image data into a predetermined number of grids, and detecting a grid that is determined to contain a lane in the image data (S1430), and a grid containing the lane And it may include a lane detection step (S1440) in which a lane is detected based on the sector containing the lane.

차선 검출 단계(S1440)는 이미지 데이터에서 동일한 간격을 갖는 복수의 y축 좌표를 고정 좌표로 설정하고, 차선이 포함된 섹터 및 차선이 포함된 그리드에 포함되는 좌표 중 고정 좌표와 중복되는 y축 좌표를 갖는 좌표를 핵심 좌표로 설정하고, 핵심 좌표를 기초로 차선을 검출할 수 있다.In the lane detection step (S1440), a plurality of y-axis coordinates having equal intervals in the image data are set as fixed coordinates, and a y-axis coordinate that overlaps the fixed coordinate among the coordinates included in the sector containing the lane and the grid containing the lane Coordinates with are set as core coordinates, and lanes can be detected based on the core coordinates.

제1 이미지 처리 단계(S1420)는 차선이 포함된 섹터와 미리 정해진 거리 이내에 존재하는 인접 섹터들을 더 추출할 수 있다.The first image processing step (S1420) may further extract adjacent sectors that exist within a predetermined distance from the sector containing the lane.

차선 검출 단계(S1440)는 인접 섹터 및 차선이 포함된 그리드에 포함되는 좌표 중 고정 좌표와 중복되는 y축 좌표를 갖는 좌표를 후보 좌표로 산출하고, 핵심 좌표 및 후보 좌표를 기초로 차선을 검출할 수 있다.In the lane detection step (S1440), among the coordinates included in the grid containing adjacent sectors and lanes, coordinates with y-axis coordinates overlapping with fixed coordinates are calculated as candidate coordinates, and lanes are detected based on the core coordinates and candidate coordinates. You can.

차선 검출 단계(S1440)는 핵심 좌표와 후보 좌표 간에 적응적 위치 비교를 수행하여 후보 좌표들을 상단, 중단 및 하단으로 분류하고, 분류된 상단, 중단 및 하단의 각 경계에 포함되는 핵심 좌표 및 후보 좌표들의 위치를 기초로 차선을 검출할 수 있다.The lane detection step (S1440) performs an adaptive position comparison between the core coordinates and the candidate coordinates to classify the candidate coordinates into top, middle, and bottom, and the core coordinates and candidate coordinates included in each boundary of the classified top, middle, and bottom. Lanes can be detected based on their locations.

차선 검출 단계(S1440)는 중단에 포함되는 좌표 중 최하단 좌표와 차하단 좌표를 지나는 제1 직선과 최하단 좌표와 하단에 포함되는 좌표 중 최상단 좌표를 지나는 제2 직선이 이루는 사이각이 기준각 이하인 경우, 제1 직선 및 제2 직선이 포함하는 좌표들을 핵심 좌표로 설정하고, 핵심 좌표들을 포함하는 핵심 좌표 영역을 차선으로 검출할 수 있다.The lane detection step (S1440) is performed when the angle between the first straight line passing through the lowest coordinate and the lowest coordinate among the coordinates included in the stop and the second straight line passing through the highest coordinate among the lowest coordinate and the bottom coordinate is less than or equal to the reference angle. , the coordinates included in the first straight line and the second straight line can be set as core coordinates, and the core coordinate area including the core coordinates can be detected as a lane.

이상에서 설명한 바와 같이, 본 개시에 의하면, 차선 검출 장치 및 방법은 복수의 검출 방법을 통해 검출 결과를 보정하여 정확도를 높일 수 있고, 다른 한 검출 데이터를 고려하여 후처리 속도를 향상시킬 수 있다. As described above, according to the present disclosure, the lane detection apparatus and method can improve accuracy by correcting detection results through a plurality of detection methods, and can improve post-processing speed by considering other detection data.

이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present disclosure, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. In addition, the present embodiments are not intended to limit the technical idea of the present disclosure, but rather to explain it, so the scope of the present technical idea is not limited by these embodiments. The scope of protection of this disclosure should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this disclosure.

10: 차선 검출 장치 110: 이미지 수신부
120: 제1 이미지 처리부 130: 제2 이미지 처리부
140: 차선 검출부
10: lane detection device 110: image receiver
120: first image processing unit 130: second image processing unit
140: Lane detection unit

Claims (12)

자차량의 주변이 촬영된 이미지 데이터를 수신하는 이미지 수신부;
상기 이미지 데이터를 기초로 차선이 포함되었다고 판단되는 섹터를 검출하는 제1 이미지 처리부;
상기 이미지 데이터를 기초로 미리 정해진 갯수의 그리드(Grid)로 분할하고, 상기 이미지 데이터에서 차선이 포함되었다고 판단되는 그리드를 검출하는 제2 이미지 처리부; 및
상기 차선이 포함된 섹터 및 상기 차선이 포함된 그리드를 기초로 상기 차선을 검출하는 차선 검출부를 포함하되,
상기 제1 이미지 처리부는,
상기 차선이 포함된 섹터와 미리 정해진 거리 이내에 존재하는 인접 섹터들을 더 추출하고,
상기 차선 검출부는,
상기 이미지 데이터에서 동일한 간격을 갖는 복수의 y축 좌표를 고정 좌표로 설정하고, 상기 차선이 포함된 섹터 및 상기 차선이 포함된 그리드에 포함되는 좌표 중 상기 고정 좌표와 중복되는 y축 좌표를 갖는 좌표를 핵심 좌표로 설정하며,
상기 인접 섹터 및 상기 차선이 포함된 그리드에 포함되는 좌표 중 상기 고정 좌표와 중복되는 y축 좌표를 갖는 좌표를 후보 좌표로 설정하되,
설정된 상기 핵심 좌표가 미리 정해진 개수 이하인 경우, 주행하는 차로의 차선이 없다고 판단하고,
상기 핵심 좌표와 상기 후보 좌표 간에 적응적 위치 비교를 수행하여 상기 후보 좌표들을 상단, 중단 및 하단으로 분류하되,
상기 핵심 좌표 중 y축 최하단 핵심 좌표와 y축 최하단 핵심 좌표와 인접한 후보 좌표간에 y축 값을 비교하여, 후보 좌표가 y축 최하단 핵심 좌표보다 하단에 위치하는 경우, y축 최하단 핵심 좌표부터 y축 최상단 핵심 좌표까지 포함된 후보 좌표들을 중단으로 분류하고, y축 최하단 핵심 좌표와 인접한 후보 좌표부터 y축 최하단 후보 좌표까지 포함되는 후보 좌표들을 하단으로 분류하며,
상기 핵심 좌표 중 y축 최상단 핵심 좌표와 y축 최상단 핵심 좌표와 인접한 후보 좌표 간에 y축 값을 비교하여 후보 좌표가 y축 최상단 핵심 좌표보다 상단에 위치하는 경우, y축 최상단 핵심 좌표부터 y축 최하단 핵심 좌표까지 포함된 후보 좌표들을 중단으로 분류하고, y축 최상단 핵심 좌표와 인접한 후보 좌표부터 y축 최상단 후보 좌표까지 포함되는 후보 좌표들을 상단으로 분류하며,
분류된 상단, 중단 및 하단의 각 경계에 포함되는 상기 핵심 좌표 및 상기 후보 좌표들의 위치를 기초로 상기 차선을 검출하는 차선 검출 장치.
an image receiver that receives image data captured around the vehicle;
a first image processing unit that detects a sector determined to contain a lane based on the image data;
a second image processor that divides the image data into a predetermined number of grids and detects a grid that is determined to contain a lane in the image data; and
A lane detection unit that detects the lane based on a sector containing the lane and a grid containing the lane,
The first image processing unit,
Further extracting adjacent sectors that exist within a predetermined distance from the sector containing the lane,
The lane detection unit,
In the image data, a plurality of y-axis coordinates having the same spacing are set as fixed coordinates, and a coordinate having a y-axis coordinate overlapping with the fixed coordinate among coordinates included in a sector including the lane and a grid including the lane is set as the core coordinate,
Among the coordinates included in the grid including the adjacent sector and the lane, a coordinate having a y-axis coordinate overlapping with the fixed coordinate is set as a candidate coordinate,
If the set key coordinates are less than a predetermined number, it is determined that there is no lane for driving,
Perform adaptive position comparison between the key coordinates and the candidate coordinates to classify the candidate coordinates into top, middle, and bottom,
Among the core coordinates, the y-axis value is compared between the y-axis bottom core coordinate and the candidate coordinate adjacent to the y-axis bottom core coordinate, and if the candidate coordinate is located below the y-axis bottom core coordinate, the y-axis starts from the bottom core coordinate of the y-axis. Candidate coordinates including the top core coordinate are classified as middle, and candidate coordinates including from the candidate coordinate adjacent to the bottom core coordinate on the y-axis to the bottom candidate coordinate on the y-axis are classified as bottom.
Among the core coordinates, the y-axis value is compared between the key coordinate at the top of the y-axis and the candidate coordinate adjacent to the core coordinate at the top of the y-axis, and if the candidate coordinate is located above the core coordinate at the top of the y-axis, the core coordinate at the top of the y-axis to the bottom of the y-axis Candidate coordinates that include the core coordinates are classified as middle, and candidate coordinates that are included from the candidate coordinate adjacent to the core coordinate at the top of the y-axis to the candidate coordinate at the top of the y-axis are classified as top.
A lane detection device that detects the lane based on the positions of the core coordinates and the candidate coordinates included in each classified boundary of the top, middle, and bottom.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 차선 검출부는,
상기 중단에 포함되는 좌표 중 최하단 좌표와 차하단 좌표를 지나는 제1 직선과 상기 최하단 좌표와 상기 하단에 포함되는 좌표 중 최상단 좌표를 지나는 제2 직선이 이루는 사이각이 기준각 이하인 경우, 제1 직선 및 제2 직선이 포함하는 좌표들을 핵심 좌표로 설정하고,
상기 핵심 좌표들을 포함하는 핵심 좌표 영역을 상기 차선으로 검출하는 차선 검출 장치.
According to paragraph 1,
The lane detection unit,
If the angle formed between the first straight line passing through the lowest coordinate and the second lowest coordinate among the coordinates included in the middle stop and the second straight line passing through the highest coordinate among the lowest coordinate and the bottom coordinate is less than or equal to the reference angle, the first straight line And set the coordinates included in the second straight line as key coordinates,
A lane detection device that detects a core coordinate area including the core coordinates as the lane.
제1항에 있어서,
상기 제1 이미지 처리부는,
상기 섹터 검출 결과에 대해서 모폴로지 연산을 수행하여 배경 노이즈를 제거하는 차선 검출 장치.
According to paragraph 1,
The first image processing unit,
A lane detection device that removes background noise by performing a morphology operation on the sector detection result.
자차량의 주변이 촬영된 이미지 데이터를 수신하는 이미지 수신 단계;
상기 이미지 데이터를 기초로 차선이 포함되었다고 판단되는 섹터를 검출하는 제1 이미지 처리 단계;
상기 이미지 데이터를 기초로 미리 정해진 갯수의 그리드(Grid)로 분할하고, 상기 이미지 데이터에서 차선이 포함되었다고 판단되는 그리드를 검출하는 제2 이미지 처리 단계; 및
상기 차선이 포함된 섹터 및 상기 차선이 포함된 그리드를 기초로 상기 차선을 검출하는 차선 검출 단계를 포함하되,
상기 제1 이미지 처리 단계는,
상기 차선이 포함된 섹터와 미리 정해진 거리 이내에 존재하는 인접 섹터들을 더 추출하고,
상기 차선 검출 단계는,
상기 이미지 데이터에서 동일한 간격을 갖는 복수의 y축 좌표를 고정 좌표로 설정하고, 상기 차선이 포함된 섹터 및 상기 차선이 포함된 그리드에 포함되는 좌표 중 상기 고정 좌표와 중복되는 y축 좌표를 갖는 좌표를 핵심 좌표로 설정하며,
상기 인접 섹터 및 상기 차선이 포함된 그리드에 포함되는 좌표 중 상기 고정 좌표와 중복되는 y축 좌표를 갖는 좌표를 후보 좌표로 설정하되,
설정된 상기 핵심 좌표가 미리 정해진 개수 이하인 경우, 주행하는 차로의 차선이 없다고 판단하고,
상기 핵심 좌표와 상기 후보 좌표 간에 적응적 위치 비교를 수행하여 상기 후보 좌표들을 상단, 중단 및 하단으로 분류하되,
상기 핵심 좌표 중 y축 최하단 핵심 좌표와 y축 최하단 핵심 좌표와 인접한 후보 좌표간에 y축 값을 비교하여, 후보 좌표가 y축 최하단 핵심 좌표보다 하단에 위치하는 경우, y축 최하단 핵심 좌표부터 y축 최상단 핵심 좌표까지 포함된 후보 좌표들을 중단으로 분류하고, y축 최하단 핵심 좌표와 인접한 후보 좌표부터 y축 최하단 후보 좌표까지 포함되는 후보 좌표들을 하단으로 분류하며,
상기 핵심 좌표 중 y축 최상단 핵심 좌표와 y축 최상단 핵심 좌표와 인접한 후보 좌표 간에 y축 값을 비교하여 후보 좌표가 y축 최상단 핵심 좌표보다 상단에 위치하는 경우, y축 최상단 핵심 좌표부터 y축 최하단 핵심 좌표까지 포함된 후보 좌표들을 중단으로 분류하고, y축 최상단 핵심 좌표와 인접한 후보 좌표부터 y축 최상단 후보 좌표까지 포함되는 후보 좌표들을 상단으로 분류하며,
분류된 상단, 중단 및 하단의 각 경계에 포함되는 상기 핵심 좌표 및 상기 후보 좌표들의 위치를 기초로 상기 차선을 검출하는 차선 검출 방법.
An image receiving step of receiving image data captured around the vehicle;
A first image processing step of detecting a sector determined to contain a lane based on the image data;
A second image processing step of dividing the image data into a predetermined number of grids and detecting a grid that is determined to contain a lane in the image data; and
A lane detection step of detecting the lane based on a sector containing the lane and a grid containing the lane,
The first image processing step is,
Further extracting adjacent sectors that exist within a predetermined distance from the sector containing the lane,
The lane detection step is,
In the image data, a plurality of y-axis coordinates having the same spacing are set as fixed coordinates, and a coordinate having a y-axis coordinate overlapping with the fixed coordinate among coordinates included in a sector including the lane and a grid including the lane is set as the core coordinate,
Among the coordinates included in the grid including the adjacent sector and the lane, a coordinate having a y-axis coordinate overlapping with the fixed coordinate is set as a candidate coordinate,
If the set key coordinates are less than a predetermined number, it is determined that there is no lane for driving,
Perform adaptive position comparison between the key coordinates and the candidate coordinates to classify the candidate coordinates into top, middle, and bottom,
Among the core coordinates, the y-axis value is compared between the y-axis bottom core coordinate and the candidate coordinate adjacent to the y-axis bottom core coordinate, and if the candidate coordinate is located below the y-axis bottom core coordinate, the y-axis starts from the bottom core coordinate of the y-axis. Candidate coordinates including the top core coordinate are classified as middle, and candidate coordinates including from the candidate coordinate adjacent to the bottom core coordinate on the y-axis to the bottom candidate coordinate on the y-axis are classified as bottom.
Among the core coordinates, the y-axis value is compared between the key coordinate at the top of the y-axis and the candidate coordinate adjacent to the core coordinate at the top of the y-axis, and if the candidate coordinate is located above the core coordinate at the top of the y-axis, the core coordinate at the top of the y-axis to the bottom of the y-axis Candidate coordinates that include the core coordinates are classified as middle, and candidate coordinates that are included from the candidate coordinate adjacent to the core coordinate at the top of the y-axis to the candidate coordinate at the top of the y-axis are classified as top.
A lane detection method for detecting the lane based on the positions of the key coordinates and the candidate coordinates included in each classified boundary of the top, middle, and bottom.
삭제delete 삭제delete 삭제delete 제7항에 있어서,
상기 차선 검출 단계는,
상기 중단에 포함되는 좌표 중 최하단 좌표와 차하단 좌표를 지나는 제1 직선과 상기 최하단 좌표와 상기 하단에 포함되는 좌표 중 최상단 좌표를 지나는 제2 직선이 이루는 사이각이 기준각 이하인 경우, 제1 직선 및 제2 직선이 포함하는 좌표들을 핵심 좌표로 설정하고,
상기 핵심 좌표들을 포함하는 핵심 좌표 영역을 상기 차선으로 검출하는 차선 검출 방법.
In clause 7,
The lane detection step is,
If the angle formed between the first straight line passing through the lowest coordinate and the second lowest coordinate among the coordinates included in the middle stop and the second straight line passing through the highest coordinate among the lowest coordinate and the bottom coordinate is less than or equal to the reference angle, the first straight line And set the coordinates included in the second straight line as key coordinates,
A lane detection method for detecting a core coordinate area including the core coordinates as the lane.
제7항에 있어서,
상기 제1 이미지 처리 단계는,
상기 섹터 검출 결과에 대해서 모폴로지 연산을 수행하여 배경 노이즈를 제거하는 차선 검출 방법.
In clause 7,
The first image processing step is,
A lane detection method that removes background noise by performing a morphology operation on the sector detection result.
KR1020220151028A 2022-11-11 2022-11-11 Detecting traffic lane apparatus and method KR102650906B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220151028A KR102650906B1 (en) 2022-11-11 2022-11-11 Detecting traffic lane apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220151028A KR102650906B1 (en) 2022-11-11 2022-11-11 Detecting traffic lane apparatus and method

Publications (1)

Publication Number Publication Date
KR102650906B1 true KR102650906B1 (en) 2024-03-27

Family

ID=90480554

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220151028A KR102650906B1 (en) 2022-11-11 2022-11-11 Detecting traffic lane apparatus and method

Country Status (1)

Country Link
KR (1) KR102650906B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3760426B2 (en) * 1997-09-10 2006-03-29 矢崎総業株式会社 Traveling lane detection method and apparatus
KR101723536B1 (en) * 2015-11-19 2017-04-05 고려대학교 산학협력단 Method and Apparatus for detecting lane of road
KR101951683B1 (en) * 2017-09-08 2019-02-26 충북대학교 산학협력단 System and method for lane detcet for self-driving car

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3760426B2 (en) * 1997-09-10 2006-03-29 矢崎総業株式会社 Traveling lane detection method and apparatus
KR101723536B1 (en) * 2015-11-19 2017-04-05 고려대학교 산학협력단 Method and Apparatus for detecting lane of road
KR101951683B1 (en) * 2017-09-08 2019-02-26 충북대학교 산학협력단 System and method for lane detcet for self-driving car

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
림청 및 2명, "복잡한 환경에서 Grid기반 모폴리지와 방향성 에지 연결을 이용한 차선 검출 기법", 한국지능시스템학회, Vol.20, pp.786-792 (2010.11.19.) 1부.* *
한국 등록특허공보 제10-1723536호(2017.04.05.) 1부.*
한국 등록특허공보 제10-1951683호(2019.02.26.) 1부.*

Similar Documents

Publication Publication Date Title
Narote et al. A review of recent advances in lane detection and departure warning system
US10521676B2 (en) Lane detection device, lane departure determination device, lane detection method and lane departure determination method
US10300851B1 (en) Method for warning vehicle of risk of lane change and alarm device using the same
US7250593B2 (en) Mobile body surrounding surveillance apparatus, mobile body surrounding surveillance method, control program, and readable recording medium
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
EP2741256B1 (en) Moving body detection device and method
US20170124725A1 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP6384082B2 (en) Moving object detection apparatus, moving object detection method, and program
CN108162858B (en) Vehicle-mounted monitoring device and method thereof
JP2013109760A (en) Target detection method and target detection system
US10013618B2 (en) Method and apparatus for detecting side of object using ground boundary information of obstacle
EP3115933B1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
US11436815B2 (en) Method for limiting object detection area in a mobile system equipped with a rotation sensor or a position sensor with an image sensor, and apparatus for performing the same
CN109002797B (en) Vehicle lane change detection method, device, storage medium and computer equipment
JP2008117073A (en) Interruption vehicle detection device
KR101749873B1 (en) Method and apparatus for providing driving information using image of camera
JP6564218B2 (en) Outside environment recognition device
CN111931745B (en) Vehicle detection method and device, electronic equipment and storage medium
KR102650906B1 (en) Detecting traffic lane apparatus and method
JP5125214B2 (en) Obstacle detection method and obstacle detection device
KR101641647B1 (en) Real Time Image Recognition Method in Low Performance Video Device
JP6969245B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
JPH07239998A (en) Periphery monitoring device for vehicle
Chingting et al. Traffic Lane Line Classification System by Real-time Image Processing
US20230394843A1 (en) Method for identifying moving vehicles and in-vehicle device

Legal Events

Date Code Title Description
GRNT Written decision to grant