KR102032501B1 - Method and system for lane departure warning - Google Patents

Method and system for lane departure warning Download PDF

Info

Publication number
KR102032501B1
KR102032501B1 KR1020190067733A KR20190067733A KR102032501B1 KR 102032501 B1 KR102032501 B1 KR 102032501B1 KR 1020190067733 A KR1020190067733 A KR 1020190067733A KR 20190067733 A KR20190067733 A KR 20190067733A KR 102032501 B1 KR102032501 B1 KR 102032501B1
Authority
KR
South Korea
Prior art keywords
lane
lane departure
vehicle
image
departure
Prior art date
Application number
KR1020190067733A
Other languages
Korean (ko)
Inventor
박성령
엄태정
하수영
성동진
김주섭
박창호
정명환
Original Assignee
오토아이티(주)
아진산업(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오토아이티(주), 아진산업(주) filed Critical 오토아이티(주)
Priority to KR1020190067733A priority Critical patent/KR102032501B1/en
Application granted granted Critical
Publication of KR102032501B1 publication Critical patent/KR102032501B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a method for detecting lane departure, which comprises the following steps of: acquiring a plurality of images corresponding to each vehicle direction through a plurality of cameras installed to be distributed in the left, the right, the front, and the rear of a vehicle; checking whether there is lane departure in each vehicle direction based on each of the images; calculating a lane departure probability based on whether there is lane departure in each vehicle direction; and generating and outputting warning information to give a warning of lane departure when the lane departure probability is greater than or equal to a predetermined value.

Description

차선 이탈 감지 방법 및 장치{METHOD AND SYSTEM FOR LANE DEPARTURE WARNING}Lane Departure Detection Method and Apparatus {METHOD AND SYSTEM FOR LANE DEPARTURE WARNING}

본 발명은 차선 이탈 감지 방법 및 장치에 관한 것으로, 특히 다수의 카메라 중 적어도 하나가 오동작하더라도 차선 이탈 감지 동작을 안정적으로 수행할 수 있도록 하는 차선 이탈 감지 방법 및 장치에 관한 것이다. The present invention relates to a lane departure detecting method and apparatus, and more particularly, to a lane departure detecting method and apparatus for stably performing a lane departure detecting operation even when at least one of a plurality of cameras malfunctions.

최근 자동차 산업의 발달로 인하여 1 가구 1 자동차 시대라고 할 정도로 자동차의 보급은 상용화 되었으며, 고속도로 및 도로 운송망의 확충으로 장거리를 운전하는 운전자가 크게 증가하였다. 이에 따라 장거리 운송이 많은 트럭 운전자와 장거리 출퇴근자 등은 장시간 운전에 따른 피로, 부주의, 졸음 운전으로 인한 차선이탈사고의 위험에 노출되고 있다.Recently, due to the development of the automobile industry, the spread of automobiles has been commercialized to the extent that it is called the one-family-one automobile era. As a result, truck drivers and long-distance commuters who have a lot of long-haul transportation are exposed to the risk of lane departure accidents due to fatigue, inattention, and drowsy driving.

일반적으로 첨단안전차량(Advanced Safety Vehicle, 이하 "ASV"라 함)은 차량의 안전도 향상을 위하여 첨단 전자 기술과 제어 기술을 적용하는 첨단 차량으로서, 교통사고를 감소시켜 교통량을 증가시키고 에너지를 절약하며 운전자의 편의를 도모하게 된다.In general, Advanced Safety Vehicles (hereinafter referred to as "ASVs") are advanced vehicles that apply advanced electronic and control technology to improve the safety of the vehicle.It reduces traffic accidents to increase traffic and save energy. And the driver's convenience.

ASV는 차간거리를 자동으로 제어해 주는 정속주행장치(Adaptive Cruise Control, 이하 "ACC"라 함), 차선 이탈을 모니터링하여 경고해 주는 차선이탈경보시스템(Lane Departure Warning System, 이하 "LDWS"라 함) 등을 포함한다.ASV is called cruise control system (Adaptive Cruise Control, "ACC") that automatically controls the distance between lanes, and Lane Departure Warning System (LDWS), which monitors and warns of lane departure. ), And the like.

특히, LDWS는 차량에 부착된 카메라로부터 전방도로 영상을 감지하여 현재 달리고 있는 차선을 파악한 후, 만약 운전자가 부주의나 졸음운전 등으로 차선을 이탈하려고 하면 경보음이 울리도록 하여 주는 안전 시스템이다.In particular, LDWS is a safety system that detects the image of the road ahead from the camera attached to the vehicle, grasps the currently running lane, and if the driver attempts to leave the lane due to carelessness or drowsy driving, an alarm sounds.

LDWS는 카메라를 통해 촬상된 이미지를 기초로 하여 측면 위치와 측면 속도, 스티어링 앵글, 차선의 폭, 도로의 굴곡 등을 종합적으로 분석하며, 분석 결과 차선 이탈이 감지되면 운전자에게 알리도록 한다.LDWS analyzes the lateral position, side speed, steering angle, lane width, and road curvature based on the images captured by the camera and informs the driver when lane departure is detected.

예를 들어, 국내공개특허 제10-2018-0015018호 등에서와 같이 종래의 차선 이탈 기술은 양쪽 차선 모두를 인식한 후, 양쪽 차선에 대한 차량의 상대적 위치를 파악 및 분석하여 차선 이탈 여부를 판단하도록 한다. For example, as in Korean Patent Publication No. 10-2018-0015018, the conventional lane departure technology recognizes both lanes, and then determines the lane departure by determining and analyzing the relative position of the vehicle with respect to both lanes. do.

그러나 이러한 종래 기술의 경우, 차량 카메라 중 어느 하나라도 오동작하면 차선 이탈 감지 동작을 정상적으로 수행할 수 없는 문제가 발생한다. 즉, 적어도 하나의 카메라가 고장 상태이거나, 터널 출구 등과 같이 조도 급변화 상황에서 카메라 영상에 광포화 현상이 발생하게 되면, LDWS는 양쪽 차선을 인식할 수 없게 되고, 이로 인한 판단 오류가 발생하게 된다. However, in the prior art, when any one of the vehicle cameras malfunctions, a lane departure detection operation cannot be performed normally. That is, when at least one camera is in a faulty state or when a light saturation phenomenon occurs in the camera image in a sudden change in illuminance such as a tunnel exit, the LDWS cannot recognize both lanes, resulting in a determination error. .

국내공개특허 제10-2018-0015018호(2018.02.12)Domestic Publication No. 10-2018-0015018 (2018.02.12)

이에 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명은 다수의 카메라 중 적어도 하나가 오동작하더라도 차선 이탈 감지 동작을 안정적으로 수행할 수 있도록 하는 차선 이탈 감지 방법 및 장치를 제공하고자 한다. In order to solve the above problems, the present invention is to provide a lane departure detection method and apparatus for stably performing a lane departure detection operation even if at least one of a plurality of cameras malfunction.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned object, and other objects which are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면 차량의 좌/우/전/후에 분산 설치된 다수의 카메라를 통해 차량방향 각각에 대응되는 다수의 영상을 획득하는 단계; 상기 영상 각각을 기반으로 차량방향별 차선 이탈 여부를 확인하는 단계; 상기 차량방향별 차선 이탈 여부를 기반으로 차선 이탈 확률을 산출하는 단계; 및 상기 차선 이탈 확률이 기 설정값 이상인 경우에 한해 차선 이탈을 경고하는 경고 정보를 생성 및 출력하는 단계를 포함하는 차선 이탈 감지 방법을 제공한다. As a means for solving the above problems, according to an embodiment of the present invention, the method comprising: obtaining a plurality of images corresponding to each vehicle direction through a plurality of cameras distributed in a left / right / before / after a vehicle; Checking lane departure by vehicle direction based on each of the images; Calculating a lane departure probability based on the lane departure by vehicle direction; And generating and outputting warning information to warn the lane departure only when the lane departure probability is greater than or equal to a predetermined value.

상기 차선 이탈 여부를 차량방향별로 확인하는 단계는 상기 영상 각각으로부터 차선 검출 영상 각각을 획득한 후, 카메라 왜곡을 보정하는 단계; 및 상기 차선 검출 영상내 차선 위치를 기반으로 차량방향별 차선 이탈 여부를 확인하는 단계를 포함하는 것을 특징으로 한다. The determining of whether the lanes deviate by vehicle direction may include: correcting camera distortion after acquiring each lane detection image from each of the images; And checking whether the lanes deviate from vehicle lanes based on the lane positions in the lane detection image.

또한 상기 차선 이탈 여부를 차량방향별로 확인하는 단계는 상기 영상 각각의 카메라 왜곡을 보정한 후, 차선 검출 영상 각각을 추출 및 저장하는 단계; 및 상기 차선 검출 영상내 차선 위치를 기반으로 차량방향별 차선 이탈 여부를 확인하는 단계를 포함하는 것을 특징으로 한다. The determining of whether the lanes deviate by vehicle direction may include: correcting camera distortion of each image, and extracting and storing each lane detection image; And checking whether the lanes deviate from vehicle lanes based on the lane positions in the lane detection image.

그리고 상기 차량방향별 차선 이탈 여부를 확인하는 단계는 하나의 차선이 검출된 경우에는 차량 또는 영상 가장자리로부터 차선까지의 거리를 산출한 후, 상기 거리가 기 설정치 이하인 경우에 한해 차선 이탈을 결정하는 것을 특징으로 한다.The determining of lane departure by vehicle direction may include determining a lane departure only when the distance is less than a predetermined value after calculating a distance from a vehicle or an edge of an image to a lane when one lane is detected. It features.

더하여 상기 차량방향별 차선 이탈 여부를 확인하는 단계는 두 개의 차선이 검출된 경우에는 차량 또는 영상 가장자리로부터 양측 차선과의 제1 및 제2 거리를 산출한 후, 제1 및 제2 거리의 편차가 설정치 이상인 경우에 한해 차선 이탈을 결정하는 것을 특징으로 한다.In addition, the determining of lane departure by vehicle direction may include determining first and second distances from both sides of the vehicle or the edge of the image when two lanes are detected, and then detecting deviation of the first and second distances. It is characterized in that the lane departure is determined only when it is above the set value.

상기 차선 이탈 확률을 산출하는 단계는 차선 이탈 상태가 확인된 차량방향의 개수를 카운팅한 후, 카운팅 결과를 전체 차량방향 개수로 나누어 상기 차선 이탈 확률을 산출하는 것을 특징으로 한다.The calculating of the lane departure probability may include calculating the lane departure probability by counting the number of vehicle directions in which the lane departure state is confirmed, and dividing a counting result by the total number of vehicle directions.

본 발명은 차선 이탈 여부를 차량방향별로 먼저 확인한 후, 이들 확인 결과를 다시 한 번 확률 기반으로 중복 체크하는 두 단계에 걸쳐 차선 이탈 감지 동작을 수행함으로써, 다수의 카메라 중 적어도 하나가 오동작하더라도 차선 이탈 감지 동작을 안정적으로 수행할 수 있도록 한다. The present invention performs a lane departure detection operation in two stages of first checking whether lane departure is performed by vehicle direction, and then repeatedly checking these check results based on probability once again, so that at least one of the plurality of cameras malfunctions even if the lane departure occurs. This enables stable detection operation.

도 1 내지 도 2는 본 발명의 일 실시예에 따른 차선 이탈 감지 방법을 설명하기 위한 도면이다.
도 3 내지 도 5는 본 발명의 일 실시예에 따른 차선 이탈 확인 단계를 설명하기 위한 것이다.
도 6은 본 발명의 다른 실시예에 따른 차선 이탈 확인 단계를 설명하기 위한 것이다.
도 7은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면이다.
1 to 2 are diagrams for explaining a lane departure detection method according to an embodiment of the present invention.
3 to 5 are for explaining a lane departure confirmation step according to an embodiment of the present invention.
6 is for explaining a lane departure confirmation step according to another embodiment of the present invention.
7 is a diagram illustrating an example computing environment in which one or more embodiments disclosed herein may be implemented.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.The objects and effects of the present invention and the technical configurations for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. In describing the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.Terms to be described later are terms defined in consideration of functions in the present invention, and may be changed according to intentions or customs of users or operators.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms. The present embodiments are merely provided to complete the disclosure of the present invention and to fully inform the scope of the invention to those skilled in the art, and the present invention is defined by the scope of the claims. It will be. Therefore, the definition should be made based on the contents throughout the specification.

도 1 내지 도 2는 본 발명의 일 실시예에 따른 차선 이탈 감지 방법을 설명하기 위한 도면이다. 1 to 2 are diagrams for explaining a lane departure detection method according to an embodiment of the present invention.

먼저, 도 1에 도시된 바와 같이, 본 발명의 방법은 차량방향별 영상 획득 단계(S1), 차량방향별 차선 이탈 여부 확인 단계(S2), 차선 이탈 확률 산출 단계(S3), 및 차선 이탈 경고 단계(S4) 등을 포함한다.First, as shown in Figure 1, the method of the present invention, the image acquisition step (S1) for each vehicle direction, lane departure confirmation step (S2) for each vehicle direction, lane departure probability calculation step (S3), and lane departure warning Step S4 and the like.

먼저, 차량방향별 영상 획득 단계(S1)에서는 차량의 좌/우/전/후에 각각 배치된 다수의 카메라들을 통해 차량의 좌/우/전/후 방향 각각에 대응되는 다수의 영상을 획득하도록 한다. First, in the image acquisition step for each vehicle direction (S1), a plurality of images corresponding to each of the left, right, front, and rear directions of the vehicle are acquired through a plurality of cameras respectively disposed at the left, right, front, and rear of the vehicle. .

차량방향별 차선 이탈 여부 확인 단계(S2)에서는 차량방향별 영상 각각으로부터 차선을 검출한 후, 차선 위치값을 기반으로 각 방향에서의 차선 이탈 여부를 확인하도록 한다. In the step of checking lane departure according to vehicle directions (S2), lanes are detected from each image of each vehicle direction, and then lane departure in each direction is checked based on lane position values.

차선 이탈 확률 산출 단계(S3)는 차선 이탈 상태가 확인된 차량방향의 개수(m)를 카운팅하고, 이를 전체 차량방향 개수(n)로 나누어 차선 이탈 확률(

Figure 112019058653742-pat00001
)을 산출하도록 한다. 예를 들어, 차선 이탈 상태가 4개 차량방향 중 1개 차량방향에서 확인된 경우에는 25%, 4개 차량방향 중 2개 차량방향에서 확인된 경우에는 50%, 4개 차량방향 중 3개 차량방향에서 확인된 경우에는 75%, 4개 차량방향 중 4개 차량방향에서 확인된 경우에는 100%의 값을 가지는 차선 이탈 확률이 산출될 수 있을 것이다. The lane departure probability calculating step (S3) counts the number m of vehicle directions in which the lane departure state is confirmed, and divides it by the total number of vehicle directions n to determine the lane departure probability (
Figure 112019058653742-pat00001
). For example, 25% if the lane departure condition is found in one of four vehicle directions, 50% if it is found in two of the four vehicle directions, and three of the four vehicle directions. The lane departure probability having a value of 75% when it is identified in the direction and 100% when it is confirmed in four vehicle directions among four vehicle directions may be calculated.

차선 이탈 경고 단계(S4)에서는 차선 이탈 확률이 기 설정치보다 큰 경우에 한해, 운전자에게 현재 차선 이탈 상태임을 경고하는 경고 정보를 생성하여 시청각적으로 출력하도록 한다. 이때, 기 설정치는 경고 동작의 민감도를 결정하는 값으로, 운전자 등에 의해 사전 설정 또는 임의 변경될 수 있는 값일 수 있다. 예를 들어, 기 설정치는 50%, 또는 75% 등으로 설정함으로써 4개의 차량방향 중 2개 또는 3개 이상의 차량방향에서 차선 이탈이 확인되면, 차선 이탈이 실제 발생하였음을 확인하고 운전자에게 즉각적으로 통보해줄 수 있도록 한다. In the lane departure warning step (S4), only when the lane departure probability is greater than a preset value, warning information for warning the driver that the vehicle is currently in a lane departure state is generated and output visually. In this case, the preset value is a value for determining the sensitivity of the warning operation, and may be a value which may be preset or arbitrarily changed by the driver. For example, if a lane departure is found in two or three vehicle directions among four vehicle directions by setting the preset value to 50%, 75%, or the like, the driver will confirm that the lane departure has actually occurred and promptly inform the driver. Let them be notified.

이와 같이 본 발명은 차선 이탈 여부를 차량방향별로 먼저 확인한 후, 이들 확인 결과를 다시 한 번 확률 기반으로 중복 체크함으로써, 차선 이탈 여부를 최종적으로 확인하고 경고할 수 있도록 한다. As described above, the present invention first checks lane departure by vehicle direction, and then checks these confirmation results once again based on probability, thereby finally confirming and warning lane departure.

그 결과, 차선 이탈 감지에 이용되는 카메라 중 일부가 오동작하더라도 차선 이탈 감지 동작을 안정적으로 수행될 수 있게 된다. 즉, 도 2에서와 같이 카메라 일부가 영상 자체를 제공하지 못하거나 일부 영상에 광 포화 현상이 발생하더라도, 차선 이탈 여부를 최종 확인하고 통보할 수 있게 된다. As a result, even if some of the cameras used for lane departure detection malfunctions, the lane departure detection operation can be stably performed. That is, as shown in FIG. 2, even if a part of the camera does not provide the image itself or a light saturation phenomenon occurs in the part of the image, it is possible to finally confirm and notify whether the lane deviates.

더하여, 본 발명의 차선 이탈 감지 방법을 위해 새로운 카메라가 별도 설치될 수 있으나, 필요시에는 차량에 기 설치된 카메라를 재활용하여 차선 이탈 감지를 위한 영상을 획득할 수도 있도록 한다. In addition, a new camera may be separately installed for the lane departure detecting method of the present invention, but if necessary, the camera may be recycled to obtain an image for lane departure detection.

다만, 차량에 기 설치된 카메라가 어안 카메라, 광각 카메라와 같은 특수 카메라인 경우, 이들 카메라는 보다 넓은 화각을 확보하기 위한 왜곡 영상을 획득 및 제공하며, 카메라 캘리브레이션을 과정을 통해 왜곡 보정을 위한 왜곡 보정 파라미터를 사전 획득 및 저장하는 특징이 있다. However, if the cameras already installed in the vehicle are special cameras such as fisheye cameras and wide-angle cameras, these cameras acquire and provide a distortion image for securing a wider angle of view, and the camera is calibrated to correct the distortion through the process of calibration. There is a feature of pre-acquiring and storing parameters.

이에 본 발명의 차선 이탈 확인 단계(S2)는 차선 검출 영상이 왜곡 영상인 경우에 한해, 카메라에 대응하여 사전 획득 및 저장된 카메라 왜곡 보정 파라미터에 따라 왜곡 보정 동작을 추가적으로 수행하도록 한다. Accordingly, in the lane departure confirmation step S2 of the present invention, only when the lane detection image is a distortion image, the distortion correction operation may be additionally performed according to a camera distortion correction parameter previously acquired and stored corresponding to the camera.

도 3 내지 도 5는 본 발명의 일 실시예에 따른 차선 이탈 확인 단계를 설명하기 위한 것으로, 이하에서는 설명의 편이를 위해 차량의 좌측, 우측, 전방, 후방에 4개의 카메라가 설치된 경우에 한해 설명하기로 한다. 3 to 5 are for explaining a lane departure confirmation step according to an embodiment of the present invention, hereinafter will be described only when four cameras are installed on the left, right, front, rear of the vehicle for ease of explanation. Let's do it.

먼저, 차량의 좌측, 우측, 전방, 후방에 설치된 4개의 카메라를 통해 좌측, 우측, 전방, 후방 영상을 획득하고, 이들 각각으로부터 차선을 검출하도록 한다(S11). 이때, 단계 S11의 차선 검출 동작은 색상 또는 형태 기반으로 수행될 수 있다. 즉, 차선의 색상과 형태는 도로 등 주변 환경과 명백한 차이가 있음을 고려하여, 차선의 색상과 형태에 상응하는 영상 특징을 차량방향별로 사전 획득 및 저장하고, 이를 기반으로 각 차량방향의 입력 영상으로부터 해당 영상 특징을 가지는 차선을 검출하도록 한다. First, the left, right, front and rear images are acquired through four cameras installed on the left, right, front and rear of the vehicle, and the lanes are detected from each of them (S11). In this case, the lane detection operation of step S11 may be performed based on color or shape. That is, considering that the color and shape of the lanes are clearly different from the surrounding environment such as roads, the image characteristics corresponding to the color and shape of the lanes are acquired and stored in advance for each vehicle direction, and based on the input image of each vehicle direction To detect a lane having a corresponding video feature.

단계 S11의 차선 검출 결과만을 추출하여 차선 검출 영상을 생성한 후(S12), 카메라 왜곡 보정 파라미터에 따라 차선 검출 영상에 포함된 카메라 왜곡 모두를 제거하도록 한다(S13). After extracting only the lane detection result of step S11 to generate a lane detection image (S12), all camera distortions included in the lane detection image are removed according to the camera distortion correction parameter (S13).

그리고 왜곡 보정된 차선 검출 영상에서 차선 위치를 파악하고, 이를 기반으로 차선 이탈 여부를 판단하도록 한다(S14). Then, the lane position is identified from the distortion-corrected lane detection image, and the lane departure is determined based on this (S14).

보다 상세하게, 좌측 또는 우측 영상에서와 같이 하나의 차선이 검출되는 경우에는, 도 4의 (a)에서와 같이 차선과 차량 간의 거리(d)를 산출한 후, 검출 거리(d)가 기 설정치 이하인 경우에 한해, 차선 이탈을 확인 및 통보하도록 한다. More specifically, when one lane is detected as in the left or right image, after calculating the distance d between the lane and the vehicle as shown in FIG. 4A, the detection distance d is a preset value. Only if the following conditions exist, the lane departure should be confirmed and notified.

전방 또는 후방 영상에서와 같이 양측 차선이 검출되는 경우에는, 도 4의 (b)에서와 같이 차량 중심과 양측 차선과의 거리(d1,d2)를 산출한 후, 이들 거리의 편차(|d1-d2|)가 기 설정치 이상인 경우에 한해, 차선 이탈을 확인 및 통보할 수 있도록 한다. When both lanes are detected as in the front or rear image, the distances d1 and d2 between the vehicle center and both lanes are calculated as shown in FIG. Only when d2 |) is above the preset value, the lane departure can be confirmed and notified.

더하여, 차량 카메라는 위치 고정되므로, 영상내 차량 검출 위치 또한 위치 고정된다. 도 5에서와 같이 차량이 아닌 영상 가장자리를 기반으로 차선과의 거리를 파악 및 분석하여 차선 이탈 여부를 확인 및 통보할 수 있도록 한다. 이러한 경우, 차량 검출 동작을 별도로 수행할 필요가 없어, 영상 처리 부하가 자연스럽게 감소될 수 있게 된다. In addition, since the vehicle camera is fixed in position, the vehicle detection position in the image is also fixed in position. As shown in FIG. 5, the distance from the lane is determined and analyzed based on the edge of the image, not the vehicle, so that the lane departure may be checked and notified. In this case, it is not necessary to perform the vehicle detection operation separately, so that the image processing load can be naturally reduced.

즉, 하나의 차선이 검출되는 경우에는, 도 5의 (a)와 같이 영상 가장자리로부터 차선까지의 거리(d)를 산출한 후, 검출 거리가 기 설정치 보다 작은 경우에 한해 차선 이탈을 확인 및 통보하도록 한다. 그리고 양측 차선이 검출되는 경우에는, 도 5의 (b)와 같이 이미지 좌측 외곽선으로부터 좌측 차선까지의 거리(d1), 그리고 이미지 우측 외곽선으로부터 우측 차선까지의 거리(d2)를 산출한 후, 이들 거리의 편차(|d1-d2|)가 기 설정치 이상인 경우에 한해, 차선 이탈을 확인 및 통보할 수 있도록 한다. That is, when one lane is detected, as shown in Fig. 5A, after calculating the distance d from the edge of the image to the lane, the lane departure is confirmed and notified only when the detected distance is smaller than the preset value. Do it. When both lanes are detected, the distance d1 from the left edge of the image to the left lane and the distance d2 from the right edge of the image to the right lane are calculated as shown in FIG. Only if the deviation (| d1-d2 |) is greater than or equal to the preset value, the lane departure should be confirmed and notified.

이와 같이, 본 발명의 차량 또는 영상 가장자리로부터 차선까지 거리라는 최소한의 정보를 이용하여 차량방향별 차선 이탈 여부를 확인하도록 하되, 이들 확인 결과를 다시 한 번 확률 기반으로 중복 체크함으로써, 차선 이탈 여부를 보다 안정적이고 신뢰성 있게 확인할 수 있도록 한다. In this way, the vehicle or the lane according to the direction of the image using the minimum information of the distance from the lane to determine whether the lane departure by vehicle direction, but by double-checking these check results based on probability once again, whether the lane departure Make it more stable and reliable.

더하여, 상기의 설명에서는 왜곡 보정에 따른 영상 처리 부하를 원본 영상이 아닌 차선 검출 영상을 이용하여 왜곡 보정을 수행하도록 하였으나, 필요한 경우 도 6에서와 같이 원본 영상의 왜곡을 먼저 보정한 후 차선 검출 동작을 수행할 수도 있음은 물론 당연하다. In addition, in the above description, the distortion correction is performed by using the lane detection image instead of the original image for the image processing load according to the distortion correction. Of course it can also be performed.

도 6은 본 발명의 다른 실시예에 따른 차선 이탈 확인 단계를 설명하기 위한 것이다. 6 is for explaining a lane departure confirmation step according to another embodiment of the present invention.

이를 참고하면, 본 발명은 차량의 좌측, 우측, 전방, 후방에 설치된 4개의 카메라를 통해 좌측, 우측, 전방, 후방 영상이 획득되면, 기 설정된 카메라 왜곡 보정 파라미터에 따라 영상 각각의 카메라 왜곡을 보정하도록 한다(S21). 그리고 색상 또는 형상 기반으로 왜곡 보정된 영상 각각으로부터 차선을 검출한 후(S22), 차선 위치값을 기반으로 차량방향 각각에서의 차선 이탈 여부를 판단하도록 한다(S23). Referring to this, when the left, right, front and rear images are acquired through four cameras installed on the left, right, front and rear of the vehicle, the present invention corrects the camera distortion of each image according to a preset camera distortion correction parameter. (S21). After detecting lanes from each of the distortion-corrected images based on color or shape (S22), it is determined whether the lanes deviate from each of the vehicle directions based on the lane position values (S23).

도 7은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.FIG. 7 illustrates an example computing environment in which one or more embodiments disclosed herein may be implemented, and illustrates an example of a system 1000 that includes a computing device 1100 configured to implement one or more embodiments described above. Shows. For example, the computing device 1100 may be a personal computer, server computer, handheld or laptop device, mobile device (mobile phone, PDA, media player, etc.), multiprocessor system, consumer electronics, mini computer, mainframe computer, Distributed computing environments, including, but not limited to, any of the systems or devices described above.

컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다.The computing device 1100 may include at least one processing unit 1110 and a memory 1120. Here, the processing unit 1110 may include, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application specific integrated circuit (ASIC), field programmable gate arrays (FPGA), and the like. It may have a plurality of cores. The memory 1120 may be volatile memory (eg, RAM, etc.), nonvolatile memory (eg, ROM, flash memory, etc.), or a combination thereof.

또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다.In addition, computing device 1100 may include additional storage 1130. Storage 1130 includes, but is not limited to, magnetic storage, optical storage, and the like. Storage 1130 may store computer readable instructions for implementing one or more embodiments disclosed herein, and other computer readable instructions for implementing operating systems, application programs, and the like. Computer readable instructions stored in storage 1130 may be loaded into memory 1120 for execution by processing unit 1110.

또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. 여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다.In addition, computing device 1100 may include input device (s) 1140 and output device (s) 1150. Here, the input device (s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device. Also, output device (s) 1150 may include, for example, one or more displays, speakers, printers, or any other output device. In addition, computing device 1100 may use an input device or output device included in another computing device as input device (s) 1140 or output device (s) 1150.

또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. 여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다.In addition, computing device 1100 may include communication connection (s) 1160 that enable computing device 1100 to communicate with another device (eg, computing device 1300). Here, the communication connection (s) 1160 may be a modem, a network interface card (NIC), an integrated network interface, a radio frequency transmitter / receiver, an infrared port, a USB connection, or other for connecting the computing device 1100 to another computing device. It may include an interface. In addition, communication connection (s) 1160 may include a wired connection or a wireless connection.

상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호 접속될 수도 있다.Each component of the computing device 1100 described above may be connected by various interconnections such as a bus (eg, peripheral component interconnect (PCI), USB, firmware (IEEE 1394), optical bus structure, etc.). And interconnected by the network 1200.

본 명세서에서 사용되는 "구성요소", "모듈", "시스템", "인터페이스" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. 예를 들어, 구성요소는 프로세서 상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.As used herein, terms such as "component", "module", "system", "interface", etc. generally refer to a computer-related entity that is hardware, a combination of hardware and software, software, or running software. For example, a component may be, but is not limited to being, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and / or a computer. For example, both an application running on a controller and the controller can be a component. One or more components may reside within a thread of processes and / or execution, and the components may be localized on one computer and distributed between two or more computers.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

Claims (6)

차량의 좌/우/전/후에 분산 설치된 다수의 카메라를 통해 차량방향 각각에 대응되는 다수의 영상을 획득하는 단계;
상기 영상 각각을 기반으로 차량방향별 차선 이탈 여부를 확인하는 단계;
상기 차량방향별 차선 이탈 여부를 기반으로 차선 이탈 확률을 산출하는 단계; 및
상기 차선 이탈 확률이 기 설정값 이상인 경우에 한해 차선 이탈을 경고하는 경고 정보를 생성 및 출력하는 단계를 포함하는 차선 이탈 감지 방법.
Acquiring a plurality of images corresponding to each vehicle direction through a plurality of cameras distributed in the left / right / before / after of the vehicle;
Checking lane departure by vehicle direction based on each of the images;
Calculating a lane departure probability based on the lane departure by vehicle direction; And
And generating and outputting warning information to warn the lane departure only when the lane departure probability is greater than or equal to a predetermined value.
제1항에 있어서, 상기 차량방향별 차선 이탈 여부를 확인하는 단계는
상기 영상 각각으로부터 차선 검출 영상 각각을 획득한 후, 카메라 왜곡을 보정하는 단계; 및
차량 방향별로, 상기 차선 검출 영상내 차선 위치를 기반으로 차선 이탈 여부를 확인하는 단계를 포함하는 것을 특징으로 하는 차선 이탈 감지 방법.
The method of claim 1, wherein the determining of lane departure for each vehicle direction is performed.
Correcting camera distortion after acquiring each lane detection image from each of the images; And
And detecting lane departure based on the lane position in the lane detection image for each vehicle direction.
제1항에 있어서, 상기 차량방향별 차선 이탈 여부를 확인하는 단계는
상기 영상 각각의 카메라 왜곡을 보정한 후, 차선 검출 영상 각각을 추출 및 저장하는 단계; 및
차량 방향별로, 상기 차선 검출 영상내 차선 위치를 기반으로 차선 이탈 여부를 확인하는 단계를 포함하는 것을 특징으로 하는 차선 이탈 감지 방법.
The method of claim 1, wherein the determining of lane departure for each vehicle direction is performed.
Correcting camera distortion of each of the images, and extracting and storing each lane detection image; And
And detecting lane departure based on the lane position in the lane detection image for each vehicle direction.
제2항 또는 제3항에 있어서, 상기 차선 검출 영상내 차선 위치를 기반으로 차선 이탈 여부를 확인하는 단계는
하나의 차선이 검출된 경우에는 차량 또는 영상 가장자리로부터 차선까지의 거리를 산출한 후, 상기 거리가 기 설정치 이하인 경우에 한해 차선 이탈을 결정하는 것을 특징으로 하는 차선 이탈 감지 방법.
The method of claim 2 or 3, wherein the determining of lane departure based on the lane position in the lane detection image is performed.
And detecting a lane departure only when the distance is less than a predetermined value after calculating a distance from the vehicle or the edge of the image to the lane when one lane is detected.
제2항 또는 제3항에 있어서, 상기 차선 검출 영상내 차선 위치를 기반으로 차선 이탈 여부를 확인하는 단계는
두 개의 차선이 검출된 경우에는 차량 또는 영상 가장자리로부터 양측 차선과의 제1 및 제2 거리를 산출한 후, 제1 및 제2 거리의 편차가 설정치 이상인 경우에 한해 차선 이탈을 결정하는 것을 특징으로 하는 차선 이탈 감지 방법.
The method of claim 2 or 3, wherein the determining of lane departure based on the lane position in the lane detection image is performed.
When two lanes are detected, after the first and second distances are calculated from the vehicle or the edge of the image with both lanes, the lane departure is determined only when the deviation of the first and second distances is greater than or equal to the set value. Lane departure detection method.
제1항에 있어서, 상기 차선 이탈 확률을 산출하는 단계는
차선 이탈 상태가 확인된 차량방향의 개수를 카운팅한 후, 카운팅 결과를 전체 차량방향 개수로 나누어 상기 차선 이탈 확률을 산출하는 것을 특징으로 하는 차선 이탈 감지 방법.
The method of claim 1, wherein calculating the lane departure probability
And counting the number of vehicle directions in which the lane departure condition is confirmed, and dividing a counting result by the total number of vehicle directions to calculate the lane departure probability.
KR1020190067733A 2019-06-10 2019-06-10 Method and system for lane departure warning KR102032501B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190067733A KR102032501B1 (en) 2019-06-10 2019-06-10 Method and system for lane departure warning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190067733A KR102032501B1 (en) 2019-06-10 2019-06-10 Method and system for lane departure warning

Publications (1)

Publication Number Publication Date
KR102032501B1 true KR102032501B1 (en) 2019-10-15

Family

ID=68209609

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190067733A KR102032501B1 (en) 2019-06-10 2019-06-10 Method and system for lane departure warning

Country Status (1)

Country Link
KR (1) KR102032501B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102269970B1 (en) 2020-12-24 2021-06-28 한국건설기술연구원 System and method for warning lane departure and over speed

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101310680B1 (en) * 2012-04-19 2013-09-24 (주)아이머큐리 Apparatus and method for detecting curve traffic lane
KR20150050233A (en) * 2013-10-31 2015-05-08 한국과학기술원 device for lane detection
KR20170085752A (en) * 2016-01-15 2017-07-25 현대자동차주식회사 Apparatus and method for traffic lane recognition in automatic steering control of vehilcles
KR20180015018A (en) 2016-08-02 2018-02-12 국민대학교산학협력단 Method for estimating road line information
JP2018030472A (en) * 2016-08-25 2018-03-01 いすゞ自動車株式会社 Steering control device and steering control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101310680B1 (en) * 2012-04-19 2013-09-24 (주)아이머큐리 Apparatus and method for detecting curve traffic lane
KR20150050233A (en) * 2013-10-31 2015-05-08 한국과학기술원 device for lane detection
KR20170085752A (en) * 2016-01-15 2017-07-25 현대자동차주식회사 Apparatus and method for traffic lane recognition in automatic steering control of vehilcles
KR20180015018A (en) 2016-08-02 2018-02-12 국민대학교산학협력단 Method for estimating road line information
JP2018030472A (en) * 2016-08-25 2018-03-01 いすゞ自動車株式会社 Steering control device and steering control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102269970B1 (en) 2020-12-24 2021-06-28 한국건설기술연구원 System and method for warning lane departure and over speed

Similar Documents

Publication Publication Date Title
US10817732B2 (en) Automated assessment of collision risk based on computer vision
KR102441085B1 (en) Apparatus and method for providing guidance information using crosswalk recognition result
US10839694B2 (en) Blind spot alert
US20160101730A1 (en) Vehicle blind spot system operation with trailer tow
US20160167579A1 (en) Apparatus and method for avoiding collision
CN113593301B (en) Method for pre-judging vehicle jam, vehicle and computer readable storage medium
US11738747B2 (en) Server device and vehicle
CN112109703A (en) Vehicle control method, vehicle control system, vehicle, and storage medium
US11403494B2 (en) Obstacle recognition assistance device, obstacle recognition assistance method, and storage medium
CN112109633A (en) Lane departure early warning method, device, equipment, vehicle and storage medium
EP2701134B1 (en) Driver condition assessment device
US11273762B2 (en) Vehicle control device
KR102032501B1 (en) Method and system for lane departure warning
KR102589935B1 (en) Apparatus and method for monitoring camera signals
KR20120086892A (en) Lane departure warning system in navigation for vehicle and method thereof
CN115943440A (en) System and method for detecting a projection attack on an object recognition system
US20200342758A1 (en) Drive assistance device, drive assistance method, and recording medium in which drive assistance program is stored
CN113895433A (en) Forward collision avoidance system and method through sensor angle adjustment
US20220379922A1 (en) System for maneuvering a vehicle
CN113436464B (en) Vehicle danger early warning method, device, equipment and storage medium
CN114620040A (en) Vehicle control method and device, electronic equipment and storage medium
KR102213148B1 (en) Method and Apparatus for Supporting Parking Alignment Based on Recognition of Parking Line
JP2016177465A (en) On-vehicle warning device
WO2023122915A1 (en) Early-warning method and apparatus for lane changing performed by vehicle
KR102597238B1 (en) Apparatus and method for evaluating lane keeping assist system using dual camera

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant