KR102559534B1 - Method and apparatus for supporting driving lines of vehicle in bad weather - Google Patents

Method and apparatus for supporting driving lines of vehicle in bad weather Download PDF

Info

Publication number
KR102559534B1
KR102559534B1 KR1020210085041A KR20210085041A KR102559534B1 KR 102559534 B1 KR102559534 B1 KR 102559534B1 KR 1020210085041 A KR1020210085041 A KR 1020210085041A KR 20210085041 A KR20210085041 A KR 20210085041A KR 102559534 B1 KR102559534 B1 KR 102559534B1
Authority
KR
South Korea
Prior art keywords
lane
vehicle
driving
light emitting
recognition rate
Prior art date
Application number
KR1020210085041A
Other languages
Korean (ko)
Other versions
KR20230001925A (en
Inventor
박태웅
송재웅
Original Assignee
주식회사 디에이치오토웨어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디에이치오토웨어 filed Critical 주식회사 디에이치오토웨어
Priority to KR1020210085041A priority Critical patent/KR102559534B1/en
Publication of KR20230001925A publication Critical patent/KR20230001925A/en
Application granted granted Critical
Publication of KR102559534B1 publication Critical patent/KR102559534B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

일 실시 예에 따른 악천후에서의 차량의 주행차선 지원방법은 주행중인 차량의 차선을 인식하고, 차선의 인식률을 기초로 인식된 차선의 방향으로 발광소자를 구동시키고, 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시한다.According to an embodiment, a driving lane support method for a vehicle in bad weather recognizes a lane of a vehicle in motion, drives a light emitting device in the direction of the recognized lane based on a recognition rate of the lane, and displays a virtual lane using light emitted through the light emitting device.

Description

악천후에서의 차량의 주행차선 지원 방법 및 장치{Method and apparatus for supporting driving lines of vehicle in bad weather}Method and apparatus for supporting driving lines of vehicle in bad weather

본 발명은 악천후에서의 차량의 주행차선 지원 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for assisting a driving lane of a vehicle in bad weather.

자율주행차는 자율주행 시 해당 차량 내 탑재된 차선유지 제어시스템을 이용해서 자율 주행을 수행한다. 이러한 차선유지 제어시스템은 차선 유지에 필요한 주행 경로를 차량용 영상 센서(라이다 포함)로 취득한 센서정보와 차량정보(차속, 관성, 조향각, 조향 토크 등 포함)를 신호처리하여 얻어지는 주행차선과 주행차량과의 상대적 정보값들(이탈각, 이탈거리, 곡률, 도로폭 등 포함)에 기초해서 차량의 조향장치(본 명세서에서는 조향장치, 제동장치 및 구동장치를 통합한 것을 포괄적으로 총칭함)를 이용해서 차량을 제어한다. 자율주행차의 차선유지 제어시스템은 아래와 같이, 크게 인식(Recognition), 판단(Judgment), 조작(Operation) 계층으로 구성된다.An autonomous vehicle performs autonomous driving by using a lane keeping control system installed in the vehicle during autonomous driving. This lane keeping control system controls the vehicle using the vehicle's steering system (herein, comprehensively referred to as a combination of the steering system, braking system, and driving system) of the vehicle based on relative information values (including departure angle, departure distance, curvature, road width, etc.) . The lane keeping control system of an autonomous vehicle is largely composed of recognition, judgment, and operation layers as follows.

하지만, 자율주행기술이 고도화됨에 따라 차선 인식률이 높아지고 있지만, 악천후, 예를 들면 비가 오거나, 빗물에 의해 노면의 차선이 주위 빛에 반사되는 상황에서는 차선인식률이 현저히 떨어지게 되어 안전운전을 도움을 주지 못하는 문제점이 있었다. However, although the lane recognition rate is increasing as autonomous driving technology is advanced, there is a problem in that it does not help safe driving because the lane recognition rate is significantly reduced in bad weather, for example, in a situation where lanes on the road surface are reflected by ambient light due to rain or rainwater.

[선행기술문헌번호][Prior art document number]

선행기술 1: 한국등록특허 10-2264265호Prior Art 1: Korean Patent Registration No. 10-2264265

선행기술 2: 한국등록특허 10-2264961호Prior Art 2: Korean Patent Registration No. 10-2264961

일 실시 예는 악천후에서의 차량의 주행차선 지원 방법 및 장치를 제공하는 것이다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment is to provide a method and apparatus for assisting a driving lane of a vehicle in bad weather. In addition, it is to provide a computer-readable recording medium recording a program for executing the method on a computer. The technical problem to be solved is not limited to the technical problems described above, and other technical problems may exist.

일 실시 예에 따른 악천후에서의 차량의 주행차선 지원방법은 주행중인 차량의 차선을 인식하는 단계; 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 발광소자를 구동시키는 단계; 및 상기 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시하는 단계를 포함한다.According to an embodiment, a method for supporting a driving lane of a vehicle in bad weather includes recognizing a lane of a vehicle in motion; driving a light emitting device in the direction of the recognized lane based on the recognition rate of the lane; and displaying a virtual lane using light emitted through the light emitting device.

상기 악천후에서의 차량의 주행차선 지원방법은 상기 차선의 인식률이 소정의 임계값보다 작은지 판단하는 단계를 더 포함하고, The method for assisting a driving lane of a vehicle in bad weather further includes determining whether a recognition rate of the lane is smaller than a predetermined threshold value,

상기 차선의 인식률이 소정의 임계값보다 작은 경우, 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.When the recognition rate of the lane is smaller than a predetermined threshold, the light emitting device is driven in the direction of the recognized lane.

상기 악천후에서의 차량의 주행차선 지원방법은 주행차선 지원 선택을 위한 사용자 인터페이스를 통한 사용자 선택을 입력받는 단계를 더 포함하고,The driving lane support method of the vehicle in bad weather further includes receiving a user selection through a user interface for driving lane support selection,

상기 사용자 선택이 입력되는 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.When the user selection is input, the light emitting device is driven in the direction of the recognized lane based on the recognition rate of the lane.

상기 악천후에서의 차량의 주행차선 지원방법은 기상조건을 판단하는 판단하는 단계를 더 포함하고,The method for supporting a driving lane of a vehicle in bad weather further includes determining weather conditions,

상기 판단된 기상조건이 불량으로 판단된 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.When the determined meteorological condition is determined to be unfavorable, the light emitting device may be driven in the direction of the recognized lane based on the recognition rate of the lane.

상기 기상조건은, 외부 장치로부터 수신된 기상정보, 상기 차량의 와이퍼 구동정도, 상기 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보 중 적어도 하나로부터 판단하는 것을 특징으로 한다.The meteorological condition may be determined from at least one of weather information received from an external device, driving degree of wipers of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle.

상기 악천후에서의 차량의 주행차선 지원방법은 상기 차량의 전후방 차량과의 거리를 판단하는 단계를 더 포함하고,The method for supporting a driving lane of a vehicle in bad weather further includes determining a distance between the front and rear vehicles of the vehicle,

상기 판단된 거리가 소정의 거리 임계값 이상인 경우, 상기 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시하는 것을 특징으로 한다.When the determined distance is greater than or equal to a predetermined distance threshold, four light emitting devices may be driven in directions of four lanes in the front and rear of the vehicle to display four virtual lanes.

다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원장치는 차량의 외부에 구비된 발광소자; 및 상기 발광소자를 구동시키는 프로세서를 포함하고,An apparatus for assisting a driving lane of a vehicle in bad weather according to another embodiment includes a light emitting element provided on the outside of the vehicle; And a processor for driving the light emitting element,

상기 프로세서는, 주행중인 차량의 차선을 인식하고, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키고, 상기 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시한다.The processor recognizes a lane of the vehicle in motion, drives the light emitting device in the direction of the recognized lane based on a recognition rate of the lane, and displays a virtual lane using light emitted through the light emitting device.

상기 프로세서는, 상기 차선의 인식률이 소정의 임계값보다 작은지 판단하고, 상기 차선의 인식률이 소정의 임계값보다 작은 경우, 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.The processor may determine whether the recognition rate of the lane is less than a predetermined threshold, and if the recognition rate of the lane is less than the predetermined threshold, drive the light emitting device in the direction of the recognized lane.

상기 악천후에서의 차량의 주행차선 지원장치는 주행차선 지원 선택을 위한 사용자 인터페이스를 더 포함하고,The vehicle driving lane assistance device in bad weather further includes a user interface for driving lane support selection,

상기 프로세서는, 상기 사용자 인터페이스를 통한 사용자 선택이 입력되는 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.The processor may drive the light emitting device in the direction of the recognized lane based on a recognition rate of the lane when a user selection is input through the user interface.

상기 프로세서는, 기상조건을 판단하는 판단하고, 상기 판단된 기상조건이 불량으로 판단된 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.The processor may determine weather conditions, and drive the light emitting device in the direction of the recognized lane based on a recognition rate of the lane when the determined weather condition is determined to be unfavorable.

상기 기상조건은, 외부 장치로부터 수신된 기상정보, 상기 차량의 와이퍼 구동정도, 상기 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보 중 적어도 하나로부터 판단하는 것을 특징으로 한다.The meteorological condition may be determined from at least one of weather information received from an external device, driving degree of wipers of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle.

상기 프로세서는, 상기 차량의 전후방 차량과의 거리를 판단하고, 상기 판단된 거리가 소정의 거리 임계값 이상인 경우, 상기 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시하는 것을 특징으로 한다.The processor determines the distance from the front and rear vehicles of the vehicle, and when the determined distance is equal to or greater than a predetermined distance threshold, drives four light emitting devices in directions of four lanes in the front and rear of the vehicle, thereby displaying four virtual lanes.

또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.and a recording medium recording a program for executing a method for assisting a driving lane of a vehicle in bad weather according to another embodiment in a computer.

도 1은 차량의 내부 블록 도이다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
도 3은 일 실시 예에 따른 차량의 주행차선 지원 장치의 개략 도이다.
도 4는 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.
도 5는 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.
도 6은 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.
도 7은 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.
1 is a block diagram of the interior of a vehicle;
FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1;
3 is a schematic diagram of an apparatus for assisting a driving lane of a vehicle according to an exemplary embodiment.
4 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
5 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
6 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
7 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but they may vary depending on the intention or precedent of a person skilled in the field, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a certain part "includes" a certain component throughout the specification, it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 차량의 내부 블록도이다. 1 is an internal block diagram of a vehicle according to an exemplary embodiment.

도 1을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.Referring to FIG. 1 , a vehicle 100 may include a communication unit 110, an input unit 120, a sensing unit 125, a memory 130, an output unit 140, a vehicle driving unit 150, a vehicle driving assistance system (ADAS, 160), a control unit 170, an interface unit 180, and a power supply unit 190.

통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The communication unit 110 may include a short-range communication module, a location information module, an optical communication module, and a V2X communication module.

입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The input unit 120 may include a driving control unit, a camera, a microphone, and a user input unit.

운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving control unit receives a user input for driving the vehicle 100 . The driving control unit may include a steering input unit, a shift input unit, an acceleration input unit, and a brake input unit.

가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input unit receives an input for acceleration of the vehicle 100 from a user. The brake input unit receives an input for decelerating the vehicle 100 from a user.

카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera may process still images or moving images obtained by an image sensor (eg, CMOS or CCD). The image processing module may process a still image or video obtained through an image sensor, extract necessary information, and deliver the extracted information to the controller 170 .

한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.Meanwhile, the vehicle 100 may include a front camera for capturing an image in front of the vehicle, an around view camera for capturing an image around the vehicle, and a rear camera for capturing an image behind the vehicle. Each camera may include a lens, an image sensor and a processor. The processor may computer-process the photographed image to generate data or information, and transmit the generated data or information to the controller 170 . A processor included in the camera may be controlled by the controller 170 .

카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a stereo camera. In this case, the processor of the camera may use a disparity difference detected in the stereo image to detect a distance to the object, a relative speed to the object detected in the image, and a distance between a plurality of objects.

카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera may detect the distance to the object, the relative speed to the object, and the distance between the plurality of objects based on the time (TOF) until the infrared light or laser emitted from the light source is reflected and received by the object.

한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rearview camera may be disposed near the rear license plate or trunk or tailgate switch, but the rearview camera is not limited thereto.

복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured by the plurality of cameras is transmitted to a processor of the camera, and the processor may synthesize the respective images to generate an image around the vehicle. In this case, the image around the vehicle may be displayed through the display unit as a top view image or a bird's eye image.

센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The sensing unit 125 senses various conditions of the vehicle 100 . To this end, the sensing unit 125 may include a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a yaw sensor, a gyro sensor, a position module, a vehicle forward/backward sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a temperature sensor inside the vehicle, a humidity sensor inside the vehicle, an ultrasonic sensor, an illuminance sensor, a radar, a rider, and the like.

이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the sensing unit 125 may obtain sensing signals for vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/backward information, battery information, fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle external illuminance, and the like.

메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 130 is electrically connected to the controller 170 . The memory 130 may store basic data for the unit, control data for controlling the operation of the unit, and input/output data. The memory 130 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc. in terms of hardware. The memory 130 may store various data for overall operation of the vehicle 100, such as a program for processing or control by the control unit 170.

출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The output unit 140 is for outputting information processed by the controller 170 and may include a display unit, a sound output unit, and a haptic output unit.

디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit may display information processed by the controller 170 . For example, the display unit may display vehicle-related information. Here, the vehicle-related information may include vehicle condition information indicating a current state of the vehicle or vehicle driving information related to driving of the vehicle. For example, the display unit may display information about the speed (or speed) of the current vehicle, the speed (or speed) of nearby vehicles, and the distance between the current vehicle and nearby vehicles.

한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check vehicle state information or vehicle driving information while driving. Clusters can be located above the dashboard. In this case, the driver can check the information displayed on the cluster while keeping his/her gaze in front of the vehicle.

음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts the electrical signal from the control unit 170 into an audio signal and outputs it. To this end, the sound output unit may include a speaker or the like.

차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The vehicle driving unit 150 may control the operation of various vehicle devices. The vehicle driving unit 150 may include a power source driving unit, a steering driving unit, a brake driving unit, a lamp driving unit, an air conditioning driving unit, a window driving unit, an airbag driving unit, a sunroof driving unit, and a suspension driving unit.

동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driver may perform electronic control of the power source in the vehicle 100 . For example, when a fossil fuel-based engine (not shown) is the power source, the power source driver may perform electronic control of the engine. This makes it possible to control the output torque of the engine and the like. When the power source driver is an engine, the speed of the vehicle may be limited by limiting engine output torque according to the control of the control unit 170 .

브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driver may perform electronic control of a brake apparatus (not shown) in the vehicle 100 . For example, the speed of the vehicle 100 may be reduced by controlling the operation of brakes disposed on wheels. As another example, the driving direction of the vehicle 100 may be adjusted to the left or right by differentiating the operation of the brakes respectively disposed on the left and right wheels.

램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit may control turning on/off of lamps disposed inside or outside the vehicle. In addition, the intensity and direction of the light of the lamp can be controlled. For example, control of direction indicator lamps and brake lamps may be performed.

제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 사고 유무 판단 장치는 제어부(170)에 의해 구동될 수 있다.The controller 170 may control overall operations of each unit in the vehicle 100 . The controller 170 may be referred to as an Electronic Control Unit (ECU). The aforementioned accident determination device may be driven by the controller 170 .

제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.In terms of hardware, the controller 170 may be implemented using at least one of application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.

일 실시 예에서 제어부(170)는 차량 내의 복수의 카메라에 의해 촬영 가능한 영역을 설정하고, 설정된 촬영 가능한 영역 내에 소정의 객체가 존재하는지 판단하고, 차량이 주행 또는 주차 상태인지 여부와, 존재한 객체의 유형을 기초로 사고 유무를 판단하고, 판단결과에 따라 소정의 장면을 촬영한 영상을 메모리에 기록할 수 있다. 실시 예에 따른 사고 판단 내지 사고 영상 저장은 충격 감지 센서에 의해 기록할 영상을 선택하는 것이 아니라, 영상만을 이용하고, 영상 분석 내지 객체 인식과 사고 판단 알고리즘을 적용함으로써, 센서 오작동에 의해 오인식, 잘못된 사고 영상의 저장의 단점을 극복할 수 있다.In an embodiment, the control unit 170 may set an area capable of being photographed by a plurality of cameras in the vehicle, determine whether a predetermined object exists within the set photographable region, determine whether or not there is an accident based on whether the vehicle is in a driving or parking state and the type of the object present, and record an image of a predetermined scene in a memory according to the determination result. Accident determination or accident image storage according to the embodiment does not select an image to be recorded by an impact sensor, but uses only the image and applies image analysis or object recognition and an accident determination algorithm, thereby misrecognizing due to sensor malfunction. It can overcome the disadvantages of storing the wrong accident image.

인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The interface unit 180 may serve as a passage for various types of external devices connected to the vehicle 100 . For example, the interface unit 180 may have a port connectable to a mobile terminal (not shown), and may be connected to a mobile terminal (not shown) through the port. In this case, the interface unit 180 can exchange data with the mobile terminal.

전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 190 may supply power required for operation of each component according to the control of the control unit 170 . In particular, the power supply unit 190 may receive power from a battery (not shown) inside the vehicle.

도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1;

ADAS(200)는, 편의, 안전 제공을 위해 운전자를 보조 하는 차량 운전 보조 시스템이다.The ADAS 200 is a vehicle driving assistance system that assists a driver in order to provide convenience and safety.

ADAS(200)는, 자동 비상 제동 모듈(이하, AEB: Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW: Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW: Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA: Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS: Speed Assist System)(214), 교통 신호 검출 모듈 (TSR: Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA: High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD: Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES: Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS: Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC: Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS: Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA: Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM: Around View Monitor)(223)을 포함할 수 있다.The ADAS 200 includes an automatic emergency braking module (hereinafter referred to as AEB: Autonomous Emergency Braking) 210, a forward collision avoidance module (hereinafter referred to as FCW: Forward Collision Warning) 211, a lane departure warning module (hereinafter referred to as LDW: Lane Departure Warning) 212, a lane keeping assistance module (hereinafter referred to as LKA: Lane Keeping Assist) 213), a speed assist system module (hereinafter referred to as SAS: Speed Assist System) 214, a traffic Signal detection module (TSR: Traffic Sign Recognition) (215), adaptive high beam control module (hereinafter, HBA: High Beam Assist) (216), blind spot monitoring module (hereinafter, BSD: Blind Spot Detection) (217), automatic emergency steering module (hereinafter, AES: Autonomous Emergency Steering) (218), curve speed warning system module (hereinafter, CSWS: Curve Speed Warning System) (219), adaptive steering control module (hereinafter, ACC: Adaptive Cruise Control (220), Smart Parking Assist System (SPAS) 221, Traffic Jam Assist (TJA) 222, and Around View Monitor (AVM) 223.

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.Each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, and 223 may include a processor for controlling vehicle driving assistance functions.

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(270)의 제어를 받을 수 있다.A processor included in each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, and 223 may be controlled by the controller 270.

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Each of the ADAS modules (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) processors, in terms of hardware, are application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), and programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. Can be implemented using at least one.

AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다. FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다. LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다. LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다. SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다. TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다. HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다. BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다. AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다. CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다. ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다. SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다. TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다. AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다. The AEB 210 is a module that controls automatic braking in order to prevent a collision with a detected object. The FCW 211 is a module that controls a warning to be output in order to prevent a collision with an object in front of the vehicle. The LDW 212 is a module that controls a warning to be output to prevent lane departure while driving. The LKA 213 is a module that controls to maintain a driving lane while driving. The SAS 214 is a module that controls driving at a set speed or less. The TSR 215 is a module that detects a traffic signal while driving and provides information based on the detected traffic signal. The HBA 216 is a module that controls the irradiation range or amount of high beam light according to driving conditions. The BSD 217 is a module that detects an object outside the driver's visual field while driving and provides detection information. AES (218) is a module that automatically performs steering in an emergency. The CSWS 219 is a module that controls to output a route when driving at a preset speed or higher during curve driving. The ACC 220 is a module that controls the driving vehicle to follow the preceding vehicle. The SPAS 221 is a module that detects a parking space and controls to park in the parking space. The TJA 222 is a module that controls automatic operation in case of traffic congestion. The AVM 223 is a module that provides an image around the vehicle and controls to monitor the surroundings of the vehicle.

ADAS(200)는, 입력부(230) 또는 센싱부(235)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(250) 또는 차량 구동부(260)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(250) 또는 차량 구동부(260)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(270)를 거쳐, 출력부(250) 또는 차량 구동부(260)에 출력할 수 있다.The ADAS 200 may provide a control signal for performing each vehicle driving assistance function to the output unit 250 or the vehicle driving unit 260 based on the data acquired by the input unit 230 or the sensing unit 235. The ADAS 200 may directly output the control signal to the output unit 250 or the vehicle driving unit 260 through in-vehicle network communication (eg, CAN). Alternatively, the ADAS 200 may output the control signal to the output unit 250 or the vehicle driving unit 260 via the control unit 270 .

도 3은 일 실시 예에 따른 차량의 주행차선 지원 장치의 개략 도이다.3 is a schematic diagram of an apparatus for assisting a driving lane of a vehicle according to an exemplary embodiment.

도 3을 참조하면, 차량의 주행차선 지원 장치(300)는 제어부(310), 차선 인식부(320) 및 발광부(330)를 포함한다. 차량의 주행차선 지원 장치(300)는 악천후에서 차선 인식률이 떨어지는 것을 감안하여, 차선이 잘 인식되지 않는 경우, 소정의 발광소자, 예를 들면 LED 또는 레이저를 통해 차선의 방향으로 빛을 조사함으로써 운전자에게 가상의 차선을 표시한다.Referring to FIG. 3 , the vehicle driving lane assistance device 300 includes a control unit 310 , a lane recognizing unit 320 and a light emitting unit 330 . Considering that the lane recognition rate is low in bad weather, the vehicle driving lane support device 300 displays a virtual lane to the driver by radiating light in the direction of the lane through a predetermined light emitting device, for example, an LED or a laser, when the lane is not well recognized.

제어부(310)는 주행중인 차량의 차선을 인식하고, 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 발광소자를 구동시키고, 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시한다. The controller 310 recognizes the lane of the vehicle in motion, drives a light emitting device in the direction of the recognized lane based on the recognition rate of the lane, and displays a virtual lane using light emitted through the light emitting device.

차선 인식부(320)는 주행중인 차량의 차선을 인식한다. 주행중인 차량의 좌우 선을 인식한다. 차선 인식을 위해, 카메라로 주행중인 도로 영상을 촬영하고, 촬영된 영상에서 차선을 검출한다. 일반적으로 차선 검출은 소벨과 캐니 윤곽선 검출로 차선 후보영역을 검출한 후 선 검출 알고리즘을 사용하여 차선을 추정하는 방식을 이용할 수 있으나, 이에 한정되지 않고, 다양한 차선 인식 알고리즘을 이용할 수 있다. 예를 들면, 차선 마킹을 검출하기 위해서 가장 많이 사용되는 차선의 윤곽선을 검출하는 Edge 검출을 사용하는 방법, RGB 칼라 모델을 사용하여 검출하는 방법, 역 원근 변환 법을 사용하는 방법, 영역 병합을 사용하여 검출하는 방법, 주파수 도메인 접근 방법, 영역 분할을 사용하는 방법, Hough 변환을 사용하는 방법 등이 있다. The lane recognizing unit 320 recognizes a lane of a driving vehicle. Recognizes the left and right lines of a running vehicle. For lane recognition, an image of a driving road is captured by a camera, and a lane is detected from the captured image. In general, lane detection may use a method of estimating a lane using a line detection algorithm after detecting a lane candidate area by Sobel and Canny contour detection, but is not limited thereto, and various lane recognition algorithms may be used. For example, to detect lane markings, there are a method using edge detection for detecting the contours of lanes most frequently used, a method using an RGB color model, a method using an inverse perspective transformation method, a method using region merging, a frequency domain approach method, a method using region segmentation, a method using Hough transform, and the like.

제어부(310)는 차선 인식부(320)의 인식한 차선에 대한 정보를 받아, 차선 인식률이 임계값보다 작은지 판단한다. 제어부(310)는 차선에 대한 기본 정보, 예를 들면 가로 및 세로 폭, 밝기 등을 저장하고, 차선 인식부(320)에서 제공받은 차선에 대한 정보와 비교하여, 일정한 기준값인지를 판단한다. 제어부(310)는 비교 결과를 수치화할 수 있으며, 예를 들면 50%보다 작은 경우, 차선 인식이 불량한 상태라고 판단하고, 가상의 차선 표시를 위해 발광부(330)를 구동시킬 수 있다. 이는 차선 인식률이 떨어지는 상황이 운전자가 육안으로 차선을 인식하기 어려운 악천후 상황이라고 판단하는 기준을 제공한다.The control unit 310 receives information on the lane recognized by the lane recognizing unit 320 and determines whether the lane recognition rate is smaller than a threshold value. The controller 310 stores basic information about lanes, eg, horizontal and vertical widths, brightness, etc., and compares them with the information about lanes provided by the lane recognizing unit 320 to determine whether they are constant reference values. The control unit 310 may digitize the comparison result, for example, if it is less than 50%, it may be determined that lane recognition is in a poor state, and may drive the light emitting unit 330 to display a virtual lane. This provides a criterion for determining that a situation in which the lane recognition rate is low is a bad weather situation in which it is difficult for the driver to recognize the lane with the naked eye.

또한, 제어부(310)는 주행차선 지원 선택을 위한 사용자 인터페이스를 통한 사용자 선택을 입력받는 받는 경우, 차선인식부(320)에서 인식된 차선 정보, 예를 들면 차선의 방향으로 발광부(330)를 구동시킬 수 있다.In addition, the control unit 310 may drive the light emitting unit 330 in the direction of lane information recognized by the lane recognizing unit 320, for example, when receiving a user selection through a user interface for driving lane support selection.

또한, 제어부(310)는 기상조건을 판단하는 판단하고, 판단된 기상조건이 불량으로 판단된 경우, 차선인식부(320)에서 인식된 차선 정보를 기초로 발광부(330)를 구동시킬 수 있다. 여기서, 기상조건은 외부 장치(미도시)로부터 수신된 기상정보, 차량의 와이퍼 구동정도, 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보로부터 추정할 수 있다. 예를 들면, 외부 서버와 네트워크를 통해 강수량을 수신하는 경우, 또는 차량과 스마트폰이 연동되어, 날씨 정보를 수신하는 경우, 제어부(310)는 기상조건을 판단할 수 있다.In addition, the control unit 310 determines the weather condition, and when the determined weather condition is determined to be bad, the control unit 310 may drive the light emitting unit 330 based on lane information recognized by the lane recognizing unit 320 . Here, the weather condition may be estimated from weather information received from an external device (not shown), driving degree of the wiper of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle. For example, when precipitation is received through an external server and a network, or when weather information is received through interworking between a vehicle and a smartphone, the controller 310 may determine weather conditions.

또한, 제어부(310)는 차량의 와이퍼의 구동 정도, 예를 들면 빠르게 구동하는 경우, 비가 많이 오느 상황이라고 판단할 수 있다. 또한, 제어부(310)는 차량의 빗물감지센서 또는 습도 센서로부터 센싱된 센싱정보로부터 기상 정보를 판단할 수 있다.In addition, the control unit 310 may determine the driving degree of the wiper of the vehicle, for example, when driving fast, that it is raining heavily. Also, the controller 310 may determine weather information from sensing information sensed by a rain sensor or humidity sensor of the vehicle.

제어부(310)는 전술한 기상조건을 판단한 후, 운전자의 육안으로 차선을 인식하기 어려운 상황이라고 판단하고, 발광부(330)를 통해 가상의 차선을 표시하여 운전자가 안전운전을 할 수 있도록 한다.After determining the weather conditions, the control unit 310 determines that it is difficult for the driver to visually recognize the lane, and displays a virtual lane through the light emitting unit 330 so that the driver can drive safely.

제어부(310)는 전후방 차량과의 거리를 판단하고, 판단된 거리가 소정의 거리 임계값 이하인 경우, 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시할 수 있다. 예를 들면 전후방 차량과의 거리가 100m 이내인 경우에는 발광부(330)를 구동시키지 않는다. 이 경우, 전후방 차량과의 거리가 가까운 경우, 가상의 차선 표시를 위해 빛을 조사하면, 전후방 차량의 운전자의 주의를 방해할 수 있기 때문이다. 따라서, 전후방 차량과의 거리가 어느 정도 확보된 경우에만, 빛을 조사하여 가상의 차선을 표시한다.The controller 310 may determine the distance to the front and rear vehicles, and display four virtual lanes by driving four light emitting devices in the direction of the four lanes in the front and rear of the vehicle when the determined distance is less than or equal to a predetermined distance threshold. For example, when the distance from the front and rear vehicles is less than 100 m, the light emitting unit 330 is not driven. In this case, when the distance to the front and rear vehicles is short, if light is irradiated for displaying a virtual lane, the attention of the drivers of the front and rear vehicles may be disturbed. Accordingly, a virtual lane is displayed by irradiating light only when a certain distance from the front and rear vehicles is secured.

발광부(330)는 제어부(310)의 제어에 따라, 빛을 조사한다. 여기서, 발광부(330)는 LED 소자, 레이저 등일 수 있으나, 이에 한정되는 것은 아니다. 또한, 발광부(330)는 차량의 전후 좌우에 4개가 배치될 수 있으며, 헤드라이드 부근, 리어 램프등 부분일 수 있으나, 그 수나 배치 위치에 한정되는 것은 아니다. The light emitting unit 330 emits light according to the control of the controller 310 . Here, the light emitting unit 330 may be an LED device or a laser, but is not limited thereto. In addition, four light emitting units 330 may be disposed on the front, rear, left and right sides of the vehicle, and may be near a headlight or a rear lamp, but are not limited to the number or position of the light emitting units 330 .

또한, 발광부(330)는 제어부(310)의 제어에 따라 조사 방향을 상하좌우로 움직일 수 있다. 따라서, 차선인식부(320)에서 인식한 차선의 방향에 상응하도록 빛을 조사할 수 있다.In addition, the light emitting unit 330 may move the irradiation direction up, down, left and right according to the control of the controller 310 . Accordingly, light may be irradiated to correspond to the direction of the lane recognized by the lane recognizing unit 320 .

도 4는 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.4 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.

도 4를 참조하면, 단계 400에서, 주행중인 차선을 인식한다.Referring to FIG. 4 , in step 400, a driving lane is recognized.

단계 402에서, 차선의 인식률이 소정의 임계값보다 작은지 판단한다.In step 402, it is determined whether the recognition rate of the next best is smaller than a predetermined threshold value.

단계 402의 판단 결과, 인식률이 임계값보다 작은 경우, 단계 404에서, 인식된 차선의 방향으로 발광소자를 구동시킨다.As a result of the determination in step 402, when the recognition rate is smaller than the threshold value, in step 404, the light emitting element is driven in the direction of the recognized lane.

단계 406에서, 발광소자에서 조사된 빛으로 가상의 차선을 표시한다.In step 406, a virtual lane is displayed with light emitted from the light emitting device.

도 5는 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.5 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.

도 5를 참조하면, 단계 500에서, 주행중인 차선을 인식한다.Referring to FIG. 5 , in step 500, a driving lane is recognized.

단계 502에서, 사용자 선택이 있는지 판단한다. In step 502, it is determined whether there is a user selection.

단계 502의 판단 결과, 사용자 선택이 있는 경우, 단계 504에서, 인식된 차선의 방향으로 발광소자를 구동시킨다.As a result of the determination in step 502, if there is a user selection, in step 504, the light emitting device is driven in the direction of the recognized lane.

단계 506에서, 발광소자에서 조사된 빛으로 가상의 차선을 표시한다.In step 506, a virtual lane is displayed with light emitted from the light emitting device.

도 6은 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.6 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.

도 6을 참조하면, 단계 600에서, 주행중인 차선을 인식한다.Referring to FIG. 6 , in step 600, a driving lane is recognized.

단계 602에서, 기상조건을 판단한다. In step 602, weather conditions are determined.

단계 602의 판단 결과, 기상조건이 불량인 경우, 단계 604에서, 인식된 차선의 방향으로 발광소자를 구동시킨다.As a result of the determination in step 602, if the weather condition is bad, in step 604, the light emitting device is driven in the direction of the recognized lane.

단계 606에서, 발광소자에서 조사된 빛으로 가상의 차선을 표시한다.In step 606, a virtual lane is displayed with light emitted from the light emitting device.

도 7은 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.7 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.

도 7을 참조하면, 단계 700에서, 주행중인 차선을 인식한다.Referring to FIG. 7 , in step 700, a driving lane is recognized.

단계 702에서, 가상의 차선을 표시해야 하는지 판단한다. 가상의 차선을 표시하는 것은 도 4 내지 6을 참조하여 설명한, 인식률이 소정의 임계값보다 작은 경우, 사용자 선택이 있는 경우, 기상조건이 불량인 경우인지를 판단하는 것과 동일하다. In step 702, it is determined whether a virtual lane should be displayed. Displaying the virtual lane is the same as determining whether the recognition rate is smaller than a predetermined threshold value, user selection, or poor weather conditions, as described with reference to FIGS. 4 to 6 .

단계 702의 판단 결과, 가상의 차선을 표시하는 경우, 단계 704에서, 전후방 차량을 인식한다.As a result of the determination in step 702, when a virtual lane is displayed, in step 704, front and rear vehicles are recognized.

단계 706에서, 전후방 차량과 소정 거리 이상 떨어져 있는지 판단한다. In step 706, it is determined whether the front and rear vehicles are separated by a predetermined distance or more.

단계 706의 판단 결과, 전후방 차량과 소정 거리 이상 떨어져 있는 경우, 단계 708에서, 전후방 4개의 차선 방향으로 발광소자를 구동시킨다.As a result of the determination in step 706, if the distance from the front and rear vehicles is greater than or equal to a predetermined distance, in step 708, the light emitting devices are driven in the direction of four front and rear lanes.

단계 710에서, 전후방 4개의 가상 차선을 표시한다. 전방 2개의 가상 차선 표시를 통해 차량의 운전자가 육안으로 차선을 인식할 수 있도록 하고, 후방 2개의 가상 차선 표시는 후방에서 진입하는 차량의 운전자의 차선인식에 도움을 줄 수 있다.In step 710, four front and rear virtual lanes are displayed. The display of two front virtual lanes enables the driver of the vehicle to visually recognize the lane, and the display of two rear virtual lanes helps the driver of a vehicle entering from the rear to recognize the lane.

단계 706의 판단 결과, 전후방 차량과 소정 거리 이상 떨어져 있지 않은 경우, 즉 가까운 경우, 가상의 차선을 표시하기 위해, 발광소자를 구동시키지 않는다. 따라서, 전방 차량의 운전자 또는 후방 차량의 운전자의 운행을 방해하는 불필요한 빛을 조사하지 않도록 한다.As a result of the determination in step 706, if the vehicle is not more than a predetermined distance away from the front and rear vehicles, that is, if it is close, the light emitting device is not driven to display a virtual lane. Therefore, unnecessary light that interferes with the driving of the driver of the front vehicle or the driver of the rear vehicle is not irradiated.

일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. A device according to an embodiment may include a processor, a memory for storing and executing program data, a permanent storage unit such as a disk drive, a communication port for communicating with an external device, and a user interface device such as a touch panel, a key, and a button. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, computer-readable recording media include magnetic storage media (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading media (e.g., CD-ROM), DVD (Digital Versatile Disc). A computer-readable recording medium may be distributed among computer systems connected through a network, and computer-readable codes may be stored and executed in a distributed manner. The medium may be readable by a computer, stored in a memory, and executed by a processor.

도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. Reference numerals have been described in the embodiments shown in the drawings, and specific terms have been used to describe the embodiments, but the present invention is not limited by the specific terms, and the embodiments are common to those skilled in the art. It may include all conceivable components.

실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.An embodiment may be presented as functional block structures and various processing steps. These functional blocks may be implemented with any number of hardware or/and software components that perform specific functions. For example, an embodiment may employ integrated circuit configurations such as memory, processing, logic, look-up tables, etc. that may execute various functions by control of one or more microprocessors or other control devices. Similar to components in the present invention that can be implemented as software programming or software elements, an embodiment can be implemented in a programming or scripting language such as C, C++, Java, assembler, etc., including various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, the embodiment may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used broadly and are not limited to mechanical and physical components. The term may include a meaning of a series of software routines in association with a processor or the like.

실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific executions described in the embodiments are examples, and do not limit the scope of the embodiments in any way. For brevity of the specification, description of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection of lines or connecting members between components shown in the drawings are functional connections and / or physical or circuit connections as examples, and in actual devices, various functional connections that are replaceable or additional, physical connections, or circuit connections. In addition, if there is no specific reference such as “essential” or “important”, it may not be a component necessarily required for the application of the present invention.

실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of embodiments (particularly in the claims), the use of the term “above” and similar indicating terms may correspond to both singular and plural. In addition, when a range is described in the examples, it includes the invention to which individual values belonging to the range are applied (unless there is a description to the contrary), and each individual value constituting the range is described in the detailed description. Finally, if there is no explicit description or description of the order of steps constituting the method according to the embodiment, the steps may be performed in an appropriate order. Examples are not necessarily limited according to the order of description of the steps. The use of all examples or exemplary terms (eg, etc.) in the embodiments is simply to describe the embodiments in detail, and the scope of the embodiments is not limited due to the examples or exemplary terms unless limited by the claims. In addition, those skilled in the art can appreciate that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended claims or equivalents thereof.

Claims (13)

주행중인 차량의 차선을 인식하는 단계;
상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 발광소자를 구동시키는 단계; 및
상기 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시하는 단계를 포함하고,
상기 차량의 전후방 차량과의 거리를 판단하는 단계를 더 포함하고,
상기 판단된 거리가 소정의 거리 임계값 이상인 경우, 상기 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시하는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법.
Recognizing a lane of a vehicle in motion;
driving a light emitting device in the direction of the recognized lane based on the recognition rate of the lane; and
Displaying a virtual lane using light irradiated through the light emitting device;
Further comprising the step of determining the distance from the front and rear vehicles of the vehicle,
When the determined distance is greater than or equal to a predetermined distance threshold, four light emitting devices are driven in directions of four lanes in the front and rear of the vehicle to display four virtual lanes.
제 1 항에 있어서,
상기 차선의 인식률이 소정의 임계값보다 작은지 판단하는 단계를 더 포함하고,
상기 차선의 인식률이 소정의 임계값보다 작은 경우, 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법.
According to claim 1,
Further comprising determining whether the recognition rate of the lane is less than a predetermined threshold value,
and driving the light emitting element in the direction of the recognized lane when the recognition rate of the lane is smaller than a predetermined threshold.
제 1 항에 있어서,
주행차선 지원 선택을 위한 사용자 인터페이스를 통한 사용자 선택을 입력받는 단계를 더 포함하고,
상기 사용자 선택이 입력되는 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법.
According to claim 1,
Further comprising receiving a user selection through a user interface for driving lane support selection,
and driving the light emitting element in the direction of the recognized lane based on the lane recognition rate when the user selection is input.
제 1 항에 있어서,
기상조건을 판단하는 판단하는 단계를 더 포함하고,
상기 판단된 기상조건이 불량으로 판단된 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법.
According to claim 1,
Further comprising the step of determining the weather condition,
and driving the light emitting element in the direction of the recognized lane based on the lane recognition rate when the determined meteorological condition is determined to be unfavorable.
제 4 항에 있어서,
상기 기상조건은,
외부 장치로부터 수신된 기상정보, 상기 차량의 와이퍼 구동정도, 상기 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보 중 적어도 하나로부터 판단하는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법.
According to claim 4,
The meteorological conditions are
A method for supporting a driving lane of a vehicle in bad weather, characterized in that the determination is made from at least one of weather information received from an external device, driving degree of the wipers of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle.
삭제delete 제 1 항 내지 제 5 항 중 어느 한 항에 따른 악천후에서의 차량의 주행차선 지원방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체.A recording medium recording a program for executing the driving lane support method of a vehicle according to any one of claims 1 to 5 in a computer. 차량의 외부에 구비된 발광소자; 및
상기 발광소자를 구동시키는 프로세서를 포함하고,
상기 프로세서는,
주행중인 차량의 차선을 인식하고,
상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키고,
상기 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시하고,
상기 프로세서는,
상기 차량의 전후방 차량과의 거리를 판단하고, 상기 판단된 거리가 소정의 거리 임계값 이상인 경우, 상기 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시하는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치.
A light emitting device provided on the outside of the vehicle; and
A processor driving the light emitting device;
the processor,
Recognize the lane of the vehicle in motion,
Driving the light emitting element in the direction of the recognized lane based on the recognition rate of the lane;
Displaying a virtual lane using light irradiated through the light emitting device;
the processor,
Determining the distance from the front and rear vehicles of the vehicle, and displaying four virtual lanes by driving four light emitting devices in the direction of four lanes in the front and rear of the vehicle when the determined distance is equal to or greater than a predetermined distance threshold.
제 8 항에 있어서,
상기 프로세서는,
상기 차선의 인식률이 소정의 임계값보다 작은지 판단하고,
상기 차선의 인식률이 소정의 임계값보다 작은 경우, 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치.
According to claim 8,
the processor,
Determining whether the recognition rate of the lane is less than a predetermined threshold;
and driving the light emitting device in the direction of the recognized lane when the recognition rate of the lane is smaller than a predetermined threshold.
제 8 항에 있어서,
주행차선 지원 선택을 위한 사용자 인터페이스를 더 포함하고,
상기 프로세서는,
상기 사용자 인터페이스를 통한 사용자 선택이 입력되는 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치.
According to claim 8,
Further comprising a user interface for driving lane assist selection;
the processor,
and driving the light emitting element in the direction of the recognized lane based on the lane recognition rate when a user selection is input through the user interface.
제 8 항에 있어서,
상기 프로세서는,
기상조건을 판단하는 판단하고,
상기 판단된 기상조건이 불량으로 판단된 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치.
According to claim 8,
the processor,
to judge weather conditions,
and driving the light emitting element in the direction of the recognized lane based on the lane recognition rate when the determined meteorological condition is determined to be unfavorable.
제 11 항에 있어서,
상기 기상조건은,
외부 장치로부터 수신된 기상정보, 상기 차량의 와이퍼 구동정도, 상기 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보 중 적어도 하나로부터 판단하는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치.
According to claim 11,
The meteorological conditions are
A driving lane support device for a vehicle in bad weather, characterized in that it is determined from at least one of weather information received from an external device, driving degree of the wiper of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle.
삭제delete
KR1020210085041A 2021-06-29 2021-06-29 Method and apparatus for supporting driving lines of vehicle in bad weather KR102559534B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210085041A KR102559534B1 (en) 2021-06-29 2021-06-29 Method and apparatus for supporting driving lines of vehicle in bad weather

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210085041A KR102559534B1 (en) 2021-06-29 2021-06-29 Method and apparatus for supporting driving lines of vehicle in bad weather

Publications (2)

Publication Number Publication Date
KR20230001925A KR20230001925A (en) 2023-01-05
KR102559534B1 true KR102559534B1 (en) 2023-07-26

Family

ID=84925884

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210085041A KR102559534B1 (en) 2021-06-29 2021-06-29 Method and apparatus for supporting driving lines of vehicle in bad weather

Country Status (1)

Country Link
KR (1) KR102559534B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010069921A (en) 2008-09-16 2010-04-02 Toyota Motor Corp Lane recognition device
KR101365675B1 (en) 2012-10-19 2014-02-24 주식회사 에스엘 서봉 Lane recognition apparatus, and lane departure warning apparatus using the same
JP2020086884A (en) 2018-11-23 2020-06-04 日本精機株式会社 Lane marking estimation device, display control device, method and computer program
JP2020106933A (en) * 2018-12-26 2020-07-09 株式会社デンソー Driving support device and driving support method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101714185B1 (en) * 2015-08-05 2017-03-22 엘지전자 주식회사 Driver Assistance Apparatus and Vehicle Having The Same
KR20180099280A (en) * 2017-02-28 2018-09-05 삼성전자주식회사 Method and device to generate virtual lane

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010069921A (en) 2008-09-16 2010-04-02 Toyota Motor Corp Lane recognition device
KR101365675B1 (en) 2012-10-19 2014-02-24 주식회사 에스엘 서봉 Lane recognition apparatus, and lane departure warning apparatus using the same
JP2020086884A (en) 2018-11-23 2020-06-04 日本精機株式会社 Lane marking estimation device, display control device, method and computer program
JP2020106933A (en) * 2018-12-26 2020-07-09 株式会社デンソー Driving support device and driving support method

Also Published As

Publication number Publication date
KR20230001925A (en) 2023-01-05

Similar Documents

Publication Publication Date Title
US10410069B2 (en) Apparatus for providing around view and vehicle
US10737689B2 (en) Parking assistance apparatus and vehicle having the same
US10528829B2 (en) Apparatus for parking vehicle and vehicle
US9944317B2 (en) Driver assistance apparatus and control method for the same
US10800428B2 (en) Vehicle driving assistance method and vehicle
US10127820B2 (en) Driver assistance apparatus and vehicle including the same
US10286905B2 (en) Driver assistance apparatus and control method for the same
CN106205175B (en) Display device for vehicle and vehicle
US9978280B2 (en) Driver assistance apparatus and vehicle including the same
US10748428B2 (en) Vehicle and control method therefor
KR101565006B1 (en) apparatus for providing around view and Vehicle including the same
EP3248838A1 (en) Lighting apparatus for vehicle and vehicle having the same
US10887568B2 (en) Image processing apparatus, and image processing method
US10703374B2 (en) Vehicle driving assisting apparatus and vehicle comprising same
KR102331882B1 (en) Method and apparatus for controlling an vehicle based on voice recognition
KR102094405B1 (en) Method and apparatus for determining an accident using an image
KR102559534B1 (en) Method and apparatus for supporting driving lines of vehicle in bad weather
KR20200082457A (en) Method and apparatus for controlling an alarm output of ADAS
KR102389728B1 (en) Method and apparatus for processing a plurality of images obtained from vehicle 's cameras
KR102124998B1 (en) Method and apparatus for correcting a position of ADAS camera during driving
KR102705475B1 (en) Method and apparatus for displaying an image on handle display of vehicle
KR102217973B1 (en) Lane guide apparatus and method for guiding lane
KR102175793B1 (en) Method and apparatus for outputting an alarm for congitive impairment of driver
KR102541416B1 (en) Method and apparatus for displaying a HUD image based on realtime traffic information
KR20190079334A (en) Apparatus and method for preventing rear-end collision accident

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right