KR102559534B1 - Method and apparatus for supporting driving lines of vehicle in bad weather - Google Patents
Method and apparatus for supporting driving lines of vehicle in bad weather Download PDFInfo
- Publication number
- KR102559534B1 KR102559534B1 KR1020210085041A KR20210085041A KR102559534B1 KR 102559534 B1 KR102559534 B1 KR 102559534B1 KR 1020210085041 A KR1020210085041 A KR 1020210085041A KR 20210085041 A KR20210085041 A KR 20210085041A KR 102559534 B1 KR102559534 B1 KR 102559534B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- vehicle
- driving
- light emitting
- recognition rate
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 11
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 11
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 208000013500 continuous spikes and waves during sleep Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000002803 fossil fuel Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
일 실시 예에 따른 악천후에서의 차량의 주행차선 지원방법은 주행중인 차량의 차선을 인식하고, 차선의 인식률을 기초로 인식된 차선의 방향으로 발광소자를 구동시키고, 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시한다.According to an embodiment, a driving lane support method for a vehicle in bad weather recognizes a lane of a vehicle in motion, drives a light emitting device in the direction of the recognized lane based on a recognition rate of the lane, and displays a virtual lane using light emitted through the light emitting device.
Description
본 발명은 악천후에서의 차량의 주행차선 지원 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for assisting a driving lane of a vehicle in bad weather.
자율주행차는 자율주행 시 해당 차량 내 탑재된 차선유지 제어시스템을 이용해서 자율 주행을 수행한다. 이러한 차선유지 제어시스템은 차선 유지에 필요한 주행 경로를 차량용 영상 센서(라이다 포함)로 취득한 센서정보와 차량정보(차속, 관성, 조향각, 조향 토크 등 포함)를 신호처리하여 얻어지는 주행차선과 주행차량과의 상대적 정보값들(이탈각, 이탈거리, 곡률, 도로폭 등 포함)에 기초해서 차량의 조향장치(본 명세서에서는 조향장치, 제동장치 및 구동장치를 통합한 것을 포괄적으로 총칭함)를 이용해서 차량을 제어한다. 자율주행차의 차선유지 제어시스템은 아래와 같이, 크게 인식(Recognition), 판단(Judgment), 조작(Operation) 계층으로 구성된다.An autonomous vehicle performs autonomous driving by using a lane keeping control system installed in the vehicle during autonomous driving. This lane keeping control system controls the vehicle using the vehicle's steering system (herein, comprehensively referred to as a combination of the steering system, braking system, and driving system) of the vehicle based on relative information values (including departure angle, departure distance, curvature, road width, etc.) . The lane keeping control system of an autonomous vehicle is largely composed of recognition, judgment, and operation layers as follows.
하지만, 자율주행기술이 고도화됨에 따라 차선 인식률이 높아지고 있지만, 악천후, 예를 들면 비가 오거나, 빗물에 의해 노면의 차선이 주위 빛에 반사되는 상황에서는 차선인식률이 현저히 떨어지게 되어 안전운전을 도움을 주지 못하는 문제점이 있었다. However, although the lane recognition rate is increasing as autonomous driving technology is advanced, there is a problem in that it does not help safe driving because the lane recognition rate is significantly reduced in bad weather, for example, in a situation where lanes on the road surface are reflected by ambient light due to rain or rainwater.
[선행기술문헌번호][Prior art document number]
선행기술 1: 한국등록특허 10-2264265호Prior Art 1: Korean Patent Registration No. 10-2264265
선행기술 2: 한국등록특허 10-2264961호Prior Art 2: Korean Patent Registration No. 10-2264961
일 실시 예는 악천후에서의 차량의 주행차선 지원 방법 및 장치를 제공하는 것이다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment is to provide a method and apparatus for assisting a driving lane of a vehicle in bad weather. In addition, it is to provide a computer-readable recording medium recording a program for executing the method on a computer. The technical problem to be solved is not limited to the technical problems described above, and other technical problems may exist.
일 실시 예에 따른 악천후에서의 차량의 주행차선 지원방법은 주행중인 차량의 차선을 인식하는 단계; 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 발광소자를 구동시키는 단계; 및 상기 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시하는 단계를 포함한다.According to an embodiment, a method for supporting a driving lane of a vehicle in bad weather includes recognizing a lane of a vehicle in motion; driving a light emitting device in the direction of the recognized lane based on the recognition rate of the lane; and displaying a virtual lane using light emitted through the light emitting device.
상기 악천후에서의 차량의 주행차선 지원방법은 상기 차선의 인식률이 소정의 임계값보다 작은지 판단하는 단계를 더 포함하고, The method for assisting a driving lane of a vehicle in bad weather further includes determining whether a recognition rate of the lane is smaller than a predetermined threshold value,
상기 차선의 인식률이 소정의 임계값보다 작은 경우, 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.When the recognition rate of the lane is smaller than a predetermined threshold, the light emitting device is driven in the direction of the recognized lane.
상기 악천후에서의 차량의 주행차선 지원방법은 주행차선 지원 선택을 위한 사용자 인터페이스를 통한 사용자 선택을 입력받는 단계를 더 포함하고,The driving lane support method of the vehicle in bad weather further includes receiving a user selection through a user interface for driving lane support selection,
상기 사용자 선택이 입력되는 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.When the user selection is input, the light emitting device is driven in the direction of the recognized lane based on the recognition rate of the lane.
상기 악천후에서의 차량의 주행차선 지원방법은 기상조건을 판단하는 판단하는 단계를 더 포함하고,The method for supporting a driving lane of a vehicle in bad weather further includes determining weather conditions,
상기 판단된 기상조건이 불량으로 판단된 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.When the determined meteorological condition is determined to be unfavorable, the light emitting device may be driven in the direction of the recognized lane based on the recognition rate of the lane.
상기 기상조건은, 외부 장치로부터 수신된 기상정보, 상기 차량의 와이퍼 구동정도, 상기 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보 중 적어도 하나로부터 판단하는 것을 특징으로 한다.The meteorological condition may be determined from at least one of weather information received from an external device, driving degree of wipers of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle.
상기 악천후에서의 차량의 주행차선 지원방법은 상기 차량의 전후방 차량과의 거리를 판단하는 단계를 더 포함하고,The method for supporting a driving lane of a vehicle in bad weather further includes determining a distance between the front and rear vehicles of the vehicle,
상기 판단된 거리가 소정의 거리 임계값 이상인 경우, 상기 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시하는 것을 특징으로 한다.When the determined distance is greater than or equal to a predetermined distance threshold, four light emitting devices may be driven in directions of four lanes in the front and rear of the vehicle to display four virtual lanes.
다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원장치는 차량의 외부에 구비된 발광소자; 및 상기 발광소자를 구동시키는 프로세서를 포함하고,An apparatus for assisting a driving lane of a vehicle in bad weather according to another embodiment includes a light emitting element provided on the outside of the vehicle; And a processor for driving the light emitting element,
상기 프로세서는, 주행중인 차량의 차선을 인식하고, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키고, 상기 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시한다.The processor recognizes a lane of the vehicle in motion, drives the light emitting device in the direction of the recognized lane based on a recognition rate of the lane, and displays a virtual lane using light emitted through the light emitting device.
상기 프로세서는, 상기 차선의 인식률이 소정의 임계값보다 작은지 판단하고, 상기 차선의 인식률이 소정의 임계값보다 작은 경우, 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.The processor may determine whether the recognition rate of the lane is less than a predetermined threshold, and if the recognition rate of the lane is less than the predetermined threshold, drive the light emitting device in the direction of the recognized lane.
상기 악천후에서의 차량의 주행차선 지원장치는 주행차선 지원 선택을 위한 사용자 인터페이스를 더 포함하고,The vehicle driving lane assistance device in bad weather further includes a user interface for driving lane support selection,
상기 프로세서는, 상기 사용자 인터페이스를 통한 사용자 선택이 입력되는 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.The processor may drive the light emitting device in the direction of the recognized lane based on a recognition rate of the lane when a user selection is input through the user interface.
상기 프로세서는, 기상조건을 판단하는 판단하고, 상기 판단된 기상조건이 불량으로 판단된 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 한다.The processor may determine weather conditions, and drive the light emitting device in the direction of the recognized lane based on a recognition rate of the lane when the determined weather condition is determined to be unfavorable.
상기 기상조건은, 외부 장치로부터 수신된 기상정보, 상기 차량의 와이퍼 구동정도, 상기 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보 중 적어도 하나로부터 판단하는 것을 특징으로 한다.The meteorological condition may be determined from at least one of weather information received from an external device, driving degree of wipers of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle.
상기 프로세서는, 상기 차량의 전후방 차량과의 거리를 판단하고, 상기 판단된 거리가 소정의 거리 임계값 이상인 경우, 상기 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시하는 것을 특징으로 한다.The processor determines the distance from the front and rear vehicles of the vehicle, and when the determined distance is equal to or greater than a predetermined distance threshold, drives four light emitting devices in directions of four lanes in the front and rear of the vehicle, thereby displaying four virtual lanes.
또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.and a recording medium recording a program for executing a method for assisting a driving lane of a vehicle in bad weather according to another embodiment in a computer.
도 1은 차량의 내부 블록 도이다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
도 3은 일 실시 예에 따른 차량의 주행차선 지원 장치의 개략 도이다.
도 4는 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.
도 5는 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.
도 6은 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.
도 7은 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.1 is a block diagram of the interior of a vehicle;
FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1;
3 is a schematic diagram of an apparatus for assisting a driving lane of a vehicle according to an exemplary embodiment.
4 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
5 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
6 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
7 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but they may vary depending on the intention or precedent of a person skilled in the field, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a certain part "includes" a certain component throughout the specification, it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 일 실시 예에 따른 차량의 내부 블록도이다. 1 is an internal block diagram of a vehicle according to an exemplary embodiment.
도 1을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.Referring to FIG. 1 , a
통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The
입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The
운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving control unit receives a user input for driving the
가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input unit receives an input for acceleration of the
카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera may process still images or moving images obtained by an image sensor (eg, CMOS or CCD). The image processing module may process a still image or video obtained through an image sensor, extract necessary information, and deliver the extracted information to the
한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.Meanwhile, the
카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a stereo camera. In this case, the processor of the camera may use a disparity difference detected in the stereo image to detect a distance to the object, a relative speed to the object detected in the image, and a distance between a plurality of objects.
카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera may detect the distance to the object, the relative speed to the object, and the distance between the plurality of objects based on the time (TOF) until the infrared light or laser emitted from the light source is reflected and received by the object.
한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rearview camera may be disposed near the rear license plate or trunk or tailgate switch, but the rearview camera is not limited thereto.
복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured by the plurality of cameras is transmitted to a processor of the camera, and the processor may synthesize the respective images to generate an image around the vehicle. In this case, the image around the vehicle may be displayed through the display unit as a top view image or a bird's eye image.
센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The
이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The
디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit may display information processed by the
한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check vehicle state information or vehicle driving information while driving. Clusters can be located above the dashboard. In this case, the driver can check the information displayed on the cluster while keeping his/her gaze in front of the vehicle.
음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts the electrical signal from the
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The
동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driver may perform electronic control of the power source in the
브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driver may perform electronic control of a brake apparatus (not shown) in the
램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit may control turning on/off of lamps disposed inside or outside the vehicle. In addition, the intensity and direction of the light of the lamp can be controlled. For example, control of direction indicator lamps and brake lamps may be performed.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 사고 유무 판단 장치는 제어부(170)에 의해 구동될 수 있다.The
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.In terms of hardware, the
일 실시 예에서 제어부(170)는 차량 내의 복수의 카메라에 의해 촬영 가능한 영역을 설정하고, 설정된 촬영 가능한 영역 내에 소정의 객체가 존재하는지 판단하고, 차량이 주행 또는 주차 상태인지 여부와, 존재한 객체의 유형을 기초로 사고 유무를 판단하고, 판단결과에 따라 소정의 장면을 촬영한 영상을 메모리에 기록할 수 있다. 실시 예에 따른 사고 판단 내지 사고 영상 저장은 충격 감지 센서에 의해 기록할 영상을 선택하는 것이 아니라, 영상만을 이용하고, 영상 분석 내지 객체 인식과 사고 판단 알고리즘을 적용함으로써, 센서 오작동에 의해 오인식, 잘못된 사고 영상의 저장의 단점을 극복할 수 있다.In an embodiment, the
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1;
ADAS(200)는, 편의, 안전 제공을 위해 운전자를 보조 하는 차량 운전 보조 시스템이다.The
ADAS(200)는, 자동 비상 제동 모듈(이하, AEB: Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW: Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW: Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA: Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS: Speed Assist System)(214), 교통 신호 검출 모듈 (TSR: Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA: High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD: Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES: Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS: Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC: Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS: Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA: Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM: Around View Monitor)(223)을 포함할 수 있다.The
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.Each of the
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(270)의 제어를 받을 수 있다.A processor included in each of the
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Each of the ADAS modules (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) processors, in terms of hardware, are application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), and programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. Can be implemented using at least one.
AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다. FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다. LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다. LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다. SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다. TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다. HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다. BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다. AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다. CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다. ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다. SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다. TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다. AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다. The
ADAS(200)는, 입력부(230) 또는 센싱부(235)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(250) 또는 차량 구동부(260)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(250) 또는 차량 구동부(260)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(270)를 거쳐, 출력부(250) 또는 차량 구동부(260)에 출력할 수 있다.The
도 3은 일 실시 예에 따른 차량의 주행차선 지원 장치의 개략 도이다.3 is a schematic diagram of an apparatus for assisting a driving lane of a vehicle according to an exemplary embodiment.
도 3을 참조하면, 차량의 주행차선 지원 장치(300)는 제어부(310), 차선 인식부(320) 및 발광부(330)를 포함한다. 차량의 주행차선 지원 장치(300)는 악천후에서 차선 인식률이 떨어지는 것을 감안하여, 차선이 잘 인식되지 않는 경우, 소정의 발광소자, 예를 들면 LED 또는 레이저를 통해 차선의 방향으로 빛을 조사함으로써 운전자에게 가상의 차선을 표시한다.Referring to FIG. 3 , the vehicle driving
제어부(310)는 주행중인 차량의 차선을 인식하고, 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 발광소자를 구동시키고, 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시한다. The
차선 인식부(320)는 주행중인 차량의 차선을 인식한다. 주행중인 차량의 좌우 선을 인식한다. 차선 인식을 위해, 카메라로 주행중인 도로 영상을 촬영하고, 촬영된 영상에서 차선을 검출한다. 일반적으로 차선 검출은 소벨과 캐니 윤곽선 검출로 차선 후보영역을 검출한 후 선 검출 알고리즘을 사용하여 차선을 추정하는 방식을 이용할 수 있으나, 이에 한정되지 않고, 다양한 차선 인식 알고리즘을 이용할 수 있다. 예를 들면, 차선 마킹을 검출하기 위해서 가장 많이 사용되는 차선의 윤곽선을 검출하는 Edge 검출을 사용하는 방법, RGB 칼라 모델을 사용하여 검출하는 방법, 역 원근 변환 법을 사용하는 방법, 영역 병합을 사용하여 검출하는 방법, 주파수 도메인 접근 방법, 영역 분할을 사용하는 방법, Hough 변환을 사용하는 방법 등이 있다. The
제어부(310)는 차선 인식부(320)의 인식한 차선에 대한 정보를 받아, 차선 인식률이 임계값보다 작은지 판단한다. 제어부(310)는 차선에 대한 기본 정보, 예를 들면 가로 및 세로 폭, 밝기 등을 저장하고, 차선 인식부(320)에서 제공받은 차선에 대한 정보와 비교하여, 일정한 기준값인지를 판단한다. 제어부(310)는 비교 결과를 수치화할 수 있으며, 예를 들면 50%보다 작은 경우, 차선 인식이 불량한 상태라고 판단하고, 가상의 차선 표시를 위해 발광부(330)를 구동시킬 수 있다. 이는 차선 인식률이 떨어지는 상황이 운전자가 육안으로 차선을 인식하기 어려운 악천후 상황이라고 판단하는 기준을 제공한다.The
또한, 제어부(310)는 주행차선 지원 선택을 위한 사용자 인터페이스를 통한 사용자 선택을 입력받는 받는 경우, 차선인식부(320)에서 인식된 차선 정보, 예를 들면 차선의 방향으로 발광부(330)를 구동시킬 수 있다.In addition, the
또한, 제어부(310)는 기상조건을 판단하는 판단하고, 판단된 기상조건이 불량으로 판단된 경우, 차선인식부(320)에서 인식된 차선 정보를 기초로 발광부(330)를 구동시킬 수 있다. 여기서, 기상조건은 외부 장치(미도시)로부터 수신된 기상정보, 차량의 와이퍼 구동정도, 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보로부터 추정할 수 있다. 예를 들면, 외부 서버와 네트워크를 통해 강수량을 수신하는 경우, 또는 차량과 스마트폰이 연동되어, 날씨 정보를 수신하는 경우, 제어부(310)는 기상조건을 판단할 수 있다.In addition, the
또한, 제어부(310)는 차량의 와이퍼의 구동 정도, 예를 들면 빠르게 구동하는 경우, 비가 많이 오느 상황이라고 판단할 수 있다. 또한, 제어부(310)는 차량의 빗물감지센서 또는 습도 센서로부터 센싱된 센싱정보로부터 기상 정보를 판단할 수 있다.In addition, the
제어부(310)는 전술한 기상조건을 판단한 후, 운전자의 육안으로 차선을 인식하기 어려운 상황이라고 판단하고, 발광부(330)를 통해 가상의 차선을 표시하여 운전자가 안전운전을 할 수 있도록 한다.After determining the weather conditions, the
제어부(310)는 전후방 차량과의 거리를 판단하고, 판단된 거리가 소정의 거리 임계값 이하인 경우, 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시할 수 있다. 예를 들면 전후방 차량과의 거리가 100m 이내인 경우에는 발광부(330)를 구동시키지 않는다. 이 경우, 전후방 차량과의 거리가 가까운 경우, 가상의 차선 표시를 위해 빛을 조사하면, 전후방 차량의 운전자의 주의를 방해할 수 있기 때문이다. 따라서, 전후방 차량과의 거리가 어느 정도 확보된 경우에만, 빛을 조사하여 가상의 차선을 표시한다.The
발광부(330)는 제어부(310)의 제어에 따라, 빛을 조사한다. 여기서, 발광부(330)는 LED 소자, 레이저 등일 수 있으나, 이에 한정되는 것은 아니다. 또한, 발광부(330)는 차량의 전후 좌우에 4개가 배치될 수 있으며, 헤드라이드 부근, 리어 램프등 부분일 수 있으나, 그 수나 배치 위치에 한정되는 것은 아니다. The
또한, 발광부(330)는 제어부(310)의 제어에 따라 조사 방향을 상하좌우로 움직일 수 있다. 따라서, 차선인식부(320)에서 인식한 차선의 방향에 상응하도록 빛을 조사할 수 있다.In addition, the
도 4는 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.4 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
도 4를 참조하면, 단계 400에서, 주행중인 차선을 인식한다.Referring to FIG. 4 , in
단계 402에서, 차선의 인식률이 소정의 임계값보다 작은지 판단한다.In step 402, it is determined whether the recognition rate of the next best is smaller than a predetermined threshold value.
단계 402의 판단 결과, 인식률이 임계값보다 작은 경우, 단계 404에서, 인식된 차선의 방향으로 발광소자를 구동시킨다.As a result of the determination in step 402, when the recognition rate is smaller than the threshold value, in
단계 406에서, 발광소자에서 조사된 빛으로 가상의 차선을 표시한다.In
도 5는 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.5 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
도 5를 참조하면, 단계 500에서, 주행중인 차선을 인식한다.Referring to FIG. 5 , in
단계 502에서, 사용자 선택이 있는지 판단한다. In
단계 502의 판단 결과, 사용자 선택이 있는 경우, 단계 504에서, 인식된 차선의 방향으로 발광소자를 구동시킨다.As a result of the determination in
단계 506에서, 발광소자에서 조사된 빛으로 가상의 차선을 표시한다.In
도 6은 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.6 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
도 6을 참조하면, 단계 600에서, 주행중인 차선을 인식한다.Referring to FIG. 6 , in
단계 602에서, 기상조건을 판단한다. In
단계 602의 판단 결과, 기상조건이 불량인 경우, 단계 604에서, 인식된 차선의 방향으로 발광소자를 구동시킨다.As a result of the determination in
단계 606에서, 발광소자에서 조사된 빛으로 가상의 차선을 표시한다.In
도 7은 또 다른 실시 예에 따른 악천후에서의 차량의 주행차선 지원 방법의 흐름 도이다.7 is a flowchart of a method for assisting a driving lane of a vehicle in bad weather according to another embodiment.
도 7을 참조하면, 단계 700에서, 주행중인 차선을 인식한다.Referring to FIG. 7 , in
단계 702에서, 가상의 차선을 표시해야 하는지 판단한다. 가상의 차선을 표시하는 것은 도 4 내지 6을 참조하여 설명한, 인식률이 소정의 임계값보다 작은 경우, 사용자 선택이 있는 경우, 기상조건이 불량인 경우인지를 판단하는 것과 동일하다. In
단계 702의 판단 결과, 가상의 차선을 표시하는 경우, 단계 704에서, 전후방 차량을 인식한다.As a result of the determination in
단계 706에서, 전후방 차량과 소정 거리 이상 떨어져 있는지 판단한다. In
단계 706의 판단 결과, 전후방 차량과 소정 거리 이상 떨어져 있는 경우, 단계 708에서, 전후방 4개의 차선 방향으로 발광소자를 구동시킨다.As a result of the determination in
단계 710에서, 전후방 4개의 가상 차선을 표시한다. 전방 2개의 가상 차선 표시를 통해 차량의 운전자가 육안으로 차선을 인식할 수 있도록 하고, 후방 2개의 가상 차선 표시는 후방에서 진입하는 차량의 운전자의 차선인식에 도움을 줄 수 있다.In
단계 706의 판단 결과, 전후방 차량과 소정 거리 이상 떨어져 있지 않은 경우, 즉 가까운 경우, 가상의 차선을 표시하기 위해, 발광소자를 구동시키지 않는다. 따라서, 전방 차량의 운전자 또는 후방 차량의 운전자의 운행을 방해하는 불필요한 빛을 조사하지 않도록 한다.As a result of the determination in
일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. A device according to an embodiment may include a processor, a memory for storing and executing program data, a permanent storage unit such as a disk drive, a communication port for communicating with an external device, and a user interface device such as a touch panel, a key, and a button. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, computer-readable recording media include magnetic storage media (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading media (e.g., CD-ROM), DVD (Digital Versatile Disc). A computer-readable recording medium may be distributed among computer systems connected through a network, and computer-readable codes may be stored and executed in a distributed manner. The medium may be readable by a computer, stored in a memory, and executed by a processor.
도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. Reference numerals have been described in the embodiments shown in the drawings, and specific terms have been used to describe the embodiments, but the present invention is not limited by the specific terms, and the embodiments are common to those skilled in the art. It may include all conceivable components.
실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.An embodiment may be presented as functional block structures and various processing steps. These functional blocks may be implemented with any number of hardware or/and software components that perform specific functions. For example, an embodiment may employ integrated circuit configurations such as memory, processing, logic, look-up tables, etc. that may execute various functions by control of one or more microprocessors or other control devices. Similar to components in the present invention that can be implemented as software programming or software elements, an embodiment can be implemented in a programming or scripting language such as C, C++, Java, assembler, etc., including various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, the embodiment may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used broadly and are not limited to mechanical and physical components. The term may include a meaning of a series of software routines in association with a processor or the like.
실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific executions described in the embodiments are examples, and do not limit the scope of the embodiments in any way. For brevity of the specification, description of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection of lines or connecting members between components shown in the drawings are functional connections and / or physical or circuit connections as examples, and in actual devices, various functional connections that are replaceable or additional, physical connections, or circuit connections. In addition, if there is no specific reference such as “essential” or “important”, it may not be a component necessarily required for the application of the present invention.
실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of embodiments (particularly in the claims), the use of the term “above” and similar indicating terms may correspond to both singular and plural. In addition, when a range is described in the examples, it includes the invention to which individual values belonging to the range are applied (unless there is a description to the contrary), and each individual value constituting the range is described in the detailed description. Finally, if there is no explicit description or description of the order of steps constituting the method according to the embodiment, the steps may be performed in an appropriate order. Examples are not necessarily limited according to the order of description of the steps. The use of all examples or exemplary terms (eg, etc.) in the embodiments is simply to describe the embodiments in detail, and the scope of the embodiments is not limited due to the examples or exemplary terms unless limited by the claims. In addition, those skilled in the art can appreciate that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended claims or equivalents thereof.
Claims (13)
상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 발광소자를 구동시키는 단계; 및
상기 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시하는 단계를 포함하고,
상기 차량의 전후방 차량과의 거리를 판단하는 단계를 더 포함하고,
상기 판단된 거리가 소정의 거리 임계값 이상인 경우, 상기 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시하는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법. Recognizing a lane of a vehicle in motion;
driving a light emitting device in the direction of the recognized lane based on the recognition rate of the lane; and
Displaying a virtual lane using light irradiated through the light emitting device;
Further comprising the step of determining the distance from the front and rear vehicles of the vehicle,
When the determined distance is greater than or equal to a predetermined distance threshold, four light emitting devices are driven in directions of four lanes in the front and rear of the vehicle to display four virtual lanes.
상기 차선의 인식률이 소정의 임계값보다 작은지 판단하는 단계를 더 포함하고,
상기 차선의 인식률이 소정의 임계값보다 작은 경우, 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법. According to claim 1,
Further comprising determining whether the recognition rate of the lane is less than a predetermined threshold value,
and driving the light emitting element in the direction of the recognized lane when the recognition rate of the lane is smaller than a predetermined threshold.
주행차선 지원 선택을 위한 사용자 인터페이스를 통한 사용자 선택을 입력받는 단계를 더 포함하고,
상기 사용자 선택이 입력되는 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법.According to claim 1,
Further comprising receiving a user selection through a user interface for driving lane support selection,
and driving the light emitting element in the direction of the recognized lane based on the lane recognition rate when the user selection is input.
기상조건을 판단하는 판단하는 단계를 더 포함하고,
상기 판단된 기상조건이 불량으로 판단된 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법. According to claim 1,
Further comprising the step of determining the weather condition,
and driving the light emitting element in the direction of the recognized lane based on the lane recognition rate when the determined meteorological condition is determined to be unfavorable.
상기 기상조건은,
외부 장치로부터 수신된 기상정보, 상기 차량의 와이퍼 구동정도, 상기 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보 중 적어도 하나로부터 판단하는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원방법. According to claim 4,
The meteorological conditions are
A method for supporting a driving lane of a vehicle in bad weather, characterized in that the determination is made from at least one of weather information received from an external device, driving degree of the wipers of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle.
상기 발광소자를 구동시키는 프로세서를 포함하고,
상기 프로세서는,
주행중인 차량의 차선을 인식하고,
상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키고,
상기 발광소자를 통해 조사된 빛을 이용하여 가상의 차선을 표시하고,
상기 프로세서는,
상기 차량의 전후방 차량과의 거리를 판단하고, 상기 판단된 거리가 소정의 거리 임계값 이상인 경우, 상기 차량의 전후방 4개의 차선 방향으로 4개의 발광소자를 구동시켜, 4개의 가상차선을 표시하는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치. A light emitting device provided on the outside of the vehicle; and
A processor driving the light emitting device;
the processor,
Recognize the lane of the vehicle in motion,
Driving the light emitting element in the direction of the recognized lane based on the recognition rate of the lane;
Displaying a virtual lane using light irradiated through the light emitting device;
the processor,
Determining the distance from the front and rear vehicles of the vehicle, and displaying four virtual lanes by driving four light emitting devices in the direction of four lanes in the front and rear of the vehicle when the determined distance is equal to or greater than a predetermined distance threshold.
상기 프로세서는,
상기 차선의 인식률이 소정의 임계값보다 작은지 판단하고,
상기 차선의 인식률이 소정의 임계값보다 작은 경우, 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치. According to claim 8,
the processor,
Determining whether the recognition rate of the lane is less than a predetermined threshold;
and driving the light emitting device in the direction of the recognized lane when the recognition rate of the lane is smaller than a predetermined threshold.
주행차선 지원 선택을 위한 사용자 인터페이스를 더 포함하고,
상기 프로세서는,
상기 사용자 인터페이스를 통한 사용자 선택이 입력되는 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치. According to claim 8,
Further comprising a user interface for driving lane assist selection;
the processor,
and driving the light emitting element in the direction of the recognized lane based on the lane recognition rate when a user selection is input through the user interface.
상기 프로세서는,
기상조건을 판단하는 판단하고,
상기 판단된 기상조건이 불량으로 판단된 경우, 상기 차선의 인식률을 기초로 상기 인식된 차선의 방향으로 상기 발광소자를 구동시키는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치. According to claim 8,
the processor,
to judge weather conditions,
and driving the light emitting element in the direction of the recognized lane based on the lane recognition rate when the determined meteorological condition is determined to be unfavorable.
상기 기상조건은,
외부 장치로부터 수신된 기상정보, 상기 차량의 와이퍼 구동정도, 상기 차량의 빗물감지센서 또는 습도센서로부터 센싱된 센싱정보 중 적어도 하나로부터 판단하는 것을 특징으로 하는, 악천후에서의 차량의 주행차선 지원장치. According to claim 11,
The meteorological conditions are
A driving lane support device for a vehicle in bad weather, characterized in that it is determined from at least one of weather information received from an external device, driving degree of the wiper of the vehicle, and sensing information sensed from a rain sensor or humidity sensor of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210085041A KR102559534B1 (en) | 2021-06-29 | 2021-06-29 | Method and apparatus for supporting driving lines of vehicle in bad weather |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210085041A KR102559534B1 (en) | 2021-06-29 | 2021-06-29 | Method and apparatus for supporting driving lines of vehicle in bad weather |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230001925A KR20230001925A (en) | 2023-01-05 |
KR102559534B1 true KR102559534B1 (en) | 2023-07-26 |
Family
ID=84925884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210085041A KR102559534B1 (en) | 2021-06-29 | 2021-06-29 | Method and apparatus for supporting driving lines of vehicle in bad weather |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102559534B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010069921A (en) | 2008-09-16 | 2010-04-02 | Toyota Motor Corp | Lane recognition device |
KR101365675B1 (en) | 2012-10-19 | 2014-02-24 | 주식회사 에스엘 서봉 | Lane recognition apparatus, and lane departure warning apparatus using the same |
JP2020086884A (en) | 2018-11-23 | 2020-06-04 | 日本精機株式会社 | Lane marking estimation device, display control device, method and computer program |
JP2020106933A (en) * | 2018-12-26 | 2020-07-09 | 株式会社デンソー | Driving support device and driving support method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101714185B1 (en) * | 2015-08-05 | 2017-03-22 | 엘지전자 주식회사 | Driver Assistance Apparatus and Vehicle Having The Same |
KR20180099280A (en) * | 2017-02-28 | 2018-09-05 | 삼성전자주식회사 | Method and device to generate virtual lane |
-
2021
- 2021-06-29 KR KR1020210085041A patent/KR102559534B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010069921A (en) | 2008-09-16 | 2010-04-02 | Toyota Motor Corp | Lane recognition device |
KR101365675B1 (en) | 2012-10-19 | 2014-02-24 | 주식회사 에스엘 서봉 | Lane recognition apparatus, and lane departure warning apparatus using the same |
JP2020086884A (en) | 2018-11-23 | 2020-06-04 | 日本精機株式会社 | Lane marking estimation device, display control device, method and computer program |
JP2020106933A (en) * | 2018-12-26 | 2020-07-09 | 株式会社デンソー | Driving support device and driving support method |
Also Published As
Publication number | Publication date |
---|---|
KR20230001925A (en) | 2023-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10410069B2 (en) | Apparatus for providing around view and vehicle | |
US10737689B2 (en) | Parking assistance apparatus and vehicle having the same | |
US10528829B2 (en) | Apparatus for parking vehicle and vehicle | |
US9944317B2 (en) | Driver assistance apparatus and control method for the same | |
US10800428B2 (en) | Vehicle driving assistance method and vehicle | |
US10127820B2 (en) | Driver assistance apparatus and vehicle including the same | |
US10286905B2 (en) | Driver assistance apparatus and control method for the same | |
CN106205175B (en) | Display device for vehicle and vehicle | |
US9978280B2 (en) | Driver assistance apparatus and vehicle including the same | |
US10748428B2 (en) | Vehicle and control method therefor | |
KR101565006B1 (en) | apparatus for providing around view and Vehicle including the same | |
EP3248838A1 (en) | Lighting apparatus for vehicle and vehicle having the same | |
US10887568B2 (en) | Image processing apparatus, and image processing method | |
US10703374B2 (en) | Vehicle driving assisting apparatus and vehicle comprising same | |
KR102331882B1 (en) | Method and apparatus for controlling an vehicle based on voice recognition | |
KR102094405B1 (en) | Method and apparatus for determining an accident using an image | |
KR102559534B1 (en) | Method and apparatus for supporting driving lines of vehicle in bad weather | |
KR20200082457A (en) | Method and apparatus for controlling an alarm output of ADAS | |
KR102389728B1 (en) | Method and apparatus for processing a plurality of images obtained from vehicle 's cameras | |
KR102124998B1 (en) | Method and apparatus for correcting a position of ADAS camera during driving | |
KR102705475B1 (en) | Method and apparatus for displaying an image on handle display of vehicle | |
KR102217973B1 (en) | Lane guide apparatus and method for guiding lane | |
KR102175793B1 (en) | Method and apparatus for outputting an alarm for congitive impairment of driver | |
KR102541416B1 (en) | Method and apparatus for displaying a HUD image based on realtime traffic information | |
KR20190079334A (en) | Apparatus and method for preventing rear-end collision accident |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |