KR20190143074A - Apparatus and method for monitoring vehicle operation - Google Patents
Apparatus and method for monitoring vehicle operation Download PDFInfo
- Publication number
- KR20190143074A KR20190143074A KR1020180070582A KR20180070582A KR20190143074A KR 20190143074 A KR20190143074 A KR 20190143074A KR 1020180070582 A KR1020180070582 A KR 1020180070582A KR 20180070582 A KR20180070582 A KR 20180070582A KR 20190143074 A KR20190143074 A KR 20190143074A
- Authority
- KR
- South Korea
- Prior art keywords
- driver
- vehicle
- image
- lane
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012544 monitoring process Methods 0.000 title abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 34
- 206010041349 Somnolence Diseases 0.000 claims abstract description 22
- 238000001514 detection method Methods 0.000 claims description 31
- 238000007726 management method Methods 0.000 claims description 17
- 210000003128 head Anatomy 0.000 claims description 16
- 238000005259 measurement Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000004148 unit process Methods 0.000 claims description 2
- 238000012806 monitoring device Methods 0.000 claims 2
- 238000004891 communication Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 10
- 238000005286 illumination Methods 0.000 description 4
- 206010039203 Road traffic accident Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 208000032140 Sleepiness Diseases 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000037321 sleepiness Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000009474 immediate action Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G06K9/00798—
-
- G06K9/00845—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R2021/0002—Type of accident
- B60R2021/0004—Frontal collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0827—Inactivity or incapacity of driver due to sleepiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 차량 운행 모니터링 장치 및 방법에 관한 것으로, 보다 상세하게는 주행중인 차량의 주행 상태 및 운전자 상태 등을 모니터링하여 경보를 행할 수 있는 차량 운행 모니터링 장치 및 방법에 관한 것이다.The present invention relates to a vehicle driving monitoring apparatus and method, and more particularly, to a vehicle driving monitoring apparatus and method that can alert by monitoring the driving state and the driver's state of a running vehicle.
최근 음주 운전, 졸음 운전, 운전 중 휴대폰 사용 등에 의한 교통사고가 급증하면서, 이들 사고를 예방하기 위한 다양한 방법이 모색되고 있다. Recently, as traffic accidents caused by drunk driving, drowsy driving, using a mobile phone while driving, and the like, various methods for preventing these accidents have been sought.
교통사고 중 특히 졸음 운전에 의한 교통사고는 사고 발생율이 가장 높은 사고 유형일 뿐만 아니라, 사고발생 시점에 운전자가 사고 발생을 인지하지 못한 상황이 대부분으로, 대형 사고의 발생 확률이 더욱 높다.In particular, traffic accidents caused by drowsy driving are not only the types of accidents with the highest accident rate, but also most of the situations where the driver is not aware of the accidents at the time of the accident, and thus the probability of a large accident is higher.
이러한 졸음 운전을 방지하기 위한 다양한 기술이 제안되고 있으며, 제안된 기술 중 상당수는 운전자의 생체 상태를 직접적으로 감지하고, 그 감지 결과에 따라 운전자에게 경고를 해주는 기술이다. Various techniques for preventing such drowsiness driving have been proposed, and many of the proposed techniques directly detect a driver's living state and warn the driver according to the detection result.
그러나, 운전자의 생체 상태를 감지하는 방식은 차량 내부 또는 외부에 고가의 고정밀 기기가 구비되어야 하거나, 운전자의 신체에 직간접적인 접촉을 요구하여 운전자의 운전 편의성을 떨어뜨리는 문제가 있다.However, the method of detecting the driver's living state has a problem in that an expensive high-precision device is provided inside or outside the vehicle, or requires direct or indirect contact with the driver's body, thereby reducing the driver's driving convenience.
한편, 현재 전국의 도로에는 지능형 교통 시스템(Intelligent Transportation Systems : ITS)이 빠르게 적용되고 있어, 많은 운전자들이 각 도로 상의 차량 정치 및 지체 상황 등을 실시간으로 확인할 수 있다. ITS는 차량감지시스템(Vehicle Detection System : VDS)를 통해서 도로상의 차량에 대한 정보를 획득하고 있으며, 획득된 정보를 단거리 전용통신(Dedicated Short Range Communication : DSRC)을 이용하여 차량 탑재 장치(On Board Unit : OBU)에게로 전송함으로써, 운전자가 도로 상황을 인지할 수 있도록 한다.Meanwhile, Intelligent Transportation Systems (ITS) are rapidly being applied to roads across the country, enabling many drivers to check vehicle politics and delays on each road in real time. ITS acquires information about vehicles on the road through the Vehicle Detection System (VDS), and uses the acquired information by using Dedicated Short Range Communication (DSRC). Send it to the OBU, allowing the driver to recognize the road situation.
그러나, 지능형 교통 시스템이 도로에 적용되었음에도 불구하고, 과속운전과 졸음운전으로 인한 교통사고는 여전히 고속도로에서 빈번하게 발생하여, 교통사고 중 사고발생률이 가장 높은 사고유형에 속한다. 이는 현재까지 졸음 운전 방지를 위해 지능형 교통 시스템을 효율적으로 활용할 수 있는 방안이 마련되어 있지 않기 때문이다.However, although the intelligent traffic system has been applied to the road, traffic accidents caused by overspeed and drowsy driving still occur frequently on the highway, which is one of the highest accident types among accidents. This is because, until now, there is no way to effectively utilize the intelligent transportation system to prevent drowsy driving.
이러한 졸음 또는 부주의 상태에서의 운전은 음주운전 보다도 휠씬 심각한 대형사고를 일으킬 가능성이 높은 위험한 행위이다. 그에 따라, 운전자의 상태를 종합적으로 판단하고, 그 판단결과에 따라 단순히 휴식을 권고하는 수준을 넘어서 보다 적극적이고 즉각적인 조치를 실행하는 대응 시스템의 개발이 요구된다.Drowsiness or careless driving is a dangerous act that is more likely to cause serious accidents than drunk driving. Accordingly, it is necessary to develop a response system that comprehensively judges the driver's condition and performs more active and immediate actions beyond simply recommending rest according to the judgment result.
본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 주행중인 차량의 주행 상태 및 운전자 상태 등을 모니터링하여 차선이탈 경보, 전방충돌 경보, 졸음운전 경보 등을 행할 수 있는 차량 운행 모니터링 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed to solve the above-mentioned conventional problems, the vehicle driving monitoring apparatus that can perform a lane departure warning, forward collision warning, drowsiness driving warning and the like by monitoring the driving state and the driver state of the driving vehicle and the like; The purpose is to provide a method.
또한, 본 발명의 다른 목적은 주행중인 차량의 운전자 상태와 주행 정보 및 차량 정보 등을 외부의 관리 시스템에게로 전송해 줄 수 있도록 하는 차량 운행 모니터링 장치 및 방법을 제공함에 있다.Another object of the present invention is to provide a vehicle driving monitoring apparatus and method for transmitting a driver's state, driving information, vehicle information, and the like of a driving vehicle to an external management system.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 차량 운행 모니터링 장치는, 주행중인 차량의 전방을 촬영하는 전방 촬영부; 상기 차량의 운전자의 얼굴을 촬영하는 운전자 촬영부; 상기 전방 촬영부 및 상기 운전자 촬영부로부터의 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 이미지 처리부; 상기 이미지 처리부로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하고, 판단 결과에 따라 경보 동작을 제어하는 제어부; 및 상기 제어부의 제어에 의해 경보를 행하는 경보부;를 포함한다.In order to achieve the above object, a vehicle driving monitoring apparatus according to a preferred embodiment of the present invention, the front photographing unit for photographing the front of the driving vehicle; A driver photographing unit which photographs a face of a driver of the vehicle; An image processor configured to process the image data from the front photographing unit and the driver photographing unit to output information for determining whether the vehicle is out of lane, whether it is a front collision, or whether the driver is drowsy; A controller which determines whether the vehicle is out of lane, whether it is a front collision, whether the driver is drowsy, and controls an alarm operation based on the determination result based on the information from the image processor; And an alarm unit for generating an alarm under the control of the controller.
상기 전방 촬영부 및 상기 운전자 촬영부로부터의 이미지 데이터를 저장하는 저장부;를 추가로 포함하고, 상기 이미지 처리부는 상기 저장부에 저장된 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력할 수 있다.And a storage unit for storing image data from the front photographing unit and the driver photographing unit, wherein the image processing unit processes the image data stored in the storage unit to determine lane departure, front collision, and the like. Information for determining whether or not sleepiness may be output.
상기 제어부는, 상기 전방 촬영부로부터의 입력 영상을 근거로 하는 상기 이미지 처리부에서의 차선 탐지 이미지 및 에지 추출 이미지를 토대로 운전자가 주행하고 있는 현재의 차선을 탐지하고 전방 차량을 감지하고, 상기 차선 탐지 이후에 상기 이미지 처리부로부터의 차선 교차점 탐지 이미지를 근거로 차선이 교차하는 지점을 탐지하고, 상기 차선 교차점 탐지 이후에 상기 이미지 처리부로부터의 최적 차선 인지 이미지를 근거로 최적 차선을 인지하고, 상기 전방 차량 감지 이후에 상기 이미지 처리부로부터의 전방 차량의 라이트 및 범퍼 인지 이미지를 근거로 전방 차량의 라이트 및 범퍼를 인지하고, 상기 인지한 최적 차선 및 전방 차량의 라이트 및 범퍼를 근거로 차선이탈이 예상되는지 및 전방충돌이 예상되는지를 판단할 수 있다.The controller detects the current lane in which the driver is traveling based on the lane detection image and the edge extraction image in the image processor based on the input image from the front photographing unit, detects the front vehicle, and detects the lane. Thereafter, the lane intersection point is detected based on the lane intersection detection image from the image processor, and after detecting the lane intersection, the optimum lane is recognized based on the optimal lane recognition image from the image processor, and the front vehicle After the detection, the light and the bumper of the front vehicle are recognized based on the light and the bumper recognition image of the front vehicle from the image processor, and whether the lane departure is expected based on the light and the bumper of the optimal lane and the front vehicle. Determine if forward collisions are expected.
상기 제어부는, 상기 운전자 촬영부로부터의 입력 영상을 근거로 하는 상기 이미지 처리부에서의 얼굴 탐지 이미지를 토대로 운전자의 얼굴 영역을 탐지하고, 상기 얼굴 영역 탐지 이후에 상기 이미지 처리부로부터의 머리 각도 측정 이미지를 근거로 해당 운전자의 머리 각도를 측정하고 상기 얼굴 영역내의 눈을 탐지하여 감긴 눈 및 뜬 눈으로 분류하고, 상기 측정된 운전자의 머리 각도 및 분류된 감긴 눈 및 뜬 눈을 근거로 운전자의 졸음 여부를 판단할 수 있다.The controller detects a face region of the driver based on a face detection image in the image processor based on an input image from the driver photographing unit, and detects the head angle measurement image from the image processing unit after detecting the face region. The driver measures the head angle of the driver based on the driver's head angle, detects the eyes in the face region, classifies the driver as closed eyes and open eyes, and determines whether the driver is sleepy based on the measured driver's head angle and the classified closed eyes and open eyes. You can judge.
상기 차선이탈, 전방충돌, 졸음에 관련된 경고 메시지를 표시하는 표시부;를 추가로 포함하고, 상기 표시부는 상기 경보부와 함께 동작할 수 있다.The display unit may further display a warning message related to the lane departure, the front collision, and drowsiness, and the display unit may operate together with the alarm unit.
상기 제어부는 상기 차량의 내부에 설치된 하나 이상의 센서로부터의 차량 정보를 인가받고, 상기 판단 결과 및 상기 차량 정보를 외부의 주행정보 관리 시스템에게로 전송할 수 있다.The controller may receive vehicle information from at least one sensor installed in the vehicle, and transmit the determination result and the vehicle information to an external driving information management system.
한편, 본 발명의 바람직한 실시양태에 따른 차량 운행 모니터링 방법은, 촬영부가, 주행중인 차량의 전방 및 상기 차량의 운전자의 얼굴을 촬영하는 단계; 이미지 처리부가, 상기 촬영부로부터의 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 단계; 제어부가, 상기 이미지 처리부로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하는 단계; 및 상기 제어부가, 상기 판단하는 단계의 결과에 따라 경보 동작을 제어하는 단계;를 포함한다.On the other hand, the vehicle driving monitoring method according to a preferred embodiment of the present invention, the photographing unit, the front of the driving vehicle and the face of the driver of the vehicle; Image processing by the image processor to process the image data from the photographing unit to output information for judging whether the lane is out of front, whether there is a collision, or whether the driver is drowsy; Determining, by the controller, whether the vehicle is out of lane, whether it is a front collision, or whether the driver is sleepy based on the information from the image processor; And controlling, by the controller, an alarm operation according to the result of the determining.
이러한 구성의 본 발명에 따르면, 전방 촬영용 카메라의 이미지, 운전자 촬영용 카메라의 이미지, 차량 정보, 센서 정보를 융합하여 운전 정보를 실시간으로 모니터링할 수 있다.According to the present invention having such a configuration, it is possible to monitor the driving information in real time by fusing the image of the front-facing camera, the image of the driver-taking camera, the vehicle information, and the sensor information.
또한, 전방 촬영용 카메라의 이미지, 운전자 촬영용 카메라의 이미지, 차량 정보, 센서 정보를 근거로 운전자에게 차선이탈, 전방충돌, 운전자 졸음 등을 경보해 줄 뿐만 아니라 주행정보 관리 시스템과 연동하여 주행정보를 관리할 수 있다.In addition, based on the image of the front camera, the image of the driver camera, vehicle information, and sensor information, it not only alerts the driver of lane departures, forward collisions, driver drowsiness, etc. can do.
도 1은 본 발명의 실시예에 따른 차량 운행 모니터링 장치의 개념도이다.
도 2는 본 발명의 실시예에 따른 차량 운행 모니터링 장치를 설명하기 위한 블록도이다.
도 3은 도 2에 도시된 제어부의 소프트웨어 아키텍처를 도시한 도면이다.
도 4는 도 2에 도시된 주행정보 관리 시스템의 구성도이다.
도 5는 본 발명의 실시예에서의 차선이탈 경보 및 전방충돌 경보 프로세스를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에서의 운전자 상태를 감지하는 프로세스를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 차량 운행 모니터링 방법을 설명하기 위한 플로우차트이다.1 is a conceptual diagram of a vehicle driving monitoring apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a vehicle driving monitoring apparatus according to an exemplary embodiment of the present invention.
3 is a diagram illustrating a software architecture of the controller illustrated in FIG. 2.
4 is a configuration diagram of the driving information management system shown in FIG. 2.
FIG. 5 is a diagram for explaining a lane departure warning and a forward collision warning process according to an exemplary embodiment of the present invention.
6 is a view for explaining a process of detecting a driver state in an embodiment of the present invention.
7 is a flowchart illustrating a vehicle driving monitoring method according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. In the following description of the present invention, the same reference numerals are used for the same elements in the drawings and redundant descriptions of the same elements will be omitted.
도 1은 본 발명의 실시예에 따른 차량 운행 모니터링 장치의 개념도이다.1 is a conceptual diagram of a vehicle driving monitoring apparatus according to an embodiment of the present invention.
본 발명의 실시예에 따른 차량 운행 모니터링 장치는 차량 전방을 인지할 수 있도록 하는 카메라(10a)와 운전자의 상태(예컨대, 졸음 여부)를 인지할 수 있도록 하는 카메라(12a)의 융합을 위한 제어부(32)를 포함한다. A vehicle driving monitoring apparatus according to an embodiment of the present invention is a control unit for the fusion of the camera (10a) for recognizing the front of the vehicle and the camera (12a) for recognizing the driver's state (eg, drowsiness) ( 32).
카메라(10a)는 전방 감지 및 차선 감지를 할 수 있고, 교통표지를 감지할 수 있다. 카메라(12a)는 운전자의 얼굴 정보를 획득할 수 있다. The
제어부(32)는 영상 인지 융합, 외부 통신, 차량 통신 등을 수행할 수 있다.The
다시 말해서, 제어부(32)는 카메라(10a, 12a)와 융합하여 운전자 상태, 주행 정보, 및 차량 정보 등을 4G 또는 5G 무선 통신 등을 통해 주행정보 관리 시스템(34)과 통신할 수 있다.In other words, the
주행정보 관리 시스템(34)은 제어부(32)로부터의 정보를 근거로 다양한 관리 서비스를 수행할 수 있다.The driving
도 2는 본 발명의 실시예에 따른 차량 운행 모니터링 장치를 설명하기 위한 블록도이고, 도 3은 도 2에 도시된 제어부의 소프트웨어 아키텍처를 도시한 도면이고, 도 4는 도 2에 도시된 주행정보 관리 시스템의 구성도이다.FIG. 2 is a block diagram illustrating a vehicle driving monitoring apparatus according to an exemplary embodiment of the present invention. FIG. 3 is a diagram illustrating a software architecture of the controller shown in FIG. 2, and FIG. 4 is driving information illustrated in FIG. 2. It is a block diagram of the management system.
본 발명의 실시예에 따른 차량 운행 모니터링 장치는, 전방 촬영부(10), 운전자 촬영부(12), 센서부(14), 직병렬 변환부(16, 18), 조명 구동부(20), 저장부(22), 이미지 처리부(24), 경보부(26), 표시부(28), 통신부(30), 및 제어부(32)를 포함할 수 있다.The vehicle driving monitoring apparatus according to the embodiment of the present invention, the
전방 촬영부(10)는 주행중인 차량 전방(즉, 다른 차량 및 차선 등을 포함)을 촬영한다.The
전방 촬영부(10)는 카메라(10a), 및 직렬 변환부(10b)를 포함할 수 있다. The front photographing
카메라(10a)는 차량의 전방에 장착되어 차량 전방의 주행 정보를 획득할 수 있다.The
예를 들어, 카메라(10a)는 HD급 이상의 이미지 센서를 포함할 수 있다. 바람직하게는, 카메라(10a)는 대략 110도 내외의 화각을 갖는 광각 카메라가 좋을 듯하다.For example, the
직렬 변환부(10b)(serializer)는 카메라(10a)에서 획득한 주행 정보(이미지 정보)를 제어부(32)에게로 전송할 때 고속 인터페이스가 가능하도록 하기 위해 직렬 전송 처리를 행한다. 예를 들어, 직렬 변환부(10b)는 HSD 출력 1.5Gbps 이상의 사양이면 된다.The
운전자 촬영부(12)는 차량내의 운전자의 얼굴을 촬영할 수 있다.The
운전자 촬영부(12)는 카메라(12a), 조명부(12b), 및 직렬 변환부(12c)를 포함할 수 있다.The
카메라(12a)는 차량의 대시보드에서 운전자를 향하도록 장착될 수 있고, 대략 40도 내외의 화각을 갖는 이미지 센서를 포함할 수 있다. 여기서, 이미지 센서는 글로벌 셔터(global shutter)를 적용하여 영상 왜곡을 최소화한다. 물론, 카메라(12a)는 대시보드 이외로, 차량의 루프 패널의 전단 영역, 차량 전면(前面)의 유리 상단 영역, 룸 미러 부근 등에 장착될 수 있다.The
조명부(12b)는 카메라(12a)가 저저도에서도 운전자의 얼굴을 제대로 촬영할 수 있도록 조명을 제공한다. 조명부(12a)는 운전자의 적어도 동공을 포함한 안면 부위에 근적외선을 투사할 수 있도록 차량 실내에 설치된다.The lighting unit 12b provides illumination so that the
조명부(12b)는 근적외선을 출사하는 발광 소자를 포함한다. The lighting unit 12b includes a light emitting element that emits near infrared rays.
한편, 조명부(12b)는 투사 조명의 광균일도를 위해 조명용 렌즈, 광확산판, 광확산 필름, 반사경 등을 더 구비할 수 있다.Meanwhile, the lighting unit 12b may further include an illumination lens, a light diffusion plate, a light diffusion film, a reflector, and the like for the light uniformity of the projection light.
도 2에서는 카메라(12a)와 조명부(12b)를 각기 독립적으로 구성시켰으나, 카메라(12a)와 조명부(12b)가 일체로 구성되게 할 수도 있다.In FIG. 2, the
직렬 변환부(12c)(serializer)는 카메라(12a)에서 획득한 운전자의 얼굴 영상 정보를 제어부(32)에게로 전송할 때 고속 인터페이스가 가능하도록 하기 위해 직렬 전송 처리를 행한다. 예를 들어, 직렬 변환부(12c)는 HSD 출력 1.5Gbps 이상의 사양이면 된다.The
필요에 따라서는, 전방 촬영부(10) 및 운전자 촬영부(12)를 촬영부로 통칭할 수도 있다.If necessary, the
센서부(14)는 차량의 충돌 방향 및 현재 차량의 3축(X축, Y축, Z축) 각각의 가속도를 센싱할 수 있다.The
예를 들어, 센서부(14)는 중력 센서 및 모션 센서를 포함할 수 있다. 중력 센서는 차량 충돌시 충돌 방향을 센싱할 수 있다. 모션 센서는 차량 내에 설치되어 현재 차량의 진행방향인 X축 방향과 X축과 90도의 각도로 차량 진행방향의 좌측 또는 우측을 기준으로 하는 Y축 방향 및 X축과 90도의 각도로 차량진행방향의 상측 또는 하측을 기준으로 하는 Z축 방향에서 얻어진 각각의 가속도 정보를 구할 수 있다. 일반적으로, 차량은 2차원 평면에서 운행되기 때문에 Z축 가속도 정보는 필요가 없으나, 향후 운전자의 승차감 정보를 활용하는데 이용할 수 있다.For example, the
상술한 센서부(14)는 선택적인 구성요소가 될 수 있다. The
필요에 따라, 센서부(14)에 의해 구해지는 정보는 후술하는 차량 정보에 포함될 수 있다.If necessary, the information obtained by the
도 2에 도시된 제어부(32)에 인가되는 차량 정보는 센서부(14)에서의 감지 정보 이외로, 차량에 통상적으로 설치되는 각종의 센서에서의 감지 정보가 될 수 있다. 여기서, 통상적으로 설치되는 각종의 센서는 휠 센서(wheel sensor), GPS 모듈, 속도 센서, 경사 센서, 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서 등을 포함할 수 있다.Vehicle information applied to the
이에 의해, 차량 정보는 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 스티어링 휠 회전 각도, 차량 내부 온도 정보, 차량 내부 습도 정보, 및 차량 주변의 조도 등에 대한 센싱 신호 등이 될 수 있다.Accordingly, the vehicle information includes vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle tilt information, vehicle forward / reverse information, battery information, fuel information, tire information, steering wheel rotation angle, It may be a sensing signal for vehicle interior temperature information, vehicle interior humidity information, illuminance around the vehicle, and the like.
한편, 상술한 통상적으로 설치되는 각종의 센서에는 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 및 크랭크각 센서(CAS) 등이 더 포함될 수 있다.On the other hand, the above-described various types of sensors that are usually installed, such as accelerator pedal sensor, pressure sensor, engine speed sensor (engine speed sensor), air flow sensor (AFS), intake temperature sensor (ATS), water temperature sensor (WTS), throttle Position sensor (TPS), TDC sensor, crank angle sensor (CAS) may be further included.
상술한 바와 같은 차량 정보는 CAN(Controller Area Network) 통신 모듈(도시 생략)을 통해 제어부(32)에게로 인가될 수 있다.The vehicle information as described above may be applied to the
직병렬 변환부(16)(deserializer)는 전방 촬영부(10)의 직렬 변환부(10b)로부터의 직렬 데이터를 병렬 데이터로 변환시켜 제어부(32)에게로 인가한다. 예를 들어, 직병렬 변환부(16)는 HSD 입력 1.5Gbps 이상의 사양이면 된다.The
직병렬 변환부(18)(deserializer)는 운전자 촬영부(12)의 직렬 변환부(12c)로부터의 직렬 데이터를 병렬 데이터로 변환시켜 제어부(32)에게로 인가한다. 예를 들어, 직병렬 변환부(18)는 HSD 입력 1.5Gbps 이상의 사양이면 된다.The
조명 구동부(20)는 제어부(32)로부터의 제어신호에 따라 조명부(12b)를 구동할 수 있다.The lighting driver 20 may drive the lighting unit 12b according to a control signal from the
저장부(22)는 직병렬 변환부(16)를 거친 전방 촬영부(10)의 카메라 데이터(즉, 차량 전방의 영상 이미지)를 저장하고, 직병렬 변환부(18)를 거친 운전자 촬영부(12)의 카메라 데이터(즉, 운전자의 얼굴 이미지)를 저장한다. 이는 이미지 처리부(24)에서의 이미지 처리가 수월하게 행해지도록 하기 위해서이다.The
즉, 저장부(22)는 제어부(32)의 제어에 의해 전방 촬영부(10) 및 운전자 촬영부(12)의 카메라 데이터를 저장한다. 이러한 저장부(22)는 비디오 버퍼라고 할 수 있다.That is, the
이미지 처리부(24)는 저장부(22)에 저장되는 전방 촬영부(10)의 카메라 데이터(즉, 차량 전방의 영상 이미지)를 이미지 처리하여 제어부(32)에게로 제공함으로써, 제어부(32)에서 차선이탈 여부 및 전방충돌 여부를 판단할 수 있게 한다.The
한편, 이미지 처리부(24)는 저장부(22)에 저장되는 운전자 촬영부(12)의 카메라 데이터(즉, 운전자의 얼굴 이미지)를 이미지 처리하여 제어부(32)에게로 제공함으로써, 제어부(32)에서 운전자의 졸음 여부를 판단할 수 있게 한다.Meanwhile, the
즉, 이미지 처리부(24)는 전방 촬영부(10)의 카메라 데이터 및 운전자 촬영부(12)의 카메라 데이터를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단할 수 있는 정보를 출력할 수 있다.That is, the
경보부(26)는 차선이탈, 전방충돌, 운전자의 졸음을 경보해 준다.The
예를 들어, 경보부(26)는 소정의 음향을 출력하는 스피커 또는 부저를 포함할 수 있다.For example, the
한편, 경보부(26)는 소정의 촉각적인 출력을 발생시킬 수도 있다. 예를 들어, 경보부(26)는 스티어링 휠, 안전 벨트, 시트 등을 진동시켜 운전자가 출력을 인지할 수 있게 동작할 수 있다.On the other hand, the
표시부(28)는 차선이탈, 전방충돌, 졸음에 관련된 소정의 경고 메시지를 표시한다. 예를 들어, 표시부(28)는 차선이탈이 예상되거나 전방충돌이 예상되거나 운전자가 졸고 있는 것으로 판단되는 경우에 이를 경고하는 메시지를 디스플레이시킴으로써, 운전자가 확인할 수 있도록 한다.The
예를 들어, 표시부(28)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.For example, the
상술한 경보부(26)와 표시부(28)는 함께 동작하는 것이 바람직하다. 즉, 경보부(26)에서 경보를 행할 때 표시부(28)는 경고 메시지를 표시함으로써, 운전자에게 현재 어떠한 상태에 처해져 있었는지를 자각하게 해 줄 뿐만 아니라 경보/경고의 효과를 극대화시킬 수 있다.It is preferable that the above-mentioned
통신부(30)는 본 발명의 실시예에 따른 차량 운행 모니터링 장치와 연결될 수 있는 외부의 주행정보 관리 시스템(34)와의 통로 역할을 수행할 수 있다.The
통신부(30)는 근거리 통신 모듈, V2X 통신 모듈 등으로 구성될 수 있다. The
근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth, RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여 근거리 통신을 지원할 수 있다. 이러한 근거리 통신 모듈은 근거리 무선 통신망(Wireless Area Networks)을 형성하여 본 발명의 실시예에 따른 차량 운행 모니터링 장치와 주행정보 관리 시스템(34) 사이의 사이의 근거리 무선 통신을 수행할 수 있다. The near field communication module is for short range communication, and includes Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). At least one of Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless Universal Serial Bus (Wireless USB) technologies may be used to support short-range communication, which may include a wireless area network. In such a manner, short-range wireless communication between the vehicle driving monitoring apparatus and the driving
V2X 통신 모듈은 주행정보 관리 시스템(34) 또는 다른 차량과의 무선 통신을 수행한다. V2X 통신 모듈은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함할 수 있다. The V2X communication module performs wireless communication with the driving
제어부(32)는 본 발명의 실시예에 따른 차량 운행 모니터링 장치의 전체적인 동작을 제어한다.The
특히, 제어부(32)는 이미지 처리부(24)로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단할 수 있다. 그리고, 제어부(32)는 판단 결과에 따라 경보 및 표시 동작을 제어할 수 있다.In particular, the
한편, 제어부(32)는 상술한 판단 결과(즉, 차선이탈 여부 판단 정보, 전방충돌 여부 판단 정보, 및 운전자 졸음 판단 정보)와 함께 센서부(14)로부터의 정보 및 각종의 차량 정보를 통신부(30)를 통해 주행정보 관리 시스템(34)에게로 보낼 수 있다. Meanwhile, the
상술한 도 2에서는 이미지 처리부(24) 및 제어부(32)를 별개의 구성으로 도시하였으나, 이미지 처리부(24)가 제어부(32)에 포함되는 것으로 보아도 무방하다.In FIG. 2, the
그에 따라, 제어부(32)는 도 3에서와 같은 소프트웨어 아키텍처를 갖는다고 할 수 있다. 도 3에 따르면 제어부(32)의 소프트웨어 아키텍처는 어플리케이션 프로세서(AP) 소프트웨어, 및 마이컴(MCU) 소프트웨어를 포함할 수 있다. 어플리케이션 프로세서(AP) 소프트웨어는 운전자 인지 및 전방 인지 프로그램, 통신, 차량 주행 정보 관리 프로그램을 담당할 수 있다. 마이컴(MCU) 소프트웨어는 차량 CAN통신 및 파워 컨트롤, 시스템 진단 등을 담당할 수 있다. Accordingly, the
어플리케이션 프로세서(AP) 소프트웨어 및 마이컴 소프트웨어는 도 3에서와 같이 각각 하드웨어 계층, 운영체제 계층, 디바이스 계층, 서비스 계층, 알고리즘 계층, 및 상위 레벨 어플리케이션 계층으로 나누어 배치할 수 있다. The application processor (AP) software and the microcomputer software may be divided into a hardware layer, an operating system layer, a device layer, a service layer, an algorithm layer, and a higher level application layer as shown in FIG. 3.
한편, 주행정보 관리 시스템(34)은 도 4에서와 같이 본 발명의 실시예에 따른 차량 운행 모니터링 장치로부터의 운전자 상태, 주행 정보, 차량 정보를 백엔드 서비스와 연계하고, 관리/관제 서비스 및 서비스 앱을 통해 실시간으로 정보 제공을 할 수 있다.Meanwhile, the driving
도 5는 본 발명의 실시예에서의 차선이탈 경보 및 전방충돌 경보 프로세스를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining a lane departure warning and a forward collision warning process according to an exemplary embodiment of the present invention.
전방 촬영부(10)에서 차량 전방을 촬영하게 되면 도 5의 (a)에서와 같은 입력 영상이 저장부(22)에 저장된 후 이미지 처리부(24)에 인가될 수 있다.When the front photographing
이미지 처리부(24)는 입력 영상을 근거로 운전자의 현재의 주행 차선을 탐지하기 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (b)에서와 같은 차선 탐지 이미지를 생성함으로써, 제어부(32)는 이를 근거로 현재 운전자가 주행하고 있는 차선을 탐지할 수 있다.The
차선 탐지 이후에, 이미지 처리부(24)는 차선 교차점 탐지를 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (c)에서와 같은 차선 교차점 탐지 이미지를 생성함으로써, 제어부(32)는 이를 근거로 차선이 교차하는 지점을 탐지할 수 있다.After lane detection, the
차선 교차점 탐지 이후에, 이미지 처리부(24)는 최적 차선 인지를 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (d)에서와 같은 최적 차선 인지 이미지를 생성함으로써, 제어부(32)는 이를 근거로 최적 차선을 인지할 수 있다.After lane crossing detection, the
한편, 이미지 처리부(24)는 입력 영상을 근거로 전방 차량의 에지(edge)를 추출하기 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (e)에서와 같은 에지 추출 이미지를 생성함으로써, 제어부(32)는 이를 근거로 전방 차량을 감지할 수 있다.On the other hand, the
전방 차량 감지 이후에, 이미지 처리부(24)는 전방 차량의 라이트 및 범퍼 등을 인지하기 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (f)에서와 같은 전방 차량의 라이트 및 범퍼 인지 이미지를 생성함으로써, 제어부(32)를 이를 근거로 전방 차량의 라이트 및 범퍼를 인지할 수 있다.After the front vehicle detection, the
최종적으로, 이미지 처리부(24)는 도 5의 (g)에서와 같이 최종 이미지를 출력할 수 있으므로, 제어부(32)는 이를 근거로 차선이탈이 예상되는지 및 전방충돌이 예상되는지를 판단할 수 있다. Finally, since the
다시 말해서, 제어부(32)는 차선을 탐지한 이후에 차선이탈 예상 시간 및 차선이탈 예상 거리 등을 산출하여 운전자에게 경보해 줄 수 있다. 또한, 제어부(32)는 전방의 차량을 감지한 이후에 충돌 예상 시간 및 차량 거리 등을 산출하여 운전자에게 경보해 줄 수 있다.In other words, after detecting the lane, the
도 6은 본 발명의 실시예에서의 운전자 상태를 감지하는 프로세스를 설명하기 위한 도면이다.6 is a view for explaining a process of detecting a driver state in an embodiment of the present invention.
운전자 촬영부(12)에서 운전자를 촬영하게 되면 도 6의 (a)에서와 같은 입력 영상이 저장부(22)에 저장된 후 이미지 처리부(24)에 인가될 수 있다.When the driver photographs the
이미지 처리부(24)는 입력 영상을 근거로 현재 운전자의 얼굴을 탐지하기 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 6의 (b)에서와 같은 얼굴 탐지 이미지를 생성함으로써, 제어부(32)는 이를 근거로 현재 운전자의 얼굴 영역을 탐지할 수 있다.The
얼굴 영역 탐지 이후에, 이미지 처리부(24)는 해당 운전자의 머리 각도 측정(시선 추적)을 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 6의 (c)에서와 같은 머리 각도 측정 이미지를 생성함으로써, 제어부(32)는 이를 근거로 해당 운전자의 머리 각도를 측정(즉, 시선을 추적)할 수 있다.After face region detection, the
또한, 상술한 얼굴 영역 탐지 이후에, 이미지 처리부(24)는 도 6의 (d)에서와 같이 특징점 추출 기법을 활용하여 해당 운전자의 눈 영역을 탐지하고 탐지된 눈 영역에 존재하는 감긴 눈(close eye) 및/또는 뜬 눈(open eye)으로 분류한다.In addition, after detecting the face region described above, the
최종적으로, 이미지 처리부(24)는 도 6의 (e)에서와 같이 최종 이미지(즉, 얼굴 영역, 머리 각도, 눈 등을 파악할 수 있는 이미지)를 출력할 수 있으므로, 제어부(32)는 이를 근거로 운전자의 상태(즉, 졸음 여부)를 판단할 수 있다. Finally, the
다시 말해서, 제어부(32)는 얼굴 탐지, 머리 각도 측정 및 눈 탐지를 통해 해당 운전자가 졸고 있는지를 판단하여 운전자에게 경보해 줄 수 있다. In other words, the
도 7은 본 발명의 실시예에 따른 차량 운행 모니터링 방법을 설명하기 위한 플로우차트이다.7 is a flowchart illustrating a vehicle driving monitoring method according to an embodiment of the present invention.
차량이 주행을 하게 되면(S10) 전방 촬영부(10)는 차량 전방의 영상(즉, 다른 차량 및 차선 등을 포함)을 촬영하고, 운전자 촬영부(12)는 차량내의 운전자의 얼굴을 촬영한다(S20).When the vehicle is driven (S10), the
그에 따라, 제어부(32)는 이미지 처리부(24)와의 연계에 의해 촬영된 영상을 근거로 주행 상태 및 운전자 상태를 파악하게 된다(S30). Accordingly, the
즉, 주행 상태를 파악하기 위해서, 상술한 도 5에서와 같이 제어부(32)는 이미지 처리부(24)와의 연계에 의해 차량 전방의 영상을 근거로 자신의 차량이 주행하고 있는 현재의 차선을 탐지하고 차선이탈 예상 시간 및 차선이탈 예상 거리 등을 산출한다. 그리고, 제어부(32)는 이미지 처리부(24)와의 연계에 의해 차량 전방의 영상을 근거로 전방에 존재하는 차량을 감지하고 충돌 예상 시간 및 차량 거리 등을 산출한다.That is, in order to grasp the driving state, as shown in FIG. 5, the
또한, 운전자 상태를 파악하기 위해서, 상술한 도 6에서와 같이 제어부(32)는 이미지 처리부(24)와의 연계에 의해 운전자의 얼굴 탐지, 머리 각도 측정 및 눈 탐지를 행한다.In addition, in order to grasp the driver's condition, the
이에 의해, 제어부(32)는 산출된 정보를 근거로 차선이탈 또는 전방충돌이 예상되는지를 판단하고(S40), 차선이탈 및 전방충돌이 예상되지 않으면 운전자가 졸고 있는지를 판단한다(S50). 여기서는 차선이탈 또는 전방충돌이 예상되는지를 판단하고 나서 운전자가 졸고 있는지를 판단하는 것으로 설명하였으나, 그 순서가 바뀌어도 무방하다. 또한, 차선이탈 또는 전방충돌이 예상되는지 및 운전자가 졸고 있는지를 판단하는 것을 동시 다발적으로 행하는 것으로 하여도 무방하다.As a result, the
만약, 차선이탈 또는 전방충돌이 예상되거나(S40에서 "Yes"), 운전자가 졸고 있는 것으로 판단되는 경우(S50에서 "Yes") 제어부(32)는 경보부(26)를 통해 경보를 행함과 더불어 표시부(28)상에 현재의 상태를 디스플레이한다(S60). 예를 들어, 스피커를 통해 소정의 음향이 출력되거나 부저가 울릴 수 있다. 또는 스티어링 휠, 안전 벨트, 시트 등에서 진동을 발생하여 운전자가 출력을 인지할 수 있게 한다. 또한, 차선이탈이 예상되거나 전방충돌이 예상되거나 운전자가 졸고 있는 것을 경고하는 메시지가 표시부(28)상에 디스플레이될 수 있다.If a lane departure or a forward collision is expected (Yes in S40) or the driver is determined to be dozing (Yes in S50), the
그리고, 제어부(32)는 상술한 판단 결과(즉, 차선이탈 여부 판단 정보, 전방충돌 여부 판단 정보, 및 운전자 졸음 판단 정보)와 함께 센서부(14)로부터의 정보 및 각종의 차량 정보를 통신부(30)를 통해 주행정보 관리 시스템(34)에게로 전송한다(S70). The
또한, 상술한 본 발명의 실시예에 따른 차량 운행 모니터링 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the vehicle driving monitoring method according to the above-described embodiment of the present invention may be implemented as computer readable codes on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention belongs.
이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the best embodiment has been disclosed in the drawings and the specification. Although specific terms have been used herein, they are used only for the purpose of illustrating the present invention and are not intended to limit the scope of the invention as defined in the meaning or claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
10 : 전방 촬영부
12 : 운전자 촬영부
14 : 센서부
16, 18 : 직병렬 변환부
20 : 조명 구동부
22 : 저장부
24 : 이미지 처리부
26 : 경보부
28 : 표시부
30 : 통신부
32 : 제어부
34 : 주행정보 관리 시스템10: front photographing unit 12: driver photographing unit
14
20: light driving unit 22: storage unit
24: image processing unit 26: alarm unit
28: display unit 30: communication unit
32: control unit 34: driving information management system
Claims (12)
상기 차량의 운전자의 얼굴을 촬영하는 운전자 촬영부;
상기 전방 촬영부 및 상기 운전자 촬영부로부터의 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 이미지 처리부;
상기 이미지 처리부로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하고, 판단 결과에 따라 경보 동작을 제어하는 제어부; 및
상기 제어부의 제어에 의해 경보를 행하는 경보부;를 포함하는 것을 특징으로 하는 차량 운행 모니터링 장치.A front photographing unit which photographs a front side of a driving vehicle;
A driver photographing unit which photographs a face of a driver of the vehicle;
An image processor configured to process the image data from the front photographing unit and the driver photographing unit to output information for determining whether the vehicle is out of lane, whether it is a front collision, or whether the driver is drowsy;
A controller which determines whether the vehicle is out of lane, whether it is a front collision, whether the driver is drowsy, and controls an alarm operation based on the determination result based on the information from the image processor; And
And an alarm unit for generating an alarm under the control of the controller.
상기 전방 촬영부 및 상기 운전자 촬영부로부터의 이미지 데이터를 저장하는 저장부;를 추가로 포함하고,
상기 이미지 처리부는 상기 저장부에 저장된 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 것을 특징으로 하는 차량 운행 모니터링 장치.The method according to claim 1,
And a storage unit which stores image data from the front photographing unit and the driver photographing unit.
And the image processing unit processes the image data stored in the storage unit to output information for determining whether the lane is out of line, whether it is a front collision, or whether the driver is drowsy.
상기 제어부는,
상기 전방 촬영부로부터의 입력 영상을 근거로 하는 상기 이미지 처리부에서의 차선 탐지 이미지 및 에지 추출 이미지를 토대로 운전자가 주행하고 있는 현재의 차선을 탐지하고 전방 차량을 감지하고, 상기 차선 탐지 이후에 상기 이미지 처리부로부터의 차선 교차점 탐지 이미지를 근거로 차선이 교차하는 지점을 탐지하고, 상기 차선 교차점 탐지 이후에 상기 이미지 처리부로부터의 최적 차선 인지 이미지를 근거로 최적 차선을 인지하고, 상기 전방 차량 감지 이후에 상기 이미지 처리부로부터의 전방 차량의 라이트 및 범퍼 인지 이미지를 근거로 전방 차량의 라이트 및 범퍼를 인지하고, 상기 인지한 최적 차선 및 전방 차량의 라이트 및 범퍼를 근거로 차선이탈이 예상되는지 및 전방충돌이 예상되는지를 판단하는 것을 특징으로 하는 차량 운행 모니터링 장치.The method according to claim 1,
The control unit,
Based on the lane detection image and the edge extraction image in the image processing unit based on the input image from the front photographing unit, the driver detects the current lane in which the driver is traveling and detects the vehicle ahead, and the image after the lane detection. Detecting the intersection of the lanes based on the lane crossing detection image from the processing unit, and after detecting the lane intersection point, recognizes the optimum lane based on the optimal lane recognition image from the image processing unit, and after detecting the front vehicle Recognizes the lights and bumpers of the front vehicle based on the light and bumper recognition image of the front vehicle from the image processing unit, and predicts the lane departure and the forward collision based on the recognized optimal lanes and the lights and bumpers of the front vehicle. Vehicle operation, characterized in that determining whether Monitoring device.
상기 제어부는,
상기 운전자 촬영부로부터의 입력 영상을 근거로 하는 상기 이미지 처리부에서의 얼굴 탐지 이미지를 토대로 운전자의 얼굴 영역을 탐지하고, 상기 얼굴 영역 탐지 이후에 상기 이미지 처리부로부터의 머리 각도 측정 이미지를 근거로 해당 운전자의 머리 각도를 측정하고 상기 얼굴 영역내의 눈을 탐지하여 감긴 눈 및 뜬 눈으로 분류하고, 상기 측정된 운전자의 머리 각도 및 분류된 감긴 눈 및 뜬 눈을 근거로 운전자의 졸음 여부를 판단하는 것을 특징으로 하는 차량 운행 모니터링 장치.The method according to claim 1,
The control unit,
The driver detects a face region of the driver based on a face detection image in the image processor based on an input image from the driver photographing unit, and after detecting the face region, the corresponding driver based on the head angle measurement image from the image processor. Measuring the head angle of the eye and detecting the eyes in the face region and classifying them into closed eyes and open eyes, and determining whether the driver is sleepy based on the measured head angle of the driver and the classified closed eyes and open eyes. Vehicle running monitoring device.
상기 차선이탈, 전방충돌, 졸음에 관련된 경고 메시지를 표시하는 표시부;를 추가로 포함하고,
상기 표시부는 상기 경보부와 함께 동작하는 것을 특징으로 하는 차량 운행 모니터링 장치.The method according to claim 1,
And a display unit for displaying a warning message related to the lane departure, the front collision, and the drowsiness.
And the display unit is operated together with the alarm unit.
상기 제어부는,
상기 차량의 내부에 설치된 하나 이상의 센서로부터의 차량 정보를 인가받고,
상기 판단 결과 및 상기 차량 정보를 외부의 주행정보 관리 시스템에게로 전송하는 것을 특징으로 하는 차량 운행 모니터링 장치.The method according to claim 1,
The control unit,
Receiving vehicle information from at least one sensor installed inside the vehicle,
And transmitting the determination result and the vehicle information to an external driving information management system.
이미지 처리부가, 상기 촬영부로부터의 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 단계;
제어부가, 상기 이미지 처리부로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하는 단계; 및
상기 제어부가, 상기 판단하는 단계의 결과에 따라 경보 동작을 제어하는 단계;를 포함하는 것을 특징으로 하는 차량 운행 모니터링 방법.Photographing unit, photographing the front of the driving vehicle and the face of the driver of the vehicle;
Image processing by the image processor to process the image data from the photographing unit to output information for judging whether the lane is out of front, whether there is a collision, or whether the driver is drowsy;
Determining, by the controller, whether the vehicle is out of lane, whether it is a front collision, or whether the driver is sleepy based on the information from the image processor; And
And controlling, by the controller, an alarm operation according to a result of the determining.
상기 제어부가 상기 촬영부로부터의 이미지 데이터를 저장부에 저장하는 단계;를 추가로 포함하고,
상기 정보를 출력하는 단계는, 상기 저장부에 저장된 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 것을 특징으로 하는 차량 운행 모니터링 방법.The method according to claim 7,
And storing, by the control unit, image data from the photographing unit in a storage unit.
The outputting of the information may include image processing the image data stored in the storage unit to output information for determining whether the lane is out of line, whether it is a front collision, or whether the driver is drowsy.
상기 판단하는 단계는,
상기 주행중인 차량의 전방을 촬영한 영상을 근거로 하는 상기 이미지 처리부에서의 차선 탐지 이미지 및 에지 추출 이미지를 토대로 운전자가 주행하고 있는 현재의 차선을 탐지하고, 전방 차량을 감지하는 단계;
상기 차선 탐지 이후에 상기 이미지 처리부로부터의 차선 교차점 탐지 이미지를 근거로 차선이 교차하는 지점을 탐지하는 단계;
상기 차선 교차점 탐지 이후에 상기 이미지 처리부로부터의 최적 차선 인지 이미지를 근거로 최적 차선을 인지하는 단계;
상기 전방 차량 감지 이후에 상기 이미지 처리부로부터의 전방 차량의 라이트 및 범퍼 인지 이미지를 근거로 전방 차량의 라이트 및 범퍼를 인지하는 단계; 및
상기 인지한 최적 차선 및 전방 차량의 라이트 및 범퍼를 근거로 차선이탈이 예상되는지 및 전방충돌이 예상되는지를 판단하는 단계;를 포함하는 것을 특징으로 하는 차량 운행 모니터링 방법.The method according to claim 7,
The determining step,
Detecting a current lane in which the driver is driving based on a lane detection image and an edge extraction image in the image processing unit based on an image photographing the front of the driving vehicle and detecting a front vehicle;
Detecting the intersection of the lanes based on the lane intersection detection image from the image processing unit after the lane detection;
Recognizing an optimal lane based on an optimal lane recognition image from the image processor after the lane intersection detection;
Recognizing a light and a bumper of the front vehicle based on the light and the bumper recognition image of the front vehicle from the image processor after detecting the front vehicle; And
And determining whether a lane departure is expected or a forward collision is predicted based on the recognized optimal lane and the lights and bumpers of the front vehicle.
상기 판단하는 단계는,
상기 차량의 운전자의 얼굴을 촬영한 영상을 근거로 하는 상기 이미지 처리부에서의 얼굴 탐지 이미지를 토대로 운전자의 얼굴 영역을 탐지하는 단계;
상기 얼굴 영역 탐지 이후에 상기 이미지 처리부로부터의 머리 각도 측정 이미지를 근거로 해당 운전자의 머리 각도를 측정하고, 상기 얼굴 영역내의 눈을 탐지하여 감긴 눈 및 뜬 눈으로 분류하는 단계; 및
상기 측정된 운전자의 머리 각도 및 분류된 감긴 눈 및 뜬 눈을 근거로 운전자의 졸음 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는 차량 운행 모니터링 방법.The method according to claim 7,
The determining step,
Detecting a face region of a driver based on a face detection image of the image processor based on an image of the face of the driver of the vehicle;
Measuring the head angle of the driver based on the head angle measurement image from the image processing unit after detecting the face region, and detecting the eyes in the face region and classifying them into closed eyes and open eyes; And
And determining whether the driver is sleepy based on the measured head angle of the driver and the classified closed eyes and the open eyes.
상기 차선이탈, 전방충돌, 졸음에 관련된 경고 메시지를 표시부상에 표시하는 단계;를 추가로 포함하고,
상기 표시하는 단계에 의한 표시는 상기 경보 동작을 제어하는 단계에 의한 경보와 함께 수행되는 것을 특징으로 하는 차량 운행 모니터링 방법.The method according to claim 7,
And displaying a warning message related to the lane departure, frontal collision, and drowsiness on a display unit.
And the display by the displaying step is performed together with the alarm by controlling the alarm operation.
상기 차량의 내부에 설치된 하나 이상의 센서로부터의 차량 정보 및 상기 판단하는 단계의 결과를 외부의 주행정보 관리 시스템에게로 전송하는 단계;를 추가로 포함하는 것을 특징으로 하는 차량 운행 모니터링 방법.
The method according to claim 7,
And transmitting the vehicle information from the one or more sensors installed in the vehicle and the result of the determining to an external driving information management system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180070582A KR20190143074A (en) | 2018-06-20 | 2018-06-20 | Apparatus and method for monitoring vehicle operation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180070582A KR20190143074A (en) | 2018-06-20 | 2018-06-20 | Apparatus and method for monitoring vehicle operation |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190143074A true KR20190143074A (en) | 2019-12-30 |
Family
ID=69102900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180070582A KR20190143074A (en) | 2018-06-20 | 2018-06-20 | Apparatus and method for monitoring vehicle operation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190143074A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102283398B1 (en) * | 2020-10-30 | 2021-07-30 | 최광주 | Ai based adas room-mirror |
CN114228636A (en) * | 2021-11-26 | 2022-03-25 | 阿尔特汽车技术股份有限公司 | Vehicle intelligent refreshing system and method and vehicle |
KR102446624B1 (en) * | 2022-07-25 | 2022-09-23 | (주)아이트로닉스 | Integrated hi-pass system based on V2X communication that can use C-ITS system |
KR102446628B1 (en) * | 2022-07-25 | 2022-09-26 | (주)아이트로닉스 | High Pass System For Having Drowsy Driving Alarm |
-
2018
- 2018-06-20 KR KR1020180070582A patent/KR20190143074A/en not_active Application Discontinuation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102283398B1 (en) * | 2020-10-30 | 2021-07-30 | 최광주 | Ai based adas room-mirror |
CN114228636A (en) * | 2021-11-26 | 2022-03-25 | 阿尔特汽车技术股份有限公司 | Vehicle intelligent refreshing system and method and vehicle |
KR102446624B1 (en) * | 2022-07-25 | 2022-09-23 | (주)아이트로닉스 | Integrated hi-pass system based on V2X communication that can use C-ITS system |
KR102446628B1 (en) * | 2022-07-25 | 2022-09-26 | (주)아이트로닉스 | High Pass System For Having Drowsy Driving Alarm |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101838968B1 (en) | Driving assistance Apparatus for Vehicle | |
KR101834351B1 (en) | Driving assistance Apparatus for Vehicle | |
CN110341695B (en) | Vehicle control device, system comprising the device and method thereof | |
US9227631B2 (en) | Method for safely parking a vehicle in an emergency situation | |
US11554787B2 (en) | Secondary disengage alert for autonomous vehicles | |
EP3324556A1 (en) | Visual communication system for autonomous driving vehicles (adv) | |
KR20190143074A (en) | Apparatus and method for monitoring vehicle operation | |
CN111278702B (en) | Vehicle control device, vehicle having the same, and control method | |
US10882536B2 (en) | Autonomous driving control apparatus and method for notifying departure of front vehicle | |
US11873007B2 (en) | Information processing apparatus, information processing method, and program | |
CN112534487B (en) | Information processing apparatus, moving body, information processing method, and program | |
US20210026134A1 (en) | Heads-up display (hud) mirror assembly with switchable mirror layer | |
KR20190061395A (en) | Apparatus and method for notifying a change of a traffic lamp using wireless communication | |
US11267402B1 (en) | Systems and methods for prioritizing driver warnings in a vehicle | |
JP2012203829A (en) | Moving body detection system for vehicle | |
KR20190016375A (en) | Side mirror for vehicle and vehicle | |
KR102425036B1 (en) | Vehicle and method for controlling thereof | |
JP2019067242A (en) | Driving assistance device | |
KR20190070693A (en) | Apparatus and method for controlling autonomous driving of vehicle | |
JP2019207454A (en) | Reverse traveling warning device | |
US11926259B1 (en) | Alert modality selection for alerting a driver | |
KR102175793B1 (en) | Method and apparatus for outputting an alarm for congitive impairment of driver | |
KR20230046798A (en) | Method and apparatus for detecting blind spots of vehicle | |
KR20230143245A (en) | Right turn safety system and method for vehicle | |
KR20230067799A (en) | Method and Apparatus for controlling virtual lane based on environmental conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |