KR20190143074A - Apparatus and method for monitoring vehicle operation - Google Patents

Apparatus and method for monitoring vehicle operation Download PDF

Info

Publication number
KR20190143074A
KR20190143074A KR1020180070582A KR20180070582A KR20190143074A KR 20190143074 A KR20190143074 A KR 20190143074A KR 1020180070582 A KR1020180070582 A KR 1020180070582A KR 20180070582 A KR20180070582 A KR 20180070582A KR 20190143074 A KR20190143074 A KR 20190143074A
Authority
KR
South Korea
Prior art keywords
driver
vehicle
image
lane
unit
Prior art date
Application number
KR1020180070582A
Other languages
Korean (ko)
Inventor
송영기
김석기
한대관
Original Assignee
주식회사 스프링클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스프링클라우드 filed Critical 주식회사 스프링클라우드
Priority to KR1020180070582A priority Critical patent/KR20190143074A/en
Publication of KR20190143074A publication Critical patent/KR20190143074A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • G06K9/00798
    • G06K9/00845
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/0002Type of accident
    • B60R2021/0004Frontal collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are an apparatus and a method for monitoring vehicle driving, capable of monitoring lane departure deviation, forward collision warning, drowsy driving warning, and the like by monitoring a driving state and a driver state of a driving vehicle. The disclosed apparatus includes: a front photographing unit for photographing the front of a driving vehicle; a driver photographing unit which photographs a driver′s face; an image processing unit which outputs information for determining whether the vehicle is out of lane, whether a head collision occurs, and whether the driver is sleepy by processing the image data from the front photographing unit and the driver photographing unit; a control unit which determines whether the vehicle is out of lane, whether a head collision occurs, and whether the driver is sleepy based on the information from the image processing unit, and controls an alarm operation according to the determination result; and an alarm unit for generating an alarm under control of the control unit.

Description

차량 운행 모니터링 장치 및 방법{Apparatus and method for monitoring vehicle operation}Apparatus and method for monitoring vehicle operation

본 발명은 차량 운행 모니터링 장치 및 방법에 관한 것으로, 보다 상세하게는 주행중인 차량의 주행 상태 및 운전자 상태 등을 모니터링하여 경보를 행할 수 있는 차량 운행 모니터링 장치 및 방법에 관한 것이다.The present invention relates to a vehicle driving monitoring apparatus and method, and more particularly, to a vehicle driving monitoring apparatus and method that can alert by monitoring the driving state and the driver's state of a running vehicle.

최근 음주 운전, 졸음 운전, 운전 중 휴대폰 사용 등에 의한 교통사고가 급증하면서, 이들 사고를 예방하기 위한 다양한 방법이 모색되고 있다. Recently, as traffic accidents caused by drunk driving, drowsy driving, using a mobile phone while driving, and the like, various methods for preventing these accidents have been sought.

교통사고 중 특히 졸음 운전에 의한 교통사고는 사고 발생율이 가장 높은 사고 유형일 뿐만 아니라, 사고발생 시점에 운전자가 사고 발생을 인지하지 못한 상황이 대부분으로, 대형 사고의 발생 확률이 더욱 높다.In particular, traffic accidents caused by drowsy driving are not only the types of accidents with the highest accident rate, but also most of the situations where the driver is not aware of the accidents at the time of the accident, and thus the probability of a large accident is higher.

이러한 졸음 운전을 방지하기 위한 다양한 기술이 제안되고 있으며, 제안된 기술 중 상당수는 운전자의 생체 상태를 직접적으로 감지하고, 그 감지 결과에 따라 운전자에게 경고를 해주는 기술이다. Various techniques for preventing such drowsiness driving have been proposed, and many of the proposed techniques directly detect a driver's living state and warn the driver according to the detection result.

그러나, 운전자의 생체 상태를 감지하는 방식은 차량 내부 또는 외부에 고가의 고정밀 기기가 구비되어야 하거나, 운전자의 신체에 직간접적인 접촉을 요구하여 운전자의 운전 편의성을 떨어뜨리는 문제가 있다.However, the method of detecting the driver's living state has a problem in that an expensive high-precision device is provided inside or outside the vehicle, or requires direct or indirect contact with the driver's body, thereby reducing the driver's driving convenience.

한편, 현재 전국의 도로에는 지능형 교통 시스템(Intelligent Transportation Systems : ITS)이 빠르게 적용되고 있어, 많은 운전자들이 각 도로 상의 차량 정치 및 지체 상황 등을 실시간으로 확인할 수 있다. ITS는 차량감지시스템(Vehicle Detection System : VDS)를 통해서 도로상의 차량에 대한 정보를 획득하고 있으며, 획득된 정보를 단거리 전용통신(Dedicated Short Range Communication : DSRC)을 이용하여 차량 탑재 장치(On Board Unit : OBU)에게로 전송함으로써, 운전자가 도로 상황을 인지할 수 있도록 한다.Meanwhile, Intelligent Transportation Systems (ITS) are rapidly being applied to roads across the country, enabling many drivers to check vehicle politics and delays on each road in real time. ITS acquires information about vehicles on the road through the Vehicle Detection System (VDS), and uses the acquired information by using Dedicated Short Range Communication (DSRC). Send it to the OBU, allowing the driver to recognize the road situation.

그러나, 지능형 교통 시스템이 도로에 적용되었음에도 불구하고, 과속운전과 졸음운전으로 인한 교통사고는 여전히 고속도로에서 빈번하게 발생하여, 교통사고 중 사고발생률이 가장 높은 사고유형에 속한다. 이는 현재까지 졸음 운전 방지를 위해 지능형 교통 시스템을 효율적으로 활용할 수 있는 방안이 마련되어 있지 않기 때문이다.However, although the intelligent traffic system has been applied to the road, traffic accidents caused by overspeed and drowsy driving still occur frequently on the highway, which is one of the highest accident types among accidents. This is because, until now, there is no way to effectively utilize the intelligent transportation system to prevent drowsy driving.

이러한 졸음 또는 부주의 상태에서의 운전은 음주운전 보다도 휠씬 심각한 대형사고를 일으킬 가능성이 높은 위험한 행위이다. 그에 따라, 운전자의 상태를 종합적으로 판단하고, 그 판단결과에 따라 단순히 휴식을 권고하는 수준을 넘어서 보다 적극적이고 즉각적인 조치를 실행하는 대응 시스템의 개발이 요구된다.Drowsiness or careless driving is a dangerous act that is more likely to cause serious accidents than drunk driving. Accordingly, it is necessary to develop a response system that comprehensively judges the driver's condition and performs more active and immediate actions beyond simply recommending rest according to the judgment result.

선행기술 1 : 대한민국 등록특허 제10-1694785호(졸음 운전 방지 시스템)Prior Art 1: Republic of Korea Patent No. 10-1694785 (Drowsy driving prevention system) 선행기술 2 : 대한민국 공개특허 제10-2017-0002166호(차량 운전 보조 방법 및 차량)Prior Art 2: Korean Patent Publication No. 10-2017-0002166 (vehicle driving assistance method and vehicle) 선행기술 3 : 대한민국 공개특허 제10-2016-0011989호(차선이탈 경보 시스템)Prior Art 3: Republic of Korea Patent Publication No. 10-2016-0011989 (lane departure warning system) 선행기술 4 : 대한민국 공개특허 제10-2018-0042742호(운전자 모니터링 장치 및 방법)Prior Art 4: Republic of Korea Patent Publication No. 10-2018-0042742 (driver monitoring apparatus and method)

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 주행중인 차량의 주행 상태 및 운전자 상태 등을 모니터링하여 차선이탈 경보, 전방충돌 경보, 졸음운전 경보 등을 행할 수 있는 차량 운행 모니터링 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed to solve the above-mentioned conventional problems, the vehicle driving monitoring apparatus that can perform a lane departure warning, forward collision warning, drowsiness driving warning and the like by monitoring the driving state and the driver state of the driving vehicle and the like; The purpose is to provide a method.

또한, 본 발명의 다른 목적은 주행중인 차량의 운전자 상태와 주행 정보 및 차량 정보 등을 외부의 관리 시스템에게로 전송해 줄 수 있도록 하는 차량 운행 모니터링 장치 및 방법을 제공함에 있다.Another object of the present invention is to provide a vehicle driving monitoring apparatus and method for transmitting a driver's state, driving information, vehicle information, and the like of a driving vehicle to an external management system.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 차량 운행 모니터링 장치는, 주행중인 차량의 전방을 촬영하는 전방 촬영부; 상기 차량의 운전자의 얼굴을 촬영하는 운전자 촬영부; 상기 전방 촬영부 및 상기 운전자 촬영부로부터의 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 이미지 처리부; 상기 이미지 처리부로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하고, 판단 결과에 따라 경보 동작을 제어하는 제어부; 및 상기 제어부의 제어에 의해 경보를 행하는 경보부;를 포함한다.In order to achieve the above object, a vehicle driving monitoring apparatus according to a preferred embodiment of the present invention, the front photographing unit for photographing the front of the driving vehicle; A driver photographing unit which photographs a face of a driver of the vehicle; An image processor configured to process the image data from the front photographing unit and the driver photographing unit to output information for determining whether the vehicle is out of lane, whether it is a front collision, or whether the driver is drowsy; A controller which determines whether the vehicle is out of lane, whether it is a front collision, whether the driver is drowsy, and controls an alarm operation based on the determination result based on the information from the image processor; And an alarm unit for generating an alarm under the control of the controller.

상기 전방 촬영부 및 상기 운전자 촬영부로부터의 이미지 데이터를 저장하는 저장부;를 추가로 포함하고, 상기 이미지 처리부는 상기 저장부에 저장된 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력할 수 있다.And a storage unit for storing image data from the front photographing unit and the driver photographing unit, wherein the image processing unit processes the image data stored in the storage unit to determine lane departure, front collision, and the like. Information for determining whether or not sleepiness may be output.

상기 제어부는, 상기 전방 촬영부로부터의 입력 영상을 근거로 하는 상기 이미지 처리부에서의 차선 탐지 이미지 및 에지 추출 이미지를 토대로 운전자가 주행하고 있는 현재의 차선을 탐지하고 전방 차량을 감지하고, 상기 차선 탐지 이후에 상기 이미지 처리부로부터의 차선 교차점 탐지 이미지를 근거로 차선이 교차하는 지점을 탐지하고, 상기 차선 교차점 탐지 이후에 상기 이미지 처리부로부터의 최적 차선 인지 이미지를 근거로 최적 차선을 인지하고, 상기 전방 차량 감지 이후에 상기 이미지 처리부로부터의 전방 차량의 라이트 및 범퍼 인지 이미지를 근거로 전방 차량의 라이트 및 범퍼를 인지하고, 상기 인지한 최적 차선 및 전방 차량의 라이트 및 범퍼를 근거로 차선이탈이 예상되는지 및 전방충돌이 예상되는지를 판단할 수 있다.The controller detects the current lane in which the driver is traveling based on the lane detection image and the edge extraction image in the image processor based on the input image from the front photographing unit, detects the front vehicle, and detects the lane. Thereafter, the lane intersection point is detected based on the lane intersection detection image from the image processor, and after detecting the lane intersection, the optimum lane is recognized based on the optimal lane recognition image from the image processor, and the front vehicle After the detection, the light and the bumper of the front vehicle are recognized based on the light and the bumper recognition image of the front vehicle from the image processor, and whether the lane departure is expected based on the light and the bumper of the optimal lane and the front vehicle. Determine if forward collisions are expected.

상기 제어부는, 상기 운전자 촬영부로부터의 입력 영상을 근거로 하는 상기 이미지 처리부에서의 얼굴 탐지 이미지를 토대로 운전자의 얼굴 영역을 탐지하고, 상기 얼굴 영역 탐지 이후에 상기 이미지 처리부로부터의 머리 각도 측정 이미지를 근거로 해당 운전자의 머리 각도를 측정하고 상기 얼굴 영역내의 눈을 탐지하여 감긴 눈 및 뜬 눈으로 분류하고, 상기 측정된 운전자의 머리 각도 및 분류된 감긴 눈 및 뜬 눈을 근거로 운전자의 졸음 여부를 판단할 수 있다.The controller detects a face region of the driver based on a face detection image in the image processor based on an input image from the driver photographing unit, and detects the head angle measurement image from the image processing unit after detecting the face region. The driver measures the head angle of the driver based on the driver's head angle, detects the eyes in the face region, classifies the driver as closed eyes and open eyes, and determines whether the driver is sleepy based on the measured driver's head angle and the classified closed eyes and open eyes. You can judge.

상기 차선이탈, 전방충돌, 졸음에 관련된 경고 메시지를 표시하는 표시부;를 추가로 포함하고, 상기 표시부는 상기 경보부와 함께 동작할 수 있다.The display unit may further display a warning message related to the lane departure, the front collision, and drowsiness, and the display unit may operate together with the alarm unit.

상기 제어부는 상기 차량의 내부에 설치된 하나 이상의 센서로부터의 차량 정보를 인가받고, 상기 판단 결과 및 상기 차량 정보를 외부의 주행정보 관리 시스템에게로 전송할 수 있다.The controller may receive vehicle information from at least one sensor installed in the vehicle, and transmit the determination result and the vehicle information to an external driving information management system.

한편, 본 발명의 바람직한 실시양태에 따른 차량 운행 모니터링 방법은, 촬영부가, 주행중인 차량의 전방 및 상기 차량의 운전자의 얼굴을 촬영하는 단계; 이미지 처리부가, 상기 촬영부로부터의 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 단계; 제어부가, 상기 이미지 처리부로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하는 단계; 및 상기 제어부가, 상기 판단하는 단계의 결과에 따라 경보 동작을 제어하는 단계;를 포함한다.On the other hand, the vehicle driving monitoring method according to a preferred embodiment of the present invention, the photographing unit, the front of the driving vehicle and the face of the driver of the vehicle; Image processing by the image processor to process the image data from the photographing unit to output information for judging whether the lane is out of front, whether there is a collision, or whether the driver is drowsy; Determining, by the controller, whether the vehicle is out of lane, whether it is a front collision, or whether the driver is sleepy based on the information from the image processor; And controlling, by the controller, an alarm operation according to the result of the determining.

이러한 구성의 본 발명에 따르면, 전방 촬영용 카메라의 이미지, 운전자 촬영용 카메라의 이미지, 차량 정보, 센서 정보를 융합하여 운전 정보를 실시간으로 모니터링할 수 있다.According to the present invention having such a configuration, it is possible to monitor the driving information in real time by fusing the image of the front-facing camera, the image of the driver-taking camera, the vehicle information, and the sensor information.

또한, 전방 촬영용 카메라의 이미지, 운전자 촬영용 카메라의 이미지, 차량 정보, 센서 정보를 근거로 운전자에게 차선이탈, 전방충돌, 운전자 졸음 등을 경보해 줄 뿐만 아니라 주행정보 관리 시스템과 연동하여 주행정보를 관리할 수 있다.In addition, based on the image of the front camera, the image of the driver camera, vehicle information, and sensor information, it not only alerts the driver of lane departures, forward collisions, driver drowsiness, etc. can do.

도 1은 본 발명의 실시예에 따른 차량 운행 모니터링 장치의 개념도이다.
도 2는 본 발명의 실시예에 따른 차량 운행 모니터링 장치를 설명하기 위한 블록도이다.
도 3은 도 2에 도시된 제어부의 소프트웨어 아키텍처를 도시한 도면이다.
도 4는 도 2에 도시된 주행정보 관리 시스템의 구성도이다.
도 5는 본 발명의 실시예에서의 차선이탈 경보 및 전방충돌 경보 프로세스를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에서의 운전자 상태를 감지하는 프로세스를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 차량 운행 모니터링 방법을 설명하기 위한 플로우차트이다.
1 is a conceptual diagram of a vehicle driving monitoring apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a vehicle driving monitoring apparatus according to an exemplary embodiment of the present invention.
3 is a diagram illustrating a software architecture of the controller illustrated in FIG. 2.
4 is a configuration diagram of the driving information management system shown in FIG. 2.
FIG. 5 is a diagram for explaining a lane departure warning and a forward collision warning process according to an exemplary embodiment of the present invention.
6 is a view for explaining a process of detecting a driver state in an embodiment of the present invention.
7 is a flowchart illustrating a vehicle driving monitoring method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. In the following description of the present invention, the same reference numerals are used for the same elements in the drawings and redundant descriptions of the same elements will be omitted.

도 1은 본 발명의 실시예에 따른 차량 운행 모니터링 장치의 개념도이다.1 is a conceptual diagram of a vehicle driving monitoring apparatus according to an embodiment of the present invention.

본 발명의 실시예에 따른 차량 운행 모니터링 장치는 차량 전방을 인지할 수 있도록 하는 카메라(10a)와 운전자의 상태(예컨대, 졸음 여부)를 인지할 수 있도록 하는 카메라(12a)의 융합을 위한 제어부(32)를 포함한다. A vehicle driving monitoring apparatus according to an embodiment of the present invention is a control unit for the fusion of the camera (10a) for recognizing the front of the vehicle and the camera (12a) for recognizing the driver's state (eg, drowsiness) ( 32).

카메라(10a)는 전방 감지 및 차선 감지를 할 수 있고, 교통표지를 감지할 수 있다. 카메라(12a)는 운전자의 얼굴 정보를 획득할 수 있다. The camera 10a may detect forward and lane detection and detect a traffic sign. The camera 12a may acquire face information of the driver.

제어부(32)는 영상 인지 융합, 외부 통신, 차량 통신 등을 수행할 수 있다.The controller 32 may perform image recognition fusion, external communication, vehicle communication, and the like.

다시 말해서, 제어부(32)는 카메라(10a, 12a)와 융합하여 운전자 상태, 주행 정보, 및 차량 정보 등을 4G 또는 5G 무선 통신 등을 통해 주행정보 관리 시스템(34)과 통신할 수 있다.In other words, the control unit 32 may fuse with the cameras 10a and 12a to communicate the driver status, driving information, and vehicle information with the driving information management system 34 through 4G or 5G wireless communication.

주행정보 관리 시스템(34)은 제어부(32)로부터의 정보를 근거로 다양한 관리 서비스를 수행할 수 있다.The driving information management system 34 may perform various management services based on the information from the controller 32.

도 2는 본 발명의 실시예에 따른 차량 운행 모니터링 장치를 설명하기 위한 블록도이고, 도 3은 도 2에 도시된 제어부의 소프트웨어 아키텍처를 도시한 도면이고, 도 4는 도 2에 도시된 주행정보 관리 시스템의 구성도이다.FIG. 2 is a block diagram illustrating a vehicle driving monitoring apparatus according to an exemplary embodiment of the present invention. FIG. 3 is a diagram illustrating a software architecture of the controller shown in FIG. 2, and FIG. 4 is driving information illustrated in FIG. 2. It is a block diagram of the management system.

본 발명의 실시예에 따른 차량 운행 모니터링 장치는, 전방 촬영부(10), 운전자 촬영부(12), 센서부(14), 직병렬 변환부(16, 18), 조명 구동부(20), 저장부(22), 이미지 처리부(24), 경보부(26), 표시부(28), 통신부(30), 및 제어부(32)를 포함할 수 있다.The vehicle driving monitoring apparatus according to the embodiment of the present invention, the front photographing unit 10, the driver photographing unit 12, the sensor unit 14, the serial and parallel converters 16 and 18, the lighting driver 20, storage The unit 22 may include an image processor 24, an alarm unit 26, a display unit 28, a communication unit 30, and a controller 32.

전방 촬영부(10)는 주행중인 차량 전방(즉, 다른 차량 및 차선 등을 포함)을 촬영한다.The front photographing unit 10 photographs the front of the vehicle in driving (that is, including other vehicles and lanes, etc.).

전방 촬영부(10)는 카메라(10a), 및 직렬 변환부(10b)를 포함할 수 있다. The front photographing unit 10 may include a camera 10a and a serial converter 10b.

카메라(10a)는 차량의 전방에 장착되어 차량 전방의 주행 정보를 획득할 수 있다.The camera 10a may be mounted at the front of the vehicle to acquire driving information in front of the vehicle.

예를 들어, 카메라(10a)는 HD급 이상의 이미지 센서를 포함할 수 있다. 바람직하게는, 카메라(10a)는 대략 110도 내외의 화각을 갖는 광각 카메라가 좋을 듯하다.For example, the camera 10a may include an HD sensor or higher. Preferably, the camera 10a may be a wide angle camera having an angle of view of about 110 degrees.

직렬 변환부(10b)(serializer)는 카메라(10a)에서 획득한 주행 정보(이미지 정보)를 제어부(32)에게로 전송할 때 고속 인터페이스가 가능하도록 하기 위해 직렬 전송 처리를 행한다. 예를 들어, 직렬 변환부(10b)는 HSD 출력 1.5Gbps 이상의 사양이면 된다.The serializer 10b (serializer) performs a serial transfer process to enable a high speed interface when transmitting the driving information (image information) obtained from the camera 10a to the controller 32. For example, the serial converter 10b may be a specification of an HSD output of 1.5Gbps or more.

운전자 촬영부(12)는 차량내의 운전자의 얼굴을 촬영할 수 있다.The driver photographing unit 12 may photograph a face of a driver in a vehicle.

운전자 촬영부(12)는 카메라(12a), 조명부(12b), 및 직렬 변환부(12c)를 포함할 수 있다.The driver photographing unit 12 may include a camera 12a, an illumination unit 12b, and a serial converter 12c.

카메라(12a)는 차량의 대시보드에서 운전자를 향하도록 장착될 수 있고, 대략 40도 내외의 화각을 갖는 이미지 센서를 포함할 수 있다. 여기서, 이미지 센서는 글로벌 셔터(global shutter)를 적용하여 영상 왜곡을 최소화한다. 물론, 카메라(12a)는 대시보드 이외로, 차량의 루프 패널의 전단 영역, 차량 전면(前面)의 유리 상단 영역, 룸 미러 부근 등에 장착될 수 있다.The camera 12a may be mounted to face the driver in the dashboard of the vehicle, and may include an image sensor having an angle of view of about 40 degrees. Here, the image sensor minimizes image distortion by applying a global shutter. Of course, the camera 12a may be mounted on the front end area of the roof panel of the vehicle, the glass upper area of the front surface of the vehicle, near the room mirror, etc., in addition to the dashboard.

조명부(12b)는 카메라(12a)가 저저도에서도 운전자의 얼굴을 제대로 촬영할 수 있도록 조명을 제공한다. 조명부(12a)는 운전자의 적어도 동공을 포함한 안면 부위에 근적외선을 투사할 수 있도록 차량 실내에 설치된다.The lighting unit 12b provides illumination so that the camera 12a can properly photograph the driver's face even at low light. The lighting unit 12a is installed inside the vehicle so that near infrared rays can be projected onto the face portion including at least the pupil of the driver.

조명부(12b)는 근적외선을 출사하는 발광 소자를 포함한다. The lighting unit 12b includes a light emitting element that emits near infrared rays.

한편, 조명부(12b)는 투사 조명의 광균일도를 위해 조명용 렌즈, 광확산판, 광확산 필름, 반사경 등을 더 구비할 수 있다.Meanwhile, the lighting unit 12b may further include an illumination lens, a light diffusion plate, a light diffusion film, a reflector, and the like for the light uniformity of the projection light.

도 2에서는 카메라(12a)와 조명부(12b)를 각기 독립적으로 구성시켰으나, 카메라(12a)와 조명부(12b)가 일체로 구성되게 할 수도 있다.In FIG. 2, the camera 12a and the lighting unit 12b are configured independently, but the camera 12a and the lighting unit 12b may be integrally formed.

직렬 변환부(12c)(serializer)는 카메라(12a)에서 획득한 운전자의 얼굴 영상 정보를 제어부(32)에게로 전송할 때 고속 인터페이스가 가능하도록 하기 위해 직렬 전송 처리를 행한다. 예를 들어, 직렬 변환부(12c)는 HSD 출력 1.5Gbps 이상의 사양이면 된다.The serializer 12c (serializer) performs a serial transfer process to enable a high speed interface when transmitting the driver's face image information acquired by the camera 12a to the controller 32. For example, the serial converter 12c may be a HSD output 1.5Gbps or more.

필요에 따라서는, 전방 촬영부(10) 및 운전자 촬영부(12)를 촬영부로 통칭할 수도 있다.If necessary, the front photographing unit 10 and the driver photographing unit 12 may be collectively referred to as a photographing unit.

센서부(14)는 차량의 충돌 방향 및 현재 차량의 3축(X축, Y축, Z축) 각각의 가속도를 센싱할 수 있다.The sensor unit 14 may sense the acceleration direction of each vehicle's collision direction and three axes (X, Y, and Z axes) of the current vehicle.

예를 들어, 센서부(14)는 중력 센서 및 모션 센서를 포함할 수 있다. 중력 센서는 차량 충돌시 충돌 방향을 센싱할 수 있다. 모션 센서는 차량 내에 설치되어 현재 차량의 진행방향인 X축 방향과 X축과 90도의 각도로 차량 진행방향의 좌측 또는 우측을 기준으로 하는 Y축 방향 및 X축과 90도의 각도로 차량진행방향의 상측 또는 하측을 기준으로 하는 Z축 방향에서 얻어진 각각의 가속도 정보를 구할 수 있다. 일반적으로, 차량은 2차원 평면에서 운행되기 때문에 Z축 가속도 정보는 필요가 없으나, 향후 운전자의 승차감 정보를 활용하는데 이용할 수 있다.For example, the sensor unit 14 may include a gravity sensor and a motion sensor. The gravity sensor may sense the collision direction when the vehicle crashes. The motion sensor is installed in the vehicle, and the X-axis direction, which is the current direction of the vehicle, and the 90-degree angle with the X-axis. Each piece of acceleration information obtained in the Z-axis direction with respect to the upper side or the lower side can be obtained. In general, since the vehicle is driven in a two-dimensional plane, Z-axis acceleration information is not necessary, but may be used to utilize driver's comfort information in the future.

상술한 센서부(14)는 선택적인 구성요소가 될 수 있다. The sensor unit 14 described above may be an optional component.

필요에 따라, 센서부(14)에 의해 구해지는 정보는 후술하는 차량 정보에 포함될 수 있다.If necessary, the information obtained by the sensor unit 14 may be included in the vehicle information described later.

도 2에 도시된 제어부(32)에 인가되는 차량 정보는 센서부(14)에서의 감지 정보 이외로, 차량에 통상적으로 설치되는 각종의 센서에서의 감지 정보가 될 수 있다. 여기서, 통상적으로 설치되는 각종의 센서는 휠 센서(wheel sensor), GPS 모듈, 속도 센서, 경사 센서, 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서 등을 포함할 수 있다.Vehicle information applied to the control unit 32 shown in FIG. 2 may be sensing information of various sensors typically installed in the vehicle, in addition to the detection information of the sensor unit 14. Here, a variety of sensors commonly installed are wheel sensors, GPS modules, speed sensors, tilt sensors, vehicle forward / reverse sensors, battery sensors, fuel sensors, tire sensors, steering sensors by steering wheel steering, and vehicle interiors. It may include a temperature sensor, a vehicle interior humidity sensor, an ultrasonic sensor, an illumination sensor.

이에 의해, 차량 정보는 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 스티어링 휠 회전 각도, 차량 내부 온도 정보, 차량 내부 습도 정보, 및 차량 주변의 조도 등에 대한 센싱 신호 등이 될 수 있다.Accordingly, the vehicle information includes vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle tilt information, vehicle forward / reverse information, battery information, fuel information, tire information, steering wheel rotation angle, It may be a sensing signal for vehicle interior temperature information, vehicle interior humidity information, illuminance around the vehicle, and the like.

한편, 상술한 통상적으로 설치되는 각종의 센서에는 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 및 크랭크각 센서(CAS) 등이 더 포함될 수 있다.On the other hand, the above-described various types of sensors that are usually installed, such as accelerator pedal sensor, pressure sensor, engine speed sensor (engine speed sensor), air flow sensor (AFS), intake temperature sensor (ATS), water temperature sensor (WTS), throttle Position sensor (TPS), TDC sensor, crank angle sensor (CAS) may be further included.

상술한 바와 같은 차량 정보는 CAN(Controller Area Network) 통신 모듈(도시 생략)을 통해 제어부(32)에게로 인가될 수 있다.The vehicle information as described above may be applied to the controller 32 through a controller area network (CAN) communication module (not shown).

직병렬 변환부(16)(deserializer)는 전방 촬영부(10)의 직렬 변환부(10b)로부터의 직렬 데이터를 병렬 데이터로 변환시켜 제어부(32)에게로 인가한다. 예를 들어, 직병렬 변환부(16)는 HSD 입력 1.5Gbps 이상의 사양이면 된다.The deserializer 16 converts the serial data from the serial converter 10b of the front photographing unit 10 into parallel data and applies it to the controller 32. For example, the serial-to-parallel converter 16 may have a specification of an HSD input of 1.5Gbps or more.

직병렬 변환부(18)(deserializer)는 운전자 촬영부(12)의 직렬 변환부(12c)로부터의 직렬 데이터를 병렬 데이터로 변환시켜 제어부(32)에게로 인가한다. 예를 들어, 직병렬 변환부(18)는 HSD 입력 1.5Gbps 이상의 사양이면 된다.The deserializer 18 converts the serial data from the serial converter 12c of the driver photographing unit 12 into parallel data and applies it to the controller 32. For example, the serial-to-parallel converter 18 may be a HSD input of 1.5 Gbps or more.

조명 구동부(20)는 제어부(32)로부터의 제어신호에 따라 조명부(12b)를 구동할 수 있다.The lighting driver 20 may drive the lighting unit 12b according to a control signal from the control unit 32.

저장부(22)는 직병렬 변환부(16)를 거친 전방 촬영부(10)의 카메라 데이터(즉, 차량 전방의 영상 이미지)를 저장하고, 직병렬 변환부(18)를 거친 운전자 촬영부(12)의 카메라 데이터(즉, 운전자의 얼굴 이미지)를 저장한다. 이는 이미지 처리부(24)에서의 이미지 처리가 수월하게 행해지도록 하기 위해서이다.The storage unit 22 stores the camera data of the front photographing unit 10 (that is, the image in front of the vehicle) through the serial / parallel conversion unit 16, and the driver photographing unit through the serial / parallel conversion unit 18 ( 12) camera data (ie, driver's face image). This is so that the image processing in the image processing unit 24 can be easily performed.

즉, 저장부(22)는 제어부(32)의 제어에 의해 전방 촬영부(10) 및 운전자 촬영부(12)의 카메라 데이터를 저장한다. 이러한 저장부(22)는 비디오 버퍼라고 할 수 있다.That is, the storage unit 22 stores the camera data of the front photographing unit 10 and the driver photographing unit 12 under the control of the control unit 32. The storage unit 22 may be referred to as a video buffer.

이미지 처리부(24)는 저장부(22)에 저장되는 전방 촬영부(10)의 카메라 데이터(즉, 차량 전방의 영상 이미지)를 이미지 처리하여 제어부(32)에게로 제공함으로써, 제어부(32)에서 차선이탈 여부 및 전방충돌 여부를 판단할 수 있게 한다.The image processor 24 processes the camera data of the front photographing unit 10 (that is, the image in front of the vehicle) stored in the storage unit 22 and provides the image data to the controller 32 so that the controller 32 receives the image data. It allows you to determine whether you have left the lane and whether you are in front of you.

한편, 이미지 처리부(24)는 저장부(22)에 저장되는 운전자 촬영부(12)의 카메라 데이터(즉, 운전자의 얼굴 이미지)를 이미지 처리하여 제어부(32)에게로 제공함으로써, 제어부(32)에서 운전자의 졸음 여부를 판단할 수 있게 한다.Meanwhile, the image processor 24 processes the camera data (ie, the driver's face image) of the driver photographing unit 12 stored in the storage unit 22 and provides the image to the controller 32, thereby controlling the controller 32. Allows the driver to determine whether the driver is drowsy.

즉, 이미지 처리부(24)는 전방 촬영부(10)의 카메라 데이터 및 운전자 촬영부(12)의 카메라 데이터를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단할 수 있는 정보를 출력할 수 있다.That is, the image processor 24 outputs information for determining whether the lane is out of line, whether it is a front collision, or whether the driver is drowsy based on the camera data of the front photographing unit 10 and the camera data of the driver photographing unit 12. can do.

경보부(26)는 차선이탈, 전방충돌, 운전자의 졸음을 경보해 준다.The alarm unit 26 warns of lane departure, frontal collision, and drowsiness of the driver.

예를 들어, 경보부(26)는 소정의 음향을 출력하는 스피커 또는 부저를 포함할 수 있다.For example, the alarm unit 26 may include a speaker or a buzzer that outputs a predetermined sound.

한편, 경보부(26)는 소정의 촉각적인 출력을 발생시킬 수도 있다. 예를 들어, 경보부(26)는 스티어링 휠, 안전 벨트, 시트 등을 진동시켜 운전자가 출력을 인지할 수 있게 동작할 수 있다.On the other hand, the alarm unit 26 may generate a predetermined tactile output. For example, the alarm unit 26 may operate by vibrating a steering wheel, a seat belt, a seat, or the like so that a driver may recognize an output.

표시부(28)는 차선이탈, 전방충돌, 졸음에 관련된 소정의 경고 메시지를 표시한다. 예를 들어, 표시부(28)는 차선이탈이 예상되거나 전방충돌이 예상되거나 운전자가 졸고 있는 것으로 판단되는 경우에 이를 경고하는 메시지를 디스플레이시킴으로써, 운전자가 확인할 수 있도록 한다.The display unit 28 displays a predetermined warning message related to lane departure, forward collision, and drowsiness. For example, the display unit 28 may display a warning message when a lane departure is expected, a forward collision is expected, or the driver is determined to be asleep, so that the driver may check.

예를 들어, 표시부(28)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.For example, the display unit 28 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. The display device may include at least one of a flexible display, a 3D display, and an e-ink display.

상술한 경보부(26)와 표시부(28)는 함께 동작하는 것이 바람직하다. 즉, 경보부(26)에서 경보를 행할 때 표시부(28)는 경고 메시지를 표시함으로써, 운전자에게 현재 어떠한 상태에 처해져 있었는지를 자각하게 해 줄 뿐만 아니라 경보/경고의 효과를 극대화시킬 수 있다.It is preferable that the above-mentioned alarm part 26 and the display part 28 operate | move together. That is, when an alarm is issued by the alarm unit 26, the display unit 28 displays a warning message, which not only makes the driver aware of what state he is currently in, but also maximizes the effect of the alarm / warning.

통신부(30)는 본 발명의 실시예에 따른 차량 운행 모니터링 장치와 연결될 수 있는 외부의 주행정보 관리 시스템(34)와의 통로 역할을 수행할 수 있다.The communication unit 30 may serve as a path to an external driving information management system 34 that may be connected to the vehicle driving monitoring apparatus according to the exemplary embodiment of the present invention.

통신부(30)는 근거리 통신 모듈, V2X 통신 모듈 등으로 구성될 수 있다. The communication unit 30 may be configured as a short range communication module, a V2X communication module, or the like.

근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth, RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여 근거리 통신을 지원할 수 있다. 이러한 근거리 통신 모듈은 근거리 무선 통신망(Wireless Area Networks)을 형성하여 본 발명의 실시예에 따른 차량 운행 모니터링 장치와 주행정보 관리 시스템(34) 사이의 사이의 근거리 무선 통신을 수행할 수 있다. The near field communication module is for short range communication, and includes Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). At least one of Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless Universal Serial Bus (Wireless USB) technologies may be used to support short-range communication, which may include a wireless area network. In such a manner, short-range wireless communication between the vehicle driving monitoring apparatus and the driving information management system 34 according to an embodiment of the present invention may be performed.

V2X 통신 모듈은 주행정보 관리 시스템(34) 또는 다른 차량과의 무선 통신을 수행한다. V2X 통신 모듈은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함할 수 있다. The V2X communication module performs wireless communication with the driving information management system 34 or another vehicle. The V2X communication module may include a module capable of implementing inter-vehicle communication (V2V) or inter-vehicle communication (V2I) protocol.

제어부(32)는 본 발명의 실시예에 따른 차량 운행 모니터링 장치의 전체적인 동작을 제어한다.The control unit 32 controls the overall operation of the vehicle driving monitoring apparatus according to the embodiment of the present invention.

특히, 제어부(32)는 이미지 처리부(24)로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단할 수 있다. 그리고, 제어부(32)는 판단 결과에 따라 경보 및 표시 동작을 제어할 수 있다.In particular, the controller 32 may determine whether the vehicle is out of lane, whether it is a front collision, or whether the driver is sleepy based on the information from the image processor 24. The controller 32 may control the alarm and the display operation according to the determination result.

한편, 제어부(32)는 상술한 판단 결과(즉, 차선이탈 여부 판단 정보, 전방충돌 여부 판단 정보, 및 운전자 졸음 판단 정보)와 함께 센서부(14)로부터의 정보 및 각종의 차량 정보를 통신부(30)를 통해 주행정보 관리 시스템(34)에게로 보낼 수 있다. Meanwhile, the control unit 32 transmits the information from the sensor unit 14 and various vehicle information together with the above-described determination result (that is, lane departure determination information, forward collision determination information, and driver drowsiness determination information). 30 may be sent to the driving information management system 34.

상술한 도 2에서는 이미지 처리부(24) 및 제어부(32)를 별개의 구성으로 도시하였으나, 이미지 처리부(24)가 제어부(32)에 포함되는 것으로 보아도 무방하다.In FIG. 2, the image processor 24 and the controller 32 are shown in separate configurations, but the image processor 24 may be included in the controller 32.

그에 따라, 제어부(32)는 도 3에서와 같은 소프트웨어 아키텍처를 갖는다고 할 수 있다. 도 3에 따르면 제어부(32)의 소프트웨어 아키텍처는 어플리케이션 프로세서(AP) 소프트웨어, 및 마이컴(MCU) 소프트웨어를 포함할 수 있다. 어플리케이션 프로세서(AP) 소프트웨어는 운전자 인지 및 전방 인지 프로그램, 통신, 차량 주행 정보 관리 프로그램을 담당할 수 있다. 마이컴(MCU) 소프트웨어는 차량 CAN통신 및 파워 컨트롤, 시스템 진단 등을 담당할 수 있다. Accordingly, the control unit 32 can be said to have a software architecture as shown in FIG. According to FIG. 3, the software architecture of the controller 32 may include an application processor (AP) software and a microcomputer (MCU) software. The application processor (AP) software may be responsible for driver recognition and forward recognition programs, communications, and vehicle driving information management programs. Microcontroller (MCU) software can handle vehicle CAN communication, power control and system diagnostics.

어플리케이션 프로세서(AP) 소프트웨어 및 마이컴 소프트웨어는 도 3에서와 같이 각각 하드웨어 계층, 운영체제 계층, 디바이스 계층, 서비스 계층, 알고리즘 계층, 및 상위 레벨 어플리케이션 계층으로 나누어 배치할 수 있다. The application processor (AP) software and the microcomputer software may be divided into a hardware layer, an operating system layer, a device layer, a service layer, an algorithm layer, and a higher level application layer as shown in FIG. 3.

한편, 주행정보 관리 시스템(34)은 도 4에서와 같이 본 발명의 실시예에 따른 차량 운행 모니터링 장치로부터의 운전자 상태, 주행 정보, 차량 정보를 백엔드 서비스와 연계하고, 관리/관제 서비스 및 서비스 앱을 통해 실시간으로 정보 제공을 할 수 있다.Meanwhile, the driving information management system 34 associates the driver status, driving information, and vehicle information from the vehicle driving monitoring apparatus according to the embodiment of the present invention with the backend service as shown in FIG. 4, and manages / controls services and service apps. Through the information can be provided in real time.

도 5는 본 발명의 실시예에서의 차선이탈 경보 및 전방충돌 경보 프로세스를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining a lane departure warning and a forward collision warning process according to an exemplary embodiment of the present invention.

전방 촬영부(10)에서 차량 전방을 촬영하게 되면 도 5의 (a)에서와 같은 입력 영상이 저장부(22)에 저장된 후 이미지 처리부(24)에 인가될 수 있다.When the front photographing unit 10 photographs the front of the vehicle, an input image as shown in FIG. 5A may be stored in the storage unit 22 and then applied to the image processing unit 24.

이미지 처리부(24)는 입력 영상을 근거로 운전자의 현재의 주행 차선을 탐지하기 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (b)에서와 같은 차선 탐지 이미지를 생성함으로써, 제어부(32)는 이를 근거로 현재 운전자가 주행하고 있는 차선을 탐지할 수 있다.The image processor 24 performs image processing for detecting the current driving lane of the driver based on the input image. Accordingly, the image processor 24 may generate a lane detection image as shown in FIG. 5B so that the controller 32 may detect the lane in which the driver is currently driving.

차선 탐지 이후에, 이미지 처리부(24)는 차선 교차점 탐지를 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (c)에서와 같은 차선 교차점 탐지 이미지를 생성함으로써, 제어부(32)는 이를 근거로 차선이 교차하는 지점을 탐지할 수 있다.After lane detection, the image processing unit 24 performs image processing for lane crossing detection. Accordingly, the image processor 24 may generate a lane intersection detection image as shown in FIG. 5C, and the controller 32 may detect a point where the lanes cross based on the lane intersection detection image.

차선 교차점 탐지 이후에, 이미지 처리부(24)는 최적 차선 인지를 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (d)에서와 같은 최적 차선 인지 이미지를 생성함으로써, 제어부(32)는 이를 근거로 최적 차선을 인지할 수 있다.After lane crossing detection, the image processing unit 24 performs image processing for optimal lane recognition. Accordingly, the image processor 24 may generate the optimal lane recognition image as shown in FIG. 5D, so that the controller 32 may recognize the optimal lane based on the image.

한편, 이미지 처리부(24)는 입력 영상을 근거로 전방 차량의 에지(edge)를 추출하기 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (e)에서와 같은 에지 추출 이미지를 생성함으로써, 제어부(32)는 이를 근거로 전방 차량을 감지할 수 있다.On the other hand, the image processor 24 performs image processing for extracting the edge of the front vehicle based on the input image. Accordingly, the image processor 24 may generate an edge extraction image as shown in FIG. 5E, so that the controller 32 may detect the front vehicle based on the image.

전방 차량 감지 이후에, 이미지 처리부(24)는 전방 차량의 라이트 및 범퍼 등을 인지하기 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 5의 (f)에서와 같은 전방 차량의 라이트 및 범퍼 인지 이미지를 생성함으로써, 제어부(32)를 이를 근거로 전방 차량의 라이트 및 범퍼를 인지할 수 있다.After the front vehicle detection, the image processing unit 24 performs image processing for recognizing the lights, bumpers, and the like of the front vehicle. Accordingly, the image processor 24 may generate the light and the bumper recognition image of the front vehicle as shown in FIG. 5F, so that the control unit 32 may recognize the light and the bumper of the front vehicle.

최종적으로, 이미지 처리부(24)는 도 5의 (g)에서와 같이 최종 이미지를 출력할 수 있으므로, 제어부(32)는 이를 근거로 차선이탈이 예상되는지 및 전방충돌이 예상되는지를 판단할 수 있다. Finally, since the image processor 24 may output the final image as shown in (g) of FIG. 5, the controller 32 may determine whether a lane departure is expected or a forward collision is expected based on this. .

다시 말해서, 제어부(32)는 차선을 탐지한 이후에 차선이탈 예상 시간 및 차선이탈 예상 거리 등을 산출하여 운전자에게 경보해 줄 수 있다. 또한, 제어부(32)는 전방의 차량을 감지한 이후에 충돌 예상 시간 및 차량 거리 등을 산출하여 운전자에게 경보해 줄 수 있다.In other words, after detecting the lane, the controller 32 may calculate the lane departure estimated time and the lane departure estimated distance, and may alert the driver. In addition, after detecting the vehicle ahead, the controller 32 may calculate an estimated collision time and a vehicle distance and alert the driver.

도 6은 본 발명의 실시예에서의 운전자 상태를 감지하는 프로세스를 설명하기 위한 도면이다.6 is a view for explaining a process of detecting a driver state in an embodiment of the present invention.

운전자 촬영부(12)에서 운전자를 촬영하게 되면 도 6의 (a)에서와 같은 입력 영상이 저장부(22)에 저장된 후 이미지 처리부(24)에 인가될 수 있다.When the driver photographs the driver 12, the input image as shown in FIG. 6A may be stored in the storage 22 and then applied to the image processor 24.

이미지 처리부(24)는 입력 영상을 근거로 현재 운전자의 얼굴을 탐지하기 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 6의 (b)에서와 같은 얼굴 탐지 이미지를 생성함으로써, 제어부(32)는 이를 근거로 현재 운전자의 얼굴 영역을 탐지할 수 있다.The image processor 24 performs image processing for detecting the face of the current driver based on the input image. Accordingly, the image processor 24 may generate the face detection image as shown in FIG. 6B so that the controller 32 may detect the face region of the current driver based on the face detection image.

얼굴 영역 탐지 이후에, 이미지 처리부(24)는 해당 운전자의 머리 각도 측정(시선 추적)을 위한 이미지 처리를 행한다. 그에 따라, 이미지 처리부(24)는 도 6의 (c)에서와 같은 머리 각도 측정 이미지를 생성함으로써, 제어부(32)는 이를 근거로 해당 운전자의 머리 각도를 측정(즉, 시선을 추적)할 수 있다.After face region detection, the image processing unit 24 performs image processing for head angle measurement (eye tracking) of the driver. Accordingly, the image processor 24 generates the head angle measurement image as shown in FIG. 6C, so that the controller 32 can measure the head angle of the driver (ie, track the gaze) based on the image. have.

또한, 상술한 얼굴 영역 탐지 이후에, 이미지 처리부(24)는 도 6의 (d)에서와 같이 특징점 추출 기법을 활용하여 해당 운전자의 눈 영역을 탐지하고 탐지된 눈 영역에 존재하는 감긴 눈(close eye) 및/또는 뜬 눈(open eye)으로 분류한다.In addition, after detecting the face region described above, the image processor 24 detects the eye region of the driver by using the feature point extraction technique as shown in FIG. 6 (d) and closes the closed eyes existing in the detected eye region. eye and / or open eye.

최종적으로, 이미지 처리부(24)는 도 6의 (e)에서와 같이 최종 이미지(즉, 얼굴 영역, 머리 각도, 눈 등을 파악할 수 있는 이미지)를 출력할 수 있으므로, 제어부(32)는 이를 근거로 운전자의 상태(즉, 졸음 여부)를 판단할 수 있다. Finally, the image processor 24 may output a final image (ie, an image capable of grasping a face area, a head angle, an eye, etc.) as shown in FIG. The driver's state (ie, sleepiness) can be determined.

다시 말해서, 제어부(32)는 얼굴 탐지, 머리 각도 측정 및 눈 탐지를 통해 해당 운전자가 졸고 있는지를 판단하여 운전자에게 경보해 줄 수 있다. In other words, the controller 32 may determine whether the driver is dozing by face detection, head angle measurement, and eye detection to alert the driver.

도 7은 본 발명의 실시예에 따른 차량 운행 모니터링 방법을 설명하기 위한 플로우차트이다.7 is a flowchart illustrating a vehicle driving monitoring method according to an embodiment of the present invention.

차량이 주행을 하게 되면(S10) 전방 촬영부(10)는 차량 전방의 영상(즉, 다른 차량 및 차선 등을 포함)을 촬영하고, 운전자 촬영부(12)는 차량내의 운전자의 얼굴을 촬영한다(S20).When the vehicle is driven (S10), the front photographing unit 10 photographs an image in front of the vehicle (that is, including other vehicles and lanes), and the driver photographing unit 12 photographs the face of the driver in the vehicle. (S20).

그에 따라, 제어부(32)는 이미지 처리부(24)와의 연계에 의해 촬영된 영상을 근거로 주행 상태 및 운전자 상태를 파악하게 된다(S30). Accordingly, the controller 32 determines the driving state and the driver state based on the image photographed by the linkage with the image processing unit 24 (S30).

즉, 주행 상태를 파악하기 위해서, 상술한 도 5에서와 같이 제어부(32)는 이미지 처리부(24)와의 연계에 의해 차량 전방의 영상을 근거로 자신의 차량이 주행하고 있는 현재의 차선을 탐지하고 차선이탈 예상 시간 및 차선이탈 예상 거리 등을 산출한다. 그리고, 제어부(32)는 이미지 처리부(24)와의 연계에 의해 차량 전방의 영상을 근거로 전방에 존재하는 차량을 감지하고 충돌 예상 시간 및 차량 거리 등을 산출한다.That is, in order to grasp the driving state, as shown in FIG. 5, the control unit 32 detects the current lane in which the vehicle is driving based on the image in front of the vehicle by linking with the image processing unit 24. The estimated lane departure time and the estimated lane departure distance are calculated. The controller 32 detects a vehicle present in front of the vehicle based on an image in front of the vehicle by linking with the image processor 24 and calculates an estimated collision time and a vehicle distance.

또한, 운전자 상태를 파악하기 위해서, 상술한 도 6에서와 같이 제어부(32)는 이미지 처리부(24)와의 연계에 의해 운전자의 얼굴 탐지, 머리 각도 측정 및 눈 탐지를 행한다.In addition, in order to grasp the driver's condition, the controller 32 performs face detection, head angle measurement, and eye detection of the driver in association with the image processing unit 24 as described above.

이에 의해, 제어부(32)는 산출된 정보를 근거로 차선이탈 또는 전방충돌이 예상되는지를 판단하고(S40), 차선이탈 및 전방충돌이 예상되지 않으면 운전자가 졸고 있는지를 판단한다(S50). 여기서는 차선이탈 또는 전방충돌이 예상되는지를 판단하고 나서 운전자가 졸고 있는지를 판단하는 것으로 설명하였으나, 그 순서가 바뀌어도 무방하다. 또한, 차선이탈 또는 전방충돌이 예상되는지 및 운전자가 졸고 있는지를 판단하는 것을 동시 다발적으로 행하는 것으로 하여도 무방하다.As a result, the controller 32 determines whether lane departure or forward collision is expected based on the calculated information (S40), and if the lane departure and forward collision is not expected (S50). Here, it is described as determining whether the driver is asleep after determining whether a lane departure or forward collision is expected, but the order may be changed. Further, judging whether a lane departure or forward collision is expected and whether the driver is asleep may be performed simultaneously.

만약, 차선이탈 또는 전방충돌이 예상되거나(S40에서 "Yes"), 운전자가 졸고 있는 것으로 판단되는 경우(S50에서 "Yes") 제어부(32)는 경보부(26)를 통해 경보를 행함과 더불어 표시부(28)상에 현재의 상태를 디스플레이한다(S60). 예를 들어, 스피커를 통해 소정의 음향이 출력되거나 부저가 울릴 수 있다. 또는 스티어링 휠, 안전 벨트, 시트 등에서 진동을 발생하여 운전자가 출력을 인지할 수 있게 한다. 또한, 차선이탈이 예상되거나 전방충돌이 예상되거나 운전자가 졸고 있는 것을 경고하는 메시지가 표시부(28)상에 디스플레이될 수 있다.If a lane departure or a forward collision is expected (Yes in S40) or the driver is determined to be dozing (Yes in S50), the control unit 32 alerts through the alarm unit 26 and displays the unit. The current state is displayed on (28) (S60). For example, a predetermined sound may be output or a buzzer may sound through the speaker. Alternatively, vibrations can be generated in the steering wheel, seat belts, seats, etc. so that the driver can recognize the output. In addition, a message may be displayed on the display unit 28 warning that lane departure is expected, a forward collision is expected, or that the driver is dozing.

그리고, 제어부(32)는 상술한 판단 결과(즉, 차선이탈 여부 판단 정보, 전방충돌 여부 판단 정보, 및 운전자 졸음 판단 정보)와 함께 센서부(14)로부터의 정보 및 각종의 차량 정보를 통신부(30)를 통해 주행정보 관리 시스템(34)에게로 전송한다(S70). The control unit 32 transmits the information from the sensor unit 14 and various vehicle information together with the above-described determination result (that is, lane departure determination information, forward collision determination information, and driver drowsiness determination information). 30 and transmits to the driving information management system 34 (S70).

또한, 상술한 본 발명의 실시예에 따른 차량 운행 모니터링 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the vehicle driving monitoring method according to the above-described embodiment of the present invention may be implemented as computer readable codes on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention belongs.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the best embodiment has been disclosed in the drawings and the specification. Although specific terms have been used herein, they are used only for the purpose of illustrating the present invention and are not intended to limit the scope of the invention as defined in the meaning or claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

10 : 전방 촬영부 12 : 운전자 촬영부
14 : 센서부 16, 18 : 직병렬 변환부
20 : 조명 구동부 22 : 저장부
24 : 이미지 처리부 26 : 경보부
28 : 표시부 30 : 통신부
32 : 제어부 34 : 주행정보 관리 시스템
10: front photographing unit 12: driver photographing unit
14 sensor 16, 18 serial-to-parallel converter
20: light driving unit 22: storage unit
24: image processing unit 26: alarm unit
28: display unit 30: communication unit
32: control unit 34: driving information management system

Claims (12)

주행중인 차량의 전방을 촬영하는 전방 촬영부;
상기 차량의 운전자의 얼굴을 촬영하는 운전자 촬영부;
상기 전방 촬영부 및 상기 운전자 촬영부로부터의 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 이미지 처리부;
상기 이미지 처리부로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하고, 판단 결과에 따라 경보 동작을 제어하는 제어부; 및
상기 제어부의 제어에 의해 경보를 행하는 경보부;를 포함하는 것을 특징으로 하는 차량 운행 모니터링 장치.
A front photographing unit which photographs a front side of a driving vehicle;
A driver photographing unit which photographs a face of a driver of the vehicle;
An image processor configured to process the image data from the front photographing unit and the driver photographing unit to output information for determining whether the vehicle is out of lane, whether it is a front collision, or whether the driver is drowsy;
A controller which determines whether the vehicle is out of lane, whether it is a front collision, whether the driver is drowsy, and controls an alarm operation based on the determination result based on the information from the image processor; And
And an alarm unit for generating an alarm under the control of the controller.
청구항 1에 있어서,
상기 전방 촬영부 및 상기 운전자 촬영부로부터의 이미지 데이터를 저장하는 저장부;를 추가로 포함하고,
상기 이미지 처리부는 상기 저장부에 저장된 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 것을 특징으로 하는 차량 운행 모니터링 장치.
The method according to claim 1,
And a storage unit which stores image data from the front photographing unit and the driver photographing unit.
And the image processing unit processes the image data stored in the storage unit to output information for determining whether the lane is out of line, whether it is a front collision, or whether the driver is drowsy.
청구항 1에 있어서,
상기 제어부는,
상기 전방 촬영부로부터의 입력 영상을 근거로 하는 상기 이미지 처리부에서의 차선 탐지 이미지 및 에지 추출 이미지를 토대로 운전자가 주행하고 있는 현재의 차선을 탐지하고 전방 차량을 감지하고, 상기 차선 탐지 이후에 상기 이미지 처리부로부터의 차선 교차점 탐지 이미지를 근거로 차선이 교차하는 지점을 탐지하고, 상기 차선 교차점 탐지 이후에 상기 이미지 처리부로부터의 최적 차선 인지 이미지를 근거로 최적 차선을 인지하고, 상기 전방 차량 감지 이후에 상기 이미지 처리부로부터의 전방 차량의 라이트 및 범퍼 인지 이미지를 근거로 전방 차량의 라이트 및 범퍼를 인지하고, 상기 인지한 최적 차선 및 전방 차량의 라이트 및 범퍼를 근거로 차선이탈이 예상되는지 및 전방충돌이 예상되는지를 판단하는 것을 특징으로 하는 차량 운행 모니터링 장치.
The method according to claim 1,
The control unit,
Based on the lane detection image and the edge extraction image in the image processing unit based on the input image from the front photographing unit, the driver detects the current lane in which the driver is traveling and detects the vehicle ahead, and the image after the lane detection. Detecting the intersection of the lanes based on the lane crossing detection image from the processing unit, and after detecting the lane intersection point, recognizes the optimum lane based on the optimal lane recognition image from the image processing unit, and after detecting the front vehicle Recognizes the lights and bumpers of the front vehicle based on the light and bumper recognition image of the front vehicle from the image processing unit, and predicts the lane departure and the forward collision based on the recognized optimal lanes and the lights and bumpers of the front vehicle. Vehicle operation, characterized in that determining whether Monitoring device.
청구항 1에 있어서,
상기 제어부는,
상기 운전자 촬영부로부터의 입력 영상을 근거로 하는 상기 이미지 처리부에서의 얼굴 탐지 이미지를 토대로 운전자의 얼굴 영역을 탐지하고, 상기 얼굴 영역 탐지 이후에 상기 이미지 처리부로부터의 머리 각도 측정 이미지를 근거로 해당 운전자의 머리 각도를 측정하고 상기 얼굴 영역내의 눈을 탐지하여 감긴 눈 및 뜬 눈으로 분류하고, 상기 측정된 운전자의 머리 각도 및 분류된 감긴 눈 및 뜬 눈을 근거로 운전자의 졸음 여부를 판단하는 것을 특징으로 하는 차량 운행 모니터링 장치.
The method according to claim 1,
The control unit,
The driver detects a face region of the driver based on a face detection image in the image processor based on an input image from the driver photographing unit, and after detecting the face region, the corresponding driver based on the head angle measurement image from the image processor. Measuring the head angle of the eye and detecting the eyes in the face region and classifying them into closed eyes and open eyes, and determining whether the driver is sleepy based on the measured head angle of the driver and the classified closed eyes and open eyes. Vehicle running monitoring device.
청구항 1에 있어서,
상기 차선이탈, 전방충돌, 졸음에 관련된 경고 메시지를 표시하는 표시부;를 추가로 포함하고,
상기 표시부는 상기 경보부와 함께 동작하는 것을 특징으로 하는 차량 운행 모니터링 장치.
The method according to claim 1,
And a display unit for displaying a warning message related to the lane departure, the front collision, and the drowsiness.
And the display unit is operated together with the alarm unit.
청구항 1에 있어서,
상기 제어부는,
상기 차량의 내부에 설치된 하나 이상의 센서로부터의 차량 정보를 인가받고,
상기 판단 결과 및 상기 차량 정보를 외부의 주행정보 관리 시스템에게로 전송하는 것을 특징으로 하는 차량 운행 모니터링 장치.
The method according to claim 1,
The control unit,
Receiving vehicle information from at least one sensor installed inside the vehicle,
And transmitting the determination result and the vehicle information to an external driving information management system.
촬영부가, 주행중인 차량의 전방 및 상기 차량의 운전자의 얼굴을 촬영하는 단계;
이미지 처리부가, 상기 촬영부로부터의 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 단계;
제어부가, 상기 이미지 처리부로부터의 정보를 근거로 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하는 단계; 및
상기 제어부가, 상기 판단하는 단계의 결과에 따라 경보 동작을 제어하는 단계;를 포함하는 것을 특징으로 하는 차량 운행 모니터링 방법.
Photographing unit, photographing the front of the driving vehicle and the face of the driver of the vehicle;
Image processing by the image processor to process the image data from the photographing unit to output information for judging whether the lane is out of front, whether there is a collision, or whether the driver is drowsy;
Determining, by the controller, whether the vehicle is out of lane, whether it is a front collision, or whether the driver is sleepy based on the information from the image processor; And
And controlling, by the controller, an alarm operation according to a result of the determining.
청구항 7에 있어서,
상기 제어부가 상기 촬영부로부터의 이미지 데이터를 저장부에 저장하는 단계;를 추가로 포함하고,
상기 정보를 출력하는 단계는, 상기 저장부에 저장된 이미지 데이터를 이미지 처리하여 차선이탈 여부, 전방충돌 여부, 운전자의 졸음 여부를 판단하도록 하는 정보를 출력하는 것을 특징으로 하는 차량 운행 모니터링 방법.
The method according to claim 7,
And storing, by the control unit, image data from the photographing unit in a storage unit.
The outputting of the information may include image processing the image data stored in the storage unit to output information for determining whether the lane is out of line, whether it is a front collision, or whether the driver is drowsy.
청구항 7에 있어서,
상기 판단하는 단계는,
상기 주행중인 차량의 전방을 촬영한 영상을 근거로 하는 상기 이미지 처리부에서의 차선 탐지 이미지 및 에지 추출 이미지를 토대로 운전자가 주행하고 있는 현재의 차선을 탐지하고, 전방 차량을 감지하는 단계;
상기 차선 탐지 이후에 상기 이미지 처리부로부터의 차선 교차점 탐지 이미지를 근거로 차선이 교차하는 지점을 탐지하는 단계;
상기 차선 교차점 탐지 이후에 상기 이미지 처리부로부터의 최적 차선 인지 이미지를 근거로 최적 차선을 인지하는 단계;
상기 전방 차량 감지 이후에 상기 이미지 처리부로부터의 전방 차량의 라이트 및 범퍼 인지 이미지를 근거로 전방 차량의 라이트 및 범퍼를 인지하는 단계; 및
상기 인지한 최적 차선 및 전방 차량의 라이트 및 범퍼를 근거로 차선이탈이 예상되는지 및 전방충돌이 예상되는지를 판단하는 단계;를 포함하는 것을 특징으로 하는 차량 운행 모니터링 방법.
The method according to claim 7,
The determining step,
Detecting a current lane in which the driver is driving based on a lane detection image and an edge extraction image in the image processing unit based on an image photographing the front of the driving vehicle and detecting a front vehicle;
Detecting the intersection of the lanes based on the lane intersection detection image from the image processing unit after the lane detection;
Recognizing an optimal lane based on an optimal lane recognition image from the image processor after the lane intersection detection;
Recognizing a light and a bumper of the front vehicle based on the light and the bumper recognition image of the front vehicle from the image processor after detecting the front vehicle; And
And determining whether a lane departure is expected or a forward collision is predicted based on the recognized optimal lane and the lights and bumpers of the front vehicle.
청구항 7에 있어서,
상기 판단하는 단계는,
상기 차량의 운전자의 얼굴을 촬영한 영상을 근거로 하는 상기 이미지 처리부에서의 얼굴 탐지 이미지를 토대로 운전자의 얼굴 영역을 탐지하는 단계;
상기 얼굴 영역 탐지 이후에 상기 이미지 처리부로부터의 머리 각도 측정 이미지를 근거로 해당 운전자의 머리 각도를 측정하고, 상기 얼굴 영역내의 눈을 탐지하여 감긴 눈 및 뜬 눈으로 분류하는 단계; 및
상기 측정된 운전자의 머리 각도 및 분류된 감긴 눈 및 뜬 눈을 근거로 운전자의 졸음 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는 차량 운행 모니터링 방법.
The method according to claim 7,
The determining step,
Detecting a face region of a driver based on a face detection image of the image processor based on an image of the face of the driver of the vehicle;
Measuring the head angle of the driver based on the head angle measurement image from the image processing unit after detecting the face region, and detecting the eyes in the face region and classifying them into closed eyes and open eyes; And
And determining whether the driver is sleepy based on the measured head angle of the driver and the classified closed eyes and the open eyes.
청구항 7에 있어서,
상기 차선이탈, 전방충돌, 졸음에 관련된 경고 메시지를 표시부상에 표시하는 단계;를 추가로 포함하고,
상기 표시하는 단계에 의한 표시는 상기 경보 동작을 제어하는 단계에 의한 경보와 함께 수행되는 것을 특징으로 하는 차량 운행 모니터링 방법.
The method according to claim 7,
And displaying a warning message related to the lane departure, frontal collision, and drowsiness on a display unit.
And the display by the displaying step is performed together with the alarm by controlling the alarm operation.
청구항 7에 있어서,
상기 차량의 내부에 설치된 하나 이상의 센서로부터의 차량 정보 및 상기 판단하는 단계의 결과를 외부의 주행정보 관리 시스템에게로 전송하는 단계;를 추가로 포함하는 것을 특징으로 하는 차량 운행 모니터링 방법.
The method according to claim 7,
And transmitting the vehicle information from the one or more sensors installed in the vehicle and the result of the determining to an external driving information management system.
KR1020180070582A 2018-06-20 2018-06-20 Apparatus and method for monitoring vehicle operation KR20190143074A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180070582A KR20190143074A (en) 2018-06-20 2018-06-20 Apparatus and method for monitoring vehicle operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180070582A KR20190143074A (en) 2018-06-20 2018-06-20 Apparatus and method for monitoring vehicle operation

Publications (1)

Publication Number Publication Date
KR20190143074A true KR20190143074A (en) 2019-12-30

Family

ID=69102900

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180070582A KR20190143074A (en) 2018-06-20 2018-06-20 Apparatus and method for monitoring vehicle operation

Country Status (1)

Country Link
KR (1) KR20190143074A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102283398B1 (en) * 2020-10-30 2021-07-30 최광주 Ai based adas room-mirror
CN114228636A (en) * 2021-11-26 2022-03-25 阿尔特汽车技术股份有限公司 Vehicle intelligent refreshing system and method and vehicle
KR102446624B1 (en) * 2022-07-25 2022-09-23 (주)아이트로닉스 Integrated hi-pass system based on V2X communication that can use C-ITS system
KR102446628B1 (en) * 2022-07-25 2022-09-26 (주)아이트로닉스 High Pass System For Having Drowsy Driving Alarm

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102283398B1 (en) * 2020-10-30 2021-07-30 최광주 Ai based adas room-mirror
CN114228636A (en) * 2021-11-26 2022-03-25 阿尔特汽车技术股份有限公司 Vehicle intelligent refreshing system and method and vehicle
KR102446624B1 (en) * 2022-07-25 2022-09-23 (주)아이트로닉스 Integrated hi-pass system based on V2X communication that can use C-ITS system
KR102446628B1 (en) * 2022-07-25 2022-09-26 (주)아이트로닉스 High Pass System For Having Drowsy Driving Alarm

Similar Documents

Publication Publication Date Title
KR101838968B1 (en) Driving assistance Apparatus for Vehicle
KR101834351B1 (en) Driving assistance Apparatus for Vehicle
CN110341695B (en) Vehicle control device, system comprising the device and method thereof
US9227631B2 (en) Method for safely parking a vehicle in an emergency situation
US11554787B2 (en) Secondary disengage alert for autonomous vehicles
EP3324556A1 (en) Visual communication system for autonomous driving vehicles (adv)
KR20190143074A (en) Apparatus and method for monitoring vehicle operation
CN111278702B (en) Vehicle control device, vehicle having the same, and control method
US10882536B2 (en) Autonomous driving control apparatus and method for notifying departure of front vehicle
US11873007B2 (en) Information processing apparatus, information processing method, and program
CN112534487B (en) Information processing apparatus, moving body, information processing method, and program
US20210026134A1 (en) Heads-up display (hud) mirror assembly with switchable mirror layer
KR20190061395A (en) Apparatus and method for notifying a change of a traffic lamp using wireless communication
US11267402B1 (en) Systems and methods for prioritizing driver warnings in a vehicle
JP2012203829A (en) Moving body detection system for vehicle
KR20190016375A (en) Side mirror for vehicle and vehicle
KR102425036B1 (en) Vehicle and method for controlling thereof
JP2019067242A (en) Driving assistance device
KR20190070693A (en) Apparatus and method for controlling autonomous driving of vehicle
JP2019207454A (en) Reverse traveling warning device
US11926259B1 (en) Alert modality selection for alerting a driver
KR102175793B1 (en) Method and apparatus for outputting an alarm for congitive impairment of driver
KR20230046798A (en) Method and apparatus for detecting blind spots of vehicle
KR20230143245A (en) Right turn safety system and method for vehicle
KR20230067799A (en) Method and Apparatus for controlling virtual lane based on environmental conditions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application