KR20200084860A - System for monitoring the driver status and method thereof - Google Patents

System for monitoring the driver status and method thereof Download PDF

Info

Publication number
KR20200084860A
KR20200084860A KR1020200083143A KR20200083143A KR20200084860A KR 20200084860 A KR20200084860 A KR 20200084860A KR 1020200083143 A KR1020200083143 A KR 1020200083143A KR 20200083143 A KR20200083143 A KR 20200083143A KR 20200084860 A KR20200084860 A KR 20200084860A
Authority
KR
South Korea
Prior art keywords
driver
image frame
face image
nir
face
Prior art date
Application number
KR1020200083143A
Other languages
Korean (ko)
Inventor
서용준
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020200083143A priority Critical patent/KR20200084860A/en
Publication of KR20200084860A publication Critical patent/KR20200084860A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver

Abstract

Disclosed are a driver status monitoring system and an operating method thereof. According to one aspect of the present invention, the driver status monitoring system includes: a near infrared (NIR) control part turning on NIR lighting towards a driver; an image obtaining part alternately obtaining a first face image frame where the face of the driver is photographed while the NIR lighting is on and a second face image frame where the face of the driver is photographed while the NIR lighting is off, or selectively obtaining only the first face image frame; an image processing part creating a difference in the image frame by calculating an image difference between the first face image frame and the second face image frame; and a driver status monitoring part confirming whether the driver properly keeps his or her eyes forward by using the difference in the image frame or the first face image frame. Therefore, the driver status monitoring system is capable of reducing light reflection caused by an accessory such as glasses or the like.

Description

운전자 상태 감시 시스템 및 그의 동작 방법{System for monitoring the driver status and method thereof}System for monitoring the driver status and method thereof

본 발명은 운전자 상태 감시 시스템에 관한 것으로, 특히 운전자 상태 감시 시스템을 위한 운전자 영상 획득 기술에 관한 것이다.The present invention relates to a driver condition monitoring system, and more particularly, to a driver image acquisition technology for a driver condition monitoring system.

현대 사회에서 차량의 폭발적인 증가와 더불어 각종 교통사고에 의한 사망자도 증가하는 추세다. 이러한 교통사고 사망자를 최대한 줄이기 위하여 자동차의 안정성 향상과 보행자 보호를 위해 사고를 미리 방지하기 위한 기술이 개발되고 있다. 예컨대, 안전 운전을 위해 차량에는 졸음운전 경보 시스템, 야간 장애물 감지 시스템, 차의 위험상태 경보 시스템 등의 안전운전 보조 시스템이 장착되고 있다.In modern society, the number of deaths due to various traffic accidents is increasing along with the explosion of vehicles. In order to reduce the fatalities of traffic accidents as much as possible, technologies for preventing accidents have been developed in order to improve automobile stability and protect pedestrians. For example, for safe driving, the vehicle is equipped with a safe driving assistance system such as a drowsy driving warning system, a night obstacle detection system, and a dangerous state warning system of a vehicle.

안전 운전 보조 시스템 중 운전자 상태 감시 시스템(Driver Status Monitoring, DSM)은 졸음 또는 운전과 관계 없는 불필요한 행동으로 인한 운전자의 전방 주시 태만을 경고하는 시스템이다. 도 1에 도시된 바와 같이, 종래의 운전자 상태 감시 시스템(10)은 NIR 카메라(11), ECU(12)로 구성되어 있다. 종래의 운전자 상태 감시 시스템(10)은 NIR 카메라(11)는 NIR LED를 이용하여 운전자의 얼굴 부위에 적외선을 투사하고, 적외선이 투사된 운전자의 얼굴 영상을 획득한다. ECU(12)는 NIR 카메라(11)로부터 획득되는 운전자의 얼굴 영상을 영상 처리하여 눈, 코, 입을 검출하며, 운전자의 시선이 향하는 방향과 눈 개폐 여부를 확인한다. 운전자의 시선이 향하는 방향과 눈 개폐 여부를 통해 ECU(12)는 운전자의 상태를 파악할 수 잇고, 그에 따라 운전자의 전방 주시 태만 여부를 확인할 수 있다. 운전자의 전방 주시 태만이 판단되면, ECU(12)는 부저 등과 같은 출력 장치를 통해 경고 신호를 출력하여 운전자에게 경고한다. Among the safe driving assistance systems, the Driver Status Monitoring (DSM) system is a system that warns the driver of neglect due to drowsiness or unnecessary actions not related to driving. As shown in FIG. 1, the conventional driver condition monitoring system 10 is composed of an NIR camera 11 and an ECU 12. In the conventional driver condition monitoring system 10, the NIR camera 11 projects an infrared ray onto the driver's face using the NIR LED, and acquires an image of the driver's face on which infrared rays are projected. The ECU 12 detects eyes, noses, and mouths by image processing the driver's face image obtained from the NIR camera 11 and checks the direction of the driver's gaze and whether the eyes are opened or closed. Through the direction of the driver's gaze and whether the eyes are opened or closed, the ECU 12 can grasp the driver's condition, and accordingly, can determine whether the driver is looking ahead. When it is determined that the driver's negligence is forward, the ECU 12 warns the driver by outputting a warning signal through an output device such as a buzzer.

그러나, 종래의 운전자 상태 감시 시스템(10)은 운전자가 안경이나 그 밖의 자연광(태양광)을 반사하는 장신구를 착용한 경우, 태양광의 적외선 성분으로 인한 반사 물체 뒤의 영상 패턴이 포화되는 문제점이 있다. 예컨대, 종래의 운전자 상태 감시 시스템(10)은 도 2에 예시된 바와 같이 안경을 착용한 운전자의 얼굴 영상 패턴이 포화된 영상을 획득함에 따라, 얼굴 패턴(특히, 눈의 패턴) 인식의 어려움이 존재한다.However, the conventional driver condition monitoring system 10 has a problem in that the image pattern behind the reflective object due to the infrared component of sunlight is saturated when the driver wears glasses or other ornaments that reflect natural light (sunlight). . For example, the conventional driver condition monitoring system 10 has difficulty in recognizing a face pattern (particularly, an eye pattern) as the face image pattern of a driver wearing glasses is saturated as illustrated in FIG. 2. exist.

본 발명은 운전자 상태 감시 시스템에서 태양광 반사에 의한 패턴 인식 저하를 방지하기 위한 운전자 영상을 획득할 수 있도록 하는 기술적 방안을 제공함을 목적으로 한다An object of the present invention is to provide a technical method for obtaining a driver image for preventing a pattern recognition degradation due to sunlight reflection in a driver condition monitoring system.

본 발명은 운전자 상태 감시 시스템에서 태양광 반사에 의한 패턴 인식 저하를 방지하기 위한 운전자 영상을 획득할 수 있도록 하는 기술적 방안을 제공함을 목적으로 한다전술한 과제를 달성하기 위한 본 발명의 일 양상에 따른 운전자 상태 감시 시스템은 운전자를 향해 NIR(Near Infrared) 조명을 점등하는 NIR 제어부, 상기 NIR 조명이 점등된 상태에서 상기 운전자의 얼굴이 촬영된 제1 얼굴 영상 프레임과 상기 NIR 조명이 소등된 상태에서 상기 운전자의 얼굴이 촬영된 제2 얼굴 영상 프레임을 번갈아 획득하거나, 혹은 상기 제1 얼굴 영상 프레임만 선택적으로 획득하는 영상 획득부, 상기 제1 얼굴 영상 프레임과 상기 제2 얼굴 영상 프레임 간의 영상차를 계산하여 차영상 프레임을 생성하는 영상 처리부, 및 상기 차영상 프레임 또는 상기 제1 얼굴 영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 DSM(Driver Status Monitoring) 수행부를 포함한다. An object of the present invention is to provide a technical method to obtain a driver image for preventing a pattern recognition deterioration due to solar reflection in a driver condition monitoring system according to an aspect of the present invention for achieving the above-described problems The driver condition monitoring system includes an NIR control unit that lights up an NIR (Near Infrared) light toward the driver, a first face image frame in which the driver's face is photographed while the NIR light is on, and the NIR light is off. An image acquisition unit that alternately acquires a second face image frame in which a driver's face is photographed or selectively acquires only the first face image frame, and calculates an image difference between the first face image frame and the second face image frame And an image processing unit for generating a vehicle image frame, and a driver status monitoring (DSM) performing unit for determining whether the driver is neglecting forward using the vehicle image frame or the first face image frame.

한편, 전술한 과제를 달성하기 위한 본 발명의 다른 양상에 따른 포함하는 운전자 상태 감시(Driver Status Monitoring, DSM) 시스템의 동작 방법은 현재 주간 시간대인지 또는 야간 시간대인지 판단하는 단계, 상기 시간대 판단 결과에 따라, 상기 NIR(Near Infrared) 조명이 점등된 상태에서 운전자의 얼굴이 촬영된 제1 얼굴 영상 프레임과 상기 NIR 조명이 소등된 상태에서 상기 운전자의 얼굴이 촬영된 제2 얼굴 영상 프레임을 획득하거나, 혹은 상기 제1 얼굴 영상 프레임만 선택적으로 획득하는 단계, 상기 제1 및 제2 얼굴 영상 프레임이 획득된 경우, 상기 제1 얼굴 영상 프레임과 상기 제2 얼굴 영상 프레임 간의 영상차를 계산하여 차영상 프레임을 생성하는 단계, 및 상기 차영상 프레임 또는 상기 제1 얼굴 영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 단계를 포함한다.Meanwhile, a method of operating a driver status monitoring (DSM) system including a driver status monitoring (DSM) system according to another aspect of the present invention for achieving the above-described problems may include determining whether it is a current daytime time zone or a nighttime time zone, and the result of the time zone determination. Accordingly, a first face image frame in which a driver's face is photographed while the NIR (Near Infrared) light is on and a second face image frame in which the driver's face is photographed when the NIR light is off are obtained, or Alternatively, selectively obtaining only the first face image frame, and when the first and second face image frames are obtained, calculate a difference in image between the first face image frame and the second face image frame to calculate a difference image frame And generating a driver's negligence by using the car image frame or the first face image frame.

본 발명에 따르면, 태양광이 반영된 얼굴 영상 프레임과 적외선과 태양광이 함께 반영된 얼굴 영상 프레임을 획득하고, 두 영상 간의 영상차에 따라 생성되는 차영상 프레임을 이용하여 운전자의 운전자의 전방 주시 태만 여부를 확인함으로써, 안경 등과 같은 태양광을 반사하는 장신구에 의한 빛 반사를 저감할 수 있으며, 그에 따라 운전자의 얼굴 영상에서 얼굴 및 눈의 패턴을 인식하는 성능의 저하를 방지할 수 있다.According to the present invention, a face image frame reflecting sunlight and a face image frame reflecting infrared and sunlight are obtained, and whether a driver's driver is neglected to look ahead by using a difference image frame generated according to an image difference between the two images By confirming, light reflection by ornaments that reflect sunlight such as glasses can be reduced, and accordingly, a decrease in performance of recognizing a pattern of faces and eyes in a driver's face image can be prevented.

도 1은 종래의 운전자 상태 감시 시스템을 예시한 도면.
도 2는 빛 반사에 의해 얼굴 영상 패턴이 포화된 영상을 예시한 도면.
도 3은 본 발명의 실시예에 따른 운전자 상태 감시 시스템 구성도.
도 4는 본 발명의 실시예에 따른 운전자 상태 감시 시스템의 영상 획득 및 NIR LED 점멸 주기를 설명하기 위한 도면.
도 5는 본 발명의 실시예에 따른 운전자 상태 감시 시스템의 얼굴 패턴 검출과정을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 운전자 상태 감시 시스템의 눈 패턴 영상에서 선명도를 조절을 설명하기 위한 도면.
도 7은 본 발명의 실시예에 따른 운전자 상태 감시 시스템의 동작 흐름도.
1 is a diagram illustrating a conventional driver condition monitoring system.
2 is a diagram illustrating an image in which a face image pattern is saturated by light reflection.
Figure 3 is a driver state monitoring system configuration according to an embodiment of the present invention.
4 is a view for explaining an image acquisition and NIR LED flashing cycle of the driver condition monitoring system according to an embodiment of the present invention.
5 is a view for explaining a face pattern detection process of the driver condition monitoring system according to an embodiment of the present invention.
6 is a view for explaining the adjustment of sharpness in the eye pattern image of the driver condition monitoring system according to an embodiment of the present invention.
7 is an operation flowchart of a driver condition monitoring system according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 기재에 의해 정의된다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and the ordinary skill in the art to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is defined by the claims. On the other hand, the terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" or "comprising" means the presence of one or more other components, steps, operations and/or elements other than the components, steps, operations and/or elements mentioned, or Addition is not excluded.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가급적 동일한 부호를 부여하고 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the components of each drawing, the same components are assigned the same reference numerals as possible, even if they are displayed on different drawings, and in describing the present invention, specifics of related known configurations or functions are described. When the description may obscure the subject matter of the present invention, the detailed description is omitted.

최근 차량에 구현된 운전자 상태 감시 시스템(Driver Status Monitoring, DSM)은 졸음 또는 운전과 관계 없는 불필요한 행동으로 인한 운전자의 전방 주시 태만을 경고하는 시스템이다. 이때, 운전자 상태 감시 시스템은 운전자의 얼굴이 촬영된 얼굴 영상을 이용하여 운전자의 전방 주시 태만 여부를 확인한다. A driver status monitoring (DSM) system implemented in a recent vehicle is a system that warns the driver of a driver's neglect due to drowsiness or unnecessary actions related to driving. At this time, the driver condition monitoring system checks whether the driver's forward gaze is neglected using the face image of the driver's face.

본 발명의 실시예에 따른 운전자 상태 감시 시스템은 NIR(Near Infrared, 근적외선) LED(Light Emitting Diode)의 점멸을 제어하여 태양광(자연광)이 반영된 얼굴 영상과 적외선과 태양광이 함께 반영된 얼굴 영상을 획득하고, 두 영상 간의 영상차에 따른 차영상을 생성하며, 이를 이용하여 운전자의 전방 주시 태만 여부를 확인한다. The driver condition monitoring system according to an embodiment of the present invention controls the blinking of a NIR (Near Infrared) LED (Light Emitting Diode) to display a face image reflecting sunlight (natural light) and a face image reflecting infrared light and sunlight. Acquiring, generating a vehicle image according to the image difference between the two images, and using this, checks whether the driver is looking ahead.

이를 위해, 도 3에 도시된 바와 같이 본 발명의 실시예에 따른 운전자 상태 감시 시스템(100)는 영상 획득부(110), 영상 저장부(120), NIR 제어부(130), 영상 처리부(140) 및 DSM 수행부(150)를 포함한다.To this end, as shown in FIG. 3, the driver status monitoring system 100 according to an embodiment of the present invention includes an image acquisition unit 110, an image storage unit 120, an NIR control unit 130, and an image processing unit 140 And a DSM performing unit 150.

*영상 획득부(110)는 운전자의 얼굴 영상 프레임을 획득하며, 카메라이다. 이때, 영상 획득부(110)는 렌즈를 통해 촬상되는 영상을 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라센서와, 카메라 센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비한다. 여기서, 카메라센서는 CCD(Charge Coupled Device) 센서 또는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서가 적용될 수 있고, 신호처리부는 DSP(Digital Signal Processor)로 구현될 수 있으나, 이에 한정되는 것은 아니다.* The image acquisition unit 110 acquires the face image frame of the driver and is a camera. At this time, the image acquisition unit 110 photographs the image captured through the lens, a camera sensor for converting the captured optical signal into an electrical signal, and a signal processing unit for converting the analog image signal taken from the camera sensor into digital data To be equipped. Here, the camera sensor may be a CCD (Charge Coupled Device) sensor or a Complementary Metal Oxide Semiconductor (CMOS) image sensor, and the signal processor may be implemented as a Digital Signal Processor (DSP), but is not limited thereto.

영상 획득부(110)는 운전자의 얼굴 영상 프레임을 획득한다. 예컨대, 영상 획득부(110)는 도 4에 도시된 바와 같이, 카메라 영상 프레임 입력(V_sync) 신호가 입력되는 매주기마다, 운전자의 얼굴이 촬영된 영상 프레임을 획득한다.The image acquisition unit 110 acquires a face image frame of the driver. For example, as illustrated in FIG. 4, the image acquiring unit 110 acquires an image frame in which a driver's face is photographed at every cycle in which a camera image frame input (V_sync) signal is input.

영상 획득부(110)에서 획득되는 얼굴 영상 프레임은 영상 저장부(120)에 실시간으로 저장된다. 이때, 얼굴 영상 프레임은 획득 순서대로 프레임 번호가 할당되어 저장될 수 있다. 여기서, 영상 저장부(120)는 데이터(얼굴 영상 프레임) 저장을 위한 수단으로서, 비휘발성 메모리일 수 있다. The face image frame acquired by the image acquisition unit 110 is stored in real time in the image storage unit 120. At this time, the face image frames may be stored by being assigned frame numbers in the order of acquisition. Here, the image storage unit 120 may be a non-volatile memory as a means for storing data (face image frame).

NIR 제어부(130)는 근적외선(NIR) 조명을 발광하는 NIR LED가 일정 주기마다 점멸(점등 및 소등)하도록 제어한다. 여기서, NIR LED는 운전자의 얼굴을 향해 NIR 조명이 점등되도록 차량의 소정 위치에 장착된다. The NIR control unit 130 controls the NIR LED that emits near infrared (NIR) light to flash (lit and off) at regular intervals. Here, the NIR LED is mounted at a predetermined position on the vehicle such that the NIR light is turned on toward the driver's face.

이때, NIR 제어부(130)는 영상 획득부(110)의 동작주기와 다른 주기마다 NIR LED가 점멸하도록 제어할 수 있다. 예컨대, NIR 제어부(130)의 NIR LED 제어에 따라, 영상 획득부(110)는 NIR과 태양광이 발광된 상태에서의 얼굴 영상 프레임(제1 얼굴 영상 프레임)과 태양광만 발광된 상태에서의 얼굴 영상 프레임(제2 얼굴 영상 프레임)을 번갈아 획득할 수 있다. 예컨대, 홀수 번째(1, 3, 5, …번째)의 영상 프레임은 NIR과 태양광이 모두 발광된 상태에서 운전자의 얼굴을 촬영한 얼굴 영상 프레임(제1 얼굴 영상 프레임)이며, 짝수 번째(2, 4, 6, …번째)의 영상 프레임은 NIR이 발광되지 않은 상태에서 운전자의 얼굴을 촬영한 얼굴 영상 프레임(제2 얼굴 영상 프레임)이다.In this case, the NIR control unit 130 may control the NIR LED to flash at different periods from the operation period of the image acquisition unit 110. For example, according to the NIR LED control of the NIR control unit 130, the image acquisition unit 110 is a face image frame (first face image frame) in a state in which NIR and sunlight are emitted, and in a state in which only sunlight is emitted. The face image frame (second face image frame) may be alternately acquired. For example, the odd-numbered (1, 3, 5, ...) image frame is a face image frame (first face image frame) in which the driver's face is photographed while both NIR and sunlight are emitted, and the even-numbered image frame (2) , 4, 6, ... th) is a face image frame (second face image frame) in which the driver's face is photographed without NIR being emitted.

또는, NIR 제어부(130)은 영상 획득부(110)에서 운전자의 얼굴 영상 프레임을 획득할때마다 항상 NIR LED를 점등할 수 있다. 이에 따라, 영상 획득부(110)는 NIR이 발광된 상태에서의 얼굴 영상 프레임만 선택적으로 획득할 수 있다. 이러한 경우, 몇 번째의 영상 프레임인지에 상관 없이, 매 얼굴 영상 프레임은 NIR과 태양광이 모두 발광된 상태에서 운전자의 얼굴을 촬영한 얼굴 영상 프레임(제1 얼굴 영상 프레임)이다. 이와 같이, NIR 제어부(130)에서 NIR LED의 동작 주기를 제어하는 것은 이후의 주야 판단부(160)에 의해 주간 시간대인지 야간 시간대인지에 따라 달리 동작할 수 있다. Alternatively, the NIR control unit 130 may always turn on the NIR LED whenever the image acquisition unit 110 acquires the driver's face image frame. Accordingly, the image acquisition unit 110 may selectively acquire only the face image frame in the state where the NIR is emitted. In this case, regardless of the number of image frames, each face image frame is a face image frame (first face image frame) in which the driver's face is captured while both NIR and sunlight are emitted. As described above, controlling the operation cycle of the NIR LED in the NIR control unit 130 may be operated differently depending on whether it is a day time zone or a night time zone by the later day and night determination unit 160.

영상 처리부(140)는 제1 얼굴 영상 프레임과 제2 얼굴 영상 프레임 간의 영상차를 계산하여 차영상(Differential Image) 프레임을 생성한다. 이때, 영상 처리부(140)은 얼굴 영상 프레임을 획득하는 주기마다 NIR 제어부(130)에 의해 NIR LED가 점등과 소등을 번갈아가면서 동작한 경우 차영상 프레임을 생성한다.The image processing unit 140 calculates an image difference between the first face image frame and the second face image frame to generate a differential image frame. At this time, the image processing unit 140 generates a difference image frame when the NIR LED operates alternately between lighting and extinguishing by the NIR control unit 130 every period of acquiring a face image frame.

영상 처리부(140)는 NIR과 태양광이 모두 발광된 상태의 얼굴 영상 프레임(제1 얼굴 영상 프레임)과 NIR이 발광되지 않은 상태의 얼굴 영상 프레임(제2 얼굴 영상 프레임) 간의 영상차를 계산하고, 그에 따라 차영상 프레임을 생성한다. NIR과 태양광이 모두 반영된 얼굴 영상 프레임과 NIR이 반영되지 않은 얼굴 영상 프레임 간의 영상차를 계산함에 따라, 생성된 차영상 프레임은 NIR 영상 성분으로 이루어질 수 있다. 이때, 영상 처리부(140)는 두 영상 간의 영상 차이를 계산하는 영상 처리 알고리즘을 이용하여 영상차 계산 및 차영상 프레임을 생성할 수 있다.The image processing unit 140 calculates an image difference between a face image frame (first face image frame) in which both NIR and sunlight are emitted and a face image frame (second face image frame) in which NIR is not emitted, and , Thereby generating a difference video frame. By calculating an image difference between a face image frame in which both NIR and sunlight are reflected and a face image frame in which NIR is not reflected, the generated difference image frame may be composed of NIR image components. At this time, the image processing unit 140 may generate an image difference calculation and a difference image frame using an image processing algorithm that calculates an image difference between two images.

예컨대, 영상 처리부(140)는 영상 획득부(110)에서 획득되는 첫 번째 얼굴 영상 프레임(NIR 조명+태양광이 발광된 영상 프레임)과 두 번째 얼굴 영상 프레임(태양광만 발광된 영상 프레임) 간의 영상차를 계산하여 차영상 프레임을 생성한다. 마찬가지로, 영상 처리부(140)는 영상 획득부(110)에서 획득되는 세 번째 얼굴 영상 프레임(NIR 조명+태양광이 발광된 영상 프레임)과 네 번째 얼굴 영상 프레임(태양광만 발광된 영상 프레임) 간의 영상차를 계산하여 차영상 프레임을 생성한다.For example, the image processing unit 140 between the first face image frame (NIR light + sunlight emitted image frame) and the second face image frame (image light emitted only sunlight) obtained from the image acquisition unit 110 A difference image frame is generated by calculating an image difference. Similarly, the image processing unit 140 between the third face image frame (NIR lighting + sunlight emitted image frame) and the fourth face image frame (image light emitted only sunlight) obtained from the image acquisition unit 110 A difference image frame is generated by calculating an image difference.

영상 처리부(140)는 생성된 차영상 프레임을 DSM 수행부(150)로 전송한다. The image processing unit 140 transmits the generated difference image frame to the DSM performing unit 150.

한편, 본 발명의 실시예에 따른 운전자 상태 감시 시스템(100)은 현재 주간 시간대인지 또는 야간 시간대인지에 따라 차영상 프레임을 생성하는 동작을 생략할 수 있다. 이를 위해, 본 발명의 실시예에 따른 운전자 상태 감시 시스템(100)은 주야 판단부(160)을 더 포함한다. On the other hand, the driver state monitoring system 100 according to an embodiment of the present invention may omit the operation of generating a car image frame according to whether it is a current day time zone or a night time zone. To this end, the driver status monitoring system 100 according to an embodiment of the present invention further includes a day and night determination unit 160.

주야 판단부(160)는 시간대 판단 정보를 이용하여 현재 주간 시간대인지 야간 시간대인지 판단한다.The day and night determination unit 160 determines whether the current day time zone or night time zone is using the time zone determination information.

일 예로서, 주야 판단부(160)는 현재의 날짜 정보와 시간 정보를 시간대 판단 정보로 획득하며, 획득된 현재 날짜 정보와 시간 정보를 고려하여 현재 시간대를 판단한다. 주야 판단부(160)는 현재의 날짜 정보를 이용하여 계절 및 계절에 따른 평균 일몰 및 일출 시간을 파악할 수 있으며, 현재 시간 정보를 이용하여 주간 시간대인지 야간 시간대인지 판단할 수 있다. As an example, the day and night determination unit 160 obtains current date information and time information as time zone determination information, and determines the current time zone in consideration of the acquired current date information and time information. The day and night determination unit 160 may grasp the average sunset and sunrise time according to seasons and seasons using the current date information, and may determine whether it is a daytime or nighttime time zone using the current time information.

다른 예로서, 주야 판단부(160)는 조도 센서의 조도 센싱값을 시간대 판단 정보로 획득하며, 획득된 조도 센싱값을 이용하여 주,야간 시간대인지 판단한다. 주야 판단부(160)는 조도 센싱값이 소정값 이상인지 여부에 따라 주간 시간대인지 야간 시간대인지 판단할 수 있다. As another example, the day and night determination unit 160 obtains the illuminance sensing value of the illuminance sensor as time zone determination information, and determines whether it is a day or night time zone using the obtained illuminance sensing value. The day and night determination unit 160 may determine whether the daylight time zone or the nighttime zone is based on whether the illuminance sensing value is greater than or equal to a predetermined value.

주야 판단부(160)에 의해 주간 시간대로 판단되면, NIR 제어부(130)는 영상 획득부(120)에서 얼굴 영상 프레임이 획득되는 주기마다 번갈아가면서 NIR LED 조명을 점등 및 소등하는 동작을 수행하며, 이에 따라 영상 처리부(140)은 차영상을 생성할 수 있다.If it is determined by the day and night determining unit 160 during the daytime period, the NIR control unit 130 alternately rotates and turns off the NIR LED lighting at intervals at which the image frame of the face is acquired by the image acquisition unit 120, Accordingly, the image processing unit 140 may generate a difference image.

만약, 주야 판단부(160)에 의해 야간 시간대로 판단되면, 태양광이 적거나 없다고 가정하여, NIR 제어부(130)는 영상 획득부(110)에서 운전자의 얼굴 영상 프레임을 획득할 때마다 NIR LED가 동작하도록 제어한다. 즉, 야간 시간대인 경우, 영상 획득부(110)는 매 프레임마다 NIR 조명이 발광된 상태에서 운전자의 얼굴을 촬영하여 얼굴 영상 프레임을 획득한다.If it is determined by the day and night determination unit 160 at night time, it is assumed that there is little or no sunlight, and the NIR control unit 130 generates an NIR LED whenever the image acquisition unit 110 acquires a driver's face image frame. Controls to operate. That is, in the case of a night time period, the image acquisition unit 110 acquires a face image frame by photographing a driver's face in a state in which NIR illumination is emitted every frame.

DSM 수행부(150)는 영상 처리부(140)로부터 수신되는 차영상 프레임 또는 영상 획득부(120)에서 획득되는 얼굴 영상 프레임(제1 얼굴 영상 프레임)을 이용하여 운전자의 전방 주시 태만 여부를 확인한다. 이때, DSM 수행부(150)는 DSM(Driver Status Monitoring) 알고리즘을 수행하여 전방 주시 태만 여부를 확인하며, 종래의 운전자 상태 감시 시스템에서 이용된 DSM 알고리즘을 이용할 수 있다. The DSM performing unit 150 checks whether the driver is neglecting the forward gaze using the car image frame received from the image processing unit 140 or the face image frame (first face image frame) obtained from the image acquisition unit 120. . At this time, the DSM execution unit 150 performs a driver status monitoring (DSM) algorithm to check whether or not the forward gaze is neglected, and may use the DSM algorithm used in the conventional driver status monitoring system.

예컨대, DSM 수행부(150)는 주간 시간대에서 획득되는 차영상 프레임을 이용하여 운전자의 시선 방향 및 눈 감음 여부를 파악하며, 소정 시간 동안 누적되는 운전자의 시선 방향 및 눈 감음 여부 결과를 이용하여 운전자의 전방 주시 태만 여부를 확인한다. 이때, DSM 수행부(150)는 차영상 프레임을 패턴 인식 알고리즘을 통해 영상 처리하여 얼굴 영역 및 눈 영역을 검출한다. 또한, DSM 수행부(150)는 차영상 프레임에서 검출된 눈 영역의 영상을 선명하게 조절하는 영상 처리 동작을 더 수행한 후 운전자의 전방 주시 태만 여부를 확인할 수 있다.For example, the DSM performing unit 150 uses the car image frame acquired during the daytime to determine the driver's gaze direction and whether the eyes are closed, and uses the driver's gaze direction and whether the eyes are closed to accumulate for a predetermined period of time to use the driver Let's check whether we are negligent. At this time, the DSM performing unit 150 detects a face region and an eye region by processing the difference image frame through an image through a pattern recognition algorithm. In addition, the DSM performer 150 may further perform an image processing operation for sharply adjusting an image of the eye region detected in the car image frame, and then check whether the driver is looking ahead.

또한, DSM 수행부(150)는 야간 시간대에서 영상 획득부(110)에서 획득되는 얼굴 영상 프레임(제1 얼굴 영상 프레임)을 수신하여 운전자의 전방 주시 태만 여부를 확인한다. 예컨대, 전방 주시 태면 여부를 판단하기 위해 DSM 수행부(150)는 도 5 (a), (b), (c)에 예시된 바와 같은 얼굴 영상 프레임을 패턴 인식 알고리즘을 통해 영상 처리하여 얼굴 영역 및 눈 영역을 검출한다. 나아가, DSM 수행부(150)는 얼굴 영상 프레임에서 도 6 (a), (c)와 같이 검출된 눈 영역의 영상 각각을 도 6 (b), (d)와 같이 선명하게 조절하는 영상 처리 후, 운전자의 전방 주시 태만 여부를 확인할 수 있다.In addition, the DSM performing unit 150 receives a face image frame (a first face image frame) obtained from the image acquisition unit 110 at night time to determine whether the driver is neglected to look ahead. For example, in order to determine whether an anterior gaze is present, the DSM performing unit 150 performs image processing on the face image frame as illustrated in FIGS. 5(a), (b), and (c) through a pattern recognition algorithm, and The eye area is detected. Furthermore, the DSM performing unit 150 after image processing to sharply adjust each of the images of the eye region detected as shown in FIGS. 6 (a) and (c) in the face image frame as shown in FIGS. 6 (b) and (d). , It is possible to check whether the driver is looking ahead.

이와 같이 본 발명에 따르면 태양광이 반영된 얼굴 영상 프레임과 적외선과 태양광이 함께 반영된 얼굴 영상 프레임을 획득하고, 두 영상 간의 영상차에 따라 생성되는 차영상 프레임을 이용하여 운전자의 운전자의 전방 주시 태만 여부를 확인함으로써, 안경 등과 같은 태양광을 반사하는 장신구에 의한 빛 반사를 저감할 수 있으며, 그에 따라 운전자의 얼굴 영상에서 얼굴 및 눈의 패턴을 인식하는 성능의 저하를 방지할 수 있다. As described above, according to the present invention, a face image frame reflecting sunlight and a face image frame reflecting infrared light and sunlight are obtained, and a driver's driver's attention is neglected by using a difference image frame generated according to an image difference between the two images. By checking whether or not, it is possible to reduce light reflection by ornaments that reflect sunlight such as glasses, and accordingly, it is possible to prevent a decrease in performance of recognizing a pattern of faces and eyes in a driver's face image.

도 7은 본 발명의 실시예에 따른 운전자 상태 감시 시스템의 동작 흐름도이다.7 is an operation flowchart of a driver condition monitoring system according to an embodiment of the present invention.

운전자 상태 감시 시스템(100)은 시간대 판단 정보를 획득한다(S701). 이때, 운전자 상태 감시 시스템(100)은 현재의 날짜 정보와 시간 정보를 시간대 판단 정보로 획득한다. The driver status monitoring system 100 acquires time zone determination information (S701). At this time, the driver status monitoring system 100 obtains the current date information and time information as time zone determination information.

운전자 상태 감시 시스템(100)은 시간대 판단 정보를 이용하여 현재 주간 시간대인지 판단한다(S703). 예컨대, 운전자 상태 감시 시스템(100)은 현재의 날짜 정보를 이용하여 계절 및 계절에 따른 평균 일몰 및 일출 시간을 파악할 수 있으며, 현재 시간 정보를 이용하여 주간 시간대인지 야간 시간대인지 판단할 수 있다.The driver status monitoring system 100 determines whether the current day is a time zone using the time zone determination information (S703). For example, the driver status monitoring system 100 may grasp the average sunset and sunrise time according to seasons and seasons using the current date information, and may determine whether it is a daytime or nighttime time using the current time information.

단계 S703의 판단 결과 주간 시간대가 아닌 것으로 판단되면(S703-N), 운전자 상태 감시 시스템(100)은 NIR 조명이 발광된 상태에서 운전자의 얼굴을 촬영한 얼굴 영상 프레임을 획득한다(S705). 이때, 운전자 상태 감시 시스템(100)은 운전자의 얼굴이 촬영될 때마다 NIR LED가 점등되도록 제어한다. 이에 따라, 운전자 상태 감시 시스템(100)은 야간 시간대에 항상 NIR 조명이 발광된 상태에서의 운전자의 얼굴 영상 프레임을 획득할 수 있다. If it is determined in step S703 that it is not a daytime period (S703-N), the driver status monitoring system 100 acquires a face image frame photographing the driver's face in the state where the NIR illumination is emitted (S705). At this time, the driver status monitoring system 100 controls the NIR LED to light whenever the driver's face is photographed. Accordingly, the driver condition monitoring system 100 may acquire a face image frame of the driver in a state in which NIR illumination is always emitted at night time.

운전자 상태 감시 시스템(100)은 운전자의 얼굴 영상 프레임을 이용하여 운전자의 전방 주시 태만 여부를 확인한다(S707). 예컨대, 운전자 상태 감시 시스템(100)은 전방 주시 태만 여부를 확인하는 DSM(Driver Status Monitoring) 알고리즘 이용하여 운전자의 전방 주시 태만 여부를 확인한다. 운전자 상태 감시 시스템(100)은 얼굴 영상 프레임에서 운전자의 얼굴 및 눈 영역을 검출하며 운전자의 시선 방향 및 눈 감음 여부를 파악한다. 운전자 상태 감시 시스템(100)은 소정 시간 동안 누적되는 운전자의 시선 방향 및 눈 감음 여부 결과를 이용하여 운전자의 전방 주시 태만 여부를 확인한다.The driver condition monitoring system 100 checks whether the driver's forward gaze is neglected using the driver's face image frame (S707). For example, the driver status monitoring system 100 checks whether the driver is looking ahead or not by using a driver status monitoring (DSM) algorithm that checks whether the driver is looking ahead. The driver condition monitoring system 100 detects the driver's face and eye area in the face image frame and determines whether the driver's gaze direction and eyes are closed. The driver status monitoring system 100 checks whether the driver is looking ahead or not by using the result of the driver's gaze direction and whether the eyes are closed, accumulated for a predetermined time.

만약, 단계 S703의 판단 결과, 주간 시간대인 것으로 판단되면(S703-Y), 운전자 상태 감시 시스템(100)은 얼굴 영상 프레임의 획득 순서가 홀수(Odd)번째인지 확인한다(S709).If, as a result of the determination in step S703, it is determined that the day is a time zone (S703-Y), the driver status monitoring system 100 checks whether the order of obtaining the face image frames is odd (Odd) (S709).

단계 S709의 확인 결과, 얼굴 영상 프레임의 획득 순서가 홀수번째이면(S709-Y), 운전자 상태 감시 시스템(100)은 NIR 조명이 발광된 상태에서 운전자의 얼굴을 촬영한 얼굴 영상 프레임(제1 얼굴 영상 프레임)을 획득하며(S711), 획득된 제1 얼굴 영상 프레임을 저장한다(S713). 이때, 제1 얼굴 영상 프레임은 NIR과 태양광이 함께 반영된 얼굴 영상 프레임이다. As a result of checking in step S709, if the order of acquiring the face image frames is an odd number (S709-Y), the driver condition monitoring system 100 may take a face image frame (first face) that photographs the driver's face while the NIR light is emitted. Image frame) is acquired (S711), and the acquired first face image frame is stored (S713). At this time, the first face image frame is a face image frame in which NIR and sunlight are reflected together.

제1 얼굴 영상 프레임 저장 후, 운전자 상태 감시 시스템(100)은 단계 S709로 피드백하여, 얼굴 영상 프레임의 획득 순서가 홀수번째인지 확인한다(S709). After storing the first face image frame, the driver state monitoring system 100 feeds back to step S709 to check whether the order of obtaining the face image frames is odd (S709).

확인 결과 얼굴 영상 프레임 획득 순서가 짝수(Even)번째이면(S709-N), 운전자 상태 감시 시스템(100)은 NIR 조명이 발광되지 않은 상태에서 운전자의 얼굴을 촬영한 얼굴 영상 프레임(제2 얼굴 영상 프레임)을 획득한다(S715). 이때, 제2 얼굴 영상 프레임은 태양광만이 반영된 얼굴 영상 프레임이다. As a result of the verification, if the order of obtaining the face image frames is even (S709-N), the driver condition monitoring system 100 may obtain a face image frame (second face image) of the driver's face while the NIR illumination is not emitted. Frame) is obtained (S715). At this time, the second face image frame is a face image frame in which only sunlight is reflected.

운전자 상태 감시 시스템(100)은 제1 얼굴 영상 프레임과 제2 얼굴 영상 프레임 간 영상차를 계산하고, 차영상 프레임을 생성한다(S717).The driver condition monitoring system 100 calculates an image difference between the first face image frame and the second face image frame, and generates a difference image frame (S717).

예컨대, 운전자 상태 감시 시스템(100)은 NIR과 태양광이 모두 발광된 상태의 얼굴 영상 프레임(제1 얼굴 영상 프레임)과 NIR이 발광되지 않은 상태의 얼굴 영상 프레임(제2 얼굴 영상 프레임) 간의 영상차를 계산하고, 그에 따라 차영상 프레임을 생성한다. 이때, 영상 처리부(140)는 두 영상 간의 영상 차이를 계산하는 영상 처리 알고리즘을 이용하여 영상차 계산 및 차영상 프레임을 생성할 수 있다. 이와 같이, NIR과 태양광이 모두 반영된 얼굴 영상 프레임과 NIR이 반영되지 않은 얼굴 영상 프레임 간의 영상차를 계산함에 따라, 생성된 차영상 프레임은 NIR 영상 성분으로 이루어질 수 있다. For example, the driver condition monitoring system 100 may include an image between a face image frame (first face image frame) in which both NIR and sunlight are emitted and a face image frame (second face image frame) in which NIR is not emitted. The difference is calculated, and a difference image frame is generated accordingly. At this time, the image processing unit 140 may generate an image difference calculation and a difference image frame using an image processing algorithm that calculates an image difference between two images. As described above, as the image difference between the face image frame in which both NIR and sunlight is reflected and the face image frame in which NIR is not reflected is calculated, the generated difference image frame may be composed of NIR image components.

운전자 상태 감시 시스템(100)은 차영상 프레임을 이용하여 운전자의 전방 주시 태만 여부를 확인한다(S719).The driver condition monitoring system 100 checks whether the driver is looking ahead by using the car image frame (S719).

이때, 운전자 상태 감시 시스템(100)은 주간 시간대에 획득되는 차영상 프레임과 DSM 알고리즘을 이용하여 운전자의 전방 주시 태만 여부를 확인한다. 예컨대, 운전자 상태 감시 시스템(100)은 차영상 프레임에서 운전자의 얼굴 및 눈 영역을 검출하며 운전자의 시선 방향 및 눈 감음 여부를 파악하고, 소정 시간 동안 누적되는 결과(운전자의 시선 방향 및 눈 감음 여부)를 이용하여 운전자의 전방 주시 태만 여부를 확인한다.At this time, the driver condition monitoring system 100 checks whether the driver's forward gaze is neglected using a car image frame and a DSM algorithm acquired during the daytime period. For example, the driver condition monitoring system 100 detects the driver's face and eye area in the car image frame, determines the driver's gaze direction and whether the eyes are closed, and accumulates results for a predetermined time (the driver's gaze direction and whether the eyes are closed) ) To check whether the driver is looking ahead.

이와 같이 본 발명에 따르면 태양광이 반영된 얼굴 영상 프레임과 적외선과 태양광이 함께 반영된 얼굴 영상 프레임을 획득하고, 두 영상 간의 영상차에 따라 생성되는 차영상 프레임을 이용하여 운전자의 운전자의 전방 주시 태만 여부를 확인함으로써, 안경 등과 같은 태양광을 반사하는 장신구에 의한 빛 반사를 저감할 수 있으며, 그에 따라 운전자의 얼굴 영상에서 얼굴 및 눈의 패턴을 인식하는 성능의 저하를 방지할 수 있다.As described above, according to the present invention, a face image frame reflecting sunlight and a face image frame reflecting infrared light and sunlight are obtained, and a driver's driver's attention is neglected by using a difference image frame generated according to an image difference between the two images. By checking whether or not, it is possible to reduce light reflection by ornaments that reflect sunlight such as glasses, and accordingly, it is possible to prevent a decrease in performance of recognizing a pattern of faces and eyes in a driver's face image.

이상, 본 발명의 바람직한 실시예를 통하여 본 발명의 구성을 상세히 설명하였으나, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 명세서에 개시된 내용과는 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The configuration of the present invention has been described in detail through preferred embodiments of the present invention. However, those skilled in the art to which the present invention pertains are disclosed herein without changing the technical spirit or essential features of the present invention. It will be understood that the lesson may be implemented in other specific forms. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention is indicated by the claims, which will be described later, rather than by the detailed description, and it should be construed that all modifications or variations derived from the claims and equivalent concepts are included in the scope of the present invention.

100 : 운전자 상태 감시 시스템
110 : 영상 획득부 120 : 영상 저장부
130 : NIR 제어부 140 : 영상 처리부
150 : DSM 수행부 160 : 주야 판단부
100: driver condition monitoring system
110: image acquisition unit 120: image storage unit
130: NIR control unit 140: image processing unit
150: DSM performance unit 160: day and night judgment unit

Claims (10)

현재 주간 또는 야간인지 판단하는 주야 판단부;
운전자를 향해 NIR(Near Infrared) 조명을 점등하는 NIR 제어부;
상기 NIR 조명이 점등된 상태에서 상기 운전자의 얼굴이 촬영된 제1 얼굴 영상 프레임과 상기 NIR 조명이 소등된 상태에서 상기 운전자의 얼굴이 촬영된 제2 얼굴 영상 프레임을 번갈아 획득하거나, 혹은 상기 제1 얼굴 영상 프레임만 선택적으로 획득하는 영상 획득부;
상기 제1 얼굴 영상 프레임과 상기 제2 얼굴 영상 프레임 간의 영상차를 계산하여 차영상 프레임을 생성하는 영상 처리부; 및
현재 주간 또는 야간인지 판단한 결과를 기반으로 상기 차영상 프레임 또는 상기 제1 얼굴 영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 DSM(Driver Status Monitoring) 수행부;를 포함하는 운전자 상태 감시 시스템.
A day and night judgment unit to determine whether it is currently day or night;
A NIR control unit for lighting a NIR (Near Infrared) light toward the driver;
The first face image frame in which the driver's face is photographed while the NIR light is on and the second face image frame in which the driver's face is photographed when the NIR light is off are obtained alternately, or the first An image acquiring unit selectively acquiring only face image frames;
An image processor generating a difference image frame by calculating an image difference between the first face image frame and the second face image frame; And
A driver status monitoring (DSM) performing unit that checks whether the driver's forward gaze is neglected using the car image frame or the first face image frame based on a result of determining whether it is currently day or night .
청구항 1에 있어서,
주야 판단부는 조도 센서의 조도 센싱값을 이용하여 현재 주간 또는 야간인지 판단하는 것을 특징으로 하는 운전자 상태 감시 시스템.
The method according to claim 1,
Day and night determination unit driver status monitoring system, characterized in that it is determined whether the current day or night using the light intensity sensing value of the illumination sensor.
청구항 1에 있어서,
상기 DSM 수행부는, 상기 차영상 프레임 또는 상기 제1 얼굴 영상 프레임과 DMS 알고리즘을 통해 상기 운전자의 시선 방향 및 눈 감음 여부를 파악하여 상기 운전자의 전방 주시 태만 여부를 확인하는 것을 특징으로 하는 운전자 상태 감시 시스템.
The method according to claim 1,
The DSM performing unit monitors the driver's condition, characterized by determining whether the driver's gaze direction and eyes are closed through the car image frame or the first face image frame and the DMS algorithm to determine whether the driver's gaze is neglected. system.
청구항 1에 있어서,
상기 주야 판단부에 의해 야간으로 판단된 경우,
상기 NIR 제어부는, 상기 영상 획득부에서 상기 NIR 조명이 점등된 상태에서 상기 운전자의 얼굴 영상을 획득하도록 매 주기마다 상기 NIR 조명을 점등하며,
상기 DSM 수행부는, 상기 매 주기마다 획득되는 상기 제1 얼굴 영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 것을 특징으로 하는 운전자 상태 감시 시스템.
The method according to claim 1,
If it is determined by the day and night judgment section at night,
The NIR control unit lights up the NIR illumination every cycle to acquire the face image of the driver while the NIR illumination is turned on in the image acquisition unit,
The DSM performer, the driver status monitoring system, characterized in that for checking whether the driver's forward gaze is neglected by using the first face image frame acquired at each cycle.
청구항 1에 있어서,
상기 주야 판단부에 의해 주간으로 판단된 경우,
상기 NIR 제어부는, 상기 영상 획득부에서 상기 운전자의 상기 제1 얼굴 영상 프레임과 상기 제2 얼굴 영상 프레임을 번갈아 가면서 획득하도록 상기 NIR 조명을 점등 및 소등하며,
상기 DSM 수행부는, 상기 차영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 것을 특징으로 하는 운전자 상태 감시 시스템.
The method according to claim 1,
If it is judged by the day and night judgment section weekly,
The NIR controller turns on and off the NIR illumination so that the image acquisition unit alternately acquires the first face image frame and the second face image frame of the driver,
The DSM performing unit, the driver status monitoring system, characterized in that for checking whether the driver's forward attention is neglected using the car image frame.
NIR(Near Infrared) 조명이 점등된 상태에서 운전자의 얼굴이 촬영된 제1 얼굴 영상 프레임과 상기 NIR 조명이 소등된 상태에서 상기 운전자의 얼굴이 촬영된 제2 얼굴 영상 프레임을 획득하거나, 혹은 상기 제1 얼굴 영상 프레임만 선택적으로 획득하는 단계;
상기 제1 및 제2 얼굴 영상 프레임이 획득된 경우, 상기 제1 얼굴 영상 프레임과 상기 제2 얼굴 영상 프레임 간의 영상차를 계산하여 차영상 프레임을 생성하는 단계; 및
상기 차영상 프레임 또는 상기 제1 얼굴 영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 단계;를 포함하는 운전자 상태 감시(Driver Status Monitoring, DSM) 시스템의 동작 방법.
Acquiring a first face image frame in which a driver's face is photographed while a NIR (Near Infrared) light is on and a second face image frame in which the driver's face is photographed when the NIR light is off, or Selectively obtaining only one face image frame;
If the first and second face image frames are obtained, calculating a difference in image between the first face image frame and the second face image frame to generate a difference image frame; And
And using the car image frame or the first face image frame to determine whether the driver is neglected to look ahead.
청구항 6에 있어서,
상기 확인하는 단계는,
상기 차영상 프레임 또는 상기 제1 얼굴 영상 프레임과 DMS 알고리즘을 통해 상기 운전자의 시선 방향 및 눈 감음 여부를 파악하여 상기 운전자의 전방 주시 태만 여부를 확인하는 것을 특징으로 하는 운전자 상태 감시 시스템의 동작 방법.
The method according to claim 6,
The checking step,
The vehicle image frame or the first face image frame and the DMS algorithm to determine whether the driver's gaze direction and eyes are closed, and checking the driver's forward gaze.
청구항 6에 있어서,
획득하는 단계 이전에, 조도 센서의 조도 센싱값을 이용하여 현재 주간 또는 야간인지 판단하는 단계;를 더 포함하고,
획득하는 단계에서는, 현재 주간 또는 야간인지 판단한 결과를 기반으로 상기 차영상 프레임 또는 상기 제1 얼굴 영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 것을 특징으로 하는 운전자 상태 감시 시스템의 동작 방법.
The method according to claim 6,
Before the step of obtaining, determining whether it is currently day or night using the illuminance sensing value of the illuminance sensor;
In the acquiring step, an operation method of a driver condition monitoring system characterized by checking whether the driver is looking ahead or not by using the car image frame or the first face image frame based on a result of determining whether it is currently day or night. .
청구항 8에 있어서,
상기 판단 결과 주간으로 판단된 경우,
판단하는 단계 이후에, 상기 운전자의 상기 제1 얼굴 영상 프레임과 상기 제2 얼굴 영상 프레임이 번갈아 가면서 획득되도록 상기 NIR 조명을 점등 및 소등하는 단계;를 더 포함하며,
상기 확인하는 단계는, 상기 차영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 것을 특징으로 하는 운전자 상태 감시 시스템의 동작 방법.
The method according to claim 8,
When it is judged as a week as a result of the judgment,
After the determining step, the step of turning on and off the NIR illumination so that the driver's first face image frame and the second face image frame are obtained alternately;
The checking step is a method of operating a driver condition monitoring system, characterized in that it checks whether the driver is looking ahead or not by using the car image frame.
청구항 8에 있어서,
상기 판단 결과 야간으로 판단된 경우,
판단하는 단계 이후에, 상기 NIR 조명이 점등된 상태에서 상기 운전자의 얼굴 영상을 획득하도록 매 주기마다 상기 NIR 조명을 점등하는 단계; 를 더 포함하며,
상기 확인하는 단계는, 상기 매 주기마다 획득되는 상기 제1 얼굴 영상 프레임을 이용하여 상기 운전자의 전방 주시 태만 여부를 확인하는 것을 특징으로 하는 운전자 상태 감시 시스템의 동작 방법.
The method according to claim 8,
If it is determined at night as a result of the judgment,
After the determining step, lighting the NIR light every cycle to obtain a face image of the driver while the NIR light is on; Further comprising,
The checking step is a method of operating a driver condition monitoring system, characterized in that it checks whether or not the driver is looking ahead by using the first face image frame obtained at each cycle.
KR1020200083143A 2020-07-06 2020-07-06 System for monitoring the driver status and method thereof KR20200084860A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200083143A KR20200084860A (en) 2020-07-06 2020-07-06 System for monitoring the driver status and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200083143A KR20200084860A (en) 2020-07-06 2020-07-06 System for monitoring the driver status and method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140173414A Division KR20160067694A (en) 2014-12-04 2014-12-04 System for monitoring the driver status and method thereof

Publications (1)

Publication Number Publication Date
KR20200084860A true KR20200084860A (en) 2020-07-13

Family

ID=71570702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200083143A KR20200084860A (en) 2020-07-06 2020-07-06 System for monitoring the driver status and method thereof

Country Status (1)

Country Link
KR (1) KR20200084860A (en)

Similar Documents

Publication Publication Date Title
JP5045212B2 (en) Face image capturing device
KR101789984B1 (en) Side Mirror Camera System For Vehicle
JP3855439B2 (en) Night driving visibility support device
JP5366028B2 (en) Face image capturing device
US8009977B2 (en) On-vehicle lighting apparatus
JP5843898B2 (en) Vehicle illumination environment recognition device and method
US10348975B2 (en) Light system for a motor vehicle
JP2008305203A (en) Face imaging device
US20160063334A1 (en) In-vehicle imaging device
WO2012014266A1 (en) Obstacle detection system and method, and obstacle detection apparatus
US11772545B2 (en) Apparatus, system and method for controlling lighting using gated imaging
JP4751443B2 (en) Imaging apparatus and imaging method
CN109367484A (en) Automobile rearview mirror
JP4731177B2 (en) Infrared imaging display device and infrared imaging display method for vehicle
JP2010140171A (en) Headlight system, and fault detection method
KR20130008771A (en) Apparatus and method for controlling high-lamp of vehicle
KR20160067694A (en) System for monitoring the driver status and method thereof
JP4669445B2 (en) Occupant detection device
KR20200084860A (en) System for monitoring the driver status and method thereof
KR101533285B1 (en) Car safety system to get and display infrared images for sensing dangers in dark environments and photographing method for infrared images
JP4314103B2 (en) Car camera
JP2009253316A (en) On-vehicle camera and drive recorder
JP2008146404A (en) In-vehicle image recognition device
JP2018090219A (en) Vehicle display control device and vehicle display system
KR101350861B1 (en) System and method for controlling ir led of camera system using wavelength areness function of light

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application