KR20190054803A - Appartus and method for estimating condition of driver - Google Patents

Appartus and method for estimating condition of driver Download PDF

Info

Publication number
KR20190054803A
KR20190054803A KR1020170151789A KR20170151789A KR20190054803A KR 20190054803 A KR20190054803 A KR 20190054803A KR 1020170151789 A KR1020170151789 A KR 1020170151789A KR 20170151789 A KR20170151789 A KR 20170151789A KR 20190054803 A KR20190054803 A KR 20190054803A
Authority
KR
South Korea
Prior art keywords
driver
heart rate
estimating
face
filtering
Prior art date
Application number
KR1020170151789A
Other languages
Korean (ko)
Other versions
KR101988581B1 (en
Inventor
이준묵
금병직
김호준
양지혁
하창우
박두복
이강휴
배정민
고한석
Original Assignee
현대오트론 주식회사
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대오트론 주식회사, 고려대학교 산학협력단 filed Critical 현대오트론 주식회사
Priority to KR1020170151789A priority Critical patent/KR101988581B1/en
Publication of KR20190054803A publication Critical patent/KR20190054803A/en
Application granted granted Critical
Publication of KR101988581B1 publication Critical patent/KR101988581B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • G06K9/00845
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06K2009/00939
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

According to the present invention, provided is a method for estimating a condition of a driver, which comprises the steps of: sensing a face of a driver through a camera; sensing a color change of the sensed face in accordance with a blood pressure; estimating a heart rate corresponding to the color change; and estimating a condition of the driver based on the estimated heart rate.

Description

운전자 상태 추정 장치 및 그것의 동작 방법{APPARTUS AND METHOD FOR ESTIMATING CONDITION OF DRIVER}[0001] APPARATUS AND METHOD FOR ESTIMATING CONDITION OF DRIVER [0002]

본 발명은 운전자 상태 추정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating a driver's condition.

일반적으로, 운전자 감시장치는 카메라를 이용하여 주행 중인 운전자를 촬영하고 촬영한 운전자의 얼굴 영상을 통하여 운전자의 운전 상태(곁눈질, 졸음 운전 여부, 주시점 등)를 판정한다. 또한, 운전자 감시장치는 주행 중 인 차량의 조타각 신호, 차속 신호 및 주행 위치 등을 이용하여 차량의 주행 상태를 판단한다. 그리고, 운전자 감시장치는 운전자 상태 및 주행 상태를 이용하여 운전자가 불안전 주행 상태이면 운전자에게 이를 경고함으로 써 안전 운전할 수 있게 한다.Generally, the driver's surveillance apparatus uses a camera to photograph a driver who is driving, and determines the driver's driving status (whether the driver is sideview, drowsy driving, or a point of view) through the face image of the driver. Further, the driver's surveillance apparatus judges the running state of the vehicle by using a steering angle signal, a vehicle speed signal, and a driving position of the running vehicle. The driver's monitoring device uses the driver's state and running state to warn the driver that the driver is in an unsafe driving state, thereby enabling safe driving.

일본공개특허: 특개2015-194884, 공개일: 2015년 11월 05일, 제목: 운전자 감시 시스템.Japanese Patent Laid-Open Publication No. 2015-194884, published on November 5, 2015, Title: Driver's Surveillance System. 국제출원번호: WO2015/030219, 공개일: 2015년 11월 19일, 제목: DRIVER HEALTH AND FATIGUE MONITORING SYSTEM AND METHOD.International Application Number: WO2015 / 030219, Publication Date: November 19, 2015 Title: DRIVER HEALTH AND FATIGUE MONITORING SYSTEM AND METHOD. 한국등록특허: 10-1619651, 등록일: 2016년 05월 02일, 제목: 운전자 감시장치 및 그의 조명 제어 방법.Korean Registered Patent: 10-1619651, Registered: May 02, 2016 Title: Driver's monitoring device and its lighting control method.

본 발명의 목적은 간단하게 운전자의 상태를 추정하는 운전자 상태 추정 장치 및 그것의 방법을 제공하는데 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a driver condition estimating apparatus which estimates a driver's condition simply and a method thereof.

본 발명의 실시 예에 따른 차량 내의 운전자 상태를 추정하는 방법은: 카메라를 통해 운전자의 안면을 감지하는 단계; 혈압에 따른 상기 감지된 안면의 색조 변화를 감지하는 단계; 상기 색조 변화에 대응하는 심박수를 추정하는 단계; 및 상기 추정된 심박수에 의거하여 상기 운전자의 상태를 추정하는 단계를 포함할 수 있다.A method for estimating a driver condition in a vehicle according to an embodiment of the present invention includes: sensing a face of a driver through a camera; Detecting a change in hue of the sensed face according to a blood pressure; Estimating a heart rate corresponding to the color tone change; And estimating a state of the driver based on the estimated heart rate.

실시 예에 있어서, 상기 안면을 감지하는 단계는, 상기 안면의 랜드마크를 추출하는 단계; 상기 추출된 안면의 랜드마크에서 관심 영역을 크로핑 및 트래깅하는 단계; 및 상기 관심 영역에 대응하는 상기 운전자의 피부를 검출하는 단계를 포함할 수 있다.In an embodiment, the step of sensing the face includes: extracting a landmark of the face; Cropping and tracing a region of interest in the extracted facial landmarks; And detecting the skin of the driver corresponding to the area of interest.

실시 예에 있어서, 상기 관심 영역은 상기 운전자의 코와 볼 영역을 포함할 수 있다.In an embodiment, the region of interest may include the driver's nose and ball region.

실시 예에 있어서, 상기 색조 변화를 감지하는 단계는, 상기 관심 영역의 데이터에 대하여 임시 필터링하는 단계; 및 급변하는 심박수를 정렬하기 위하여 상기 필터링된 데이터에 대하여 임시 선택 룰을 수행하는 단계를 포함할 수 있다.In one embodiment, the step of detecting the hue change comprises: temporally filtering the data of the region of interest; And performing a temporal selection rule on the filtered data to sort the rapidly changing heart rate.

실시 예에 있어서, 상기 임시 필터링하는 단계는, 파장에 따른 반사율을 이용하여 상기 관심 영역의 데이터에서 기준값 이상의 변이를 제거하는 단계; 상기 변이가 제거된 데이터에 대하여 비추세화 및 정규화를 수행하는 단계; 배경 주파수 영역을 제거하기 위하여 상기 정규화된 데이터에 대하여 대역 필터링을 수행하는 단계; 빛의 색에 무관한 순수한 피부색을 검출하기 위하여 상기 대역 필터링된 데이터에서 XsminαYs 특징을 추출하는 단계; 및 상기 추출된 데이터에 대하여 PSD(power spectral density) 변환을 수행하는 단계를 포함할 수 있다.In an exemplary embodiment, the temporary filtering may include removing a variation of a reference value or more from data of the ROI using a reflectance according to a wavelength; Performing non-specification and normalization on the data from which the mutation has been removed; Performing band filtering on the normalized data to remove a background frequency domain; Extracting Xsmin? Ys features from the band-filtered data to detect pure skin color independent of color of light; And performing power spectral density (PSD) conversion on the extracted data.

실시 예에 있어서, 상기 기준값 이상의 변이를 제거하는 단계는, 구간별 표준 편차를 통해 급격한 신호 변동 구간을 제거하는 단계를 더 포함할 수 있다.In the embodiment, the step of removing the variation of the reference value or more may further include removing the steep signal variation period through the standard deviation of the interval.

실시 예에 있어서, 상기 비추세화 및 정규화를 수행하는 단계는, 심박수 추정을 위한 신호를 모델링하는 단계; 및 정규화된 최소 제곱 솔루션을 이용하여 상기 모델링된 신호를 정규화시키는 단계를 포함할 수 있다.In one embodiment, performing the normalization and normalization comprises: modeling a signal for heart rate estimation; And normalizing the modeled signal using a normalized least squares solution.

실시 예에 있어서, 상기 대역 필터링하는 단계는, n 차 해밍 윈도우를 이용하여 대역 필터링하는 단계를 포함할 수 있다.In an embodiment, the band filtering may include band filtering using an n-th Hamming window.

실시 예에 있어서, 상기 임시 필터링을 수행하는 단계는, 잔존하는 임시 잡음을 제거하기 위하여 무빙 평균 필터링(moving average filtering)을 수행하는 단계를 더 포함할 수 있다.In an embodiment, performing the temporal filtering may further comprise performing moving average filtering to remove residual temporal noise.

실시 예에 있어서, 상기 심박수를 추정하는 단계는, 최대 주파수 값을 통해 bpm(beats per minutes)을 추정하는 단계를 포함할 수 있다.In an embodiment, estimating the heart rate may include estimating beats per minute (bpm) over a maximum frequency value.

실시 예에 있어서, 임시 선택 룰을 수행하는 단계는, 이전 3 프레임 결과값에 대응하는 심박수 결과값과 비교를 통해 심박수를 탐지하는 단계; 및 상기 탐지된 심박수의 경우 상기 이전 3 프레임 결과값의 평균값을 통해 보간하는 단계를 포함할 수 있다.In an embodiment, performing the ad hoc selection rule comprises: detecting a heart rate through comparison with a heart rate result corresponding to a previous three frame result; And interpolating the average value of the previous three frame results in the case of the detected heart rate.

실시 예에 있어서, 상기 추정된 운전자의 상태와 관련된 경보를 음성 혹은 영상으로 상기 운전자에게 통지하거나 상기 차량의 주행에 이용하는 단계를 더 포함할 수 있다.The method may further include the step of informing the driver of an alarm related to the estimated driver's state by voice or video or using the alert to drive the vehicle.

본 발명의 실시 예에 따른 차량 내에 설치되는 운전자 상태 추정 장치는, 운전자의 안면을 감지하는 카메라; 및 상기 카메라로부터 감지된 안면의 색조 변화를 감지하고, 상기 감지된 색조 변화에 따른 상기 운전자의 심박수를 추정하는 운전자 상태 추정기를 포함할 수 있다.A driver condition estimating apparatus installed in a vehicle according to an embodiment of the present invention includes a camera for sensing a face of a driver; And a driver condition estimator that detects a change in color tone of the face detected by the camera and estimates a heart rate of the driver according to the sensed change in color tone.

실시 예에 있어서, 상기 운전자 상태 추정기는, 상기 안면의 특징점을 통해 관심 영역을 선정 및 추적을 수행하고, 상기 선정된 관심 영역에서 급격한 화소 변화 신호를 제거하고, 주파수 스펙트럼 변환을 통해 최대 주파수에 대응하는 심박수를 추정할 수 있다.In an exemplary embodiment, the driver state estimator may select and track a region of interest through the feature points of the face, remove a sharp pixel change signal in the selected region of interest, The heart rate can be estimated.

본 발명의 실시 예에 따른 운전자 상태 추정 장치 및 그것의 동작 방법은 운전자의 안면의 색조 변화를 통해 심박수를 추정함으로써, 심박수에 따른 운전자의 상태를 간단하게 추정할 수 있다.The driver condition estimating apparatus and the operating method thereof according to the embodiment of the present invention can easily estimate the driver's condition according to the heart rate by estimating the heart rate through the change of the color tone of the driver's face.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명의 실시 예에 따른 운전자 상태 추정이 가능한 차량(10)을 예시적으로 보여주는 도면이다.
도 2는 본 발명의 실시 예에 따른 차량(10)의 사고 방지 방법을 예시적으로 보여주는 흐름도이다.
도 3은 도 2에 도시된 운전자 얼굴 추출하는 단계(S110)를 좀 더 자세하게 보여주는 흐름도이다.
도 4는 도 3에 도시된 운전자의 얼굴 랜드마크를 추출하는 단계(S111)를 자세하게 보여주는 도면이다.
도 5는 도 2에 도시된 운전자 심박수 추정 단계(S120)를 좀 더 자세하게 보여주는 흐름도이다.
도 6 및 도 7은 도 5에 도시된 임시 필터링하는 단계(S121)를 좀 더 자세하게 보여주는 도면들이다.
도 8 및 도 9는 본 발명의 실시 예에 따른 급격한 변이를 제거하는 방법을 설명하는 도면들이다.
도 10은 n차 해밍 윈도우를 이용한 대역 필터링을 보여주는 도면이다.
도 11은 본 발명의 실시 예에 따른 임시 선택 룰 과정을 설명하는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention. However, the technical features of the present embodiment are not limited to the specific drawings, and the features disclosed in the drawings may be combined with each other to constitute a new embodiment.
FIG. 1 is an exemplary view showing a vehicle 10 capable of estimating a driver's condition according to an embodiment of the present invention.
2 is a flow chart illustrating an exemplary method of preventing an accident of a vehicle 10 according to an embodiment of the present invention.
FIG. 3 is a flowchart showing the driver face extraction step (S110) shown in FIG. 2 in more detail.
FIG. 4 is a detailed view showing the step S111 of extracting the face landmark of the driver shown in FIG. 3. FIG.
FIG. 5 is a flowchart showing the driver's heart rate estimation step S120 shown in FIG. 2 in more detail.
FIGS. 6 and 7 are views showing the temporary filtering step S121 shown in FIG. 5 in more detail.
FIGS. 8 and 9 are diagrams illustrating a method of eliminating a sudden variation according to an embodiment of the present invention.
10 is a diagram illustrating band filtering using an n-th order Hamming window.
11 is a view for explaining a provisional selection rule process according to an embodiment of the present invention.

아래에서는 도면들을 이용하여 본 발명의 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 본 발명의 내용을 명확하고 상세하게 기재할 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 혹은 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.The terms may be used for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 혹은 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 혹은 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 혹은 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것들의 존재 혹은 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In this application, the terms "comprises" or "having" are intended to specify the presence of stated features, integers, steps, operations, components, parts, or combinations thereof, wherein one or more other features, , Steps, operations, components, parts, or combinations thereof, as a matter of course. Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be construed as meaning consistent with meaning in the context of the relevant art and are not to be construed as ideal or overly formal in meaning unless expressly defined in the present application .

도 1은 본 발명의 실시 예에 따른 운전자 심박 추정이 가능한 차량(10)을 예시적으로 보여주는 도면이다. 도 1을 참조하면, 차량(10)은 카메라(100) 및 운전자 상태 추정기(200)를 포함할 수 있다. FIG. 1 is an exemplary view showing a vehicle 10 capable of estimating a driver's heart rate according to an embodiment of the present invention. Referring to FIG. 1, a vehicle 10 may include a camera 100 and a driver condition estimator 200.

카메라(100)는 운전자의 얼굴을 인식하도록 구현될 수 있다. 실시 예에 있어서, 카메라(100)는 운전자의 얼굴 중에서 사전에 결정된 영역을 중심으로 사전에 결정된 영역만큼의 이미지를 촬상 하도록 구현될 수 있다. 실시 예에 있어서, 카메라(100)는 차량(10) 내부에 부착될 수 있다. 실시 예에 있어서, 카메라(100)는 이미지를 캡쳐하기 위한 센서의 방향을 자유롭게 움직일 수 있도록 부착될 수 있다. 즉, 카메라(100)의 틸팅각(tilting angle)은 임의로 조정 가능할 수 있다.The camera 100 may be implemented to recognize the face of the driver. In an embodiment, the camera 100 may be implemented to image an image of a predetermined area centered on a predetermined area of the face of the driver. In an embodiment, the camera 100 may be attached to the inside of the vehicle 10. In an embodiment, the camera 100 may be attached so as to freely move the direction of the sensor for capturing an image. That is, the tilting angle of the camera 100 may be arbitrarily adjustable.

실시 예에 있어서, 카메라(100)는 CCD(charge coupled device) 영상센서(image sensor), MOS(metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.In an embodiment, the camera 100 may include a charge coupled device (CCD) image sensor, a metal oxide semi-conductor (MOS) image sensor, a charge priming device (CPD) And may be implemented as any one of image sensors such as a sensor.

운전자 상태 추정기(200)는 카메라(100)로부터 전송된 얼굴 이미지를 분석 및 처리함으로써 운전자의 심박수(heart rate; HR)를 추정하도록 구현될 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 ECU(electronic control unit)으로 구현될 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 운전자 심박 추정 알고리즘에 의거하여 동작될 수 있다. 여기서 운전자 심박 추정 알고리즘은 혈압에 따른 안면 색조 변화를 감지하고, 안면 색조 변화에 대응하는 심박수를 추정할 수 있다.The driver condition estimator 200 can be implemented to estimate the heart rate HR of the driver by analyzing and processing the facial image transmitted from the camera 100. [ In an embodiment, the driver condition estimator 200 may be implemented as an electronic control unit (ECU). In an embodiment, the driver condition estimator 200 may be operated based on a driver's heart rate estimation algorithm. Here, the driver's heart rate estimation algorithm can detect the change in facial tone depending on the blood pressure and estimate the heart rate corresponding to the change in facial tone.

또한, 운전자 상태 추정기(200)는 입력 영상 내 얼굴 검출 및 관심 영역을 추출하고, 관심 영역을 추적하고, 특징 신호를 추출하고, 심박수를 추정할 수 있다. 실시 예에 있어서, 특징 신호를 추출하기 위하여 관심 영역 신호 특징을 변환시킬 수 있다. 실시 예에 있어서, 심박수 추정을 위하여 주파수 변환을 이용할 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 이미지 센서 프로세서(image sensor processor; ISP) 칩으로 구현될 수 있다. 한편, 도시되지 않았지만, 차량(10)은 운전자 상태 추정기(200)에서 처리된 정보를 디스플레이 하는 디스플레이 장치(예를 들어, 네비게이션 등)를 더 포함할 수 있다.In addition, the driver state estimator 200 can extract face detection and region of interest in the input image, track the region of interest, extract feature signals, and estimate the heart rate. In an embodiment, the region of interest signal characteristics may be transformed to extract the feature signal. In an embodiment, frequency conversion may be used for heart rate estimation. In an embodiment, the driver condition estimator 200 may be implemented with an image sensor processor (ISP) chip. The vehicle 10 may further include a display device (for example, navigation or the like) for displaying information processed in the driver condition estimator 200. [

본 발명의 실시 예에 따른 차량(10)은 차량용 카메라(100)을 통해 습득된 운전자 영상을 이용하여 혈압에 의한 안면 색조 변화를 감지함으로써, 운전자의 건강 및 심리 상태를 추정할 수 있다. 특히, 본 발명의 실시 예에 따른 차량(10)은 실외 환경에서 발생하는 빛 변화, 블러링(blurring) 현상 보정을 위한 왜곡 신호 필터링을 통해 차량 운전자의 심박수를 보다 정밀하게 추정할 수 있다.The vehicle 10 according to the embodiment of the present invention can estimate the health and psychological state of the driver by sensing the change in facial tone caused by the blood pressure using the driver image acquired through the camera 100 for a vehicle. In particular, the vehicle 10 according to the embodiment of the present invention can more accurately estimate the heart rate of a vehicle driver through distortion signal filtering for correcting a light change and a blurring phenomenon occurring in an outdoor environment.

도 2는 본 발명의 실시 예에 따른 차량(10)의 사고 방지 방법을 예시적으로 보여주는 흐름도이다. 도 1 및 도 2를 참조하면, 차량(10)의 사고 방지 방법은 다음과 같이 진행될 수 있다.2 is a flow chart illustrating an exemplary method of preventing an accident of a vehicle 10 according to an embodiment of the present invention. Referring to Figs. 1 and 2, a method of preventing an accident of the vehicle 10 can be proceeded as follows.

주행시 카메라(100)는 실시간으로 운전자를 촬영하고, 운전자의 얼굴에 대한 특정 영역을 추출할 수 있다(S110). 주행시 카메라(100)의 온/오프는 운전자의 선택에 의해 옵션적으로 결정될 수 있다. 실시 예에 있어서, 입력 영상의 얼굴 검출 및 특징점이 추출될 수 있다. 실시 예에 있어서, 코 끝을 기준으로 양쪽 볼 관심 영역 좌표가 검출될 수 있다. During driving, the camera 100 can photograph the driver in real time and extract a specific area of the driver's face (S110). The on / off state of the camera 100 during driving can be optionally determined by the driver's choice. In an embodiment, face detection and feature points of an input image may be extracted. In an embodiment, both ball-of-interest area coordinates can be detected with respect to the nose tip.

운전자 상태 추정기(200)는 카메라(100)로부터 촬영된 영상 정보를 수신 받고, 혈압에 따른 운전자의 안면 색조 변화를 감지할 수 있다(S120). 실시 예에 있어서, 운전자의 안면 색조 변화는 학습에 의해 감지될 수 있다. 다른 실시 예에 있어서, 운전자의 안면 색조 변화는 평상시 운전자에 저장된 정보와 비교함으로써 감지될 수도 있다. 실시 예에 있어서, 빛 변화에 강인한 심박수 추정을 위해서, R, G, B 채널의 조합을 통해 신호 변환이 수행될 수 있다. 실시 예에 있어서, 특정 신호가 필터링 될 수 있다. 이러한 필터링은, 변환된 특징 신호를 일정 간격으로 중첩되게 분할하고, 분할 영역의 동적 영역 및 변동량을 분석하고, 왜곡 신호를 분리하고, 디트렌딩(detrending) 및 대역 필터링(bandpass filtering)을 하고, XminY 특징 신호 변환을 수행하는 것을 포함할 수 있다. The driver condition estimator 200 receives the image information photographed from the camera 100 and can detect a change in the facial color tone of the driver according to the blood pressure (S120). In an embodiment, the driver ' s facial color change may be sensed by learning. In another embodiment, the driver ' s facial color change may be detected by comparing it with information stored in the driver at a normal time. In an embodiment, signal conversion may be performed through a combination of R, G, and B channels to estimate a heart rate that is robust to light variations. In an embodiment, a particular signal may be filtered. Such filtering is performed by dividing the converted characteristic signals at a predetermined interval, analyzing the dynamic range and variation of the divided areas, separating the distorted signals, performing detrending and bandpass filtering, And performing feature signal conversion.

운전자 상태 추정기(200)는 안면 색조 변화에 대응하는 심박수를 추정할 수 있다(S130). 운전자 상태 추정기(200)는 ROI(range of interest; 관심 영역) 추적 기술과 주파수 분석을 이용함으로써 rPPG(remote photoplethysmography)의 신뢰성을 향상시킬 수 있다. 실시 예에 있어서, 특징 신호의 주파수 변환이 수행되고, PSD(power spectrum density)가 가장 높은 주파수가 값을 통해 심박수가 추정될 수 있다.The driver condition estimator 200 may estimate the heart rate corresponding to the change in facial tone (S130). The driver condition estimator 200 can improve the reliability of remote photoplethysmography (rPPG) by using a range of interest (ROI) tracking technique and frequency analysis. In an embodiment, the frequency conversion of the feature signal is performed, and the heart rate can be estimated based on the value of the highest power spectrum density (PSD).

운전자 상태 추정기(200)는 추정된 심박수를 근거로 하여 운전자의 상태(졸음, 화남, 아픔, 등)를 추정할 수 있다(S140).The driver condition estimator 200 can estimate the driver's condition (drowsiness, anger, pain, etc.) based on the estimated heart rate (S140).

이후, 추정된 운전자의 상태에 대응하는 경고가 음성 혹은 영상으로 운전자에게 알려지거나(네비게이션 기반 심박수 결과 출력), 차량 안전 관련 상위 시스템(파워트레인 등)에 전송될 수 있다. 이로써, 운전 사고가 방지될 수 있다(S150). Thereafter, a warning corresponding to the estimated driver's condition may be notified to the driver by audio or video (output of navigation-based heart rate result), or may be transmitted to an upper-level vehicle safety-related system (power train, etc.). Thus, a driving accident can be prevented (S150).

본 발명의 실시 예에 따른 운전자 심박수 추정 방법은, 실외 혹은 차량 영상에서 관심 영역을 추출하고, 관심 영역을 추적하고, 실외 환경에 따른 왜곡 신호 필터링을 수행하고, 특징 신호 변환을 수행하고, 주파수 분석 기반으로 심박수를 추정할 수 있다. 본 발명의 운전자 심박수 추정 방법은, 실외 환경에서 발생하는 빛 변화, blur 현상 보정을 위한 왜곡 신호 필터링을 수행함으로써 차량 운전자의 심박수를 보다 정밀하게 수행할 수 있다.The method of estimating driver's heart rate according to an embodiment of the present invention includes extracting a region of interest in an outdoor or vehicle image, tracking a region of interest, performing distortion signal filtering according to an outdoor environment, performing a feature signal conversion, The heart rate can be estimated based on The driver's heart rate estimation method of the present invention can perform the distortion of the signal for correcting the blur phenomenon and the light change occurring in the outdoor environment, thereby performing the heart rate of the driver more accurately.

본 발명에 따른 단계들 및/또는 동작들은 기술분야의 통상의 기술자에 의해 이해될 수 있는 것과 같이, 다른 순서로, 또는 병렬적으로, 또는 다른 에포크(epoch) 등을 위해 다른 실시 예들에서 동시에 일어날 수 있다.The steps and / or operations in accordance with the present invention may occur in different orders, in parallel, or concurrently in other embodiments for other epochs or the like, as may be understood by one of ordinary skill in the art .

실시 예에 따라서는, 단계들 및/또는 동작들의 일부 또는 전부는 하나 이상의 비-일시적 컴퓨터-판독가능 매체에 저장된 명령, 프로그램, 상호작용 데이터 구조(interactive data structure), 클라이언트 및/또는 서버를 구동하는 하나 이상의 프로세서들을 사용하여 적어도 일부가 구현되거나 또는 수행될 수 있다. 하나 이상의 비-일시적 컴퓨터-판독가능 매체는 예시적으로 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합일 수 있다. 또한, 본 명세서에서 논의된 "모듈"의 기능은 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합으로 구현될 수 있다.Depending on the embodiment, some or all of the steps and / or operations may be performed on one or more non-transitory computer-readable media, including instructions, programs, interactive data structures, At least some of which may be implemented or performed using one or more processors. The one or more non-transitory computer-readable media can be, by way of example, software, firmware, hardware, and / or any combination thereof. Further, the functions of the " module " discussed herein may be implemented in software, firmware, hardware, and / or any combination thereof.

본 발명의 실시 예들의 하나 이상의 동작들/단계들/모듈들을 구현/수행하기 위한 하나 이상의 비-일시적 컴퓨터-판독가능 매체 및/또는 수단들은 ASICs(application-specific integrated circuits), 표준 집적 회로들, 마이크로 컨트롤러를 포함하는, 적절한 명령들을 수행하는 컨트롤러, 및/또는 임베디드 컨트롤러, FPGAs(field-programmable gate arrays), CPLDs(complex programmable logic devices), 및 그와 같은 것들을 포함할 수 있지만, 여기에 한정되지는 않는다. One or more non-transitory computer-readable media and / or means for implementing / performing one or more operations / steps / modules of embodiments of the present invention may be implemented as application-specific integrated circuits (ASICs), standard integrated circuits, But are not limited to, controllers that perform appropriate instructions, including microcontrollers, and / or embedded controllers, field-programmable gate arrays (FPGAs), complex programmable logic devices (CPLDs) .

도 3은 도 2에 도시된 운전자 얼굴 추출하는 단계(S110)를 좀 더 자세하게 보여주는 흐름도이다. 도 1 내지 도 3을 참조하면, 운전자 얼굴 추출하는 단계(S110)는, 운전자의 얼굴 랜드마크(face landmark)를 추출하는 단계(S111), ROI(관심영역) 크로핑(cropping) 및 트래킹(tracking) 단계(S112) 및 피부 검출하는 단계(S113)을 포함할 수 있다. FIG. 3 is a flowchart showing the driver face extraction step (S110) shown in FIG. 2 in more detail. 1 to 3, a step S110 of extracting a driver face includes extracting a face landmark of a driver S111, ROI (Interest Area) cropping and tracking ) Step S112 and skin detection step S113.

도 4는 도 3에 도시된 운전자의 얼굴 랜드마크를 추출하는 단계(S111)를 자세하게 보여주는 도면이다. 도 4를 참조하면, 얼굴 랜드마크를 추출하는 단계(S111)는 표정 변화와 같은 non-rigid motion의 간섭을 줄이기 위해 66개의 얼굴 랜드마크를 통해 정교하게 ROI(관심 영역)을 추출할 수 있다.FIG. 4 is a detailed view showing the step S111 of extracting the face landmark of the driver shown in FIG. 3. FIG. Referring to FIG. 4, in step S111 of extracting a face landmark, ROI (ROI) can be extracted through 66 face landmarks in order to reduce interference of non-rigid motion such as facial expression change.

실시 예에 있어서, 혈색 신호가 가장 명확히 반영되는 코와 볼 영역이 ROI 로 선택될 수 있다.In an embodiment, the nose and ball area, where the hue signal is most clearly reflected, may be selected as the ROI.

실시 예에 있어서, 주행시 진동 및 조명변화에 대응하기 위하여 검출된 영역에 트래킹이 적용될 수 있다.In an embodiment, tracking can be applied to the detected area to accommodate vibration and lighting changes during travel.

도 5는 도 2에 도시된 운전자 심박수 추정 단계(S120)를 좀 더 자세하게 보여주는 흐름도이다. 도 5를 참조하면, 운전자 심박수 추정 단계(S120)는, ROI 영역을 임시 필터링(temporal filtering) 하는 단계(S121), 및 임시 선택 룰(temporal selection rule) 단계(S122)를 포함할 수 있다.FIG. 5 is a flowchart showing the driver's heart rate estimation step S120 shown in FIG. 2 in more detail. Referring to FIG. 5, the driver's heart rate estimation step S120 may include a temporal filtering step S121 and an temporal selection rule step S122 of the ROI area.

도 6 및 도 7은 도 5에 도시된 임시 필터링하는 단계(S121)를 좀 더 자세하게 보여주는 도면들이다. 도 6 및 도 7을 참조하면, 임시 필터링하는 단계(S121)는, 급격한 변이(기준값 이상의 변이)를 제거하는 단계(S121-1), 비추세화(detrending with smoothed prior) 및 정규화(normalizing) 시키는 단계(S121-2), 해밍 윈도우(hamming window)로 대역 필터링(bandpass filtering) 하는 단계(S121-3), XsminαYs 특징 추출 단계(S121-4), 및 웰치(welch) PSD(power spectrum density) 변환 단계(S121-5)를 포함할 수 있다.FIGS. 6 and 7 are views showing the temporary filtering step S121 shown in FIG. 5 in more detail. 6 and 7, the temporary filtering step S121 includes steps S121-1 to S121-1 of removing a sudden variation (variation of a reference value or more), detrending with smoothed prior and normalizing (S121-2), a Hamming window (hamming window) to the band filter (bandpass filtering) step (S121-3), X s s minαY feature extraction step (S121-4), and Welch (welch) PSD (power spectrum density that ) Conversion step S121-5.

아래에서는 급격한 변이를 제거하는 단계(S121-1)를 좀 더 자세하게 설명하겠다. 도 8 및 도 9는 본 발명의 실시 예에 따른 급격한 변이를 제거하는 방법을 설명하는 도면이다. 도 8를 참조하면, 혈색소의 경우 G(green) 채널에서 반사율이 가장 높은 반면에, R(red) 채널에서 반사율이 가장 낮다. 얼굴 내, 빛 변화에 따른 왜곡 신호 추정을 위해 아래의 수식이 이용될 수 있다.Hereinafter, step S121-1 for eliminating abrupt variation will be described in more detail. FIGS. 8 and 9 are views for explaining a method of eliminating abrupt variations according to an embodiment of the present invention. Referring to FIG. 8, the hemoglobin has the highest reflectance at the G (green) channel, while the reflectance at the R (red) channel is the lowest. The following equation can be used to estimate the distortion signal according to the light change in the face.

Figure pat00001
Figure pat00001

한편, 주행시 발생하는 급격한 조도 변화는 심박수의 추정에 효과적이지 않다. 도 9에 도시된 바와 같이, 구간별 표준 편차(std)를 통해 급격한 신호 변동 구간이 제거될 수 있다.On the other hand, sudden changes in illumination occurring during driving are not effective in estimating the heart rate. As shown in FIG. 9, the steep signal variation period can be eliminated through the standard deviation std.

또한, 아래에서는 비추세화(detrending with smoothed prior) 및 정규화(normalizing) 시키는 단계(S121-2)를 좀 더 자세하게 설명하겠다. 심박수 추정을 위한 신호의 경우 주기성을 갖게 되면 stationary 한 특성을 가진다. Stationary 신호를 비주기성 신호로부터 분리하기 위해 detrending(비추세화) 기술이 적용될 수 있다. 여기서 입력 신호는 다음의 수식으로 모델링 될 수 있다.In the following, we will describe in more detail the steps of detrending with smoothed prior and normalizing (S121-2). If the signal for estimating the heart rate has a periodicity, it has a stationary characteristic. A detrending technique can be applied to separate the stationary signal from the non-periodic signal. Here, the input signal can be modeled by the following equation.

Figure pat00002
Figure pat00002

또한, 정규화된 최소 제곱 공식은 아래의 수식을 만족할 수 있다.Also, the normalized least squares formula can satisfy the following equation.

Figure pat00003
Figure pat00003

여기서 zstat: stationary signal, ztrend: aperiodic signal, H: observation matrix, θ: regression parameter, v: error, Dd: d-th derivative operator 이다.Where z stat is the stationary signal, z trend is the aperiodic signal, H is the observation matrix, θ is the regression parameter, v is the error, and D d is the d-th derivative operator.

이때, 최종적인 정규화된 신호는 아래의 수식을 만족할 수 있다.At this time, the final normalized signal can satisfy the following equation.

Figure pat00004
Figure pat00004

또한, 아래에서는 해밍 윈도우(hamming window)로 대역 필터링(bandpass filtering) 하는 단계(S121-3)를 자세하게 설명하겠다. 심박수 구간이 아닌 주파수 성분의 경우, 심박 추정에 있어서 오차 발생 가능성이 있다. 이에 배경 주파수 영역 제거를 위해 대역 필터링이 수행될 수 있다. 도 10에 도시된 바와 같이, n차 해밍 윈도우는 아래의 수식을 만족할 수 있다.Hereinafter, the step S121-3 of performing bandpass filtering with a hamming window will be described in detail. In the case of frequency components other than the heart rate interval, there is a possibility of an error in the heartbeat estimation. Therefore, band filtering can be performed to remove the background frequency domain. As shown in FIG. 10, the n-th order Hamming window can satisfy the following equation.

Figure pat00005
Figure pat00005

또한, 아래에서는 XsminαYs 특징 추출 방법을 설명하는 도면이다. 빛의 색에 무관한 피부색 추출 위해 표준화된 X, Y 아래의 수식으로 추출될 수 있다.Also, in the following description, the X s min αY s feature extraction method is described. It can be extracted by the standardized X, Y formula below to extract skin color irrespective of color of light.

Figure pat00006
Figure pat00006

한편, 피부의 표준화 이후 보정을 위해 대역 필터링된 X, Y 신호가 이용될 수 있다. 신호의 변이 보정을 통해 빛 변화 대응은 아래의 수식과 같이 가능하다.On the other hand, band-filtered X, Y signals can be used for correction after skin normalization. The response of the light change through the correction of the mutation of the signal is possible as the following equation.

Figure pat00007
Figure pat00007

한편, 잔존하는 임시 잡음 제거를 위해 이동 평균 필터링(moving average filtering)이 적용될 수 있다. M-포인트 이동 평균 필터링은 아래의 수식을 만족할 수 있다.On the other hand, moving average filtering may be applied to remove the residual temporary noise. The M-point moving average filtering can satisfy the following equation.

Figure pat00008
Figure pat00008

한편, 아래에서는 웰치(welch) PSD 변환 단계(S121-5)를 자세하게 설명하겠다. 주요한 주파수 성분 추정을 위해 PSD(power spectrum density) 변환이 수행될 수 있다. 실시 예에 있어서, 잡음에 강인한 웰치 방식(Welch's method)의 PSD 변환이 수행될 수 있다. PSD 변환은 아래의 수식을 만족할 수 있다.On the other hand, the Welch PSD conversion step (S121-5) will be described in detail below. A power spectrum density (PSD) conversion can be performed to estimate the dominant frequency component. In an embodiment, noise-robust Welch's method PSD transformation can be performed. The PSD conversion can satisfy the following equation.

Figure pat00009
Figure pat00009

여기서, Q: segment length, w: gaussian weight 이다.Where Q is the segment length, and w is the gaussian weight.

한편, 심박수 추정은 최대 주파수 값을 통해 bpm(beats per minute)를 아래의 수식으로 계산할 수 있다.On the other hand, the heart rate can be calculated from the maximum frequency value by using the following equation: beats per minute (bpm)

Figure pat00010
Figure pat00010

도 11은 본 발명의 실시 예에 따른 임시 선택 룰 과정을 설명하는 도면이다. 도 11을 참조하면, 3 프레임 이전 결과값과 심박수 결과 값 비교를 통하여 급변하는 심박수가 탐지될 수 있다. 실시 예에 있어서, 탐지된 심박수의 경우 이전 3 프레임 결과값의 평균값을 통해 아래의 수식과 같이 보간 될 수 있다. 11 is a view for explaining a provisional selection rule process according to an embodiment of the present invention. Referring to FIG. 11, a rapidly changing heart rate can be detected by comparing the heart rate result with the result of 3 frames before. In an embodiment, the detected heart rate may be interpolated through an average of the previous three frame results as: < RTI ID = 0.0 >

Figure pat00011
Figure pat00011

실시 예에 있어서, 변동량의 문턱값(thr)은 5로 고정될 수 있다. 하지만, 변동량의 문턱값(thr)이 여기에 제한되지 않는다고 이해되어야 할 것이다.In the embodiment, the threshold value thr of the variation amount can be fixed to 5. However, it should be understood that the threshold value thr of the variation amount is not limited thereto.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, DRMF를 통해 얼굴의 특징점을 통해 ROI 선정 및 KCF를 통해 추적 수행할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention can perform tracking through ROI selection and KCF through feature points of a face through DRMF.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 일정 구간 내, GoverR화소값 변화를 통해 급격한 화소값 변화 신호 제외할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention can exclude a sharp pixel value change signal through a Gover R pixel value change within a certain period.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, XminY신호 변환을 수행하고, PSD의 최대 주파수를 통해 심박수 추정할 수 있다.The driver's heart rate estimation algorithm according to the embodiment of the present invention can perform XminY signal conversion and estimate the heart rate through the maximum frequency of the PSD.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 임시 선택 룰을 통해 급변하는 심박수 값 정렬 수행할 수 있다.The driver's heart rate estimation algorithm according to the embodiment of the present invention can perform rapid change of the heart rate value through the provisional selection rule.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 정차DB 10개의 경우 오차율 10%이내 만족할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention can be satisfied within an error rate of 10% in the case of 10 stop DBs.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 주행DB 10개의 경우 일부 구간 10%초반 오차 발생할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention may cause an error of 10% at some intervals in 10 travel DBs.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 주행 및 고개 돌림 DB의 경우 강한 빛 변화로 인한 10%이상 오차 발생할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention may cause an error of more than 10% due to the strong light change in the driving and the head turning DB.

한편, 상술 된 본 발명의 내용은 발명을 실시하기 위한 구체적인 실시 예들에 불과하다. 본 발명은 구체적이고 실제로 이용할 수 있는 수단 자체뿐 아니라, 장차 기술로 활용할 수 있는 추상적이고 개념적인 아이디어인 기술적 사상을 포함할 것이다.The above-described contents of the present invention are only specific examples for carrying out the invention. The present invention will include not only concrete and practical means themselves, but also technical ideas which are abstract and conceptual ideas that can be utilized as future technologies.

10: 차량
100: 카메라
200: 운전자 상태 추정기
10: Vehicle
100: camera
200: Driver condition estimator

Claims (14)

차량 내의 운전자 상태를 추정하는 방법에 있어서:
카메라를 통해 운전자의 안면을 감지하는 단계;
혈압에 따른 상기 감지된 안면의 색조 변화를 감지하는 단계;
상기 색조 변화에 대응하는 심박수를 추정하는 단계; 및
상기 추정된 심박수에 의거하여 상기 운전자의 상태를 추정하는 단계를 포함하는 방법.
A method for estimating a driver condition in a vehicle, comprising:
Sensing a face of a driver through a camera;
Detecting a change in hue of the sensed face according to a blood pressure;
Estimating a heart rate corresponding to the color tone change; And
And estimating a state of the driver based on the estimated heart rate.
제 1 항에 있어서,
상기 안면을 감지하는 단계는,
상기 안면의 랜드마크를 추출하는 단계;
상기 추출된 안면의 랜드마크에서 관심 영역을 크로핑 및 트래깅하는 단계; 및
상기 관심 영역에 대응하는 상기 운전자의 피부를 검출하는 단계를 포함하는 방법.
The method according to claim 1,
The method of claim 1,
Extracting a landmark on the face;
Cropping and tracing a region of interest in the extracted facial landmarks; And
And detecting the skin of the driver corresponding to the region of interest.
제 2 항에 있어서,
상기 관심 영역은 상기 운전자의 코와 볼 영역을 포함하는 방법.
3. The method of claim 2,
Wherein the region of interest comprises the nose and ball region of the driver.
제 1 항에 있어서,
상기 색조 변화를 감지하는 단계는,
상기 관심 영역의 데이터에 대하여 임시 필터링하는 단계; 및
급변하는 심박수를 정렬하기 위하여 상기 필터링된 데이터에 대하여 임시 선택 룰을 수행하는 단계를 포함하는 방법.
The method according to claim 1,
Wherein the step of sensing the color tone change comprises:
Temporally filtering the data of the ROI; And
And performing a temporary selection rule for the filtered data to sort the rapidly changing heart rate.
제 4 항에 있어서,
상기 임시 필터링하는 단계는,
파장에 따른 반사율을 이용하여 상기 관심 영역의 데이터에서 기준값 이상의 변이를 제거하는 단계;
상기 변이가 제거된 데이터에 대하여 비추세화 및 정규화를 수행하는 단계;
배경 주파수 영역을 제거하기 위하여 상기 정규화된 데이터에 대하여 대역 필터링을 수행하는 단계;
빛의 색에 무관한 순수한 피부색을 검출하기 위하여 상기 대역 필터링된 데이터에서 XsminαYs 특징을 추출하는 단계; 및
상기 추출된 데이터에 대하여 PSD(power spectral density) 변환을 수행하는 단계를 포함하는 방법.
5. The method of claim 4,
Wherein the temporary filtering comprises:
Removing a variation of a reference value or more from the data of the ROI using the reflectance along the wavelength;
Performing non-specification and normalization on the data from which the mutation has been removed;
Performing band filtering on the normalized data to remove a background frequency domain;
Extracting Xsmin? Ys features from the band-filtered data to detect pure skin color independent of color of light; And
And performing a power spectral density (PSD) conversion on the extracted data.
제 5 항에 있어서,
상기 기준값 이상의 변이를 제거하는 단계는,
구간별 표준 편차를 통해 급격한 신호 변동 구간을 제거하는 단계를 더 포함하는 방법.
6. The method of claim 5,
The step of removing a variation of the reference value or more includes:
And removing the steep signal variation period through the standard deviation of the intervals.
제 5 항에 있어서,
상기 비추세화 및 정규화를 수행하는 단계는,
심박수 추정을 위한 신호를 모델링하는 단계; 및
정규화된 최소 제곱 솔루션을 이용하여 상기 모델링된 신호를 정규화시키는 단계를 포함하는 방법.
6. The method of claim 5,
The step of performing the normalization and normalization comprises:
Modeling a signal for heart rate estimation; And
And normalizing the modeled signal using a normalized least squares solution.
제 5 항에 있어서,
상기 대역 필터링하는 단계는,
n 차 해밍 윈도우를 이용하여 대역 필터링하는 단계를 포함하는 방법.
6. The method of claim 5,
Wherein the band-
and band filtering using an nth order Hamming window.
제 5 항에 있어서,
상기 임시 필터링을 수행하는 단계는,
잔존하는 임시 잡음을 제거하기 위하여 무빙 평균 필터링(moving average filtering)을 수행하는 단계를 더 포함하는 방법.
6. The method of claim 5,
Wherein the performing the temporal filtering comprises:
Further comprising performing moving average filtering to remove residual temporal noise.
제 9 항에 있어서,
상기 심박수를 추정하는 단계는,
최대 주파수 값을 통해 bpm(beats per minutes)을 추정하는 단계를 포함하는 방법.
10. The method of claim 9,
The step of estimating the heart rate comprises:
And estimating beats per minute (bpm) through the maximum frequency value.
제 4 항에 있어서,
임시 선택 룰을 수행하는 단계는,
이전 3 프레임 결과값에 대응하는 심박수 결과값과 비교를 통해 심박수를 탐지하는 단계; 및
상기 탐지된 심박수의 경우 상기 이전 3 프레임 결과값의 평균값을 통해 보간하는 단계를 포함하는 방법.
5. The method of claim 4,
The step of performing the temporary selection rule includes:
Detecting a heart rate through comparison with a heart rate result value corresponding to a previous three frame result value; And
Interpolating over the mean of the previous three frame results in the case of the detected heart rate.
제 1 항에 있어서,
상기 추정된 운전자의 상태와 관련된 경보를 음성 혹은 영상으로 상기 운전자에게 통지하거나 상기 차량의 주행에 이용하는 단계를 더 포함하는 방법.
The method according to claim 1,
Further comprising the step of notifying the driver of an alarm associated with the estimated driver's condition by voice or video or using the alert to drive the vehicle.
차량 내에 설치되는 운전자 상태 추정 장치에 있어서:
운전자의 안면을 감지하는 카메라; 및
상기 카메라로부터 감지된 안면의 색조 변화를 감지하고, 상기 감지된 색조 변화에 따른 상기 운전자의 심박수를 추정하는 운전자 상태 추정기를 포함하는 운전자 상태 추정 장치.
1. A driver condition estimating apparatus installed in a vehicle, comprising:
A camera for sensing the driver's face; And
And a driver state estimator for sensing a change in color tone of the face detected by the camera and estimating a heart rate of the driver according to the sensed change in color tone.
제 13 항에 있어서,
상기 운전자 상태 추정기는,
상기 안면의 특징점을 통해 관심 영역을 선정 및 추적을 수행하고, 상기 선정된 관심 영역에서 급격한 화소 변화 신호를 제거하고, 주파수 스펙트럼 변환을 통해 최대 주파수에 대응하는 심박수를 추정하는 운전자 상태 추정 장치.
14. The method of claim 13,
Wherein the driver state estimator comprises:
A driver for selecting a region of interest through a feature point of the face, removing a sharp pixel change signal in the selected region of interest, and estimating a heart rate corresponding to a maximum frequency through frequency spectrum conversion.
KR1020170151789A 2017-11-14 2017-11-14 Method for estimating condition of driver KR101988581B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170151789A KR101988581B1 (en) 2017-11-14 2017-11-14 Method for estimating condition of driver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170151789A KR101988581B1 (en) 2017-11-14 2017-11-14 Method for estimating condition of driver

Publications (2)

Publication Number Publication Date
KR20190054803A true KR20190054803A (en) 2019-05-22
KR101988581B1 KR101988581B1 (en) 2019-09-24

Family

ID=66679729

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170151789A KR101988581B1 (en) 2017-11-14 2017-11-14 Method for estimating condition of driver

Country Status (1)

Country Link
KR (1) KR101988581B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230064011A (en) * 2021-11-01 2023-05-10 정익중 Analysis system of circumstantial judgement based on voice with image pattern and operating method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056785A (en) * 2003-06-16 2004-02-19 Hitachi Ltd On-board image processing apparatus
JP2015194884A (en) 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 driver monitoring system
KR101619651B1 (en) 2014-11-26 2016-05-10 현대자동차주식회사 Driver Monitoring Apparatus and Method for Controlling Lighting thereof
KR20170086241A (en) * 2016-01-18 2017-07-26 계명대학교 산학협력단 Driving coach system and method capable of bio-feedback

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056785A (en) * 2003-06-16 2004-02-19 Hitachi Ltd On-board image processing apparatus
JP2015194884A (en) 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 driver monitoring system
KR101619651B1 (en) 2014-11-26 2016-05-10 현대자동차주식회사 Driver Monitoring Apparatus and Method for Controlling Lighting thereof
KR20170086241A (en) * 2016-01-18 2017-07-26 계명대학교 산학협력단 Driving coach system and method capable of bio-feedback

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
국제출원번호: WO2015/030219, 공개일: 2015년 11월 19일, 제목: DRIVER HEALTH AND FATIGUE MONITORING SYSTEM AND METHOD.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230064011A (en) * 2021-11-01 2023-05-10 정익중 Analysis system of circumstantial judgement based on voice with image pattern and operating method thereof

Also Published As

Publication number Publication date
KR101988581B1 (en) 2019-09-24

Similar Documents

Publication Publication Date Title
CN110751051B (en) Abnormal driving behavior detection method based on machine vision
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
US8369608B2 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
CN108693973B (en) Emergency condition detection system fusing electroencephalogram signals and environmental information
US9220454B2 (en) Device and method for detecting drowsiness using eyelid movement
CN107451539B (en) Lane departure early warning method and system
JP6155184B2 (en) Vital data processing method and vital data measuring device
Ahmed et al. Robust driver fatigue recognition using image processing
TW201501044A (en) Apparatus, method and computer readable recording medium of generating signal by detecting facial action
JP2007186916A (en) Window image area detection device and power window device
Park et al. Remote pulse rate measurement from near-infrared videos
US20220277570A1 (en) Cognitive function estimation device, learning device, and cognitive function estimation method
Wang et al. A method of detecting driver drowsiness state based on multi-features of face
JP2010191793A (en) Alarm display and alarm display method
EP3850535A2 (en) Biometric data capturing and analysis
JP3012226B2 (en) Drowsy driving prevention device
KR20190054803A (en) Appartus and method for estimating condition of driver
WO2008020458A2 (en) A method and system to detect drowsy state of driver
KR20230161443A (en) Method and system for heart rate extraction from RBB images
JP3984863B2 (en) Start notification device
US10945651B2 (en) Arousal level determination device
CN113693573B (en) Video-based non-contact multi-physiological-parameter monitoring system and method
JP2020149499A (en) Occupant observation device
Lee et al. Robust remote heart rate estimation in car driving environment
KR101582454B1 (en) Method for cognition of movement object in photographing image and system for prevention of vehicle boarding accident

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant