KR101988581B1 - Method for estimating condition of driver - Google Patents

Method for estimating condition of driver Download PDF

Info

Publication number
KR101988581B1
KR101988581B1 KR1020170151789A KR20170151789A KR101988581B1 KR 101988581 B1 KR101988581 B1 KR 101988581B1 KR 1020170151789 A KR1020170151789 A KR 1020170151789A KR 20170151789 A KR20170151789 A KR 20170151789A KR 101988581 B1 KR101988581 B1 KR 101988581B1
Authority
KR
South Korea
Prior art keywords
driver
heart rate
estimating
region
filtering
Prior art date
Application number
KR1020170151789A
Other languages
Korean (ko)
Other versions
KR20190054803A (en
Inventor
이준묵
금병직
김호준
양지혁
하창우
박두복
이강휴
배정민
고한석
Original Assignee
현대오트론 주식회사
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대오트론 주식회사, 고려대학교 산학협력단 filed Critical 현대오트론 주식회사
Priority to KR1020170151789A priority Critical patent/KR101988581B1/en
Publication of KR20190054803A publication Critical patent/KR20190054803A/en
Application granted granted Critical
Publication of KR101988581B1 publication Critical patent/KR101988581B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • G06K9/00845
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06K2009/00939
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

본 발명에 따른 차량 내의 운전자 상태를 추정하는 방법은, 카메라를 통해 운전자의 안면을 감지하는 단계, 혈압에 따른 상기 감지된 안면의 색조 변화를 감지하는 단계, 상기 색조 변화에 대응하는 심박수를 추정하는 단계, 및 상기 추정된 심박수에 의거하여 상기 운전자의 상태를 추정하는 단계를 포함할 수 있다.A method of estimating a driver's condition in a vehicle according to the present invention may include detecting a driver's face through a camera, detecting a change in a color tone of the detected face according to blood pressure, and estimating a heart rate corresponding to the change in the color tone. And estimating the driver's condition based on the estimated heart rate.

Description

운전자 상태 추정 방법{METHOD FOR ESTIMATING CONDITION OF DRIVER}How to estimate driver status {METHOD FOR ESTIMATING CONDITION OF DRIVER}

본 발명은 운전자 상태 추정 장치 및 방법에 관한 것이다.The present invention relates to a driver state estimation apparatus and method.

일반적으로, 운전자 감시장치는 카메라를 이용하여 주행 중인 운전자를 촬영하고 촬영한 운전자의 얼굴 영상을 통하여 운전자의 운전 상태(곁눈질, 졸음 운전 여부, 주시점 등)를 판정한다. 또한, 운전자 감시장치는 주행 중 인 차량의 조타각 신호, 차속 신호 및 주행 위치 등을 이용하여 차량의 주행 상태를 판단한다. 그리고, 운전자 감시장치는 운전자 상태 및 주행 상태를 이용하여 운전자가 불안전 주행 상태이면 운전자에게 이를 경고함으로 써 안전 운전할 수 있게 한다.In general, the driver monitoring apparatus photographs a driver who is driving by using a camera and determines a driver's driving state (squint, drowsy driving, gaze point, etc.) based on the captured face image of the driver. In addition, the driver monitoring apparatus determines the driving state of the vehicle by using the steering angle signal, the vehicle speed signal, and the driving position of the vehicle while driving. In addition, the driver monitoring apparatus may use the driver state and the driving state to warn the driver when the driver is in an unsafe driving state, thereby enabling safe driving.

일본공개특허: 특개2015-194884, 공개일: 2015년 11월 05일, 제목: 운전자 감시 시스템.Japanese Patent Application Laid-Open No. 2015-194884, Publication Date: November 05, 2015 Title: Driver Monitoring System. 국제출원번호: WO2015/030219, 공개일: 2015년 11월 19일, 제목: DRIVER HEALTH AND FATIGUE MONITORING SYSTEM AND METHOD.International application number: WO2015 / 030219, published date: 19 November 2015, title: DRIVER HEALTH AND FATIGUE MONITORING SYSTEM AND METHOD. 한국등록특허: 10-1619651, 등록일: 2016년 05월 02일, 제목: 운전자 감시장치 및 그의 조명 제어 방법.Korean Patent Registration: 10-1619651, registered date: May 02, 2016, title: driver monitoring device and its lighting control method.

본 발명의 목적은 간단하게 운전자의 상태를 추정하는 운전자 상태 추정 장치 및 그것의 방법을 제공하는데 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a driver state estimating apparatus and method thereof for simply estimating a driver's state.

본 발명의 실시 예에 따른 차량 내의 운전자 상태를 추정하는 방법은: 카메라를 통해 운전자의 안면을 감지하는 단계; 혈압에 따른 상기 감지된 안면의 색조 변화를 감지하는 단계; 상기 색조 변화에 대응하는 심박수를 추정하는 단계; 및 상기 추정된 심박수에 의거하여 상기 운전자의 상태를 추정하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method of estimating a driver's condition in a vehicle includes: detecting a driver's face through a camera; Detecting a change in the tone of the detected face according to blood pressure; Estimating a heart rate corresponding to the change in color tone; And estimating the driver's state based on the estimated heart rate.

실시 예에 있어서, 상기 안면을 감지하는 단계는, 상기 안면의 랜드마크를 추출하는 단계; 상기 추출된 안면의 랜드마크에서 관심 영역을 크로핑 및 트래깅하는 단계; 및 상기 관심 영역에 대응하는 상기 운전자의 피부를 검출하는 단계를 포함할 수 있다.The detecting of the face may include extracting a landmark of the face; Cropping and tracking a region of interest in the extracted facial landmarks; And detecting the skin of the driver corresponding to the ROI.

실시 예에 있어서, 상기 관심 영역은 상기 운전자의 코와 볼 영역을 포함할 수 있다.In an embodiment, the ROI may include a nose and a ball area of the driver.

실시 예에 있어서, 상기 색조 변화를 감지하는 단계는, 상기 관심 영역의 데이터에 대하여 임시 필터링하는 단계; 및 급변하는 심박수를 정렬하기 위하여 상기 필터링된 데이터에 대하여 임시 선택 룰을 수행하는 단계를 포함할 수 있다.The detecting of the color tone may include: temporarily filtering the data of the ROI; And performing a temporary selection rule on the filtered data to sort the rapidly changing heart rate.

실시 예에 있어서, 상기 임시 필터링하는 단계는, 파장에 따른 반사율을 이용하여 상기 관심 영역의 데이터에서 기준값 이상의 변이를 제거하는 단계; 상기 변이가 제거된 데이터에 대하여 비추세화 및 정규화를 수행하는 단계; 배경 주파수 영역을 제거하기 위하여 상기 정규화된 데이터에 대하여 대역 필터링을 수행하는 단계; 빛의 색에 무관한 순수한 피부색을 검출하기 위하여 상기 대역 필터링된 데이터에서 XsminαYs 특징을 추출하는 단계; 및 상기 추출된 데이터에 대하여 PSD(power spectral density) 변환을 수행하는 단계를 포함할 수 있다.The temporal filtering may include removing a variation of a reference value or more from data of the ROI using reflectance according to a wavelength; Performing non-trending and normalization on the data from which the mutation has been removed; Performing band filtering on the normalized data to remove a background frequency region; Extracting XsminαYs features from the band filtered data to detect pure skin color independent of the color of light; And performing a power spectral density (PSD) transformation on the extracted data.

실시 예에 있어서, 상기 기준값 이상의 변이를 제거하는 단계는, 구간별 표준 편차를 통해 급격한 신호 변동 구간을 제거하는 단계를 더 포함할 수 있다.In an embodiment, the step of removing the variation greater than or equal to the reference value may further include removing the abrupt signal variation section through the standard deviation for each section.

실시 예에 있어서, 상기 비추세화 및 정규화를 수행하는 단계는, 심박수 추정을 위한 신호를 모델링하는 단계; 및 정규화된 최소 제곱 솔루션을 이용하여 상기 모델링된 신호를 정규화시키는 단계를 포함할 수 있다.In an embodiment, the performing of detrending and normalization may include: modeling a signal for heart rate estimation; And normalizing the modeled signal using a normalized least squares solution.

실시 예에 있어서, 상기 대역 필터링하는 단계는, n 차 해밍 윈도우를 이용하여 대역 필터링하는 단계를 포함할 수 있다.In an embodiment, the band filtering may include band filtering using an n-th order Hamming window.

실시 예에 있어서, 상기 임시 필터링을 수행하는 단계는, 잔존하는 임시 잡음을 제거하기 위하여 무빙 평균 필터링(moving average filtering)을 수행하는 단계를 더 포함할 수 있다.In an embodiment, the performing of the temporary filtering may further include performing moving average filtering to remove residual temporary noise.

실시 예에 있어서, 상기 심박수를 추정하는 단계는, 최대 주파수 값을 통해 bpm(beats per minutes)을 추정하는 단계를 포함할 수 있다.In an embodiment, estimating the heart rate may include estimating bpm (beats per minutes) based on a maximum frequency value.

실시 예에 있어서, 임시 선택 룰을 수행하는 단계는, 이전 3 프레임 결과값에 대응하는 심박수 결과값과 비교를 통해 심박수를 탐지하는 단계; 및 상기 탐지된 심박수의 경우 상기 이전 3 프레임 결과값의 평균값을 통해 보간하는 단계를 포함할 수 있다.In an embodiment, the performing of the temporary selection rule may include detecting a heart rate by comparing with a heart rate result value corresponding to a previous three frame result value; And in the case of the detected heart rate, interpolating through an average value of the previous three frame result values.

실시 예에 있어서, 상기 추정된 운전자의 상태와 관련된 경보를 음성 혹은 영상으로 상기 운전자에게 통지하거나 상기 차량의 주행에 이용하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include notifying the driver by voice or video of an alarm related to the estimated driver's state or using the driver to drive the vehicle.

본 발명의 실시 예에 따른 차량 내에 설치되는 운전자 상태 추정 장치는, 운전자의 안면을 감지하는 카메라; 및 상기 카메라로부터 감지된 안면의 색조 변화를 감지하고, 상기 감지된 색조 변화에 따른 상기 운전자의 심박수를 추정하는 운전자 상태 추정기를 포함할 수 있다.An apparatus for estimating a driver state installed in a vehicle according to an exemplary embodiment of the present disclosure may include a camera configured to detect a face of a driver; And a driver state estimator for detecting a change in the color tone of the face detected by the camera and estimating a heart rate of the driver according to the detected change in the color tone.

실시 예에 있어서, 상기 운전자 상태 추정기는, 상기 안면의 특징점을 통해 관심 영역을 선정 및 추적을 수행하고, 상기 선정된 관심 영역에서 급격한 화소 변화 신호를 제거하고, 주파수 스펙트럼 변환을 통해 최대 주파수에 대응하는 심박수를 추정할 수 있다.The driver state estimator selects and tracks a region of interest through the feature points of the face, removes a sudden pixel change signal from the selected region of interest, and corresponds to a maximum frequency through frequency spectrum conversion. The heart rate can be estimated.

본 발명의 실시 예에 따른 운전자 상태 추정 장치 및 그것의 동작 방법은 운전자의 안면의 색조 변화를 통해 심박수를 추정함으로써, 심박수에 따른 운전자의 상태를 간단하게 추정할 수 있다.An apparatus for estimating a driver's state and an operation method thereof according to an exemplary embodiment of the present invention can easily estimate a driver's state according to a heart rate by estimating a heart rate through a change in color tone of a driver's face.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명의 실시 예에 따른 운전자 상태 추정이 가능한 차량(10)을 예시적으로 보여주는 도면이다.
도 2는 본 발명의 실시 예에 따른 차량(10)의 사고 방지 방법을 예시적으로 보여주는 흐름도이다.
도 3은 도 2에 도시된 운전자 얼굴 추출하는 단계(S110)를 좀 더 자세하게 보여주는 흐름도이다.
도 4는 도 3에 도시된 운전자의 얼굴 랜드마크를 추출하는 단계(S111)를 자세하게 보여주는 도면이다.
도 5는 도 2에 도시된 운전자 심박수 추정 단계(S120)를 좀 더 자세하게 보여주는 흐름도이다.
도 6 및 도 7은 도 5에 도시된 임시 필터링하는 단계(S121)를 좀 더 자세하게 보여주는 도면들이다.
도 8 및 도 9는 본 발명의 실시 예에 따른 급격한 변이를 제거하는 방법을 설명하는 도면들이다.
도 10은 n차 해밍 윈도우를 이용한 대역 필터링을 보여주는 도면이다.
도 11은 본 발명의 실시 예에 따른 임시 선택 룰 과정을 설명하는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings are provided to facilitate understanding of the present embodiment, and provide embodiments with a detailed description. However, the technical features of the present embodiment are not limited to the specific drawings, and the features disclosed in the drawings may be combined with each other to constitute a new embodiment.
1 is a diagram illustrating a vehicle 10 capable of estimating a driver state according to an exemplary embodiment of the present invention.
2 is a flowchart illustrating an accident prevention method of the vehicle 10 according to an exemplary embodiment of the present invention.
FIG. 3 is a flowchart showing in more detail a step S110 of extracting a driver's face shown in FIG. 2.
4 is a view showing in detail the step (S111) of extracting the facial landmarks of the driver shown in FIG.
FIG. 5 is a flowchart illustrating the driver heart rate estimation step S120 shown in FIG. 2 in more detail.
6 and 7 illustrate in more detail the step S121 of temporary filtering illustrated in FIG. 5.
8 and 9 are diagrams illustrating a method of removing a sudden shift according to an embodiment of the present invention.
10 illustrates band filtering using an n-th order Hamming window.
11 illustrates a temporary selection rule process according to an embodiment of the present invention.

아래에서는 도면들을 이용하여 본 발명의 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 본 발명의 내용을 명확하고 상세하게 기재할 것이다.DETAILED DESCRIPTION Hereinafter, the contents of the present invention will be described clearly and in detail so that those skilled in the art can easily implement the drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 혹은 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.The terms may be used for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may be present in the middle. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 혹은 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Other expressions describing the relationship between components, such as "between" and "immediately between" or "neighboring to" and "directly neighboring", should be interpreted as well. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함하다" 혹은 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 혹은 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것들의 존재 혹은 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In this application, the terms "comprise" or "having" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof that is implemented, and that one or more other features or numbers are present. It should be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. .

도 1은 본 발명의 실시 예에 따른 운전자 심박 추정이 가능한 차량(10)을 예시적으로 보여주는 도면이다. 도 1을 참조하면, 차량(10)은 카메라(100) 및 운전자 상태 추정기(200)를 포함할 수 있다. 1 is a diagram illustrating a vehicle 10 capable of estimating a driver's heart rate according to an exemplary embodiment of the present invention. Referring to FIG. 1, the vehicle 10 may include a camera 100 and a driver state estimator 200.

카메라(100)는 운전자의 얼굴을 인식하도록 구현될 수 있다. 실시 예에 있어서, 카메라(100)는 운전자의 얼굴 중에서 사전에 결정된 영역을 중심으로 사전에 결정된 영역만큼의 이미지를 촬상 하도록 구현될 수 있다. 실시 예에 있어서, 카메라(100)는 차량(10) 내부에 부착될 수 있다. 실시 예에 있어서, 카메라(100)는 이미지를 캡쳐하기 위한 센서의 방향을 자유롭게 움직일 수 있도록 부착될 수 있다. 즉, 카메라(100)의 틸팅각(tilting angle)은 임의로 조정 가능할 수 있다.The camera 100 may be implemented to recognize a driver's face. In an embodiment of the present disclosure, the camera 100 may be implemented to capture an image corresponding to a predetermined area around the predetermined area among the driver's face. In an embodiment, the camera 100 may be attached to the inside of the vehicle 10. In an embodiment, the camera 100 may be attached to freely move the direction of the sensor for capturing an image. That is, the tilting angle of the camera 100 may be arbitrarily adjusted.

실시 예에 있어서, 카메라(100)는 CCD(charge coupled device) 영상센서(image sensor), MOS(metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.In an embodiment, the camera 100 may include a charge coupled device (CCD) image sensor, a metal oxide semi-conductor (MOS) image sensor, a charge priming device (CPD) image sensor, and a charge injection device (CID) image. The image sensor may be implemented as any one of image sensors such as a sensor.

운전자 상태 추정기(200)는 카메라(100)로부터 전송된 얼굴 이미지를 분석 및 처리함으로써 운전자의 심박수(heart rate; HR)를 추정하도록 구현될 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 ECU(electronic control unit)으로 구현될 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 운전자 심박 추정 알고리즘에 의거하여 동작될 수 있다. 여기서 운전자 심박 추정 알고리즘은 혈압에 따른 안면 색조 변화를 감지하고, 안면 색조 변화에 대응하는 심박수를 추정할 수 있다.The driver condition estimator 200 may be implemented to estimate a driver's heart rate (HR) by analyzing and processing a face image transmitted from the camera 100. In an embodiment, the driver state estimator 200 may be implemented as an electronic control unit (ECU). In an embodiment, the driver state estimator 200 may be operated based on a driver heartbeat estimation algorithm. Here, the driver's heartbeat estimation algorithm detects a change in facial tone according to blood pressure and estimates a heart rate corresponding to the change in facial tone.

또한, 운전자 상태 추정기(200)는 입력 영상 내 얼굴 검출 및 관심 영역을 추출하고, 관심 영역을 추적하고, 특징 신호를 추출하고, 심박수를 추정할 수 있다. 실시 예에 있어서, 특징 신호를 추출하기 위하여 관심 영역 신호 특징을 변환시킬 수 있다. 실시 예에 있어서, 심박수 추정을 위하여 주파수 변환을 이용할 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 이미지 센서 프로세서(image sensor processor; ISP) 칩으로 구현될 수 있다. 한편, 도시되지 않았지만, 차량(10)은 운전자 상태 추정기(200)에서 처리된 정보를 디스플레이 하는 디스플레이 장치(예를 들어, 네비게이션 등)를 더 포함할 수 있다.The driver state estimator 200 may extract a face detection and a region of interest in the input image, track a region of interest, extract a feature signal, and estimate a heart rate. In an embodiment, the ROI feature may be converted to extract the feature signal. In an embodiment, frequency conversion may be used for heart rate estimation. In an embodiment, the driver state estimator 200 may be implemented as an image sensor processor (ISP) chip. Although not shown, the vehicle 10 may further include a display device (for example, a navigation device) for displaying information processed by the driver state estimator 200.

본 발명의 실시 예에 따른 차량(10)은 차량용 카메라(100)을 통해 습득된 운전자 영상을 이용하여 혈압에 의한 안면 색조 변화를 감지함으로써, 운전자의 건강 및 심리 상태를 추정할 수 있다. 특히, 본 발명의 실시 예에 따른 차량(10)은 실외 환경에서 발생하는 빛 변화, 블러링(blurring) 현상 보정을 위한 왜곡 신호 필터링을 통해 차량 운전자의 심박수를 보다 정밀하게 추정할 수 있다.The vehicle 10 according to an exemplary embodiment of the present disclosure may estimate a driver's health and psychological state by detecting a change in facial tone due to blood pressure using the driver's image acquired through the vehicle camera 100. In particular, the vehicle 10 according to an exemplary embodiment of the present invention may more accurately estimate the heart rate of the vehicle driver through filtering distortion signals for correcting light changes and blurring occurring in an outdoor environment.

도 2는 본 발명의 실시 예에 따른 차량(10)의 사고 방지 방법을 예시적으로 보여주는 흐름도이다. 도 1 및 도 2를 참조하면, 차량(10)의 사고 방지 방법은 다음과 같이 진행될 수 있다.2 is a flowchart illustrating an accident prevention method of the vehicle 10 according to an exemplary embodiment of the present invention. 1 and 2, the accident prevention method of the vehicle 10 may proceed as follows.

주행시 카메라(100)는 실시간으로 운전자를 촬영하고, 운전자의 얼굴에 대한 특정 영역을 추출할 수 있다(S110). 주행시 카메라(100)의 온/오프는 운전자의 선택에 의해 옵션적으로 결정될 수 있다. 실시 예에 있어서, 입력 영상의 얼굴 검출 및 특징점이 추출될 수 있다. 실시 예에 있어서, 코 끝을 기준으로 양쪽 볼 관심 영역 좌표가 검출될 수 있다. When driving, the camera 100 may photograph the driver in real time and extract a specific region of the driver's face (S110). On / off of the camera 100 during driving may be optionally determined by the driver's selection. In an embodiment, face detection and feature points of the input image may be extracted. In an embodiment, both ball ROI coordinates may be detected based on the tip of the nose.

운전자 상태 추정기(200)는 카메라(100)로부터 촬영된 영상 정보를 수신 받고, 혈압에 따른 운전자의 안면 색조 변화를 감지할 수 있다(S120). 실시 예에 있어서, 운전자의 안면 색조 변화는 학습에 의해 감지될 수 있다. 다른 실시 예에 있어서, 운전자의 안면 색조 변화는 평상시 운전자에 저장된 정보와 비교함으로써 감지될 수도 있다. 실시 예에 있어서, 빛 변화에 강인한 심박수 추정을 위해서, R, G, B 채널의 조합을 통해 신호 변환이 수행될 수 있다. 실시 예에 있어서, 특정 신호가 필터링 될 수 있다. 이러한 필터링은, 변환된 특징 신호를 일정 간격으로 중첩되게 분할하고, 분할 영역의 동적 영역 및 변동량을 분석하고, 왜곡 신호를 분리하고, 디트렌딩(detrending) 및 대역 필터링(bandpass filtering)을 하고, XminY 특징 신호 변환을 수행하는 것을 포함할 수 있다. The driver state estimator 200 may receive image information captured by the camera 100 and may detect a change in the facial tone of the driver according to blood pressure (S120). In an embodiment, the change in the facial tone of the driver may be sensed by learning. In another embodiment, the change in the facial tone of the driver may be sensed by comparing with information stored in the driver. In an embodiment, the signal conversion may be performed through a combination of the R, G, and B channels in order to estimate the heart rate that is robust to light changes. In an embodiment, a particular signal may be filtered. This filtering divides the transformed feature signals into overlapping at regular intervals, analyzes the dynamic range and variation of the divided regions, separates the distortion signals, detrends and bandpasses the filtering, and XminY. Performing feature signal conversion.

운전자 상태 추정기(200)는 안면 색조 변화에 대응하는 심박수를 추정할 수 있다(S130). 운전자 상태 추정기(200)는 ROI(range of interest; 관심 영역) 추적 기술과 주파수 분석을 이용함으로써 rPPG(remote photoplethysmography)의 신뢰성을 향상시킬 수 있다. 실시 예에 있어서, 특징 신호의 주파수 변환이 수행되고, PSD(power spectrum density)가 가장 높은 주파수가 값을 통해 심박수가 추정될 수 있다.The driver state estimator 200 may estimate a heart rate corresponding to a change in facial tone (S130). The driver condition estimator 200 may improve the reliability of remote photoplethysmography (rPPG) by using a range of interest (ROI) tracking technique and frequency analysis. According to an embodiment, the frequency conversion of the feature signal may be performed, and the heart rate may be estimated based on a frequency having the highest power spectrum density (PSD).

운전자 상태 추정기(200)는 추정된 심박수를 근거로 하여 운전자의 상태(졸음, 화남, 아픔, 등)를 추정할 수 있다(S140).The driver state estimator 200 may estimate a driver's state (drowsiness, anger, pain, etc.) based on the estimated heart rate (S140).

이후, 추정된 운전자의 상태에 대응하는 경고가 음성 혹은 영상으로 운전자에게 알려지거나(네비게이션 기반 심박수 결과 출력), 차량 안전 관련 상위 시스템(파워트레인 등)에 전송될 수 있다. 이로써, 운전 사고가 방지될 수 있다(S150). Thereafter, a warning corresponding to the estimated driver's state may be notified to the driver by voice or video (navigation-based heart rate result output) or transmitted to a vehicle safety related upper system (powertrain, etc.). As a result, a driving accident may be prevented (S150).

본 발명의 실시 예에 따른 운전자 심박수 추정 방법은, 실외 혹은 차량 영상에서 관심 영역을 추출하고, 관심 영역을 추적하고, 실외 환경에 따른 왜곡 신호 필터링을 수행하고, 특징 신호 변환을 수행하고, 주파수 분석 기반으로 심박수를 추정할 수 있다. 본 발명의 운전자 심박수 추정 방법은, 실외 환경에서 발생하는 빛 변화, blur 현상 보정을 위한 왜곡 신호 필터링을 수행함으로써 차량 운전자의 심박수를 보다 정밀하게 수행할 수 있다.The driver heart rate estimation method according to an embodiment of the present invention extracts a region of interest from an outdoor or vehicle image, tracks a region of interest, performs distortion signal filtering according to an outdoor environment, performs a characteristic signal conversion, and analyzes frequencies. Based on the heart rate can be estimated. The driver's heart rate estimation method of the present invention can perform the heart rate of the vehicle driver more precisely by performing distortion signal filtering for light change and blur phenomenon occurring in an outdoor environment.

본 발명에 따른 단계들 및/또는 동작들은 기술분야의 통상의 기술자에 의해 이해될 수 있는 것과 같이, 다른 순서로, 또는 병렬적으로, 또는 다른 에포크(epoch) 등을 위해 다른 실시 예들에서 동시에 일어날 수 있다.The steps and / or actions according to the invention may occur simultaneously in different embodiments in different order, in parallel, or for other epochs, etc., as would be understood by one of ordinary skill in the art. Can be.

실시 예에 따라서는, 단계들 및/또는 동작들의 일부 또는 전부는 하나 이상의 비-일시적 컴퓨터-판독가능 매체에 저장된 명령, 프로그램, 상호작용 데이터 구조(interactive data structure), 클라이언트 및/또는 서버를 구동하는 하나 이상의 프로세서들을 사용하여 적어도 일부가 구현되거나 또는 수행될 수 있다. 하나 이상의 비-일시적 컴퓨터-판독가능 매체는 예시적으로 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합일 수 있다. 또한, 본 명세서에서 논의된 "모듈"의 기능은 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합으로 구현될 수 있다.In some embodiments, some or all of the steps and / or actions may be directed to instructions, programs, interactive data structures, clients, and / or servers stored on one or more non-transitory computer-readable media. At least some may be implemented or performed using one or more processors. One or more non-transitory computer-readable media may be illustratively software, firmware, hardware, and / or any combination thereof. In addition, the functionality of the "module" discussed herein may be implemented in software, firmware, hardware, and / or any combination thereof.

본 발명의 실시 예들의 하나 이상의 동작들/단계들/모듈들을 구현/수행하기 위한 하나 이상의 비-일시적 컴퓨터-판독가능 매체 및/또는 수단들은 ASICs(application-specific integrated circuits), 표준 집적 회로들, 마이크로 컨트롤러를 포함하는, 적절한 명령들을 수행하는 컨트롤러, 및/또는 임베디드 컨트롤러, FPGAs(field-programmable gate arrays), CPLDs(complex programmable logic devices), 및 그와 같은 것들을 포함할 수 있지만, 여기에 한정되지는 않는다. One or more non-transitory computer-readable media and / or means for implementing / performing one or more operations / steps / modules of embodiments of the present invention may be used in application-specific integrated circuits (ASICs), standard integrated circuits, A controller that performs appropriate instructions, including a microcontroller, and / or an embedded controller, field-programmable gate arrays (FPGAs), complex programmable logic devices (CPLDs), and the like. Does not.

도 3은 도 2에 도시된 운전자 얼굴 추출하는 단계(S110)를 좀 더 자세하게 보여주는 흐름도이다. 도 1 내지 도 3을 참조하면, 운전자 얼굴 추출하는 단계(S110)는, 운전자의 얼굴 랜드마크(face landmark)를 추출하는 단계(S111), ROI(관심영역) 크로핑(cropping) 및 트래킹(tracking) 단계(S112) 및 피부 검출하는 단계(S113)을 포함할 수 있다. FIG. 3 is a flowchart showing in more detail a step S110 of extracting a driver's face shown in FIG. 2. 1 to 3, the step S110 of extracting a driver's face may include extracting a face landmark of a driver (S111), ROI cropping and tracking (ROI). ) Step S112 and skin detection step S113.

도 4는 도 3에 도시된 운전자의 얼굴 랜드마크를 추출하는 단계(S111)를 자세하게 보여주는 도면이다. 도 4를 참조하면, 얼굴 랜드마크를 추출하는 단계(S111)는 표정 변화와 같은 non-rigid motion의 간섭을 줄이기 위해 66개의 얼굴 랜드마크를 통해 정교하게 ROI(관심 영역)을 추출할 수 있다.4 is a view showing in detail the step (S111) of extracting the facial landmarks of the driver shown in FIG. Referring to FIG. 4, in step S111 of extracting facial landmarks, ROIs (regions of interest) may be precisely extracted through 66 facial landmarks in order to reduce interference of non-rigid motion such as facial expression changes.

실시 예에 있어서, 혈색 신호가 가장 명확히 반영되는 코와 볼 영역이 ROI 로 선택될 수 있다.In an embodiment, the nose and cheek area where the color signal is most clearly reflected may be selected as the ROI.

실시 예에 있어서, 주행시 진동 및 조명변화에 대응하기 위하여 검출된 영역에 트래킹이 적용될 수 있다.In an embodiment, tracking may be applied to the detected area in order to cope with vibrations and changes in illumination when driving.

도 5는 도 2에 도시된 운전자 심박수 추정 단계(S120)를 좀 더 자세하게 보여주는 흐름도이다. 도 5를 참조하면, 운전자 심박수 추정 단계(S120)는, ROI 영역을 임시 필터링(temporal filtering) 하는 단계(S121), 및 임시 선택 룰(temporal selection rule) 단계(S122)를 포함할 수 있다.FIG. 5 is a flowchart illustrating the driver heart rate estimation step S120 shown in FIG. 2 in more detail. Referring to FIG. 5, the driver heart rate estimation step S120 may include a step S121 of temporally filtering the ROI region and a temporal selection rule step S122.

도 6 및 도 7은 도 5에 도시된 임시 필터링하는 단계(S121)를 좀 더 자세하게 보여주는 도면들이다. 도 6 및 도 7을 참조하면, 임시 필터링하는 단계(S121)는, 급격한 변이(기준값 이상의 변이)를 제거하는 단계(S121-1), 비추세화(detrending with smoothed prior) 및 정규화(normalizing) 시키는 단계(S121-2), 해밍 윈도우(hamming window)로 대역 필터링(bandpass filtering) 하는 단계(S121-3), XsminαYs 특징 추출 단계(S121-4), 및 웰치(welch) PSD(power spectrum density) 변환 단계(S121-5)를 포함할 수 있다.6 and 7 illustrate in more detail the step S121 of temporary filtering illustrated in FIG. 5. 6 and 7, the temporary filtering step S121 may include removing a sudden variation (a variation of a reference value or more) (S121-1), detrending with smoothed priority, and normalizing it. S121-2, bandpass filtering with a hamming window S121-3, X s minαY s feature extraction step S121-4, and weld PSD power spectrum density ) May include a conversion step (S121-5).

아래에서는 급격한 변이를 제거하는 단계(S121-1)를 좀 더 자세하게 설명하겠다. 도 8 및 도 9는 본 발명의 실시 예에 따른 급격한 변이를 제거하는 방법을 설명하는 도면이다. 도 8를 참조하면, 혈색소의 경우 G(green) 채널에서 반사율이 가장 높은 반면에, R(red) 채널에서 반사율이 가장 낮다. 얼굴 내, 빛 변화에 따른 왜곡 신호 추정을 위해 아래의 수식이 이용될 수 있다.Hereinafter, the step (S121-1) of removing the sudden mutation will be described in more detail. 8 and 9 are diagrams illustrating a method of removing a sudden mutation according to an embodiment of the present invention. Referring to FIG. 8, the hemoglobin has the highest reflectance in the G (green) channel while the lowest in the R (red) channel. The following equation may be used to estimate the distortion signal according to the change of light in the face.

Figure 112017113177518-pat00001
Figure 112017113177518-pat00001

한편, 주행시 발생하는 급격한 조도 변화는 심박수의 추정에 효과적이지 않다. 도 9에 도시된 바와 같이, 구간별 표준 편차(std)를 통해 급격한 신호 변동 구간이 제거될 수 있다.On the other hand, sudden changes in illuminance generated during driving are not effective for estimating heart rate. As shown in FIG. 9, the abrupt signal fluctuation period may be removed through the standard deviation std for each period.

또한, 아래에서는 비추세화(detrending with smoothed prior) 및 정규화(normalizing) 시키는 단계(S121-2)를 좀 더 자세하게 설명하겠다. 심박수 추정을 위한 신호의 경우 주기성을 갖게 되면 stationary 한 특성을 가진다. Stationary 신호를 비주기성 신호로부터 분리하기 위해 detrending(비추세화) 기술이 적용될 수 있다. 여기서 입력 신호는 다음의 수식으로 모델링 될 수 있다.In addition, the following steps (S121-2) for detrending with smoothed prior and normalizing (normalizing) will be described in more detail. The signal for heart rate estimation has a stationary characteristic if it has periodicity. Detrending techniques can be applied to separate stationary signals from aperiodic signals. In this case, the input signal may be modeled by the following equation.

Figure 112017113177518-pat00002
Figure 112017113177518-pat00002

또한, 정규화된 최소 제곱 공식은 아래의 수식을 만족할 수 있다.In addition, the normalized least squares formula may satisfy the following equation.

Figure 112017113177518-pat00003
Figure 112017113177518-pat00003

여기서 zstat: stationary signal, ztrend: aperiodic signal, H: observation matrix, θ: regression parameter, v: error, Dd: d-th derivative operator 이다.Where z stat : stationary signal, z trend: aperiodic signal, H: observation matrix, θ: regression parameter, v: error, and D d : d-th derivative operator.

이때, 최종적인 정규화된 신호는 아래의 수식을 만족할 수 있다.In this case, the final normalized signal may satisfy the following equation.

Figure 112017113177518-pat00004
Figure 112017113177518-pat00004

또한, 아래에서는 해밍 윈도우(hamming window)로 대역 필터링(bandpass filtering) 하는 단계(S121-3)를 자세하게 설명하겠다. 심박수 구간이 아닌 주파수 성분의 경우, 심박 추정에 있어서 오차 발생 가능성이 있다. 이에 배경 주파수 영역 제거를 위해 대역 필터링이 수행될 수 있다. 도 10에 도시된 바와 같이, n차 해밍 윈도우는 아래의 수식을 만족할 수 있다.In addition, below (S121-3) will be described in detail for the bandpass filtering with a hamming window (hamming window). In the case of frequency components other than the heart rate section, there is a possibility of error in heart rate estimation. Accordingly, band filtering may be performed to remove the background frequency domain. As shown in FIG. 10, the n-th order Hamming window may satisfy the following equation.

Figure 112017113177518-pat00005
Figure 112017113177518-pat00005

또한, 아래에서는 XsminαYs 특징 추출 방법을 설명한다. 빛의 색에 무관한 피부색의 추출을 위해 표준화된 X, Y(Xs, Ys)는 아래의 수식으로 추출될 수 있다.In addition, the following describes the X s minαY s feature extraction method. Standardized X, Y (X s , Y s ) for extraction of skin color irrespective of light color can be extracted with the following formula.

Figure 112017113177518-pat00006
Figure 112017113177518-pat00006

한편, 피부의 표준화 이후 보정을 위해 대역 필터링된 X, Y 신호(Xf, Yf)가 이용될 수 있다. 신호의 변이 보정을 통한 빛 변화 대응은 아래의 수식과 같이 가능하다.Meanwhile, band-filtered X and Y signals X f and Y f may be used for correction after normalization of the skin. It is possible to cope with the light change through the correction of the signal variation as shown below.

Figure 112017113177518-pat00007
Figure 112017113177518-pat00007

한편, 잔존하는 임시 잡음 제거를 위해 이동 평균 필터링(moving average filtering)이 적용될 수 있다. M-포인트 이동 평균 필터링은 아래의 수식을 만족할 수 있다.Meanwhile, moving average filtering may be applied to remove residual temporal noise. M-point moving average filtering may satisfy the following equation.

Figure 112017113177518-pat00008
Figure 112017113177518-pat00008

한편, 아래에서는 웰치(welch) PSD 변환 단계(S121-5)를 자세하게 설명하겠다. 주요한 주파수 성분 추정을 위해 PSD(power spectrum density) 변환이 수행될 수 있다. 실시 예에 있어서, 잡음에 강인한 웰치 방식(Welch's method)의 PSD 변환이 수행될 수 있다. PSD 변환은 아래의 수식을 만족할 수 있다.In the following description, the weld PSD conversion step S121-5 will be described in detail. Power spectrum density (PSD) transformation may be performed to estimate the major frequency components. In an embodiment, PSD conversion of the Welch's method, which is robust to noise, may be performed. PSD conversion may satisfy the following equation.

Figure 112017113177518-pat00009
Figure 112017113177518-pat00009

여기서, Q: segment length, w: gaussian weight 이다.Where Q is segment length and w is gaussian weight.

한편, 심박수 추정은 최대 주파수 값을 통해 bpm(beats per minute)를 아래의 수식으로 계산할 수 있다.On the other hand, heart rate estimation can be calculated by the following equation bpm (beats per minute) through the maximum frequency value.

Figure 112017113177518-pat00010
Figure 112017113177518-pat00010

도 11은 본 발명의 실시 예에 따른 임시 선택 룰 과정을 설명하는 도면이다. 도 11을 참조하면, 3 프레임 이전 결과값과 심박수 결과 값 비교를 통하여 급변하는 심박수가 탐지될 수 있다. 실시 예에 있어서, 탐지된 심박수의 경우 이전 3 프레임 결과값의 평균값을 통해 아래의 수식과 같이 보간 될 수 있다. 11 illustrates a temporary selection rule process according to an embodiment of the present invention. Referring to FIG. 11, a rapidly changing heart rate may be detected by comparing a result value before three frames and a heart rate result value. In an embodiment, the detected heart rate may be interpolated as shown in the following equation through an average value of the previous three frame result values.

Figure 112017113177518-pat00011
Figure 112017113177518-pat00011

실시 예에 있어서, 변동량의 문턱값(thr)은 5로 고정될 수 있다. 하지만, 변동량의 문턱값(thr)이 여기에 제한되지 않는다고 이해되어야 할 것이다.In an embodiment, the threshold thr of the variation amount may be fixed to five. However, it will be understood that the threshold thr of variation is not limited thereto.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, DRMF를 통해 얼굴의 특징점을 통해 ROI 선정 및 KCF를 통해 추적 수행할 수 있다.The driver's heartbeat estimation algorithm according to an embodiment of the present invention may perform ROI selection and tracking through the KCF through the feature points of the face through the DRMF.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 일정 구간 내, GoverR화소값 변화를 통해 급격한 화소값 변화 신호 제외할 수 있다.The driver's heartbeat estimation algorithm according to an exemplary embodiment of the present invention may exclude a sudden pixel value change signal through a change in a GoverR pixel value within a predetermined section.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, XminY신호 변환을 수행하고, PSD의 최대 주파수를 통해 심박수 추정할 수 있다.The driver's heartbeat estimation algorithm according to an embodiment of the present invention may perform the XminY signal conversion and estimate the heart rate through the maximum frequency of the PSD.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 임시 선택 룰을 통해 급변하는 심박수 값 정렬 수행할 수 있다.The driver's heartbeat estimation algorithm according to an embodiment of the present invention may perform a rapidly changing heart rate value alignment through a temporary selection rule.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 정차DB 10개의 경우 오차율 10%이내 만족할 수 있다.The driver's heartbeat estimation algorithm according to an embodiment of the present invention may satisfy 10% or less of an error rate in case of 10 stop DBs.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 주행DB 10개의 경우 일부 구간 10%초반 오차 발생할 수 있다.In the driver's heartbeat estimation algorithm according to an exemplary embodiment of the present invention, an error of 10% early in some sections may occur in the case of 10 driving DBs.

본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 주행 및 고개 돌림 DB의 경우 강한 빛 변화로 인한 10%이상 오차 발생할 수 있다.In the driver's heartbeat estimation algorithm according to an exemplary embodiment of the present invention, an error of 10% or more may occur due to a strong light change in the case of driving and a head turn DB.

한편, 상술 된 본 발명의 내용은 발명을 실시하기 위한 구체적인 실시 예들에 불과하다. 본 발명은 구체적이고 실제로 이용할 수 있는 수단 자체뿐 아니라, 장차 기술로 활용할 수 있는 추상적이고 개념적인 아이디어인 기술적 사상을 포함할 것이다.On the other hand, the content of the present invention described above is only specific embodiments for carrying out the invention. The invention will include not only specific and practically available means per se, but also technical ideas as abstract and conceptual ideas that may be utilized in future technology.

10: 차량
100: 카메라
200: 운전자 상태 추정기
10: vehicle
100: camera
200: driver condition estimator

Claims (14)

차량 내의 운전자 상태를 추정하는 방법에 있어서;
카메라를 통해 운전자의 안면의 관심영역을 감지하는 단계;
혈압에 따른 상기 관심영역의 색조 변화를 감지하는 단계;
상기 색조 변화에 대응하는 심박수를 추정하는 단계; 및
상기 추정된 심박수에 의거하여 상기 운전자의 상태를 추정하는 단계를 포함하고,
상기 색조 변화를 감지하는 단계는,
상기 관심 영역의 데이터에 대하여 임시 필터링하는 단계; 및
급변하는 심박수를 정렬하기 위하여 상기 필터링된 데이터에 대하여 임시 선택 룰을 수행하는 단계를 포함하고,
상기 임시 필터링하는 단계는,
파장에 따른 반사율을 이용하여 상기 관심 영역의 데이터에서 기준값 이상의 변이를 제거하는 단계;
상기 변이가 제거된 데이터에 대하여 비추세화 및 정규화를 수행하는 단계;
배경 주파수 영역을 제거하기 위하여 상기 정규화된 데이터에 대하여 대역 필터링을 수행하는 단계;
상기 대역 필터링된 데이터에서 빛의 색에 무관한 순수한 피부색에 따른 데이터를 추출하는 단계; 및
상기 추출된 데이터에 대하여 PSD(power spectral density) 변환을 수행하는 단계를 포함하는 방법.
CLAIMS What is claimed is: 1. A method for estimating a driver condition in a vehicle;
Detecting a region of interest on the face of the driver through a camera;
Detecting a change in color tone of the region of interest according to blood pressure;
Estimating a heart rate corresponding to the change in color tone; And
Estimating a state of the driver based on the estimated heart rate,
Detecting the change in color tone,
Temporarily filtering the data of the ROI; And
Performing a temporal selection rule on the filtered data to sort the rapidly changing heart rate,
The temporary filtering step,
Removing a variation of a reference value or more from the data of the region of interest using reflectance according to a wavelength;
Performing non-trending and normalization on the data from which the mutation has been removed;
Performing band filtering on the normalized data to remove a background frequency region;
Extracting data according to a pure skin color irrespective of light color from the band filtered data; And
Performing a power spectral density (PSD) transformation on the extracted data.
제 1 항에 있어서,
상기 안면의 상기 관심영역을 감지하는 단계는,
상기 안면의 랜드마크를 추출하는 단계;
상기 추출된 안면의 랜드마크에서 상기 관심 영역을 크로핑 및 트래킹하는 단계; 및
상기 관심 영역에 대응하는 상기 운전자의 피부를 검출하는 단계를 포함하는 방법.
The method of claim 1,
Detecting the ROI of the face,
Extracting a landmark of the face;
Cropping and tracking the region of interest in the extracted facial landmarks; And
Detecting the skin of the driver corresponding to the region of interest.
제 2 항에 있어서,
상기 관심 영역은 상기 운전자의 코와 볼 영역을 포함하는 방법.
The method of claim 2,
The region of interest includes the nose and ball area of the driver.
삭제delete 삭제delete 제 1 항에 있어서,
상기 기준값 이상의 변이를 제거하는 단계는,
구간별 표준 편차를 통해 급격한 신호 변동 구간을 제거하는 단계를 더 포함하는 방법.
The method of claim 1,
Removing the variation above the reference value,
And eliminating abrupt signal fluctuation intervals through the section standard deviations.
제 1 항에 있어서,
상기 비추세화 및 정규화를 수행하는 단계는,
심박수 추정을 위한 신호를 모델링하는 단계; 및
정규화된 최소 제곱 솔루션을 이용하여 상기 모델링된 신호를 정규화시키는 단계를 포함하는 방법.
The method of claim 1,
Performing the de-trending and normalization,
Modeling a signal for heart rate estimation; And
Normalizing the modeled signal using a normalized least squares solution.
제 1 항에 있어서,
상기 대역 필터링하는 단계는,
n 차 해밍 윈도우를 이용하여 대역 필터링하는 단계를 포함하는 방법.
The method of claim 1,
The band filtering step,
band filtering using an nth order Hamming window.
제 1 항에 있어서,
상기 임시 필터링을 수행하는 단계는,
잔존하는 임시 잡음을 제거하기 위하여 무빙 평균 필터링(moving average filtering)을 수행하는 단계를 더 포함하는 방법.
The method of claim 1,
The performing of the temporary filtering may include:
Performing moving average filtering to remove remaining temporary noise.
제 9 항에 있어서,
상기 심박수를 추정하는 단계는,
최대 주파수 값을 통해 bpm(beats per minutes)을 추정하는 단계를 포함하는 방법.
The method of claim 9,
Estimating the heart rate,
Estimating bpm (beats per minutes) through the maximum frequency value.
제 1 항에 있어서,
임시 선택 룰을 수행하는 단계는,
이전 3 프레임 결과값에 대응하는 심박수 결과값과 비교를 통해 심박수를 탐지하는 단계; 및
상기 탐지된 심박수의 경우 상기 이전 3 프레임 결과값의 평균값을 통해 보간하는 단계를 포함하는 방법.
The method of claim 1,
The step of performing the temporary selection rule is
Detecting a heart rate by comparing the heart rate result value corresponding to the previous three frame result value; And
Interpolating through the average of the previous three frame result values for the detected heart rate.
제 1 항에 있어서,
상기 추정된 운전자의 상태와 관련된 경보를 음성 혹은 영상으로 상기 운전자에게 통지하거나 상기 차량의 주행에 이용하는 단계를 더 포함하는 방법.
The method of claim 1,
And notifying the driver by voice or video of the alarm related to the estimated driver's condition or driving the vehicle.
삭제delete 삭제delete
KR1020170151789A 2017-11-14 2017-11-14 Method for estimating condition of driver KR101988581B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170151789A KR101988581B1 (en) 2017-11-14 2017-11-14 Method for estimating condition of driver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170151789A KR101988581B1 (en) 2017-11-14 2017-11-14 Method for estimating condition of driver

Publications (2)

Publication Number Publication Date
KR20190054803A KR20190054803A (en) 2019-05-22
KR101988581B1 true KR101988581B1 (en) 2019-09-24

Family

ID=66679729

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170151789A KR101988581B1 (en) 2017-11-14 2017-11-14 Method for estimating condition of driver

Country Status (1)

Country Link
KR (1) KR101988581B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102667622B1 (en) * 2021-11-01 2024-05-21 정익중 Analysis system of circumstantial judgement based on voice with image pattern and operating method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056785A (en) * 2003-06-16 2004-02-19 Hitachi Ltd On-board image processing apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194884A (en) 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 driver monitoring system
KR101619651B1 (en) 2014-11-26 2016-05-10 현대자동차주식회사 Driver Monitoring Apparatus and Method for Controlling Lighting thereof
KR20170086241A (en) * 2016-01-18 2017-07-26 계명대학교 산학협력단 Driving coach system and method capable of bio-feedback

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056785A (en) * 2003-06-16 2004-02-19 Hitachi Ltd On-board image processing apparatus

Also Published As

Publication number Publication date
KR20190054803A (en) 2019-05-22

Similar Documents

Publication Publication Date Title
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
Tasli et al. Remote PPG based vital sign measurement using adaptive facial regions
CN110751051B (en) Abnormal driving behavior detection method based on machine vision
US8369608B2 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
EP3087915A1 (en) Method and system for noise cleaning of photoplethysmogram signals for estimating blood pressure
Zhang et al. Webcam based non-contact real-time monitoring for the physiological parameters of drivers
CN105286802B (en) Driver Fatigue Detection based on video information
CN107451539B (en) Lane departure early warning method and system
JP2007186916A (en) Window image area detection device and power window device
TW201501044A (en) Apparatus, method and computer readable recording medium of generating signal by detecting facial action
US20180310844A1 (en) Pulse estimation device, pulse estimation system, and pulse estimation method
US10853622B2 (en) Driver monitoring device
Ahmed et al. Robust driver fatigue recognition using image processing
US20210224983A1 (en) System and Method for Remote Measurements of Vital Signs of a Person in a Volatile Environment
Alinovi et al. Spatio-temporal video processing for respiratory rate estimation
JP4397415B2 (en) Image processing method, image processing system, image processing apparatus, and computer program
KR101988581B1 (en) Method for estimating condition of driver
EP3850535A2 (en) Biometric data capturing and analysis
CN109426797B (en) Doze detection device and doze detection method thereof
CN110378183B (en) Image analysis device, image analysis method, and recording medium
US11161470B2 (en) Occupant observation device
JP2019028640A (en) Visual line detection device
JP4184133B2 (en) Image processing device
KR101582454B1 (en) Method for cognition of movement object in photographing image and system for prevention of vehicle boarding accident
US20200290544A1 (en) Occupant observation device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant