KR20190054803A - Appartus and method for estimating condition of driver - Google Patents
Appartus and method for estimating condition of driver Download PDFInfo
- Publication number
- KR20190054803A KR20190054803A KR1020170151789A KR20170151789A KR20190054803A KR 20190054803 A KR20190054803 A KR 20190054803A KR 1020170151789 A KR1020170151789 A KR 1020170151789A KR 20170151789 A KR20170151789 A KR 20170151789A KR 20190054803 A KR20190054803 A KR 20190054803A
- Authority
- KR
- South Korea
- Prior art keywords
- driver
- heart rate
- estimating
- face
- filtering
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G06K9/00845—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/15—Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G06K2009/00939—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Cardiology (AREA)
- Physiology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Traffic Control Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
Description
본 발명은 운전자 상태 추정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating a driver's condition.
일반적으로, 운전자 감시장치는 카메라를 이용하여 주행 중인 운전자를 촬영하고 촬영한 운전자의 얼굴 영상을 통하여 운전자의 운전 상태(곁눈질, 졸음 운전 여부, 주시점 등)를 판정한다. 또한, 운전자 감시장치는 주행 중 인 차량의 조타각 신호, 차속 신호 및 주행 위치 등을 이용하여 차량의 주행 상태를 판단한다. 그리고, 운전자 감시장치는 운전자 상태 및 주행 상태를 이용하여 운전자가 불안전 주행 상태이면 운전자에게 이를 경고함으로 써 안전 운전할 수 있게 한다.Generally, the driver's surveillance apparatus uses a camera to photograph a driver who is driving, and determines the driver's driving status (whether the driver is sideview, drowsy driving, or a point of view) through the face image of the driver. Further, the driver's surveillance apparatus judges the running state of the vehicle by using a steering angle signal, a vehicle speed signal, and a driving position of the running vehicle. The driver's monitoring device uses the driver's state and running state to warn the driver that the driver is in an unsafe driving state, thereby enabling safe driving.
본 발명의 목적은 간단하게 운전자의 상태를 추정하는 운전자 상태 추정 장치 및 그것의 방법을 제공하는데 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a driver condition estimating apparatus which estimates a driver's condition simply and a method thereof.
본 발명의 실시 예에 따른 차량 내의 운전자 상태를 추정하는 방법은: 카메라를 통해 운전자의 안면을 감지하는 단계; 혈압에 따른 상기 감지된 안면의 색조 변화를 감지하는 단계; 상기 색조 변화에 대응하는 심박수를 추정하는 단계; 및 상기 추정된 심박수에 의거하여 상기 운전자의 상태를 추정하는 단계를 포함할 수 있다.A method for estimating a driver condition in a vehicle according to an embodiment of the present invention includes: sensing a face of a driver through a camera; Detecting a change in hue of the sensed face according to a blood pressure; Estimating a heart rate corresponding to the color tone change; And estimating a state of the driver based on the estimated heart rate.
실시 예에 있어서, 상기 안면을 감지하는 단계는, 상기 안면의 랜드마크를 추출하는 단계; 상기 추출된 안면의 랜드마크에서 관심 영역을 크로핑 및 트래깅하는 단계; 및 상기 관심 영역에 대응하는 상기 운전자의 피부를 검출하는 단계를 포함할 수 있다.In an embodiment, the step of sensing the face includes: extracting a landmark of the face; Cropping and tracing a region of interest in the extracted facial landmarks; And detecting the skin of the driver corresponding to the area of interest.
실시 예에 있어서, 상기 관심 영역은 상기 운전자의 코와 볼 영역을 포함할 수 있다.In an embodiment, the region of interest may include the driver's nose and ball region.
실시 예에 있어서, 상기 색조 변화를 감지하는 단계는, 상기 관심 영역의 데이터에 대하여 임시 필터링하는 단계; 및 급변하는 심박수를 정렬하기 위하여 상기 필터링된 데이터에 대하여 임시 선택 룰을 수행하는 단계를 포함할 수 있다.In one embodiment, the step of detecting the hue change comprises: temporally filtering the data of the region of interest; And performing a temporal selection rule on the filtered data to sort the rapidly changing heart rate.
실시 예에 있어서, 상기 임시 필터링하는 단계는, 파장에 따른 반사율을 이용하여 상기 관심 영역의 데이터에서 기준값 이상의 변이를 제거하는 단계; 상기 변이가 제거된 데이터에 대하여 비추세화 및 정규화를 수행하는 단계; 배경 주파수 영역을 제거하기 위하여 상기 정규화된 데이터에 대하여 대역 필터링을 수행하는 단계; 빛의 색에 무관한 순수한 피부색을 검출하기 위하여 상기 대역 필터링된 데이터에서 XsminαYs 특징을 추출하는 단계; 및 상기 추출된 데이터에 대하여 PSD(power spectral density) 변환을 수행하는 단계를 포함할 수 있다.In an exemplary embodiment, the temporary filtering may include removing a variation of a reference value or more from data of the ROI using a reflectance according to a wavelength; Performing non-specification and normalization on the data from which the mutation has been removed; Performing band filtering on the normalized data to remove a background frequency domain; Extracting Xsmin? Ys features from the band-filtered data to detect pure skin color independent of color of light; And performing power spectral density (PSD) conversion on the extracted data.
실시 예에 있어서, 상기 기준값 이상의 변이를 제거하는 단계는, 구간별 표준 편차를 통해 급격한 신호 변동 구간을 제거하는 단계를 더 포함할 수 있다.In the embodiment, the step of removing the variation of the reference value or more may further include removing the steep signal variation period through the standard deviation of the interval.
실시 예에 있어서, 상기 비추세화 및 정규화를 수행하는 단계는, 심박수 추정을 위한 신호를 모델링하는 단계; 및 정규화된 최소 제곱 솔루션을 이용하여 상기 모델링된 신호를 정규화시키는 단계를 포함할 수 있다.In one embodiment, performing the normalization and normalization comprises: modeling a signal for heart rate estimation; And normalizing the modeled signal using a normalized least squares solution.
실시 예에 있어서, 상기 대역 필터링하는 단계는, n 차 해밍 윈도우를 이용하여 대역 필터링하는 단계를 포함할 수 있다.In an embodiment, the band filtering may include band filtering using an n-th Hamming window.
실시 예에 있어서, 상기 임시 필터링을 수행하는 단계는, 잔존하는 임시 잡음을 제거하기 위하여 무빙 평균 필터링(moving average filtering)을 수행하는 단계를 더 포함할 수 있다.In an embodiment, performing the temporal filtering may further comprise performing moving average filtering to remove residual temporal noise.
실시 예에 있어서, 상기 심박수를 추정하는 단계는, 최대 주파수 값을 통해 bpm(beats per minutes)을 추정하는 단계를 포함할 수 있다.In an embodiment, estimating the heart rate may include estimating beats per minute (bpm) over a maximum frequency value.
실시 예에 있어서, 임시 선택 룰을 수행하는 단계는, 이전 3 프레임 결과값에 대응하는 심박수 결과값과 비교를 통해 심박수를 탐지하는 단계; 및 상기 탐지된 심박수의 경우 상기 이전 3 프레임 결과값의 평균값을 통해 보간하는 단계를 포함할 수 있다.In an embodiment, performing the ad hoc selection rule comprises: detecting a heart rate through comparison with a heart rate result corresponding to a previous three frame result; And interpolating the average value of the previous three frame results in the case of the detected heart rate.
실시 예에 있어서, 상기 추정된 운전자의 상태와 관련된 경보를 음성 혹은 영상으로 상기 운전자에게 통지하거나 상기 차량의 주행에 이용하는 단계를 더 포함할 수 있다.The method may further include the step of informing the driver of an alarm related to the estimated driver's state by voice or video or using the alert to drive the vehicle.
본 발명의 실시 예에 따른 차량 내에 설치되는 운전자 상태 추정 장치는, 운전자의 안면을 감지하는 카메라; 및 상기 카메라로부터 감지된 안면의 색조 변화를 감지하고, 상기 감지된 색조 변화에 따른 상기 운전자의 심박수를 추정하는 운전자 상태 추정기를 포함할 수 있다.A driver condition estimating apparatus installed in a vehicle according to an embodiment of the present invention includes a camera for sensing a face of a driver; And a driver condition estimator that detects a change in color tone of the face detected by the camera and estimates a heart rate of the driver according to the sensed change in color tone.
실시 예에 있어서, 상기 운전자 상태 추정기는, 상기 안면의 특징점을 통해 관심 영역을 선정 및 추적을 수행하고, 상기 선정된 관심 영역에서 급격한 화소 변화 신호를 제거하고, 주파수 스펙트럼 변환을 통해 최대 주파수에 대응하는 심박수를 추정할 수 있다.In an exemplary embodiment, the driver state estimator may select and track a region of interest through the feature points of the face, remove a sharp pixel change signal in the selected region of interest, The heart rate can be estimated.
본 발명의 실시 예에 따른 운전자 상태 추정 장치 및 그것의 동작 방법은 운전자의 안면의 색조 변화를 통해 심박수를 추정함으로써, 심박수에 따른 운전자의 상태를 간단하게 추정할 수 있다.The driver condition estimating apparatus and the operating method thereof according to the embodiment of the present invention can easily estimate the driver's condition according to the heart rate by estimating the heart rate through the change of the color tone of the driver's face.
이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명의 실시 예에 따른 운전자 상태 추정이 가능한 차량(10)을 예시적으로 보여주는 도면이다.
도 2는 본 발명의 실시 예에 따른 차량(10)의 사고 방지 방법을 예시적으로 보여주는 흐름도이다.
도 3은 도 2에 도시된 운전자 얼굴 추출하는 단계(S110)를 좀 더 자세하게 보여주는 흐름도이다.
도 4는 도 3에 도시된 운전자의 얼굴 랜드마크를 추출하는 단계(S111)를 자세하게 보여주는 도면이다.
도 5는 도 2에 도시된 운전자 심박수 추정 단계(S120)를 좀 더 자세하게 보여주는 흐름도이다.
도 6 및 도 7은 도 5에 도시된 임시 필터링하는 단계(S121)를 좀 더 자세하게 보여주는 도면들이다.
도 8 및 도 9는 본 발명의 실시 예에 따른 급격한 변이를 제거하는 방법을 설명하는 도면들이다.
도 10은 n차 해밍 윈도우를 이용한 대역 필터링을 보여주는 도면이다.
도 11은 본 발명의 실시 예에 따른 임시 선택 룰 과정을 설명하는 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention. However, the technical features of the present embodiment are not limited to the specific drawings, and the features disclosed in the drawings may be combined with each other to constitute a new embodiment.
FIG. 1 is an exemplary view showing a
2 is a flow chart illustrating an exemplary method of preventing an accident of a
FIG. 3 is a flowchart showing the driver face extraction step (S110) shown in FIG. 2 in more detail.
FIG. 4 is a detailed view showing the step S111 of extracting the face landmark of the driver shown in FIG. 3. FIG.
FIG. 5 is a flowchart showing the driver's heart rate estimation step S120 shown in FIG. 2 in more detail.
FIGS. 6 and 7 are views showing the temporary filtering step S121 shown in FIG. 5 in more detail.
FIGS. 8 and 9 are diagrams illustrating a method of eliminating a sudden variation according to an embodiment of the present invention.
10 is a diagram illustrating band filtering using an n-th order Hamming window.
11 is a view for explaining a provisional selection rule process according to an embodiment of the present invention.
아래에서는 도면들을 이용하여 본 발명의 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 본 발명의 내용을 명확하고 상세하게 기재할 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms.
상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 혹은 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.The terms may be used for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 혹은 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함하다" 혹은 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 혹은 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것들의 존재 혹은 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In this application, the terms "comprises" or "having" are intended to specify the presence of stated features, integers, steps, operations, components, parts, or combinations thereof, wherein one or more other features, , Steps, operations, components, parts, or combinations thereof, as a matter of course. Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be construed as meaning consistent with meaning in the context of the relevant art and are not to be construed as ideal or overly formal in meaning unless expressly defined in the present application .
도 1은 본 발명의 실시 예에 따른 운전자 심박 추정이 가능한 차량(10)을 예시적으로 보여주는 도면이다. 도 1을 참조하면, 차량(10)은 카메라(100) 및 운전자 상태 추정기(200)를 포함할 수 있다. FIG. 1 is an exemplary view showing a
카메라(100)는 운전자의 얼굴을 인식하도록 구현될 수 있다. 실시 예에 있어서, 카메라(100)는 운전자의 얼굴 중에서 사전에 결정된 영역을 중심으로 사전에 결정된 영역만큼의 이미지를 촬상 하도록 구현될 수 있다. 실시 예에 있어서, 카메라(100)는 차량(10) 내부에 부착될 수 있다. 실시 예에 있어서, 카메라(100)는 이미지를 캡쳐하기 위한 센서의 방향을 자유롭게 움직일 수 있도록 부착될 수 있다. 즉, 카메라(100)의 틸팅각(tilting angle)은 임의로 조정 가능할 수 있다.The
실시 예에 있어서, 카메라(100)는 CCD(charge coupled device) 영상센서(image sensor), MOS(metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.In an embodiment, the
운전자 상태 추정기(200)는 카메라(100)로부터 전송된 얼굴 이미지를 분석 및 처리함으로써 운전자의 심박수(heart rate; HR)를 추정하도록 구현될 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 ECU(electronic control unit)으로 구현될 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 운전자 심박 추정 알고리즘에 의거하여 동작될 수 있다. 여기서 운전자 심박 추정 알고리즘은 혈압에 따른 안면 색조 변화를 감지하고, 안면 색조 변화에 대응하는 심박수를 추정할 수 있다.The
또한, 운전자 상태 추정기(200)는 입력 영상 내 얼굴 검출 및 관심 영역을 추출하고, 관심 영역을 추적하고, 특징 신호를 추출하고, 심박수를 추정할 수 있다. 실시 예에 있어서, 특징 신호를 추출하기 위하여 관심 영역 신호 특징을 변환시킬 수 있다. 실시 예에 있어서, 심박수 추정을 위하여 주파수 변환을 이용할 수 있다. 실시 예에 있어서, 운전자 상태 추정기(200)는 이미지 센서 프로세서(image sensor processor; ISP) 칩으로 구현될 수 있다. 한편, 도시되지 않았지만, 차량(10)은 운전자 상태 추정기(200)에서 처리된 정보를 디스플레이 하는 디스플레이 장치(예를 들어, 네비게이션 등)를 더 포함할 수 있다.In addition, the
본 발명의 실시 예에 따른 차량(10)은 차량용 카메라(100)을 통해 습득된 운전자 영상을 이용하여 혈압에 의한 안면 색조 변화를 감지함으로써, 운전자의 건강 및 심리 상태를 추정할 수 있다. 특히, 본 발명의 실시 예에 따른 차량(10)은 실외 환경에서 발생하는 빛 변화, 블러링(blurring) 현상 보정을 위한 왜곡 신호 필터링을 통해 차량 운전자의 심박수를 보다 정밀하게 추정할 수 있다.The
도 2는 본 발명의 실시 예에 따른 차량(10)의 사고 방지 방법을 예시적으로 보여주는 흐름도이다. 도 1 및 도 2를 참조하면, 차량(10)의 사고 방지 방법은 다음과 같이 진행될 수 있다.2 is a flow chart illustrating an exemplary method of preventing an accident of a
주행시 카메라(100)는 실시간으로 운전자를 촬영하고, 운전자의 얼굴에 대한 특정 영역을 추출할 수 있다(S110). 주행시 카메라(100)의 온/오프는 운전자의 선택에 의해 옵션적으로 결정될 수 있다. 실시 예에 있어서, 입력 영상의 얼굴 검출 및 특징점이 추출될 수 있다. 실시 예에 있어서, 코 끝을 기준으로 양쪽 볼 관심 영역 좌표가 검출될 수 있다. During driving, the
운전자 상태 추정기(200)는 카메라(100)로부터 촬영된 영상 정보를 수신 받고, 혈압에 따른 운전자의 안면 색조 변화를 감지할 수 있다(S120). 실시 예에 있어서, 운전자의 안면 색조 변화는 학습에 의해 감지될 수 있다. 다른 실시 예에 있어서, 운전자의 안면 색조 변화는 평상시 운전자에 저장된 정보와 비교함으로써 감지될 수도 있다. 실시 예에 있어서, 빛 변화에 강인한 심박수 추정을 위해서, R, G, B 채널의 조합을 통해 신호 변환이 수행될 수 있다. 실시 예에 있어서, 특정 신호가 필터링 될 수 있다. 이러한 필터링은, 변환된 특징 신호를 일정 간격으로 중첩되게 분할하고, 분할 영역의 동적 영역 및 변동량을 분석하고, 왜곡 신호를 분리하고, 디트렌딩(detrending) 및 대역 필터링(bandpass filtering)을 하고, XminY 특징 신호 변환을 수행하는 것을 포함할 수 있다. The
운전자 상태 추정기(200)는 안면 색조 변화에 대응하는 심박수를 추정할 수 있다(S130). 운전자 상태 추정기(200)는 ROI(range of interest; 관심 영역) 추적 기술과 주파수 분석을 이용함으로써 rPPG(remote photoplethysmography)의 신뢰성을 향상시킬 수 있다. 실시 예에 있어서, 특징 신호의 주파수 변환이 수행되고, PSD(power spectrum density)가 가장 높은 주파수가 값을 통해 심박수가 추정될 수 있다.The
운전자 상태 추정기(200)는 추정된 심박수를 근거로 하여 운전자의 상태(졸음, 화남, 아픔, 등)를 추정할 수 있다(S140).The
이후, 추정된 운전자의 상태에 대응하는 경고가 음성 혹은 영상으로 운전자에게 알려지거나(네비게이션 기반 심박수 결과 출력), 차량 안전 관련 상위 시스템(파워트레인 등)에 전송될 수 있다. 이로써, 운전 사고가 방지될 수 있다(S150). Thereafter, a warning corresponding to the estimated driver's condition may be notified to the driver by audio or video (output of navigation-based heart rate result), or may be transmitted to an upper-level vehicle safety-related system (power train, etc.). Thus, a driving accident can be prevented (S150).
본 발명의 실시 예에 따른 운전자 심박수 추정 방법은, 실외 혹은 차량 영상에서 관심 영역을 추출하고, 관심 영역을 추적하고, 실외 환경에 따른 왜곡 신호 필터링을 수행하고, 특징 신호 변환을 수행하고, 주파수 분석 기반으로 심박수를 추정할 수 있다. 본 발명의 운전자 심박수 추정 방법은, 실외 환경에서 발생하는 빛 변화, blur 현상 보정을 위한 왜곡 신호 필터링을 수행함으로써 차량 운전자의 심박수를 보다 정밀하게 수행할 수 있다.The method of estimating driver's heart rate according to an embodiment of the present invention includes extracting a region of interest in an outdoor or vehicle image, tracking a region of interest, performing distortion signal filtering according to an outdoor environment, performing a feature signal conversion, The heart rate can be estimated based on The driver's heart rate estimation method of the present invention can perform the distortion of the signal for correcting the blur phenomenon and the light change occurring in the outdoor environment, thereby performing the heart rate of the driver more accurately.
본 발명에 따른 단계들 및/또는 동작들은 기술분야의 통상의 기술자에 의해 이해될 수 있는 것과 같이, 다른 순서로, 또는 병렬적으로, 또는 다른 에포크(epoch) 등을 위해 다른 실시 예들에서 동시에 일어날 수 있다.The steps and / or operations in accordance with the present invention may occur in different orders, in parallel, or concurrently in other embodiments for other epochs or the like, as may be understood by one of ordinary skill in the art .
실시 예에 따라서는, 단계들 및/또는 동작들의 일부 또는 전부는 하나 이상의 비-일시적 컴퓨터-판독가능 매체에 저장된 명령, 프로그램, 상호작용 데이터 구조(interactive data structure), 클라이언트 및/또는 서버를 구동하는 하나 이상의 프로세서들을 사용하여 적어도 일부가 구현되거나 또는 수행될 수 있다. 하나 이상의 비-일시적 컴퓨터-판독가능 매체는 예시적으로 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합일 수 있다. 또한, 본 명세서에서 논의된 "모듈"의 기능은 소프트웨어, 펌웨어, 하드웨어, 및/또는 그것들의 어떠한 조합으로 구현될 수 있다.Depending on the embodiment, some or all of the steps and / or operations may be performed on one or more non-transitory computer-readable media, including instructions, programs, interactive data structures, At least some of which may be implemented or performed using one or more processors. The one or more non-transitory computer-readable media can be, by way of example, software, firmware, hardware, and / or any combination thereof. Further, the functions of the " module " discussed herein may be implemented in software, firmware, hardware, and / or any combination thereof.
본 발명의 실시 예들의 하나 이상의 동작들/단계들/모듈들을 구현/수행하기 위한 하나 이상의 비-일시적 컴퓨터-판독가능 매체 및/또는 수단들은 ASICs(application-specific integrated circuits), 표준 집적 회로들, 마이크로 컨트롤러를 포함하는, 적절한 명령들을 수행하는 컨트롤러, 및/또는 임베디드 컨트롤러, FPGAs(field-programmable gate arrays), CPLDs(complex programmable logic devices), 및 그와 같은 것들을 포함할 수 있지만, 여기에 한정되지는 않는다. One or more non-transitory computer-readable media and / or means for implementing / performing one or more operations / steps / modules of embodiments of the present invention may be implemented as application-specific integrated circuits (ASICs), standard integrated circuits, But are not limited to, controllers that perform appropriate instructions, including microcontrollers, and / or embedded controllers, field-programmable gate arrays (FPGAs), complex programmable logic devices (CPLDs) .
도 3은 도 2에 도시된 운전자 얼굴 추출하는 단계(S110)를 좀 더 자세하게 보여주는 흐름도이다. 도 1 내지 도 3을 참조하면, 운전자 얼굴 추출하는 단계(S110)는, 운전자의 얼굴 랜드마크(face landmark)를 추출하는 단계(S111), ROI(관심영역) 크로핑(cropping) 및 트래킹(tracking) 단계(S112) 및 피부 검출하는 단계(S113)을 포함할 수 있다. FIG. 3 is a flowchart showing the driver face extraction step (S110) shown in FIG. 2 in more detail. 1 to 3, a step S110 of extracting a driver face includes extracting a face landmark of a driver S111, ROI (Interest Area) cropping and tracking ) Step S112 and skin detection step S113.
도 4는 도 3에 도시된 운전자의 얼굴 랜드마크를 추출하는 단계(S111)를 자세하게 보여주는 도면이다. 도 4를 참조하면, 얼굴 랜드마크를 추출하는 단계(S111)는 표정 변화와 같은 non-rigid motion의 간섭을 줄이기 위해 66개의 얼굴 랜드마크를 통해 정교하게 ROI(관심 영역)을 추출할 수 있다.FIG. 4 is a detailed view showing the step S111 of extracting the face landmark of the driver shown in FIG. 3. FIG. Referring to FIG. 4, in step S111 of extracting a face landmark, ROI (ROI) can be extracted through 66 face landmarks in order to reduce interference of non-rigid motion such as facial expression change.
실시 예에 있어서, 혈색 신호가 가장 명확히 반영되는 코와 볼 영역이 ROI 로 선택될 수 있다.In an embodiment, the nose and ball area, where the hue signal is most clearly reflected, may be selected as the ROI.
실시 예에 있어서, 주행시 진동 및 조명변화에 대응하기 위하여 검출된 영역에 트래킹이 적용될 수 있다.In an embodiment, tracking can be applied to the detected area to accommodate vibration and lighting changes during travel.
도 5는 도 2에 도시된 운전자 심박수 추정 단계(S120)를 좀 더 자세하게 보여주는 흐름도이다. 도 5를 참조하면, 운전자 심박수 추정 단계(S120)는, ROI 영역을 임시 필터링(temporal filtering) 하는 단계(S121), 및 임시 선택 룰(temporal selection rule) 단계(S122)를 포함할 수 있다.FIG. 5 is a flowchart showing the driver's heart rate estimation step S120 shown in FIG. 2 in more detail. Referring to FIG. 5, the driver's heart rate estimation step S120 may include a temporal filtering step S121 and an temporal selection rule step S122 of the ROI area.
도 6 및 도 7은 도 5에 도시된 임시 필터링하는 단계(S121)를 좀 더 자세하게 보여주는 도면들이다. 도 6 및 도 7을 참조하면, 임시 필터링하는 단계(S121)는, 급격한 변이(기준값 이상의 변이)를 제거하는 단계(S121-1), 비추세화(detrending with smoothed prior) 및 정규화(normalizing) 시키는 단계(S121-2), 해밍 윈도우(hamming window)로 대역 필터링(bandpass filtering) 하는 단계(S121-3), XsminαYs 특징 추출 단계(S121-4), 및 웰치(welch) PSD(power spectrum density) 변환 단계(S121-5)를 포함할 수 있다.FIGS. 6 and 7 are views showing the temporary filtering step S121 shown in FIG. 5 in more detail. 6 and 7, the temporary filtering step S121 includes steps S121-1 to S121-1 of removing a sudden variation (variation of a reference value or more), detrending with smoothed prior and normalizing (S121-2), a Hamming window (hamming window) to the band filter (bandpass filtering) step (S121-3), X s s minαY feature extraction step (S121-4), and Welch (welch) PSD (power spectrum density that ) Conversion step S121-5.
아래에서는 급격한 변이를 제거하는 단계(S121-1)를 좀 더 자세하게 설명하겠다. 도 8 및 도 9는 본 발명의 실시 예에 따른 급격한 변이를 제거하는 방법을 설명하는 도면이다. 도 8를 참조하면, 혈색소의 경우 G(green) 채널에서 반사율이 가장 높은 반면에, R(red) 채널에서 반사율이 가장 낮다. 얼굴 내, 빛 변화에 따른 왜곡 신호 추정을 위해 아래의 수식이 이용될 수 있다.Hereinafter, step S121-1 for eliminating abrupt variation will be described in more detail. FIGS. 8 and 9 are views for explaining a method of eliminating abrupt variations according to an embodiment of the present invention. Referring to FIG. 8, the hemoglobin has the highest reflectance at the G (green) channel, while the reflectance at the R (red) channel is the lowest. The following equation can be used to estimate the distortion signal according to the light change in the face.
한편, 주행시 발생하는 급격한 조도 변화는 심박수의 추정에 효과적이지 않다. 도 9에 도시된 바와 같이, 구간별 표준 편차(std)를 통해 급격한 신호 변동 구간이 제거될 수 있다.On the other hand, sudden changes in illumination occurring during driving are not effective in estimating the heart rate. As shown in FIG. 9, the steep signal variation period can be eliminated through the standard deviation std.
또한, 아래에서는 비추세화(detrending with smoothed prior) 및 정규화(normalizing) 시키는 단계(S121-2)를 좀 더 자세하게 설명하겠다. 심박수 추정을 위한 신호의 경우 주기성을 갖게 되면 stationary 한 특성을 가진다. Stationary 신호를 비주기성 신호로부터 분리하기 위해 detrending(비추세화) 기술이 적용될 수 있다. 여기서 입력 신호는 다음의 수식으로 모델링 될 수 있다.In the following, we will describe in more detail the steps of detrending with smoothed prior and normalizing (S121-2). If the signal for estimating the heart rate has a periodicity, it has a stationary characteristic. A detrending technique can be applied to separate the stationary signal from the non-periodic signal. Here, the input signal can be modeled by the following equation.
또한, 정규화된 최소 제곱 공식은 아래의 수식을 만족할 수 있다.Also, the normalized least squares formula can satisfy the following equation.
여기서 zstat: stationary signal, ztrend: aperiodic signal, H: observation matrix, θ: regression parameter, v: error, Dd: d-th derivative operator 이다.Where z stat is the stationary signal, z trend is the aperiodic signal, H is the observation matrix, θ is the regression parameter, v is the error, and D d is the d-th derivative operator.
이때, 최종적인 정규화된 신호는 아래의 수식을 만족할 수 있다.At this time, the final normalized signal can satisfy the following equation.
또한, 아래에서는 해밍 윈도우(hamming window)로 대역 필터링(bandpass filtering) 하는 단계(S121-3)를 자세하게 설명하겠다. 심박수 구간이 아닌 주파수 성분의 경우, 심박 추정에 있어서 오차 발생 가능성이 있다. 이에 배경 주파수 영역 제거를 위해 대역 필터링이 수행될 수 있다. 도 10에 도시된 바와 같이, n차 해밍 윈도우는 아래의 수식을 만족할 수 있다.Hereinafter, the step S121-3 of performing bandpass filtering with a hamming window will be described in detail. In the case of frequency components other than the heart rate interval, there is a possibility of an error in the heartbeat estimation. Therefore, band filtering can be performed to remove the background frequency domain. As shown in FIG. 10, the n-th order Hamming window can satisfy the following equation.
또한, 아래에서는 XsminαYs 특징 추출 방법을 설명하는 도면이다. 빛의 색에 무관한 피부색 추출 위해 표준화된 X, Y 아래의 수식으로 추출될 수 있다.Also, in the following description, the X s min αY s feature extraction method is described. It can be extracted by the standardized X, Y formula below to extract skin color irrespective of color of light.
한편, 피부의 표준화 이후 보정을 위해 대역 필터링된 X, Y 신호가 이용될 수 있다. 신호의 변이 보정을 통해 빛 변화 대응은 아래의 수식과 같이 가능하다.On the other hand, band-filtered X, Y signals can be used for correction after skin normalization. The response of the light change through the correction of the mutation of the signal is possible as the following equation.
한편, 잔존하는 임시 잡음 제거를 위해 이동 평균 필터링(moving average filtering)이 적용될 수 있다. M-포인트 이동 평균 필터링은 아래의 수식을 만족할 수 있다.On the other hand, moving average filtering may be applied to remove the residual temporary noise. The M-point moving average filtering can satisfy the following equation.
한편, 아래에서는 웰치(welch) PSD 변환 단계(S121-5)를 자세하게 설명하겠다. 주요한 주파수 성분 추정을 위해 PSD(power spectrum density) 변환이 수행될 수 있다. 실시 예에 있어서, 잡음에 강인한 웰치 방식(Welch's method)의 PSD 변환이 수행될 수 있다. PSD 변환은 아래의 수식을 만족할 수 있다.On the other hand, the Welch PSD conversion step (S121-5) will be described in detail below. A power spectrum density (PSD) conversion can be performed to estimate the dominant frequency component. In an embodiment, noise-robust Welch's method PSD transformation can be performed. The PSD conversion can satisfy the following equation.
여기서, Q: segment length, w: gaussian weight 이다.Where Q is the segment length, and w is the gaussian weight.
한편, 심박수 추정은 최대 주파수 값을 통해 bpm(beats per minute)를 아래의 수식으로 계산할 수 있다.On the other hand, the heart rate can be calculated from the maximum frequency value by using the following equation: beats per minute (bpm)
도 11은 본 발명의 실시 예에 따른 임시 선택 룰 과정을 설명하는 도면이다. 도 11을 참조하면, 3 프레임 이전 결과값과 심박수 결과 값 비교를 통하여 급변하는 심박수가 탐지될 수 있다. 실시 예에 있어서, 탐지된 심박수의 경우 이전 3 프레임 결과값의 평균값을 통해 아래의 수식과 같이 보간 될 수 있다. 11 is a view for explaining a provisional selection rule process according to an embodiment of the present invention. Referring to FIG. 11, a rapidly changing heart rate can be detected by comparing the heart rate result with the result of 3 frames before. In an embodiment, the detected heart rate may be interpolated through an average of the previous three frame results as: < RTI ID = 0.0 >
실시 예에 있어서, 변동량의 문턱값(thr)은 5로 고정될 수 있다. 하지만, 변동량의 문턱값(thr)이 여기에 제한되지 않는다고 이해되어야 할 것이다.In the embodiment, the threshold value thr of the variation amount can be fixed to 5. However, it should be understood that the threshold value thr of the variation amount is not limited thereto.
본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, DRMF를 통해 얼굴의 특징점을 통해 ROI 선정 및 KCF를 통해 추적 수행할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention can perform tracking through ROI selection and KCF through feature points of a face through DRMF.
본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 일정 구간 내, GoverR화소값 변화를 통해 급격한 화소값 변화 신호 제외할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention can exclude a sharp pixel value change signal through a Gover R pixel value change within a certain period.
본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, XminY신호 변환을 수행하고, PSD의 최대 주파수를 통해 심박수 추정할 수 있다.The driver's heart rate estimation algorithm according to the embodiment of the present invention can perform XminY signal conversion and estimate the heart rate through the maximum frequency of the PSD.
본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 임시 선택 룰을 통해 급변하는 심박수 값 정렬 수행할 수 있다.The driver's heart rate estimation algorithm according to the embodiment of the present invention can perform rapid change of the heart rate value through the provisional selection rule.
본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 정차DB 10개의 경우 오차율 10%이내 만족할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention can be satisfied within an error rate of 10% in the case of 10 stop DBs.
본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 주행DB 10개의 경우 일부 구간 10%초반 오차 발생할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention may cause an error of 10% at some intervals in 10 travel DBs.
본 발명의 실시 예에 따른 운전자 심박 추정 알고리즘은, 주행 및 고개 돌림 DB의 경우 강한 빛 변화로 인한 10%이상 오차 발생할 수 있다.The driver's heartbeat estimation algorithm according to the embodiment of the present invention may cause an error of more than 10% due to the strong light change in the driving and the head turning DB.
한편, 상술 된 본 발명의 내용은 발명을 실시하기 위한 구체적인 실시 예들에 불과하다. 본 발명은 구체적이고 실제로 이용할 수 있는 수단 자체뿐 아니라, 장차 기술로 활용할 수 있는 추상적이고 개념적인 아이디어인 기술적 사상을 포함할 것이다.The above-described contents of the present invention are only specific examples for carrying out the invention. The present invention will include not only concrete and practical means themselves, but also technical ideas which are abstract and conceptual ideas that can be utilized as future technologies.
10: 차량
100: 카메라
200: 운전자 상태 추정기10: Vehicle
100: camera
200: Driver condition estimator
Claims (14)
카메라를 통해 운전자의 안면을 감지하는 단계;
혈압에 따른 상기 감지된 안면의 색조 변화를 감지하는 단계;
상기 색조 변화에 대응하는 심박수를 추정하는 단계; 및
상기 추정된 심박수에 의거하여 상기 운전자의 상태를 추정하는 단계를 포함하는 방법.A method for estimating a driver condition in a vehicle, comprising:
Sensing a face of a driver through a camera;
Detecting a change in hue of the sensed face according to a blood pressure;
Estimating a heart rate corresponding to the color tone change; And
And estimating a state of the driver based on the estimated heart rate.
상기 안면을 감지하는 단계는,
상기 안면의 랜드마크를 추출하는 단계;
상기 추출된 안면의 랜드마크에서 관심 영역을 크로핑 및 트래깅하는 단계; 및
상기 관심 영역에 대응하는 상기 운전자의 피부를 검출하는 단계를 포함하는 방법.The method according to claim 1,
The method of claim 1,
Extracting a landmark on the face;
Cropping and tracing a region of interest in the extracted facial landmarks; And
And detecting the skin of the driver corresponding to the region of interest.
상기 관심 영역은 상기 운전자의 코와 볼 영역을 포함하는 방법.3. The method of claim 2,
Wherein the region of interest comprises the nose and ball region of the driver.
상기 색조 변화를 감지하는 단계는,
상기 관심 영역의 데이터에 대하여 임시 필터링하는 단계; 및
급변하는 심박수를 정렬하기 위하여 상기 필터링된 데이터에 대하여 임시 선택 룰을 수행하는 단계를 포함하는 방법.The method according to claim 1,
Wherein the step of sensing the color tone change comprises:
Temporally filtering the data of the ROI; And
And performing a temporary selection rule for the filtered data to sort the rapidly changing heart rate.
상기 임시 필터링하는 단계는,
파장에 따른 반사율을 이용하여 상기 관심 영역의 데이터에서 기준값 이상의 변이를 제거하는 단계;
상기 변이가 제거된 데이터에 대하여 비추세화 및 정규화를 수행하는 단계;
배경 주파수 영역을 제거하기 위하여 상기 정규화된 데이터에 대하여 대역 필터링을 수행하는 단계;
빛의 색에 무관한 순수한 피부색을 검출하기 위하여 상기 대역 필터링된 데이터에서 XsminαYs 특징을 추출하는 단계; 및
상기 추출된 데이터에 대하여 PSD(power spectral density) 변환을 수행하는 단계를 포함하는 방법.5. The method of claim 4,
Wherein the temporary filtering comprises:
Removing a variation of a reference value or more from the data of the ROI using the reflectance along the wavelength;
Performing non-specification and normalization on the data from which the mutation has been removed;
Performing band filtering on the normalized data to remove a background frequency domain;
Extracting Xsmin? Ys features from the band-filtered data to detect pure skin color independent of color of light; And
And performing a power spectral density (PSD) conversion on the extracted data.
상기 기준값 이상의 변이를 제거하는 단계는,
구간별 표준 편차를 통해 급격한 신호 변동 구간을 제거하는 단계를 더 포함하는 방법.6. The method of claim 5,
The step of removing a variation of the reference value or more includes:
And removing the steep signal variation period through the standard deviation of the intervals.
상기 비추세화 및 정규화를 수행하는 단계는,
심박수 추정을 위한 신호를 모델링하는 단계; 및
정규화된 최소 제곱 솔루션을 이용하여 상기 모델링된 신호를 정규화시키는 단계를 포함하는 방법. 6. The method of claim 5,
The step of performing the normalization and normalization comprises:
Modeling a signal for heart rate estimation; And
And normalizing the modeled signal using a normalized least squares solution.
상기 대역 필터링하는 단계는,
n 차 해밍 윈도우를 이용하여 대역 필터링하는 단계를 포함하는 방법.6. The method of claim 5,
Wherein the band-
and band filtering using an nth order Hamming window.
상기 임시 필터링을 수행하는 단계는,
잔존하는 임시 잡음을 제거하기 위하여 무빙 평균 필터링(moving average filtering)을 수행하는 단계를 더 포함하는 방법.6. The method of claim 5,
Wherein the performing the temporal filtering comprises:
Further comprising performing moving average filtering to remove residual temporal noise.
상기 심박수를 추정하는 단계는,
최대 주파수 값을 통해 bpm(beats per minutes)을 추정하는 단계를 포함하는 방법.10. The method of claim 9,
The step of estimating the heart rate comprises:
And estimating beats per minute (bpm) through the maximum frequency value.
임시 선택 룰을 수행하는 단계는,
이전 3 프레임 결과값에 대응하는 심박수 결과값과 비교를 통해 심박수를 탐지하는 단계; 및
상기 탐지된 심박수의 경우 상기 이전 3 프레임 결과값의 평균값을 통해 보간하는 단계를 포함하는 방법. 5. The method of claim 4,
The step of performing the temporary selection rule includes:
Detecting a heart rate through comparison with a heart rate result value corresponding to a previous three frame result value; And
Interpolating over the mean of the previous three frame results in the case of the detected heart rate.
상기 추정된 운전자의 상태와 관련된 경보를 음성 혹은 영상으로 상기 운전자에게 통지하거나 상기 차량의 주행에 이용하는 단계를 더 포함하는 방법.The method according to claim 1,
Further comprising the step of notifying the driver of an alarm associated with the estimated driver's condition by voice or video or using the alert to drive the vehicle.
운전자의 안면을 감지하는 카메라; 및
상기 카메라로부터 감지된 안면의 색조 변화를 감지하고, 상기 감지된 색조 변화에 따른 상기 운전자의 심박수를 추정하는 운전자 상태 추정기를 포함하는 운전자 상태 추정 장치.1. A driver condition estimating apparatus installed in a vehicle, comprising:
A camera for sensing the driver's face; And
And a driver state estimator for sensing a change in color tone of the face detected by the camera and estimating a heart rate of the driver according to the sensed change in color tone.
상기 운전자 상태 추정기는,
상기 안면의 특징점을 통해 관심 영역을 선정 및 추적을 수행하고, 상기 선정된 관심 영역에서 급격한 화소 변화 신호를 제거하고, 주파수 스펙트럼 변환을 통해 최대 주파수에 대응하는 심박수를 추정하는 운전자 상태 추정 장치.14. The method of claim 13,
Wherein the driver state estimator comprises:
A driver for selecting a region of interest through a feature point of the face, removing a sharp pixel change signal in the selected region of interest, and estimating a heart rate corresponding to a maximum frequency through frequency spectrum conversion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170151789A KR101988581B1 (en) | 2017-11-14 | 2017-11-14 | Method for estimating condition of driver |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170151789A KR101988581B1 (en) | 2017-11-14 | 2017-11-14 | Method for estimating condition of driver |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190054803A true KR20190054803A (en) | 2019-05-22 |
KR101988581B1 KR101988581B1 (en) | 2019-09-24 |
Family
ID=66679729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170151789A KR101988581B1 (en) | 2017-11-14 | 2017-11-14 | Method for estimating condition of driver |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101988581B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230064011A (en) * | 2021-11-01 | 2023-05-10 | 정익중 | Analysis system of circumstantial judgement based on voice with image pattern and operating method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004056785A (en) * | 2003-06-16 | 2004-02-19 | Hitachi Ltd | On-board image processing apparatus |
JP2015194884A (en) | 2014-03-31 | 2015-11-05 | パナソニックIpマネジメント株式会社 | driver monitoring system |
KR101619651B1 (en) | 2014-11-26 | 2016-05-10 | 현대자동차주식회사 | Driver Monitoring Apparatus and Method for Controlling Lighting thereof |
KR20170086241A (en) * | 2016-01-18 | 2017-07-26 | 계명대학교 산학협력단 | Driving coach system and method capable of bio-feedback |
-
2017
- 2017-11-14 KR KR1020170151789A patent/KR101988581B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004056785A (en) * | 2003-06-16 | 2004-02-19 | Hitachi Ltd | On-board image processing apparatus |
JP2015194884A (en) | 2014-03-31 | 2015-11-05 | パナソニックIpマネジメント株式会社 | driver monitoring system |
KR101619651B1 (en) | 2014-11-26 | 2016-05-10 | 현대자동차주식회사 | Driver Monitoring Apparatus and Method for Controlling Lighting thereof |
KR20170086241A (en) * | 2016-01-18 | 2017-07-26 | 계명대학교 산학협력단 | Driving coach system and method capable of bio-feedback |
Non-Patent Citations (1)
Title |
---|
국제출원번호: WO2015/030219, 공개일: 2015년 11월 19일, 제목: DRIVER HEALTH AND FATIGUE MONITORING SYSTEM AND METHOD. |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230064011A (en) * | 2021-11-01 | 2023-05-10 | 정익중 | Analysis system of circumstantial judgement based on voice with image pattern and operating method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR101988581B1 (en) | 2019-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110751051B (en) | Abnormal driving behavior detection method based on machine vision | |
US20200334477A1 (en) | State estimation apparatus, state estimation method, and state estimation program | |
US8369608B2 (en) | System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions | |
CN108693973B (en) | Emergency condition detection system fusing electroencephalogram signals and environmental information | |
US9220454B2 (en) | Device and method for detecting drowsiness using eyelid movement | |
CN107451539B (en) | Lane departure early warning method and system | |
JP6155184B2 (en) | Vital data processing method and vital data measuring device | |
Ahmed et al. | Robust driver fatigue recognition using image processing | |
TW201501044A (en) | Apparatus, method and computer readable recording medium of generating signal by detecting facial action | |
JP2007186916A (en) | Window image area detection device and power window device | |
Park et al. | Remote pulse rate measurement from near-infrared videos | |
US20220277570A1 (en) | Cognitive function estimation device, learning device, and cognitive function estimation method | |
Wang et al. | A method of detecting driver drowsiness state based on multi-features of face | |
JP2010191793A (en) | Alarm display and alarm display method | |
EP3850535A2 (en) | Biometric data capturing and analysis | |
JP3012226B2 (en) | Drowsy driving prevention device | |
KR20190054803A (en) | Appartus and method for estimating condition of driver | |
WO2008020458A2 (en) | A method and system to detect drowsy state of driver | |
KR20230161443A (en) | Method and system for heart rate extraction from RBB images | |
JP3984863B2 (en) | Start notification device | |
US10945651B2 (en) | Arousal level determination device | |
CN113693573B (en) | Video-based non-contact multi-physiological-parameter monitoring system and method | |
JP2020149499A (en) | Occupant observation device | |
Lee et al. | Robust remote heart rate estimation in car driving environment | |
KR101582454B1 (en) | Method for cognition of movement object in photographing image and system for prevention of vehicle boarding accident |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |