DE102017118636B3 - Method for contactless determination of the heart rate of a person - Google Patents

Method for contactless determination of the heart rate of a person Download PDF

Info

Publication number
DE102017118636B3
DE102017118636B3 DE102017118636.0A DE102017118636A DE102017118636B3 DE 102017118636 B3 DE102017118636 B3 DE 102017118636B3 DE 102017118636 A DE102017118636 A DE 102017118636A DE 102017118636 B3 DE102017118636 B3 DE 102017118636B3
Authority
DE
Germany
Prior art keywords
pixels
heart rate
image sequence
rgb image
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017118636.0A
Other languages
German (de)
Inventor
Jingting Sun
Christian WIEDE
Gangolf Hitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technische Universitaet Chemnitz
Original Assignee
Technische Universitaet Chemnitz
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Universitaet Chemnitz filed Critical Technische Universitaet Chemnitz
Priority to DE102017118636.0A priority Critical patent/DE102017118636B3/en
Application granted granted Critical
Publication of DE102017118636B3 publication Critical patent/DE102017118636B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • A61B5/02427Details of sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • A61B5/7485Automatic selection of region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/08Elderly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/07Home care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

Die Erfindung betrifft ein Verfahren zur kontaktlosen Bestimmung der Herzfrequenz (17) einer Person unter Verwendung einer fortlaufenden RGB-Bildsequenz aufweisend die folgenden Schritte:a. Aufnahme einer RGB-Bildsequenz und Übermittlung der RGB-Bildsequenz an eine Verarbeitungseinheit,b. Auswahl von wenigstens drei Regionen in einem in der RGB-Bildsequenz detektierten Gesicht einer Person, dessen Orientierung ermittelt wurde,c. Tracking des Gesichtes parallel zu Schritt b, wobei jedes der geeigneten Pixel in seiner Intensität mit der Intensität der jeweiligen Nachbarpixel verglichen wird und sowohl die Verschiebung der Weglänge eines jeden Pixels um eine bestimmt Höhe und Breite von einem Zeitschritt zum zeitlich darauf folgenden Zeitschritt, als auch zum zeitlich vorangegangenen Zeitschritt ausgewertet,d. Auswahl geeigneter Pixel in den ausgewählten Regionen auf Basis der Gesichtshautfarbe und von Landmarken, unter Einhaltung eines Abstandes von wenigstens zwei Pixeln von einem Hautpixel zu einem Nicht-Hautpixel,e. Signalextraktion durch Überführung eines räumlichen Bildsignals aus der RGB-Bildsequenz in den ausgewählten Regionen in ein Zeitsignal,f. Signalverarbeitung und Auswertung des Zeitsignals, wobei das Zeitsignal eine Basis für die Bestimmung der Herzfrequenz bildet.The invention relates to a method for contactless determination of the heart rate (17) of a person using a continuous RGB image sequence, comprising the following steps: a. Recording an RGB image sequence and transmitting the RGB image sequence to a processing unit, b. Selecting at least three regions in a face of a person whose orientation was detected in the RGB image sequence, c. Tracking of the face parallel to step b, wherein each of the suitable pixels is compared in intensity with the intensity of the respective neighboring pixels and both the displacement of the path length of each pixel by a certain height and width from a time step to the temporally following time step, as well evaluated at the temporally preceding time step, d. Selecting appropriate pixels in the selected regions based on facial skin color and landmarks while maintaining a distance of at least two pixels from a skin pixel to a non-skin pixel, e. Signal extraction by transferring a spatial image signal from the RGB image sequence in the selected regions into a time signal, f. Signal processing and evaluation of the time signal, wherein the time signal forms a basis for the determination of the heart rate.

Description

Die Erfindung betrifft ein Verfahren zur kontaktlosen Bestimmung der Herzfrequenz einer Person und findet insbesondere für die Bestimmung und Überwachung der allgemeinen Vitalität Anwendung.The invention relates to a method for contactless determination of the heart rate of a person and is used in particular for the determination and monitoring of general vitality.

In einer stetig alternden Gesellschaft spielen Assistenzsysteme eine immer wichtigere Rolle. In den letzten Jahren wurden dafür einige Verfahren entwickelt, die die Notfallerkennung optisch mit Hilfe von Kameras erkennen können. Diese Systeme können allerdings nur im Notfall reagieren. Ein besserer Ansatz ist es, den Gesundheitszustand einer Person fortlaufend zu monitoren, um vorbeugend agieren zu können, bevor ein Notfall eintritt. Um dies zu bewerkstelligen, ist eine Erkennung der Vitalparameter erforderlich. Die Herzrate oder auch Herzfrequenz ist einer dieser Vitalparameter. Es ist möglich die Herzrate über optische kontaktlose Verfahren zu ermitteln und daraus Schlüsse auf den Gesundheitszustand zu ziehen. Herkömmlich Verfahren wie das Elektrokardiogramm oder das Pulsoximeter benötigen einen Körperkontakt. Dies ist aber für bestimmte Personengruppen schwierig, z.B. wegen einer Demenz oder sensitiver Haut bei älteren Menschen oder Neugeborenen. Die kontaktlose Ermittlung der Herzrate kann also einen zusätzlichen Vorteil schaffen.Assistance systems are playing an increasingly important role in a constantly aging society. In recent years, some methods have been developed for this, which can detect the emergency detection optically with the help of cameras. However, these systems can only respond in an emergency. A better approach is to continuously monitor a person's state of health to be proactive before an emergency occurs. In order to accomplish this, a recognition of vital signs is required. The heart rate or heart rate is one of these vital signs. It is possible to determine the heart rate via optical contactless procedures and draw conclusions about the state of health. Conventional procedures such as the electrocardiogram or the pulse oximeter require body contact. However, this is difficult for certain groups of people, e.g. because of dementia or sensitive skin in the elderly or newborn. The contactless determination of the heart rate can thus create an additional advantage.

Neben dem Bereich Ambient Assisted Living kann dieses Verfahren in E-Rehabilitation eingesetzt werden, um die Vitalparameter während einer Trainingsübung zu erfassen. Darüber hinaus kann es zur Detektion des plötzlichen Kindstodes, zur Überwachung eines Fahrzeugführers oder zur Triage im Krankenhaus eingesetzt werden.In addition to Ambient Assisted Living, this technique can be used in e-rehabilitation to record vital signs during a training exercise. In addition, it can be used to detect sudden infant death, to monitor a driver or to triage in the hospital.

Die grundsätzliche Methode zur kontaktlosen Erfassung der Herzrate liegt in der Messung der Volumenänderung, die durch den Blutfluss verursacht wurden. Diese Methode wird auch Plethysmografie genannt. Die grundsätzliche, kontaktbasierte Methode, zu Photoplethsymografie wurde von Hertzman und Spealman 1937 entwickelt [1]. Sie ist heutzutage Grundlage für das Pulsoximeter. So ändert Licht welches Gewebe durchstrahlt seine Wellenlänge und sein Intensität. Der Puls kann als Intensitätsänderung der Wellenform detektiert werden. 2008 haben Verkruysse et al. ein Verfahren vorgestellt, welches die menschliche Herzrate im sichtbaren Licht kontaktlos detektieren kann [2]. Sie haben dafür Videos von Gesichtern von Menschen mit einer RGB Kamera aufgenommen, eine Region of Interest (ROI) innerhalb des Gesichtes festgelegt und eine räumliche Mittelung aller Pixel in der ROI für die drei Farbkanäle durchgeführt. Im Anschluss wurde die Frequenz mit Hilfe einer Fast Fourier Transform (FFT) bestimmt. Dieses Verfahren war noch nicht automatisiert. Diese Methodik wurde von Poh et al. aufgegriffen, automatisiert und um eine Independent Component Analysis (ICA) zu größeren Robustheit erweitert [3]. Van Gastel et al. haben vorgeschlagen, an Stelle des ganzen Gesichtes nur die Pixel auf der Stirn zu verwenden [4]. Diese ist nicht so stark von Artefakten beeinflusst und hat eine hohe Signalqualität. Anstelle der ICA schlagen Lewandowska et al. vor, eine Principal Component Analysis (PCA) zu verwenden [5]. De Haan und Jeanne verwenden ein Differenzsignal, um Reflexionen zu reduzieren [6].The basic method for contactless acquisition of the heart rate is to measure the volume change caused by blood flow. This method is also called plethysmography. The basic contact-based method for photoplethsymography was developed by Hertzman and Spealman in 1937 [1]. It is the basis for the pulse oximeter today. Thus, light changes which tissue radiates its wavelength and its intensity. The pulse can be detected as a change in the intensity of the waveform. In 2008, Verkruysse et al. presented a method that can detect the human heart rate contactless in visible light [2]. They captured videos of people's faces with an RGB camera, set a Region of Interest (ROI) within the face, and spatially averaged all the pixels in the ROI for the three color channels. The frequency was then determined using a Fast Fourier Transform (FFT). This procedure was not yet automated. This methodology was developed by Poh et al. taken up, automated and extended by an Independent Component Analysis (ICA) for greater robustness [3]. Van Gastel et al. have suggested using only the pixels on the forehead instead of the whole face [4]. This is not so much affected by artifacts and has a high signal quality. Instead of ICA, Lewandowska et al. to use a Principal Component Analysis (PCA) [5]. De Haan and Jeanne use a difference signal to reduce reflections [6].

Ein Alternative zu diesen intensitätsbasierten Verfahren stellt das bewegungsbasierte Verfahren von Balakrishnian dar [7]. Es bestimmt kleinste Bewegungen des Kopfes, welche durch den Pumpvorgang des Blutes verursacht werden. Grundlage ist das dritte Newtonische Axiom. Dabei kommen Methoden des optischen Flusses zum Einsatz.An alternative to these intensity-based methods is the motion-based method of Balakrishnian [7]. It determines the smallest movements of the head, which are caused by the pumping of the blood. The basis is the third Newtonian axiom. Here, methods of optical flow are used.

Die EP 2 846 550 A1 beschreibt wie ein PPG-Signal kodiert bzw. dekodiert werden kann. Eine Signalverarbeitung findet nicht statt.The EP 2 846 550 A1 describes how a PPG signal can be encoded or decoded. Signal processing does not take place.

In der US 2016 / 0 015 308 A1 wird ein allgemeines System zur Ermittlung von Vitalparametern beschrieben. Es weist eine Bildaufnahmeeinheit auf und soll die Vitalparameter auf Fitnessgerten überwachen. Es beinhaltet Filter und eine Frequenzbestimmung. Der Ausgleich von Bewegung wird nur unzureichend beschrieben.In the US 2016/0 015 308 A1 a general system for the determination of vital parameters is described. It has an image acquisition unit and should monitor the vital signs on fitness equipment. It contains filters and a frequency determination. The compensation of movement is described inadequately.

In der US 2016 /0 302 679 A1 wird ein Verfahren zur Bestimmung der Herzfrequenz im Video beschrieben. Es werden verschiedene Methoden aus dem Windowing und Filterung eingesetzt. Sämtliche Verarbeitung findet im Zeitbereich statt. Es gibt kein Ausgleich von Artefakten.In the US 2016/0306779 A1 A method for determining the heart rate is described in the video. Different methods of windowing and filtering are used. All processing takes place in the time domain. There is no balance of artifacts.

Eine weitere Methode zur Pulsbestimmung aus Videosequenzen wird in der US 2016 / 0 343 135 A1 offenbart. Dabei werden Bildsegmente ausgewählt und für diese Bildsegmente im Anschluss der Mittelwert bestimmt. Es wird eine Hauptkomponentenanalyse (PCA) zur Signalverbesserung eingesetzt. Die Verwendung ganzer Regionen anstelle einzelner Pixel bringt jedoch eine gewisse Ungenauigkeit mit sich. Es erfolgt zudem kein Ausgleich von Artefakten.Another method for determining the pulse from video sequences is in the US 2016/0 343 135 A1 disclosed. Image segments are selected and the mean value is determined for these image segments. A principal component analysis (PCA) is used to improve the signal. However, using whole regions instead of individual pixels introduces some inaccuracy. There is also no compensation of artifacts.

Die bisherigen Methoden sind für Laborbedingungen geeignet, allerdings nicht für den praktischen Einsatz. So sitzen die Personen meist sehr nah vor der Kamera und zusätzliche Lichtquellen sorgen für eine gute Ausleuchtung der Szene. Das Hauptproblem besteht in der mangelnden Robustheit gegenüber auftretenden Artefakten, sodass die Genauigkeit erheblich reduziert wird.The previous methods are suitable for laboratory conditions, but not for practical use. So people usually sit very close to the camera and additional light sources ensure a good illumination of the scene. The main problem is the lack of robustness to artefacts that occur, which significantly reduces accuracy.

Insbesondere gibt es zwei Hauptartefakte, welche die Robustheit negativ beeinflussen. Das sind einerseits Bewegungen und zum anderen Änderungen in der Lichtintensität. Bewegungsartefakte entstehen zum Beispiel, wenn sich die Person während der Messung bewegt. Das ist in praktischen Anwendungen der Fall. Daher ist es notwendig, diese Bewegungen auszugleichen. Intensitätsartefakte entstehen, wenn sich die Intensität im Bild und insbesondere auf dem beobachtenden Bereich ändert. Ursache dafür können Schatten und Reflexionen sein.In particular, there are two main artifacts that adversely affect robustness. These are movements on the one hand and on the other hand Changes in light intensity. For example, motion artifacts arise when the person moves during the measurement. This is the case in practical applications. Therefore, it is necessary to balance these movements. Intensity artifacts arise when the intensity in the image changes, and in particular in the observed region. This can be caused by shadows and reflections.

Aufgabe der Erfindung ist es daher, ein Verfahren zur kontaktlosen Bestimmung der Herzfrequenz einer Person zur Verfügung zu stellen, mit dessen Hilfe die Herzfrequenz robust erfasst werden kann und bei welchem Bewegungsartefakte und Intensitätsartefakte minimiert oder eliminiert werden können.The object of the invention is therefore to provide a method for contactless determination of the heart rate of a person available, with the aid of which the heart rate can be robustly detected and in which motion artifacts and intensity artifacts can be minimized or eliminated.

Diese Aufgabe wird mit den kennzeichnenden Merkmalen des ersten Patentanspruchs gelöst.This object is achieved with the characterizing features of the first claim.

Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen.Advantageous embodiments emerge from the subclaims.

Erfindungsgemäß ist ein Verfahren zur kontaktlosen Bestimmung der Herzfrequenz einer Person unter Verwendung einer fortlaufenden RGB-Bildsequenz aufweisend die folgenden Schritte:

  1. a. Aufnahme einer RGB-Bildsequenz und Übermittlung der RGB-Bildsequenz an eine Verarbeitungseinheit,
  2. b. Auswahl von wenigstens drei Regionen in einem in der RGB-Bildsequenz detektierten Gesicht einer Person, dessen Orientierung ermittelt wurde,
  3. c. Tracking des Gesichtes parallel zu Schritte b, wobei jedes der geeigneten Pixel in seiner Intensität mit der Intensität der jeweiligen Nachbarpixel verglichen wird und sowohl die Verschiebung der Weglänge eines jeden Pixels um eine bestimmt Höhe und Breite von einem Zeitschritt zum zeitlich darauf folgenden Zeitschritt, als auch zum zeitlich vorangegangenen Zeitschritt ausgewertet
  4. d. Auswahl geeigneter Pixel in den ausgewählten Regionen auf Basis der Gesichtshautfarbe und von Landmarken, unter Einhaltung eines Abstandes von wenigstens zwei Pixeln von einem Hautpixel zu einem Nicht-Hautpixel,
  5. e. Signalextraktion durch Überführung eines räumlichen Bildsignals aus der RGB-Bildsequenz in den ausgewählten Regionen in ein Zeitsignal,
  6. f. Signalverarbeitung und Auswertung des Zeitsignals, wobei das Zeitsignal eine Basis für die Bestimmung der Herzfrequenz bildet.
According to the invention, a method for contactless determination of the heart rate of a person using a continuous RGB image sequence, comprising the following steps:
  1. a. Recording an RGB image sequence and transmitting the RGB image sequence to a processing unit,
  2. b. Selection of at least three regions in a face detected in the RGB image sequence of a person whose orientation has been determined
  3. c. Tracking the face parallel to steps b, wherein each of the appropriate pixels is compared in intensity with the intensity of the respective neighboring pixels and both the displacement of the path length of each pixel by a certain height and width from a time step to the temporally following time step, as well evaluated at temporally preceding time step
  4. d. Selecting appropriate pixels in the selected regions based on facial skin color and landmarks while maintaining a distance of at least two pixels from a skin pixel to a non-skin pixel;
  5. e. Signal extraction by transferring a spatial image signal from the RGB image sequence in the selected regions into a time signal,
  6. f. Signal processing and evaluation of the time signal, wherein the time signal forms a basis for the determination of the heart rate.

Vor der Detektion des Gesichtes der Person wird vorzugsweise ein Weißabgleich der RGB-Bildsequenz vorgenommen um eine möglicherweise auftretende Blau- oder Rotverschiebung im Bild auszugleichen. Dabei werden Korrekturfaktoren für den Rot und Blaukanal eingeführt, die dies ermöglichen. Ein reales weiß wird somit auch als weiß abgebildet.Before the detection of the person's face, a white balance of the RGB image sequence is preferably made in order to compensate for a possibly occurring blue or red shift in the image. Correction factors for the red and blue channels are introduced, which make this possible. A real white is thus also depicted as white.

Als Grundlage für die weiteren Prozesse wird eine Detektion des Gesichtes auf den 2D-Bilddaten durchgeführt. Im Ergebnis wird das Gesicht durch eine sogenannte Bounding Box um das Gesicht markiert.As a basis for the further processes, a detection of the face on the 2D image data is performed. As a result, the face is marked by a so-called bounding box around the face.

Zur Ermittlung der Gesichtsorientierung werden markante Punkte im Gesicht als Landmarken lokalisiert. Vorteilhafterweise kann dadurch ein Gesicht auch detektiert werden, wenn es rotiert ist. Dabei werden markante Punkte im Gesicht lokalisiert und sind eineindeutig bestimmbar. Der Algorithmus zur Bestimmung der Landmarken beruht dabei auf X. Zhu und D. Ramanan [8]. Hierbei existiert ein Modell der Landmarken, wie sie im optimalen Gesicht vorkommen würde. Mittels eines flexiblen Modells mit Baumstruktur kann dieses Modell auf beliebige Gesichter übertragen werden. Dieses Vorgehen sichert eine genaue Detektion des Gesicht mit Hinblick auf die Orientierung des Gesichtes.To determine facial orientation, prominent points on the face are localized as landmarks. Advantageously, thereby a face can also be detected when it is rotated. In the process, prominent points are localized in the face and can be uniquely determined. The algorithm for determining landmarks is based on X. Zhu and D. Ramanan [8]. Here exists a model of the landmarks as they would appear in the optimal face. By means of a flexible model with tree structure, this model can be transferred to any faces. This procedure ensures accurate detection of the face with respect to the orientation of the face.

Vorzugsweise werden wenigstens drei, besonders bevorzugt wenigstens vier Regionen im Gesicht ausgewählt, die für die Bestimmung der Herzfrequenz weiter verwendet werden. Insbesondere richtet sich die Lokalisierung der wenigstens drei, bevorzugt wenigstens vier Regionen, welche für die Bestimmung der Herzfrequenz verwendet werden, relativ nach der Position der ermittelten Bounding Box. Die Regionen liegen dabei innerhalb der Bounding Box und erfüllen bestimmte Abstandskriterien zu den Rndern der Bounding Box.Preferably, at least three, more preferably at least four regions in the face are selected which are further used for the determination of the heart rate. In particular, the location of the at least three, preferably at least four, regions which are used for the determination of the heart rate depends relatively on the position of the determined bounding box. The regions are within the bounding box and meet certain distance criteria to the edges of the bounding box.

Diese Regionen werden als ROI (Regions of Interest) bezeichnet. Dies ist notwendig, da Pixel im Bereich der Haare, der Augenbrauen, Augen, Brillen usw. nicht mit in das Hautfarbenmodell eingehen sollen und dementsprechend exkludiert werden. Dafür werden besonders bevorzugt vier ROIs bestimmt, um eine Varianz über unterschiedliche Regionen zu erhalten. Die ROIs werden auf der Stirn, der Nase und den beiden Wangen platziert.These regions are referred to as ROI (Regions of Interest). This is necessary because pixels in the area of hair, eyebrows, eyes, glasses, etc. should not be included in the skin color model and are therefore excluded. For this purpose, four ROIs are particularly preferably determined in order to obtain a variance over different regions. The ROIs are placed on the forehead, the nose and the two cheeks.

Bevorzugt erfolgt zur Auswahl geeigneter Pixel zunächst eine Bestimmung der Gesichtshautfarbe auf dem ersten Bild der RGB-Bildsequenz. Dabei werden vorzugsweise alle Pixel die sich in den zuvor ausgewählten ROIs befinden für die Bestimmung eines sogenannten Hautfarbenmodells genutztIn order to select suitable pixels, a determination of the facial skin color on the first image of the RGB image sequence is preferably carried out first. In this case, preferably all pixels which are located in the previously selected ROIs are used for the determination of a so-called skin color model

Zur Bestimmung der Gesichtshautfarbe erfolgt vorzugsweise zunächst eine Konvertierung des RGB-Farbraumes in den HSV-Farbraum, da eine lineare Separierung im RGB-Farbraum nicht möglich ist. In diesem findet ein Aufteilung der Farbinformation nicht in rot, grün und blau sondern in Farbwert (H, hue), Farbsättigung (S, saturation) und des Hellwertes (V, value) statt. Aus den jeweiligen Werten für Farbraum und Sättigung wird ein individuelles Hautfarbenmodell erstellt.To determine the facial skin color, a conversion of the RGB color space in the HSV color space, since a linear separation in the RGB color space is not possible. In this a division of the color information does not take place in red, green and blue but in color value (H, hue), color saturation (S, saturation) and the brightness value (V, value). From the respective values for color space and saturation an individual skin color model is created.

Dabei wird für jeden Probanden ein individuelles Hautfarbenmodell angelegt. Das heißt es gibt keine festen Vorgabewerte für alle Menschen. Dies sichert einerseits eine größere Genauigkeit zu und ermöglicht andererseits, dass diese Methode für Menschen mit unterschiedlichen Hautfarben anwendbar ist. Zudem können Regionen mit Schatten oder starken Reflektionen exkludiert werden, was sich in einer späteren verbesserten Robustheit des Algorithmus ausdrückt.An individual skin color model is created for each subject. That means there are no fixed default values for all people. On the one hand, this ensures greater accuracy and, on the other hand, makes it possible for this method to be applicable to people with different skin colors. In addition, regions with shadows or strong reflections can be excluded, which is reflected in a later improved robustness of the algorithm.

Um die Gesichtsregion bzw. Bounding Box über die Zeit in einem Video zuverlässig zu erfassen, ist ein Tracking notwendig. Somit können beispielsweise Bewegungen des Kopfes ausgeglichen werden und das Gesicht ist dauerhaft innerhalb der definierten Bounding Box.To reliably capture the face region or bounding box over time in a video, tracking is necessary. Thus, for example, movements of the head can be compensated and the face is permanently within the defined bounding box.

In einem ersten Schritt müssen dafür geeignete Bildmerkmale im Gesicht gefunden werden, die charakteristisch sind und wieder gefunden werden können. Für diese Anwendung werden vorzugsweise die Minimum-Eigen-Features verwendet [9]. Diese berechnen den minimalen Eigenwert von Bildregionen und sind somit in der Lage, Ecken zu detektieren.In a first step suitable image features must be found in the face, which are characteristic and can be found again. For this application, the minimum eigen features are preferably used [9]. These calculate the minimum eigenvalue of image regions and are thus able to detect corners.

Für das Tracking der Merkmale wird bevorzugt eine Technik aus dem Bereich des optischen Flusses verwendet, die als KLT-Methode bekannt ist [10]. Dabei werden die Intensitäten des Merkmalspixels und dessen Nachbarpixel betrachtet. Von einem Frame zum nächsten Frame wird das Merkmal um eine bestimmte Weglänge in Höhe und Breite verschoben. Diese Verschiebung wird während des Trackings bestimmt.For the tracking of the features, preference is given to using an optical flow technique known as the KLT method [10]. The intensities of the feature pixel and its neighboring pixels are considered. From one frame to the next frame, the feature is shifted by a certain path length in height and width. This shift is determined during tracking.

Um die Robustheit des Trackings zu erhöhen, wird zudem vorzugsweise ein Rückwärtstracking durchgeführt. Dabei werden die Merkmale vom aktuellen Frame zum aktuellen Frame vorherigen und ihre Verschiebung bestimmt. Der bidirektionale Fehler zwischen der Vorwärtsverschiebung und Rückwärtsverschiebung darf nicht mehr als einen Pixel betragen. Ansonsten wird das Merkmal für die weitere Berechnung verworfen.In order to increase the robustness of the tracking, it is also preferable to perform a backward tracking. The characteristics from the current frame to the current frame are predefined and their displacement determined. The bidirectional error between the forward shift and the backward shift must not exceed one pixel. Otherwise, the feature is discarded for further calculation.

Unter bestimmten Bedingungen, wie z.B. schnellen Bewegungen oder Änderungen des perspektivischen Blickwinkels der Kamera auf das Gesicht, können viele Merkmale über die Zeit verloren gehen. Dies ist von großem Nachteil, da damit kein stabiles Tracking mehr möglich ist. Im schlimmsten Fall verschwinden alle Merkmale. Daher ist es notwendig, in bestimmten Abständen das Gesicht neu zu detektieren und die Merkmale neu zu bestimmen. Für diese Ausführung gelten folgende Bestimmungen: Im Fall, dass das Gesicht nicht detektiert werden kann, z.B. aufgrund der perspektivischen Verzerrung, wird ohne die Detektion ein kontinuierliches Tracking durchgeführt. Sollte es zu schnellen Bewegungen im Bild kommen, ist in jedem Fall eine erneute Detektion des Gesichtes notwendig, da es ansonsten zu großen Abweichungen kommt, die sich negativ auf die Robustheit auswirken.Under certain conditions, e.g. rapid movements or changes in the perspective of the camera on the face, many features can be lost over time. This is a great disadvantage, because it no longer stable tracking is possible. In the worst case, all features disappear. Therefore, it is necessary to re-detect the face at certain intervals and to redefine the characteristics. For this embodiment, the following provisions apply: In the event that the face can not be detected, e.g. due to the perspective distortion, a continuous tracking is performed without the detection. If there are too rapid movements in the image, a new detection of the face is necessary in any case, otherwise there are large deviations, which have a negative effect on the robustness.

Auf Grundlage der ermittelten Verschiebung lassen sich die Parameter der geometrischen Transformation ermitteln. Diese Transformationsparameter werden im Anschluss auf die Bounding Box des Gesichtes angewendet. In Folge des Trackings liegt eine Bounding Box für alle Frames vor, die auf die korrespondierende/gleiche Region verweist.On the basis of the determined displacement, the parameters of the geometric transformation can be determined. These transformation parameters are then applied to the bounding box of the face. As a result of the tracking, there is a bounding box for all frames that points to the corresponding / same region.

Innerhalb der ermittelten Bounding Box des Trackings wird für jedes Frame (jeder Zeitschritt) das Hautfarbenmodell anwendet, welches zuvor im ersten Frame bestimmt wurde. Dabei werden die Schwellwerte für Farbwert und Sättigung genommen und diese auf alle Pixel angewandt. Als Ergebnis liegen geeignete Hautpixel für die Bestimmung der Herzfrequenz vor. Allerdings gibt es gerade an den Kanten zu anderen Objekten im Gesicht fließende Übergänge, die sich nachteilig auswirken. Um dem entgegen zu wirken, wird ein räumlicher Abstand k in Pixel definiert, der zwischen einem Hautpixel und einem nicht Hautpixel liegen muss. Bevorzugt wird k mit wenigstens 2, besonders bevorzugt mit wenigstens 9 angenommen. Damit werden aus geeigneten Hautpixeln besonders geeignete (verlässliche) Hautpixel ausgewählt.Within the determined bounding box of the tracking, for each frame (each time step), the skin color model is used, which was previously determined in the first frame. The threshold values for color value and saturation are taken and applied to all pixels. As a result, suitable skin pixels are available for determining the heart rate. However, there are smooth transitions at the edges to other objects on the face, which are detrimental. To counteract this, a spatial distance k in pixels is defined, which must lie between a skin pixel and a non-skin pixel. Preferably k is assumed to be at least 2, more preferably at least 9. This selects suitable (reliable) skin pixels from suitable skin pixels.

Im Ergebnis liegen Hautpixel vor, die nicht durch Schatten, Reflektionen oder andere intensitätsbeeinflussende Artefakte gestört sind.The result is skin pixels that are not disturbed by shadows, reflections or other intensity-affecting artifacts.

Zur Signalextraktion wird für jeden Farbkanal von R, G und B die Summe aller Pixelintensitäten der zuvor ausgewählten geeigneten Pixel gebildet und durch die Anzahl dieser Pixel geteilt.For signal extraction, for each color channel of R, G and B, the sum of all pixel intensities of the previously selected suitable pixels is formed and divided by the number of these pixels.

Um weitere Artefakte und Rauschen zu unterdrücken und den Signal-Rausch-Abstand zu erhöhen, ist eine Signalverarbeitung notwendig. Vorzugsweise werden bei der Signalverarbeitung wenigstens die folgenden Schritte durchgeführt:

  • - Normalisierung aller drei zuvor ermittelten Kanäle
  • - Anwendung eines Bandpassfilters auf alle drei Kanäle
  • - Unabhängigkeitsanalyse
  • - Auswahl der unabhängigen Komponente mit der höchsten Periodizität unter Berücksichtigung der Standardabweichung jeder unabhängigen Komponente
In order to suppress further artifacts and noise and to increase the signal-to-noise ratio, signal processing is necessary. Preferably, at least the following steps are performed in the signal processing:
  • - Normalization of all three previously determined channels
  • - Apply a bandpass filter to all three channels
  • - Independence analysis
  • - Selection of the independent component with the highest periodicity, taking into account the standard deviation of each independent component

Im vorzugsweise ersten Schritt der Signalverarbeitung werden die drei Zeitsignale von R, G und B normalisiert. Das heißt, es wird der Mittelwert über die Zeitachse gebildet und dieser anschließend abgezogen. Im Anschluss wird mit dem Reziprokwert der Standardabweichung des Kanals multipliziert. Durch diesen Schritt liegen alle drei Kanäle zentriert um die x-Achse (Nullachse).In the preferably first step of the signal processing, the three time signals of R, G and B are normalized. This means that the mean value is formed over the time axis and this is then subtracted. Subsequently, the reciprocal of the standard deviation of the channel is multiplied. Through this step, all three channels are centered around the x-axis (zero axis).

Um den Suchbereich für die spätere Frequenzbestimmung zu begrenzen, sollen nur Frequenzwerte berücksichtigt werden, die beim Menschen physiologisch auftreten können. Dafür wird bevorzugt ein Bandpassfilter angewendet, der nur Frequenzen zwischen 0,7 Hz und 4 Hz durchlässt. Es wird insbesondere ein FIR-Filter der Ordnung 200 verwendet. Dies wird auf alle drei Kanäle angewendet.In order to limit the search range for later frequency determination, only frequency values that can occur physiologically in humans should be taken into account. For this purpose, a bandpass filter is preferably used, which only lets frequencies between 0.7 Hz and 4 Hz through. In particular, a 200 order FIR filter is used. This is applied to all three channels.

Trotz der vorherigen Bemühungen gibt es immer noch Rauschquellen in den drei Kanälen R, G und B. Um diese weiter zu reduzieren wird eine ICA (Independent Component Analysis, Unabhängigkeitsanalyse) durchgeführt. Dabei wird angenommen, dass die drei Kanäle nur Messwerte von drei unabhängigen Quellen, sind die über eine so genannte Mischmatrix kombiniert wurden. Bei den drei Kanälen ist eine das gesuchte Herzfrequenzsignal und zwei gelten als Rauschquellen. Mit Hilfe der ICA wird die Mischmatrix bestimmt und ein System von drei unabhängigen Quellen erzeugt.Despite previous efforts, there are still noise sources in the three R, G, and B channels. To further reduce this, an ICA (Independent Component Analysis) is performed. It is assumed that the three channels are only measurements from three independent sources, which have been combined via a so-called mixed matrix. For the three channels, one is the wanted heart rate signal and two are considered noise sources. With the help of the ICA, the mixed matrix is determined and a system of three independent sources is generated.

Ein Problem nach Anwendung der ICA ist es, das man nicht weiß, welcher der drei Kanäle der gesuchte Kanal mit dem Nutzsignal ist. Dies wird mit der Kanalbestimmung gelöst.One problem after using the ICA is that you do not know which of the three channels is the wanted channel with the wanted signal. This is solved with the channel determination.

Generell kann konstatiert werden, dass sich die menschliche Herzrate in kurzen Zeitintervallen nur geringfügig ändert. Daher sollte die unabhängige Komponente mit der höchsten Periodizität ausgewählt werden. Die Periodizität ist dabei als Anteil der Frequenzen an dem gesamten Leistungsspektrum mit einer Bandbereite von maximal 0,5 Hz um die dominante Frequenz des Signals definiert.In general, it can be stated that the human heart rate changes only slightly in short time intervals. Therefore, the independent component with the highest periodicity should be selected. The periodicity is defined as a proportion of the frequencies on the entire power spectrum with a band width of 0.5 Hz maximum around the dominant frequency of the signal.

Allerdings können kurze aber intensive Bewegungsartefakte ebenfalls eine hohe Periodizität aufweisen. Um diese Fälle zu identifizieren, wird die Standardabweichung jeder unabhängigen Komponente bestimmt. Wenn die Differenz zu eins einen bestimmten Schwellwert d überschreitet, wird die Komponente im weiteren Entscheidungsprozess exkludiert.However, short but intense motion artifacts can also have a high periodicity. To identify these cases, the standard deviation of each independent component is determined. If the difference to one exceeds a certain threshold d, the component is excluded in the further decision process.

Im Ergebnis dieses Schrittes liegt nur noch ein Kanal vor, der mit der höchsten Wahrscheinlichkeit die Herzfrequenz beinhaltet. Dieser Kanal wird für die weitere Analyse betrachtet.As a result of this step, there is only one more channel that most likely contains the heart rate. This channel is considered for further analysis.

Da sich die Herzfrequenz über die Zeit ändern kann, ist es sinnvoll, den verbleibenden Kanal in einzelne Segmente zu zerlegen. Vorzugsweise weist jedes Segment ein gleitendes Fenster von maximal 10 Sekunden Länge auf. Die Überlappung der Segmente beträgt bevorzugt maximal 90%.Since the heart rate can change over time, it makes sense to break the remaining channel into individual segments. Preferably, each segment has a sliding window of at most 10 seconds in length. The overlap of the segments is preferably at most 90%.

Für die eigentliche Frequenzbestimmung werden bevorzugt wenigstens zwei unterschiedliche Verfahren verwendet. Als besonders geeignet haben sich die FFT (Fast-Fourier Transform) und die spektrale Schätzung nach Welch herausgestellt. Für diese beiden Methoden findet eine Transformation des Signals vom Zeitbereich in den Frequenzbereich (Spektrum) statt. Im Anschluss kann der dominante Peak als Schätzer für die Herzfrequenz angenommen werden.For the actual frequency determination, preferably at least two different methods are used. The FFT (Fast Fourier Transform) and Welch spectral estimation have proven to be particularly suitable. For these two methods, a transformation of the signal from the time domain into the frequency domain (spectrum) takes place. Subsequently, the dominant peak can be assumed as an estimator of the heart rate.

Mit Schätzer ist dabei ein Schätzwert für die Herzfrequenz gemeint.By estimator is meant an estimate of the heart rate.

Im finalen Schritt sollen die Schätzer für die Herzfrequenz bestätigt bzw. modifiziert werden. Vorrangig geht es darum, Sprünge in der Herzfrequenz zu vermeiden. Da sich die Segmente zu maximal 90 Prozent überlappen, ist davon auszugehen, dass sich die Herzfrequenz nicht sprunghaft ändern kann. Die vorherigen Segmente dienen daher als Basis für das jeweils nächste Segment. Vorzugsweise wird davon ausgegangen, dass sich die Herzfrequenz nicht mehr als 15 Schläge pro Minute zwischen zwei Segmenten (in etwa 0,1 Sekunden) ändern wird. Dies entspricht 0,25 Hz. Innerhalb dieses Intervalls wird der dominante Peak im Spektrum bestimmt. Es ist nicht mehr der dominante Peak im gesamten Spektrum ausschlaggebend.In the final step, the heart rate estimates should be confirmed or modified. The priority is to avoid leaps in heart rate. Since the segments overlap to a maximum of 90 percent, it can be assumed that the heart rate can not change abruptly. The previous segments therefore serve as the basis for the next segment. Preferably, it is believed that the heart rate will not change more than 15 beats per minute between two segments (in about 0.1 seconds). This corresponds to 0.25 Hz. Within this interval, the dominant peak in the spectrum is determined. It is no longer the dominant peak across the spectrum.

Vorteilhafterweise können durch das erfindungsgemäße Verfahren sowohl Bewegungsartefakte als auch Intensitätsartefakte, die üblicherweise bei vergleichbaren Verfahren auftreten reduziert bzw. eliminiert werden. Dies geht einher mit einer genaueren Bestimmung der Herzrate und einer verbesserten Robustheit. Durch das erfindungsgemäße Verfahren kann eine vorbeugende Überwachung einer Person erfolgen um das Eintreten eines Notfalls zu vermeiden. Neben dem Bereich Ambient Assisted Living kann dieses Verfahren in E-Rehabilitation eingesetzt werden, um die Vitalparameter während einer Trainingsübung zu erfassen. Darüber hinaus kann es zur Detektion des plötzlichen Kindstodes, zur Überwachung eines Fahrzeugführers oder zur Triage im Krankenhaus eingesetzt werden.Advantageously, both motion artifacts and intensity artifacts, which usually occur in comparable methods, can be reduced or eliminated by the method according to the invention. This goes along with a more accurate determination of the heart rate and improved robustness. By the method according to the invention, a preventive monitoring of a person can take place in order to avoid the occurrence of an emergency. In addition to Ambient Assisted Living, this technique can be used in e-rehabilitation to record vital signs during a training exercise. In addition, it can be used to detect sudden infant death, to monitor a driver or to triage in the hospital.

Da für das Verfahren ein optisches kontaktloses Verfahren ist, bei dem kein direkter Körperkontakt zur Person nötig ist, ist es besonders geeignet für Personengruppen wie beispielsweise Menschen mit Demenz oder sensitiver Haut, ältere Menschen, Neugeborene oder Pflegebedürftige im Allgemeinen. Since the method is an optical non-contact method which requires no direct physical contact with the person, it is particularly suitable for groups of people such as people with dementia or sensitive skin, the elderly, newborns or people in need of care in general.

Die Erfindung wird nachfolgend anhand eines Ausführungsbeispiels und zugehöriger Zeichnungen näher erläutert, ohne dabei auf diese beschränkt zu sein.The invention will be explained in more detail with reference to an embodiment and associated drawings, without being limited to these.

Dabei zeigen:

  • 1: ein Fließschema des erfindungsgemäßen Verfahrens,
  • 2: eine schematische Darstellung eines detektierten Gesichtes nach Erstellen der Landmarken und der Bounding-Box,
  • 3: eine schematische Darstellung eines detektierten Gesichtes nach Bestimmung der Regions of Interest (ROI),
  • 4: Darstellung der räumlich gemittelten Pixel über die Zeit für die drei Farbkanäle Rot, Grün und Blau.
Showing:
  • 1 : a flow chart of the process according to the invention,
  • 2 : a schematic representation of a detected face after creating the landmarks and the bounding box,
  • 3 : a schematic representation of a detected face after determination of the regions of interest (ROI),
  • 4 : Representation of spatially averaged pixels over time for the three color channels red, green and blue.

1 zeigt ein Fließschema des erfindungsgemäßen Verfahrens. Das vorgeschlagene System besteht dabei aus vielen Teilschritten. Zunächst wird eine fortlaufende Bildsequenz, folgend als Video bezeichnet, mit Hilfe einer RGB-Kamera aufgenommen 1. In der Bildsequenz ist ein Gesicht zu erkennen. Um Spezifika der Umgebung und der Bildsensoreinstellung zu unterdrücken, wird ein Weißabgleich 2 vorgenommen. Im Anschluss findet eine Detektion 3 des Gesichtes statt. Dies wird gefolgt von der Bestimmung der Gesichtsorientierung 4. Wenn diese bekannt ist können Regions of Interest (ROI) nach einem speziellen Verfahren ausgewählt werden 5. Es erfolgt aufbauend auf dem ersten Bild der Videosequenz eine Bestimmung der Gesichtshautfarbe 6 des jeweiligen Probanden vor der Kamera. Im fortlaufenden Video wird für jedes Bild eine Bestimmung von Bildmerkmalen 7 durchgeführt, die Grundlage für ein anschießendes Tracking 8 sind. Nach dem Tracking werden geeignete Pixel, nach dem zuvor erstellten Hautfarbenmodell ausgewählt 9. Diese Pixel bilden die Grundlage für die Zeitsignalextraktion 10. Es folgen eine Signalnormalisierung 11, ein Bandpassfilterung 12 und eine Independent Component Analysis 13. Anschließend wird der optimale Kanal der unabhängigen Komponenten bestimmt 14 und eine Frequenzbestimmung 15 durchgeführt. Das Verfahren wird von einer adaptiven Filterung 16 abgeschlossen. Schließlich kann die Herzfrequenz 17 bestimmt werden. Sie ergibt sich aus dem höchsten Peak nach der Frequenzbestimmung. 1 shows a flow chart of the method according to the invention. The proposed system consists of many sub-steps. First, a continuous image sequence, referred to as video below, is recorded with the aid of an RGB camera. 1. A face can be recognized in the image sequence. To suppress specifics of the environment and the image sensor setting, a white balance is set 2 performed. Following is a detection 3 of the face instead. This is followed by the determination of the facial orientation 4 , If this is known, regions of interest (ROI) can be selected according to a special procedure. 5. A determination of facial skin color is made based on the first image of the video sequence 6 of the respective subject in front of the camera. In the running video, a determination of image characteristics is made for each image 7 The basis for subsequent tracking 8th are. After tracking, appropriate pixels are selected according to the previously created skin color model 9. These pixels form the basis for the time signal extraction 10 , This is followed by signal normalization 11 , a bandpass filtering 12 and an Independent Component Analysis 13 , Subsequently, the optimal channel of the independent components is determined 14 and a frequency determination 15 carried out. The method is powered by adaptive filtering 16 completed. Finally, the heart rate 17 be determined. It results from the highest peak after the frequency determination.

In 2 ist eine schematische Darstellung eines detektierten Gesichtes nach Erstellen der Landmarken 3.2 und der Bounding Box 3.3. Aus der Gesichtsdetektion (3 in 1) resultiert eine erste Bounding Box 3.1, welche das Gesicht markiert. Anschließend werden Landmarken 3.2 innerhalb des Gesichtes lokalisiert, welche besonders markante Punkte markieren. Auf Basis der Landmarken 3.2 wird eine zweite Bounding Box 3.3 gesetzt, welche einen engeren Bereich umgibt als die erste Bounding Box 3.1. Dabei liegen alle Landmarken 3.2 innerhalb der zweiten Bounding Box 3.3 und erfüllen bestimmt Abstandskriterien zur Begrenzung der zweiten Bounding Box 3.3.In 2 is a schematic representation of a detected face after creating the landmarks 3.2 and the bounding box 3.3 , From the face detection ( 3 in 1 ) results in a first bounding box 3.1 marking the face. Subsequently, landmarks 3.2 localized within the face, which mark particularly prominent points. Based on the landmarks 3.2 becomes a second bounding box 3.3 set, which surrounds a narrower range than the first bounding box 3.1 , Here are all landmarks 3.2 within the second bounding box 3.3 and definitely meet distance criteria for limiting the second bounding box 3.3 ,

3 zeigt eine schematische Darstellung eines detektierten Gesichtes nach Bestimmung der Regions of Interest (ROI) (5 in 1). Dabei werden innerhalb der zuvor ermittelten zweiten Bounding Box 3.3 mehrere ROIs bestimmt, um eine Varianz über unterschiedliche Regionen zu erhalten. Die ROIs 5.1, 5.2, 5.3 werden auf der Stirn 5.1, den beiden Wangen 5.2 und der Nase 5.3 platziert. Die Lokalisierung der ROIs 5.1, 5.2, 5.3 richtet sich dabei relativ nach der Position in der zweiten Bounding Box 3.3. 3 shows a schematic representation of a detected face after determination of the regions of interest (ROI) ( 5 in 1 ). This will be within the previously determined second bounding box 3.3 determined multiple ROIs to obtain a variance across different regions. The ROIs 5.1 . 5.2 . 5.3 be on your forehead 5.1 , the two cheeks 5.2 and the nose 5.3 placed. The localization of the ROIs 5.1 . 5.2 . 5.3 depends relatively on the position in the second bounding box 3.3 ,

Eine Darstellung der räumlich gemittelten Pixel über die Zeit für die drei Farbkanäle Rot, Grün und Blau ist in 4 gezeigt. Durch Kombination des Trackings (8 in 1) und des Hautfarbenmodells (6 in 1) konnten bereits viele Bewegungsartefakte und Intensitätsartefakte reduziert bzw. eliminiert werden. Im Anschluss soll das räumliche Bildsignal in ein Zeitsignal überführt werden. Dabei wird jeder Farbkanal von Rot R, Grün G und Blau B extra betrachtet. Für jeden Kanal wird die Summe aller Pixelintensitäten der durch das Farbmodell selektierten Pixel gebildet und durch die Anzahl dieser Pixel geteilt. Trägt man dies Frame-weise über die Zeit auf ergibt sich ein Zeitverlauf, wie in 4 ersichtlich. Dieser Schritt wird als Signalextraktion (10 in 1) bezeichnet.A representation of the spatially averaged pixels over time for the three color channels red, green and blue is in 4 shown. By combining the tracking ( 8th in 1 ) and the skin color model ( 6 in 1 ) many motion artifacts and intensity artifacts have already been reduced or eliminated. Subsequently, the spatial image signal is to be converted into a time signal. Each color channel of red R, green G and blue B is considered separately. For each channel, the sum of all pixel intensities of the pixels selected by the color model is formed and divided by the number of these pixels. Applying this frame by frame over time results in a time course, as in 4 seen. This step is called signal extraction ( 10 in 1 ) designated.

zitierte Nichtpatentliteratur:quoted non-patent literature:

  • [1] Hertzman, A. B. and Spealman, C. R. (1937). Observations on the finger volume pulse recorded photoelectrically. American Journal of Physiology, 119:334-335 .[1] Hertzman, AB and Spealman, CR (1937). Observations on the finger volume pulse recorded photoelectrically. American Journal of Physiology, 119: 334-335 ,
  • [2] Verkruysse, W., Svaasand, L. O., and Nelson, J. S. (2008). Observations on the finger volume pulse recorded photoelectrically. Optics Express, 16(26):21434-21445 .[2] Verkruysse, W., Svaasand, LO, and Nelson, JS (2008). Observations on the finger volume pulse recorded photoelectrically. Optics Express, 16 (26): 21434-21445 ,
  • [3] Poh, M.-Z., McDuff, D., and Picard, R. (2010). Noncontact, automated cardiac pulse measurements using video imaging and blind source separation. Optics Express, 18(10):10762-10774 .[3] Poh, M.Z., McDuff, D., and Picard, R. (2010). Noncontact, automated cardiac pulse measurements using video imaging and blind source separation. Optics Express, 18 (10): 10762-10774 ,
  • [4] van Gastel, M., Zinger, S., Kemps, H., and de With, P. (2014). e-health video system for performance analysis in heart revalidation cycling. In Consumer Electronics Berlin (ICCE-Berlin), 2014 IEEE Fourth International Conference on, pages 31-35 .[4] van Gastel, M., Zinger, S., Kemps, H., and de With, P. (2014). e-health video system for performance analysis in heart revalidation cycling. In Consumer Electronics Berlin (ICCE-Berlin), 2014 IEEE Fourth International Conference on, pages 31-35 ,
  • [5] Lewandowska, M., Ruminski, J., Kocejko, T., and Nowak, J. (2011). Measuring pulse rate with a webcam - a non-contact method for evaluating cardiac activity. In Computer Science and Information Systems (FedCSIS), 2011 Federated Conference on, pages 405-410 .[5] Lewandowska, M., Ruminski, J., Kocejko, T., and Nowak, J. (2011). Measuring pulse rate with a webcam - a non-contact method for evaluating cardiac activity. In Computer Science and Information Systems (FedCSIS), 2011 Federated Conference on, pages 405-410 ,
  • [6] de Haan, G. and Jeanne, V. (2013). Robust pulse rate from chrominance-based rppg. Biomedical Engineering, IEEE Transactions on, 60(10):2878-2886 .[6] de Haan, G. and Jeanne, V. (2013). Robust pulse rate from chrominance-based rppg. Biomedical Engineering, IEEE Transactions on, 60 (10): 2878-2886 ,
  • [7] Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on, pages 3430-3437 .[7] Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on, pages 3430-3437 ,
  • [8] X. Zhu and D. Ramanan. Face detection, pose estimation, and landmark localization in the wild. In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pat-tern Recognition, pages 2879-2886 [8th] X. Zhu and D. Ramanan. Face detection, pose estimation, and landmark localization in the wild. In Proceedings of the IEEE Computer Society Conference on Computer Vision and Patents Recognition, pages 2879-2886
  • [9] Shi, J. and Tomasi, C. (1993). Good Features to Track. Technical report, Cornell University, Ithaca, NY, USA .[9] Shi, J. and Tomasi, C. (1993). Good features to track. Technical report, Cornell University, Ithaca, NY, USA ,
  • [10] Tomasi, C. and Kanade, T. (1991). Detection and Tracking of Point Features. Technical report, Carnegie Mellon University.[10] Tomasi, C. and Kanade, T. (1991). Detection and Tracking of Point Features. Technical report, Carnegie Mellon University.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Bildaufnahme KameraImage capture camera
22
WeißabgleichWhite balance
33
Gesichtsdetektionface detection
3.13.1
erste Bounding Boxfirst bounding box
3.23.2
Landmarkenlandmarks
3.33.3
zweite Bounding Boxsecond bounding box
44
Bestimmung der GesichtsorientierungDetermination of facial orientation
55
Auswahl von Regions of Interest (ROI)Selection of Regions of Interest (ROI)
5.15.1
ROI auf der StirnROI on the forehead
5.25.2
ROIs auf den WangenROIs on the cheeks
5.35.3
ROI auf der NaseROI on the nose
66
Bestimmung der Gesichtshautfarbe / eines HautfarbenmodellsDetermination of facial skin color / a skin color model
77
Bestimmung von BildmerkmalenDetermination of image features
88th
Gesichtstrackingface tracking
99
Auswahl geeigneter Pixel auf der HautSelection of suitable pixels on the skin
1010
ZeitsignalextraktionTime signal extraction
1111
Signalnormalisierungsignal normalization
1212
BandpassfilterungBandpass filtering
1313
Independent Component AnalysisIndependent Component Analysis
1414
Kanalbestimmungdetermining channel
1515
Frequenzbestimmungfrequency determination
1616
adaptive Filterungadaptive filtering
1717
Herzfrequenzheart rate

Claims (10)

Verfahren zur kontaktlosen Bestimmung der Herzfrequenz einer Person unter Verwendung einer fortlaufenden RGB-Bildsequenz aufweisend die folgenden Schritte: - Aufnahme einer RGB-Bildsequenz (1) und Übermittlung der RGB-Bildsequenz an eine Verarbeitungseinheit, - Auswahl von wenigstens drei Regionen (5) in einem in der RGB-Bildsequenz detektierten (3) Gesicht einer Person, dessen Orientierung ermittelt wurde (4), - Tracking des Gesichtes (8) parallel zu Schritt b, wobei jedes der geeigneten Pixel in seiner Intensität mit der Intensität der jeweiligen Nachbarpixel verglichen wird und sowohl die Verschiebung der Weglänge eines jeden Pixels um eine bestimmt Höhe und Breite von einem Zeitschritt zum zeitlich darauf folgenden Zeitschritt, als auch zum zeitlich vorangegangenen Zeitschritt ausgewertet, - Auswahl geeigneter Pixel (9) in den ausgewählten Regionen auf Basis der Gesichtshautfarbe und von Landmarken, unter Einhaltung eines Abstandes von wenigstens zwei Pixeln von einem Hautpixel zu einem Nicht-Hautpixel, - Signalextraktion (10) durch Überführung eines räumlichen Bildsignals aus der RGB-Bildsequenz in den ausgewählten Regionen in ein Zeitsignal, - Signalverarbeitung und Auswertung des Zeitsignals, wobei das Zeitsignal eine Basis für die Bestimmung der Herzfrequenz (17) bildet.A method for contactless determination of a person's heart rate using a continuous RGB image sequence, comprising the following steps: Recording an RGB image sequence (1) and transmitting the RGB image sequence to a processing unit, Selecting at least three regions (5) in a (3) face detected in the RGB image sequence of a person whose orientation has been determined (4), Tracking of the face (8) parallel to step b, wherein each of the appropriate pixels is compared in intensity with the intensity of the respective neighboring pixels and both the displacement of the path length of each pixel by a determined height and width from one time step to the next in time Time step, as well as evaluated at the temporally preceding time step, Selection of suitable pixels (9) in the selected regions based on facial skin color and landmarks, while maintaining a distance of at least two pixels from a skin pixel to a non-skin pixel, Signal extraction (10) by converting a spatial image signal from the RGB image sequence in the selected regions into a time signal, - Signal processing and evaluation of the time signal, wherein the time signal forms a basis for the determination of the heart rate (17). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass vor der Detektion (3) des Gesichtes der Person ein Weißabgleich (2) der RGB-Bildsequenz vorgenommen wird.Method according to Claim 1 , characterized in that before the detection (3) of the face of the person, a white balance (2) of the RGB image sequence is made. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zur Ermittlung der Gesichtsorientierung (4) markante Punkte im Gesicht als Landmarken (3.2) lokalisiert werden.Method according to Claim 1 or 2 , characterized in that for determining the facial orientation (4) prominent points in the face as landmarks (3.2) are located. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Lokalisierung der wenigstens drei Regionen (5), welche für die Bestimmung der Herzfrequenz (17) verwendet werden, sich relativ nach der Position der ermittelten Landmarken (3.2) richtet und die Regionen (5.1, 5.2, 5.3) diese Landmarken (3.2) nicht beinhalten. Method according to one of Claims 1 to 3 , characterized in that the localization of the at least three regions (5) used for the determination of the heart rate (17) depends relatively on the position of the determined landmarks (3.2) and the regions (5.1, 5.2, 5.3) Do not include landmarks (3.2). Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zur Auswahl geeigneter Pixel (9) zunächst eine Bestimmung der Gesichtshautfarbe (6) auf dem ersten Bild der RGB-Bildsequenz erfolgt.Method according to one of Claims 1 to 4 , characterized in that for the selection of suitable pixels (9), first a determination of the facial skin color (6) on the first image of the RGB image sequence takes place. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zur Bestimmung der Gesichtshautfarbe (6) eine Konvertierung des RGB-Farbraumes in den HSV-Farbraum erfolgt und aus den jeweiligen Werten für Farbraum und Sättigung ein individuelles Hautfarbenmodell erstellt wird.Method according to one of Claims 1 to 5 , characterized in that for the determination of the facial skin color (6), a conversion of the RGB color space in the HSV color space is carried out and from the respective values for color space and saturation, an individual skin color model is created. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass zur Signalextraktion (10) für jeden Farbkanal von R, G und B die Summe aller Pixelintensitäten der zuvor ausgewählten geeigneten Pixel gebildet und durch die Anzahl dieser Pixel geteilt wird.Method according to one of Claims 1 to 6 , characterized in that for signal extraction (10) for each color channel of R, G and B the sum of all pixel intensities of the previously selected suitable pixels is formed and divided by the number of these pixels. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass bei der Signalverarbeitung wenigstens die folgenden Schritte durchgeführt werden: - Normalisierung aller drei zuvor ermittelten Kanäle - Anwendung eines Bandpassfilters auf alle drei Kanäle - Unabhängigkeitsanalyse - Auswahl der unabhängigen Komponente mit der höchsten Periodizität unter Berücksichtigung der Standardabweichung jeder unabhängigen KomponenteMethod according to one of Claims 1 to 7 Characterized in that in the signal processing, the following steps are carried out at least: - Normalization of all three previously identified channels - application of a bandpass filter on all three channels - independence analysis - selection of the independent component with the highest frequency in consideration of the standard deviation of each independent component Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass bei der Analyse die Bestimmung der Herzfrequenz mittels Fast-Fourier Transformation und/oder einer Spektralschätzung nach Welch erfolgt und als Ergebnis ein Schätzer für die Herzfrequenz vorliegt.Method according to one of Claims 1 to 8th , characterized in that in the analysis, the determination of the heart rate by means of fast Fourier transformation and / or a spectral estimation Welch takes place and as a result, an estimator for the heart rate is present. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Schätzer für die Herzfrequenz durch adaptive Filterung bestätigt oder modifiziert wird.Method according to Claim 9 , characterized in that the estimator for the heart rate is confirmed or modified by adaptive filtering.
DE102017118636.0A 2017-08-15 2017-08-15 Method for contactless determination of the heart rate of a person Active DE102017118636B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017118636.0A DE102017118636B3 (en) 2017-08-15 2017-08-15 Method for contactless determination of the heart rate of a person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017118636.0A DE102017118636B3 (en) 2017-08-15 2017-08-15 Method for contactless determination of the heart rate of a person

Publications (1)

Publication Number Publication Date
DE102017118636B3 true DE102017118636B3 (en) 2018-12-06

Family

ID=64279266

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017118636.0A Active DE102017118636B3 (en) 2017-08-15 2017-08-15 Method for contactless determination of the heart rate of a person

Country Status (1)

Country Link
DE (1) DE102017118636B3 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111281367A (en) * 2018-12-10 2020-06-16 绍兴图聚光电科技有限公司 Anti-interference non-contact heart rate detection method based on face video
CN112932415A (en) * 2021-03-17 2021-06-11 上海交通大学医学院附属上海儿童医学中心 Premature infant skin moisture analysis method and system
CN116999044B (en) * 2023-09-07 2024-04-16 南京云思创智信息科技有限公司 Real-time motion full-connection bidirectional consistent optical flow field heart rate signal extraction method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140180132A1 (en) * 2012-12-21 2014-06-26 Koninklijke Philips Electronics N.V. System and method for extracting physiological information from remotely detected electromagnetic radiation
EP2846550A1 (en) 2011-01-05 2015-03-11 Koninklijke Philips N.V. Video coding and decoding devices and methods preserving PPG relevant information
US20160015308A1 (en) 2012-02-28 2016-01-21 Koninklijke Philips N.V. Device and method for monitoring vital signs
US20160302679A1 (en) 2013-12-12 2016-10-20 Koninklijke Philips N.V. Device and method for determining vital signs of a subject
US20160343135A1 (en) 2015-05-21 2016-11-24 Koninklijke Philips N.V. Determining a pulse signal from a video sequence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2846550A1 (en) 2011-01-05 2015-03-11 Koninklijke Philips N.V. Video coding and decoding devices and methods preserving PPG relevant information
US20160015308A1 (en) 2012-02-28 2016-01-21 Koninklijke Philips N.V. Device and method for monitoring vital signs
US20140180132A1 (en) * 2012-12-21 2014-06-26 Koninklijke Philips Electronics N.V. System and method for extracting physiological information from remotely detected electromagnetic radiation
US20160302679A1 (en) 2013-12-12 2016-10-20 Koninklijke Philips N.V. Device and method for determining vital signs of a subject
US20160343135A1 (en) 2015-05-21 2016-11-24 Koninklijke Philips N.V. Determining a pulse signal from a video sequence

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on, pages 3430-3437
de Haan, G. and Jeanne, V. (2013). Robust pulse rate from chrominance-based rppg. Biomedical Engineering, IEEE Transactions on, 60(10):2878-2886
Hertzman, A. B. and Spealman, C. R. (1937). Observations on the finger volume pulse recorded photoelectrically. American Journal of Physiology, 119:334-335
Lewandowska, M., Ruminski, J., Kocejko, T., and Nowak, J. (2011). Measuring pulse rate with a webcam - a non-contact method for evaluating cardiac activity. In Computer Science and Information Systems (FedCSIS), 2011 Federated Conference on, pages 405-410
Poh, M.-Z., McDuff, D., and Picard, R. (2010). Noncontact, automated cardiac pulse measurements using video imaging and blind source separation. Optics Express, 18(10):10762-10774
Shi, J. and Tomasi, C. (1993). Good Features to Track. Technical report, Cornell University, Ithaca, NY, USA
van Gastel, M., Zinger, S., Kemps, H., and de With, P. (2014). e-health video system for performance analysis in heart revalidation cycling. In Consumer Electronics Berlin (ICCE-Berlin), 2014 IEEE Fourth International Conference on, pages 31-35
Verkruysse, W., Svaasand, L. O., and Nelson, J. S. (2008). Observations on the finger volume pulse recorded photoelectrically. Optics Express, 16(26):21434-21445
WIEDE, Christian [et al.]: Remote Heart Rate Determination in RGB Data. In: Proceedings of the 5th International Conference on Pattern Recognition Applications and Methods, 2016, 240-246. - ISSN 978-989-758-173-1. http://www.scitepress.org/Papers/2016/56940/56940.pdf [abgerufen am 12.07.2018] *
WIEDE, Christian; RICHTER, Julia; HIRTZ, Gangolf: Signal fusion based on intensity and motion variations for remote heart rate determination. In: 2016 IEEE International Conference on Imaging Systems and Techniques (IST), 2016, 526-531. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7738282&isnumber=7738183 [abgerufen am 12.07.2018] *
X. Zhu and D. Ramanan. Face detection, pose estimation, and landmark localization in the wild. In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pat-tern Recognition, pages 2879-2886

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111281367A (en) * 2018-12-10 2020-06-16 绍兴图聚光电科技有限公司 Anti-interference non-contact heart rate detection method based on face video
CN112932415A (en) * 2021-03-17 2021-06-11 上海交通大学医学院附属上海儿童医学中心 Premature infant skin moisture analysis method and system
CN116999044B (en) * 2023-09-07 2024-04-16 南京云思创智信息科技有限公司 Real-time motion full-connection bidirectional consistent optical flow field heart rate signal extraction method

Similar Documents

Publication Publication Date Title
US11229372B2 (en) Systems and methods for computer monitoring of remote photoplethysmography based on chromaticity in a converted color space
DE112019002467T5 (en) SYSTEM AND PROCEDURE FOR THE REMOTE MEASUREMENT OF VITAL SIGNS
EP2956906B1 (en) Analysing video images of a subject to identify spatial image areas which contain periodic intensity variations
EP3664704B1 (en) Device, system and method for determining a physiological parameter of a subject
DE102013208588A1 (en) PROCESSING A VIDEO TO ESTIMATE A RESPIRATORY RATE
EP3440991A1 (en) Device, system and method for determining a physiological parameter of a subject
DE102017118636B3 (en) Method for contactless determination of the heart rate of a person
Fallet et al. Imaging photoplethysmography: What are the best locations on the face to estimate heart rate?
DE102013210713A1 (en) Video-based estimation of heart rate variability
Bobbia et al. Remote photoplethysmography based on implicit living skin tissue segmentation
DE102013208587A1 (en) PROCESSING A VIDEO FOR VASCULAR PATTERN RECOGNITION AND HEART FUNCTIONAL ANALYSIS
KR102215557B1 (en) Heart rate estimation based on facial color variance and micro-movement
DE102016200045A1 (en) Selecting a region of interest to extract physiological parameters from a subject's video
Bousefsaf et al. Automatic selection of webcam photoplethysmographic pixels based on lightness criteria
DE112015000614T5 (en) Contactless physiological monitoring during simultaneous magnetic resonance imaging
Huang et al. A motion-robust contactless photoplethysmography using chrominance and adaptive filtering
DE102015208144A1 (en) Increase the accuracy of a physiological signal, obtained from a video of a patient
DE112019004512T5 (en) INFORMATION PROCESSING DEVICE, PROGRAM AND INFORMATION PROCESSING METHOD
Wang et al. Quality metric for camera-based pulse rate monitoring in fitness exercise
Hassan et al. Optimal source selection for image photoplethysmography
Yin et al. Heart rate estimation based on face video under unstable illumination
Al-Naji et al. Contactless cardiac activity detection based on head motion magnification
Ryu et al. A measurement of illumination variation-resistant noncontact heart rate based on the combination of singular spectrum analysis and sub-band method
Cho et al. Reduction of motion artifacts from remote photoplethysmography using adaptive noise cancellation and modified HSI model
Andreotti et al. Improved heart rate detection for camera-based photoplethysmography by means of Kalman filtering

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final