DE102017118636B3 - Method for contactless determination of the heart rate of a person - Google Patents
Method for contactless determination of the heart rate of a person Download PDFInfo
- Publication number
- DE102017118636B3 DE102017118636B3 DE102017118636.0A DE102017118636A DE102017118636B3 DE 102017118636 B3 DE102017118636 B3 DE 102017118636B3 DE 102017118636 A DE102017118636 A DE 102017118636A DE 102017118636 B3 DE102017118636 B3 DE 102017118636B3
- Authority
- DE
- Germany
- Prior art keywords
- pixels
- heart rate
- image sequence
- rgb image
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000001815 facial effect Effects 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000006073 displacement reaction Methods 0.000 claims abstract description 5
- 238000011156 evaluation Methods 0.000 claims abstract description 3
- 238000001514 detection method Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000004807 localization Effects 0.000 claims description 2
- 230000003595 spectral effect Effects 0.000 claims description 2
- 230000033001 locomotion Effects 0.000 description 13
- 238000012880 independent component analysis Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 210000001061 forehead Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 206010012289 Dementia Diseases 0.000 description 2
- 208000034972 Sudden Infant Death Diseases 0.000 description 2
- 206010042440 Sudden infant death syndrome Diseases 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000037307 sensitive skin Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001136792 Alle Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000005086 pumping Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/02416—Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
- A61B5/02427—Details of sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/725—Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
- A61B5/748—Selection of a region of interest, e.g. using a graphics tablet
- A61B5/7485—Automatic selection of region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/08—Elderly
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/07—Home care
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/442—Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/443—Evaluating skin constituents, e.g. elastin, melanin, water
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/7257—Details of waveform analysis characterised by using transforms using Fourier transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
- G06T2207/30104—Vascular flow; Blood flow; Perfusion
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Abstract
Die Erfindung betrifft ein Verfahren zur kontaktlosen Bestimmung der Herzfrequenz (17) einer Person unter Verwendung einer fortlaufenden RGB-Bildsequenz aufweisend die folgenden Schritte:a. Aufnahme einer RGB-Bildsequenz und Übermittlung der RGB-Bildsequenz an eine Verarbeitungseinheit,b. Auswahl von wenigstens drei Regionen in einem in der RGB-Bildsequenz detektierten Gesicht einer Person, dessen Orientierung ermittelt wurde,c. Tracking des Gesichtes parallel zu Schritt b, wobei jedes der geeigneten Pixel in seiner Intensität mit der Intensität der jeweiligen Nachbarpixel verglichen wird und sowohl die Verschiebung der Weglänge eines jeden Pixels um eine bestimmt Höhe und Breite von einem Zeitschritt zum zeitlich darauf folgenden Zeitschritt, als auch zum zeitlich vorangegangenen Zeitschritt ausgewertet,d. Auswahl geeigneter Pixel in den ausgewählten Regionen auf Basis der Gesichtshautfarbe und von Landmarken, unter Einhaltung eines Abstandes von wenigstens zwei Pixeln von einem Hautpixel zu einem Nicht-Hautpixel,e. Signalextraktion durch Überführung eines räumlichen Bildsignals aus der RGB-Bildsequenz in den ausgewählten Regionen in ein Zeitsignal,f. Signalverarbeitung und Auswertung des Zeitsignals, wobei das Zeitsignal eine Basis für die Bestimmung der Herzfrequenz bildet.The invention relates to a method for contactless determination of the heart rate (17) of a person using a continuous RGB image sequence, comprising the following steps: a. Recording an RGB image sequence and transmitting the RGB image sequence to a processing unit, b. Selecting at least three regions in a face of a person whose orientation was detected in the RGB image sequence, c. Tracking of the face parallel to step b, wherein each of the suitable pixels is compared in intensity with the intensity of the respective neighboring pixels and both the displacement of the path length of each pixel by a certain height and width from a time step to the temporally following time step, as well evaluated at the temporally preceding time step, d. Selecting appropriate pixels in the selected regions based on facial skin color and landmarks while maintaining a distance of at least two pixels from a skin pixel to a non-skin pixel, e. Signal extraction by transferring a spatial image signal from the RGB image sequence in the selected regions into a time signal, f. Signal processing and evaluation of the time signal, wherein the time signal forms a basis for the determination of the heart rate.
Description
Die Erfindung betrifft ein Verfahren zur kontaktlosen Bestimmung der Herzfrequenz einer Person und findet insbesondere für die Bestimmung und Überwachung der allgemeinen Vitalität Anwendung.The invention relates to a method for contactless determination of the heart rate of a person and is used in particular for the determination and monitoring of general vitality.
In einer stetig alternden Gesellschaft spielen Assistenzsysteme eine immer wichtigere Rolle. In den letzten Jahren wurden dafür einige Verfahren entwickelt, die die Notfallerkennung optisch mit Hilfe von Kameras erkennen können. Diese Systeme können allerdings nur im Notfall reagieren. Ein besserer Ansatz ist es, den Gesundheitszustand einer Person fortlaufend zu monitoren, um vorbeugend agieren zu können, bevor ein Notfall eintritt. Um dies zu bewerkstelligen, ist eine Erkennung der Vitalparameter erforderlich. Die Herzrate oder auch Herzfrequenz ist einer dieser Vitalparameter. Es ist möglich die Herzrate über optische kontaktlose Verfahren zu ermitteln und daraus Schlüsse auf den Gesundheitszustand zu ziehen. Herkömmlich Verfahren wie das Elektrokardiogramm oder das Pulsoximeter benötigen einen Körperkontakt. Dies ist aber für bestimmte Personengruppen schwierig, z.B. wegen einer Demenz oder sensitiver Haut bei älteren Menschen oder Neugeborenen. Die kontaktlose Ermittlung der Herzrate kann also einen zusätzlichen Vorteil schaffen.Assistance systems are playing an increasingly important role in a constantly aging society. In recent years, some methods have been developed for this, which can detect the emergency detection optically with the help of cameras. However, these systems can only respond in an emergency. A better approach is to continuously monitor a person's state of health to be proactive before an emergency occurs. In order to accomplish this, a recognition of vital signs is required. The heart rate or heart rate is one of these vital signs. It is possible to determine the heart rate via optical contactless procedures and draw conclusions about the state of health. Conventional procedures such as the electrocardiogram or the pulse oximeter require body contact. However, this is difficult for certain groups of people, e.g. because of dementia or sensitive skin in the elderly or newborn. The contactless determination of the heart rate can thus create an additional advantage.
Neben dem Bereich Ambient Assisted Living kann dieses Verfahren in E-Rehabilitation eingesetzt werden, um die Vitalparameter während einer Trainingsübung zu erfassen. Darüber hinaus kann es zur Detektion des plötzlichen Kindstodes, zur Überwachung eines Fahrzeugführers oder zur Triage im Krankenhaus eingesetzt werden.In addition to Ambient Assisted Living, this technique can be used in e-rehabilitation to record vital signs during a training exercise. In addition, it can be used to detect sudden infant death, to monitor a driver or to triage in the hospital.
Die grundsätzliche Methode zur kontaktlosen Erfassung der Herzrate liegt in der Messung der Volumenänderung, die durch den Blutfluss verursacht wurden. Diese Methode wird auch Plethysmografie genannt. Die grundsätzliche, kontaktbasierte Methode, zu Photoplethsymografie wurde von Hertzman und Spealman 1937 entwickelt [1]. Sie ist heutzutage Grundlage für das Pulsoximeter. So ändert Licht welches Gewebe durchstrahlt seine Wellenlänge und sein Intensität. Der Puls kann als Intensitätsänderung der Wellenform detektiert werden. 2008 haben Verkruysse et al. ein Verfahren vorgestellt, welches die menschliche Herzrate im sichtbaren Licht kontaktlos detektieren kann [2]. Sie haben dafür Videos von Gesichtern von Menschen mit einer RGB Kamera aufgenommen, eine Region of Interest (ROI) innerhalb des Gesichtes festgelegt und eine räumliche Mittelung aller Pixel in der ROI für die drei Farbkanäle durchgeführt. Im Anschluss wurde die Frequenz mit Hilfe einer Fast Fourier Transform (FFT) bestimmt. Dieses Verfahren war noch nicht automatisiert. Diese Methodik wurde von Poh et al. aufgegriffen, automatisiert und um eine Independent Component Analysis (ICA) zu größeren Robustheit erweitert [3]. Van Gastel et al. haben vorgeschlagen, an Stelle des ganzen Gesichtes nur die Pixel auf der Stirn zu verwenden [4]. Diese ist nicht so stark von Artefakten beeinflusst und hat eine hohe Signalqualität. Anstelle der ICA schlagen Lewandowska et al. vor, eine Principal Component Analysis (PCA) zu verwenden [5]. De Haan und Jeanne verwenden ein Differenzsignal, um Reflexionen zu reduzieren [6].The basic method for contactless acquisition of the heart rate is to measure the volume change caused by blood flow. This method is also called plethysmography. The basic contact-based method for photoplethsymography was developed by Hertzman and Spealman in 1937 [1]. It is the basis for the pulse oximeter today. Thus, light changes which tissue radiates its wavelength and its intensity. The pulse can be detected as a change in the intensity of the waveform. In 2008, Verkruysse et al. presented a method that can detect the human heart rate contactless in visible light [2]. They captured videos of people's faces with an RGB camera, set a Region of Interest (ROI) within the face, and spatially averaged all the pixels in the ROI for the three color channels. The frequency was then determined using a Fast Fourier Transform (FFT). This procedure was not yet automated. This methodology was developed by Poh et al. taken up, automated and extended by an Independent Component Analysis (ICA) for greater robustness [3]. Van Gastel et al. have suggested using only the pixels on the forehead instead of the whole face [4]. This is not so much affected by artifacts and has a high signal quality. Instead of ICA, Lewandowska et al. to use a Principal Component Analysis (PCA) [5]. De Haan and Jeanne use a difference signal to reduce reflections [6].
Ein Alternative zu diesen intensitätsbasierten Verfahren stellt das bewegungsbasierte Verfahren von Balakrishnian dar [7]. Es bestimmt kleinste Bewegungen des Kopfes, welche durch den Pumpvorgang des Blutes verursacht werden. Grundlage ist das dritte Newtonische Axiom. Dabei kommen Methoden des optischen Flusses zum Einsatz.An alternative to these intensity-based methods is the motion-based method of Balakrishnian [7]. It determines the smallest movements of the head, which are caused by the pumping of the blood. The basis is the third Newtonian axiom. Here, methods of optical flow are used.
Die
In der
In der
Eine weitere Methode zur Pulsbestimmung aus Videosequenzen wird in der
Die bisherigen Methoden sind für Laborbedingungen geeignet, allerdings nicht für den praktischen Einsatz. So sitzen die Personen meist sehr nah vor der Kamera und zusätzliche Lichtquellen sorgen für eine gute Ausleuchtung der Szene. Das Hauptproblem besteht in der mangelnden Robustheit gegenüber auftretenden Artefakten, sodass die Genauigkeit erheblich reduziert wird.The previous methods are suitable for laboratory conditions, but not for practical use. So people usually sit very close to the camera and additional light sources ensure a good illumination of the scene. The main problem is the lack of robustness to artefacts that occur, which significantly reduces accuracy.
Insbesondere gibt es zwei Hauptartefakte, welche die Robustheit negativ beeinflussen. Das sind einerseits Bewegungen und zum anderen Änderungen in der Lichtintensität. Bewegungsartefakte entstehen zum Beispiel, wenn sich die Person während der Messung bewegt. Das ist in praktischen Anwendungen der Fall. Daher ist es notwendig, diese Bewegungen auszugleichen. Intensitätsartefakte entstehen, wenn sich die Intensität im Bild und insbesondere auf dem beobachtenden Bereich ändert. Ursache dafür können Schatten und Reflexionen sein.In particular, there are two main artifacts that adversely affect robustness. These are movements on the one hand and on the other hand Changes in light intensity. For example, motion artifacts arise when the person moves during the measurement. This is the case in practical applications. Therefore, it is necessary to balance these movements. Intensity artifacts arise when the intensity in the image changes, and in particular in the observed region. This can be caused by shadows and reflections.
Aufgabe der Erfindung ist es daher, ein Verfahren zur kontaktlosen Bestimmung der Herzfrequenz einer Person zur Verfügung zu stellen, mit dessen Hilfe die Herzfrequenz robust erfasst werden kann und bei welchem Bewegungsartefakte und Intensitätsartefakte minimiert oder eliminiert werden können.The object of the invention is therefore to provide a method for contactless determination of the heart rate of a person available, with the aid of which the heart rate can be robustly detected and in which motion artifacts and intensity artifacts can be minimized or eliminated.
Diese Aufgabe wird mit den kennzeichnenden Merkmalen des ersten Patentanspruchs gelöst.This object is achieved with the characterizing features of the first claim.
Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen.Advantageous embodiments emerge from the subclaims.
Erfindungsgemäß ist ein Verfahren zur kontaktlosen Bestimmung der Herzfrequenz einer Person unter Verwendung einer fortlaufenden RGB-Bildsequenz aufweisend die folgenden Schritte:
- a. Aufnahme einer RGB-Bildsequenz und Übermittlung der RGB-Bildsequenz an eine Verarbeitungseinheit,
- b. Auswahl von wenigstens drei Regionen in einem in der RGB-Bildsequenz detektierten Gesicht einer Person, dessen Orientierung ermittelt wurde,
- c. Tracking des Gesichtes parallel zu Schritte b, wobei jedes der geeigneten Pixel in seiner Intensität mit der Intensität der jeweiligen Nachbarpixel verglichen wird und sowohl die Verschiebung der Weglänge eines jeden Pixels um eine bestimmt Höhe und Breite von einem Zeitschritt zum zeitlich darauf folgenden Zeitschritt, als auch zum zeitlich vorangegangenen Zeitschritt ausgewertet
- d. Auswahl geeigneter Pixel in den ausgewählten Regionen auf Basis der Gesichtshautfarbe und von Landmarken, unter Einhaltung eines Abstandes von wenigstens zwei Pixeln von einem Hautpixel zu einem Nicht-Hautpixel,
- e. Signalextraktion durch Überführung eines räumlichen Bildsignals aus der RGB-Bildsequenz in den ausgewählten Regionen in ein Zeitsignal,
- f. Signalverarbeitung und Auswertung des Zeitsignals, wobei das Zeitsignal eine Basis für die Bestimmung der Herzfrequenz bildet.
- a. Recording an RGB image sequence and transmitting the RGB image sequence to a processing unit,
- b. Selection of at least three regions in a face detected in the RGB image sequence of a person whose orientation has been determined
- c. Tracking the face parallel to steps b, wherein each of the appropriate pixels is compared in intensity with the intensity of the respective neighboring pixels and both the displacement of the path length of each pixel by a certain height and width from a time step to the temporally following time step, as well evaluated at temporally preceding time step
- d. Selecting appropriate pixels in the selected regions based on facial skin color and landmarks while maintaining a distance of at least two pixels from a skin pixel to a non-skin pixel;
- e. Signal extraction by transferring a spatial image signal from the RGB image sequence in the selected regions into a time signal,
- f. Signal processing and evaluation of the time signal, wherein the time signal forms a basis for the determination of the heart rate.
Vor der Detektion des Gesichtes der Person wird vorzugsweise ein Weißabgleich der RGB-Bildsequenz vorgenommen um eine möglicherweise auftretende Blau- oder Rotverschiebung im Bild auszugleichen. Dabei werden Korrekturfaktoren für den Rot und Blaukanal eingeführt, die dies ermöglichen. Ein reales weiß wird somit auch als weiß abgebildet.Before the detection of the person's face, a white balance of the RGB image sequence is preferably made in order to compensate for a possibly occurring blue or red shift in the image. Correction factors for the red and blue channels are introduced, which make this possible. A real white is thus also depicted as white.
Als Grundlage für die weiteren Prozesse wird eine Detektion des Gesichtes auf den 2D-Bilddaten durchgeführt. Im Ergebnis wird das Gesicht durch eine sogenannte Bounding Box um das Gesicht markiert.As a basis for the further processes, a detection of the face on the 2D image data is performed. As a result, the face is marked by a so-called bounding box around the face.
Zur Ermittlung der Gesichtsorientierung werden markante Punkte im Gesicht als Landmarken lokalisiert. Vorteilhafterweise kann dadurch ein Gesicht auch detektiert werden, wenn es rotiert ist. Dabei werden markante Punkte im Gesicht lokalisiert und sind eineindeutig bestimmbar. Der Algorithmus zur Bestimmung der Landmarken beruht dabei auf X. Zhu und D. Ramanan [8]. Hierbei existiert ein Modell der Landmarken, wie sie im optimalen Gesicht vorkommen würde. Mittels eines flexiblen Modells mit Baumstruktur kann dieses Modell auf beliebige Gesichter übertragen werden. Dieses Vorgehen sichert eine genaue Detektion des Gesicht mit Hinblick auf die Orientierung des Gesichtes.To determine facial orientation, prominent points on the face are localized as landmarks. Advantageously, thereby a face can also be detected when it is rotated. In the process, prominent points are localized in the face and can be uniquely determined. The algorithm for determining landmarks is based on X. Zhu and D. Ramanan [8]. Here exists a model of the landmarks as they would appear in the optimal face. By means of a flexible model with tree structure, this model can be transferred to any faces. This procedure ensures accurate detection of the face with respect to the orientation of the face.
Vorzugsweise werden wenigstens drei, besonders bevorzugt wenigstens vier Regionen im Gesicht ausgewählt, die für die Bestimmung der Herzfrequenz weiter verwendet werden. Insbesondere richtet sich die Lokalisierung der wenigstens drei, bevorzugt wenigstens vier Regionen, welche für die Bestimmung der Herzfrequenz verwendet werden, relativ nach der Position der ermittelten Bounding Box. Die Regionen liegen dabei innerhalb der Bounding Box und erfüllen bestimmte Abstandskriterien zu den Rndern der Bounding Box.Preferably, at least three, more preferably at least four regions in the face are selected which are further used for the determination of the heart rate. In particular, the location of the at least three, preferably at least four, regions which are used for the determination of the heart rate depends relatively on the position of the determined bounding box. The regions are within the bounding box and meet certain distance criteria to the edges of the bounding box.
Diese Regionen werden als ROI (Regions of Interest) bezeichnet. Dies ist notwendig, da Pixel im Bereich der Haare, der Augenbrauen, Augen, Brillen usw. nicht mit in das Hautfarbenmodell eingehen sollen und dementsprechend exkludiert werden. Dafür werden besonders bevorzugt vier ROIs bestimmt, um eine Varianz über unterschiedliche Regionen zu erhalten. Die ROIs werden auf der Stirn, der Nase und den beiden Wangen platziert.These regions are referred to as ROI (Regions of Interest). This is necessary because pixels in the area of hair, eyebrows, eyes, glasses, etc. should not be included in the skin color model and are therefore excluded. For this purpose, four ROIs are particularly preferably determined in order to obtain a variance over different regions. The ROIs are placed on the forehead, the nose and the two cheeks.
Bevorzugt erfolgt zur Auswahl geeigneter Pixel zunächst eine Bestimmung der Gesichtshautfarbe auf dem ersten Bild der RGB-Bildsequenz. Dabei werden vorzugsweise alle Pixel die sich in den zuvor ausgewählten ROIs befinden für die Bestimmung eines sogenannten Hautfarbenmodells genutztIn order to select suitable pixels, a determination of the facial skin color on the first image of the RGB image sequence is preferably carried out first. In this case, preferably all pixels which are located in the previously selected ROIs are used for the determination of a so-called skin color model
Zur Bestimmung der Gesichtshautfarbe erfolgt vorzugsweise zunächst eine Konvertierung des RGB-Farbraumes in den HSV-Farbraum, da eine lineare Separierung im RGB-Farbraum nicht möglich ist. In diesem findet ein Aufteilung der Farbinformation nicht in rot, grün und blau sondern in Farbwert (H, hue), Farbsättigung (S, saturation) und des Hellwertes (V, value) statt. Aus den jeweiligen Werten für Farbraum und Sättigung wird ein individuelles Hautfarbenmodell erstellt.To determine the facial skin color, a conversion of the RGB color space in the HSV color space, since a linear separation in the RGB color space is not possible. In this a division of the color information does not take place in red, green and blue but in color value (H, hue), color saturation (S, saturation) and the brightness value (V, value). From the respective values for color space and saturation an individual skin color model is created.
Dabei wird für jeden Probanden ein individuelles Hautfarbenmodell angelegt. Das heißt es gibt keine festen Vorgabewerte für alle Menschen. Dies sichert einerseits eine größere Genauigkeit zu und ermöglicht andererseits, dass diese Methode für Menschen mit unterschiedlichen Hautfarben anwendbar ist. Zudem können Regionen mit Schatten oder starken Reflektionen exkludiert werden, was sich in einer späteren verbesserten Robustheit des Algorithmus ausdrückt.An individual skin color model is created for each subject. That means there are no fixed default values for all people. On the one hand, this ensures greater accuracy and, on the other hand, makes it possible for this method to be applicable to people with different skin colors. In addition, regions with shadows or strong reflections can be excluded, which is reflected in a later improved robustness of the algorithm.
Um die Gesichtsregion bzw. Bounding Box über die Zeit in einem Video zuverlässig zu erfassen, ist ein Tracking notwendig. Somit können beispielsweise Bewegungen des Kopfes ausgeglichen werden und das Gesicht ist dauerhaft innerhalb der definierten Bounding Box.To reliably capture the face region or bounding box over time in a video, tracking is necessary. Thus, for example, movements of the head can be compensated and the face is permanently within the defined bounding box.
In einem ersten Schritt müssen dafür geeignete Bildmerkmale im Gesicht gefunden werden, die charakteristisch sind und wieder gefunden werden können. Für diese Anwendung werden vorzugsweise die Minimum-Eigen-Features verwendet [9]. Diese berechnen den minimalen Eigenwert von Bildregionen und sind somit in der Lage, Ecken zu detektieren.In a first step suitable image features must be found in the face, which are characteristic and can be found again. For this application, the minimum eigen features are preferably used [9]. These calculate the minimum eigenvalue of image regions and are thus able to detect corners.
Für das Tracking der Merkmale wird bevorzugt eine Technik aus dem Bereich des optischen Flusses verwendet, die als KLT-Methode bekannt ist [10]. Dabei werden die Intensitäten des Merkmalspixels und dessen Nachbarpixel betrachtet. Von einem Frame zum nächsten Frame wird das Merkmal um eine bestimmte Weglänge in Höhe und Breite verschoben. Diese Verschiebung wird während des Trackings bestimmt.For the tracking of the features, preference is given to using an optical flow technique known as the KLT method [10]. The intensities of the feature pixel and its neighboring pixels are considered. From one frame to the next frame, the feature is shifted by a certain path length in height and width. This shift is determined during tracking.
Um die Robustheit des Trackings zu erhöhen, wird zudem vorzugsweise ein Rückwärtstracking durchgeführt. Dabei werden die Merkmale vom aktuellen Frame zum aktuellen Frame vorherigen und ihre Verschiebung bestimmt. Der bidirektionale Fehler zwischen der Vorwärtsverschiebung und Rückwärtsverschiebung darf nicht mehr als einen Pixel betragen. Ansonsten wird das Merkmal für die weitere Berechnung verworfen.In order to increase the robustness of the tracking, it is also preferable to perform a backward tracking. The characteristics from the current frame to the current frame are predefined and their displacement determined. The bidirectional error between the forward shift and the backward shift must not exceed one pixel. Otherwise, the feature is discarded for further calculation.
Unter bestimmten Bedingungen, wie z.B. schnellen Bewegungen oder Änderungen des perspektivischen Blickwinkels der Kamera auf das Gesicht, können viele Merkmale über die Zeit verloren gehen. Dies ist von großem Nachteil, da damit kein stabiles Tracking mehr möglich ist. Im schlimmsten Fall verschwinden alle Merkmale. Daher ist es notwendig, in bestimmten Abständen das Gesicht neu zu detektieren und die Merkmale neu zu bestimmen. Für diese Ausführung gelten folgende Bestimmungen: Im Fall, dass das Gesicht nicht detektiert werden kann, z.B. aufgrund der perspektivischen Verzerrung, wird ohne die Detektion ein kontinuierliches Tracking durchgeführt. Sollte es zu schnellen Bewegungen im Bild kommen, ist in jedem Fall eine erneute Detektion des Gesichtes notwendig, da es ansonsten zu großen Abweichungen kommt, die sich negativ auf die Robustheit auswirken.Under certain conditions, e.g. rapid movements or changes in the perspective of the camera on the face, many features can be lost over time. This is a great disadvantage, because it no longer stable tracking is possible. In the worst case, all features disappear. Therefore, it is necessary to re-detect the face at certain intervals and to redefine the characteristics. For this embodiment, the following provisions apply: In the event that the face can not be detected, e.g. due to the perspective distortion, a continuous tracking is performed without the detection. If there are too rapid movements in the image, a new detection of the face is necessary in any case, otherwise there are large deviations, which have a negative effect on the robustness.
Auf Grundlage der ermittelten Verschiebung lassen sich die Parameter der geometrischen Transformation ermitteln. Diese Transformationsparameter werden im Anschluss auf die Bounding Box des Gesichtes angewendet. In Folge des Trackings liegt eine Bounding Box für alle Frames vor, die auf die korrespondierende/gleiche Region verweist.On the basis of the determined displacement, the parameters of the geometric transformation can be determined. These transformation parameters are then applied to the bounding box of the face. As a result of the tracking, there is a bounding box for all frames that points to the corresponding / same region.
Innerhalb der ermittelten Bounding Box des Trackings wird für jedes Frame (jeder Zeitschritt) das Hautfarbenmodell anwendet, welches zuvor im ersten Frame bestimmt wurde. Dabei werden die Schwellwerte für Farbwert und Sättigung genommen und diese auf alle Pixel angewandt. Als Ergebnis liegen geeignete Hautpixel für die Bestimmung der Herzfrequenz vor. Allerdings gibt es gerade an den Kanten zu anderen Objekten im Gesicht fließende Übergänge, die sich nachteilig auswirken. Um dem entgegen zu wirken, wird ein räumlicher Abstand k in Pixel definiert, der zwischen einem Hautpixel und einem nicht Hautpixel liegen muss. Bevorzugt wird k mit wenigstens 2, besonders bevorzugt mit wenigstens 9 angenommen. Damit werden aus geeigneten Hautpixeln besonders geeignete (verlässliche) Hautpixel ausgewählt.Within the determined bounding box of the tracking, for each frame (each time step), the skin color model is used, which was previously determined in the first frame. The threshold values for color value and saturation are taken and applied to all pixels. As a result, suitable skin pixels are available for determining the heart rate. However, there are smooth transitions at the edges to other objects on the face, which are detrimental. To counteract this, a spatial distance k in pixels is defined, which must lie between a skin pixel and a non-skin pixel. Preferably k is assumed to be at least 2, more preferably at least 9. This selects suitable (reliable) skin pixels from suitable skin pixels.
Im Ergebnis liegen Hautpixel vor, die nicht durch Schatten, Reflektionen oder andere intensitätsbeeinflussende Artefakte gestört sind.The result is skin pixels that are not disturbed by shadows, reflections or other intensity-affecting artifacts.
Zur Signalextraktion wird für jeden Farbkanal von R, G und B die Summe aller Pixelintensitäten der zuvor ausgewählten geeigneten Pixel gebildet und durch die Anzahl dieser Pixel geteilt.For signal extraction, for each color channel of R, G and B, the sum of all pixel intensities of the previously selected suitable pixels is formed and divided by the number of these pixels.
Um weitere Artefakte und Rauschen zu unterdrücken und den Signal-Rausch-Abstand zu erhöhen, ist eine Signalverarbeitung notwendig. Vorzugsweise werden bei der Signalverarbeitung wenigstens die folgenden Schritte durchgeführt:
- - Normalisierung aller drei zuvor ermittelten Kanäle
- - Anwendung eines Bandpassfilters auf alle drei Kanäle
- - Unabhängigkeitsanalyse
- - Auswahl der unabhängigen Komponente mit der höchsten Periodizität unter Berücksichtigung der Standardabweichung jeder unabhängigen Komponente
- - Normalization of all three previously determined channels
- - Apply a bandpass filter to all three channels
- - Independence analysis
- - Selection of the independent component with the highest periodicity, taking into account the standard deviation of each independent component
Im vorzugsweise ersten Schritt der Signalverarbeitung werden die drei Zeitsignale von R, G und B normalisiert. Das heißt, es wird der Mittelwert über die Zeitachse gebildet und dieser anschließend abgezogen. Im Anschluss wird mit dem Reziprokwert der Standardabweichung des Kanals multipliziert. Durch diesen Schritt liegen alle drei Kanäle zentriert um die x-Achse (Nullachse).In the preferably first step of the signal processing, the three time signals of R, G and B are normalized. This means that the mean value is formed over the time axis and this is then subtracted. Subsequently, the reciprocal of the standard deviation of the channel is multiplied. Through this step, all three channels are centered around the x-axis (zero axis).
Um den Suchbereich für die spätere Frequenzbestimmung zu begrenzen, sollen nur Frequenzwerte berücksichtigt werden, die beim Menschen physiologisch auftreten können. Dafür wird bevorzugt ein Bandpassfilter angewendet, der nur Frequenzen zwischen 0,7 Hz und 4 Hz durchlässt. Es wird insbesondere ein FIR-Filter der Ordnung 200 verwendet. Dies wird auf alle drei Kanäle angewendet.In order to limit the search range for later frequency determination, only frequency values that can occur physiologically in humans should be taken into account. For this purpose, a bandpass filter is preferably used, which only lets frequencies between 0.7 Hz and 4 Hz through. In particular, a 200 order FIR filter is used. This is applied to all three channels.
Trotz der vorherigen Bemühungen gibt es immer noch Rauschquellen in den drei Kanälen R, G und B. Um diese weiter zu reduzieren wird eine ICA (Independent Component Analysis, Unabhängigkeitsanalyse) durchgeführt. Dabei wird angenommen, dass die drei Kanäle nur Messwerte von drei unabhängigen Quellen, sind die über eine so genannte Mischmatrix kombiniert wurden. Bei den drei Kanälen ist eine das gesuchte Herzfrequenzsignal und zwei gelten als Rauschquellen. Mit Hilfe der ICA wird die Mischmatrix bestimmt und ein System von drei unabhängigen Quellen erzeugt.Despite previous efforts, there are still noise sources in the three R, G, and B channels. To further reduce this, an ICA (Independent Component Analysis) is performed. It is assumed that the three channels are only measurements from three independent sources, which have been combined via a so-called mixed matrix. For the three channels, one is the wanted heart rate signal and two are considered noise sources. With the help of the ICA, the mixed matrix is determined and a system of three independent sources is generated.
Ein Problem nach Anwendung der ICA ist es, das man nicht weiß, welcher der drei Kanäle der gesuchte Kanal mit dem Nutzsignal ist. Dies wird mit der Kanalbestimmung gelöst.One problem after using the ICA is that you do not know which of the three channels is the wanted channel with the wanted signal. This is solved with the channel determination.
Generell kann konstatiert werden, dass sich die menschliche Herzrate in kurzen Zeitintervallen nur geringfügig ändert. Daher sollte die unabhängige Komponente mit der höchsten Periodizität ausgewählt werden. Die Periodizität ist dabei als Anteil der Frequenzen an dem gesamten Leistungsspektrum mit einer Bandbereite von maximal 0,5 Hz um die dominante Frequenz des Signals definiert.In general, it can be stated that the human heart rate changes only slightly in short time intervals. Therefore, the independent component with the highest periodicity should be selected. The periodicity is defined as a proportion of the frequencies on the entire power spectrum with a band width of 0.5 Hz maximum around the dominant frequency of the signal.
Allerdings können kurze aber intensive Bewegungsartefakte ebenfalls eine hohe Periodizität aufweisen. Um diese Fälle zu identifizieren, wird die Standardabweichung jeder unabhängigen Komponente bestimmt. Wenn die Differenz zu eins einen bestimmten Schwellwert d überschreitet, wird die Komponente im weiteren Entscheidungsprozess exkludiert.However, short but intense motion artifacts can also have a high periodicity. To identify these cases, the standard deviation of each independent component is determined. If the difference to one exceeds a certain threshold d, the component is excluded in the further decision process.
Im Ergebnis dieses Schrittes liegt nur noch ein Kanal vor, der mit der höchsten Wahrscheinlichkeit die Herzfrequenz beinhaltet. Dieser Kanal wird für die weitere Analyse betrachtet.As a result of this step, there is only one more channel that most likely contains the heart rate. This channel is considered for further analysis.
Da sich die Herzfrequenz über die Zeit ändern kann, ist es sinnvoll, den verbleibenden Kanal in einzelne Segmente zu zerlegen. Vorzugsweise weist jedes Segment ein gleitendes Fenster von maximal 10 Sekunden Länge auf. Die Überlappung der Segmente beträgt bevorzugt maximal 90%.Since the heart rate can change over time, it makes sense to break the remaining channel into individual segments. Preferably, each segment has a sliding window of at most 10 seconds in length. The overlap of the segments is preferably at most 90%.
Für die eigentliche Frequenzbestimmung werden bevorzugt wenigstens zwei unterschiedliche Verfahren verwendet. Als besonders geeignet haben sich die FFT (Fast-Fourier Transform) und die spektrale Schätzung nach Welch herausgestellt. Für diese beiden Methoden findet eine Transformation des Signals vom Zeitbereich in den Frequenzbereich (Spektrum) statt. Im Anschluss kann der dominante Peak als Schätzer für die Herzfrequenz angenommen werden.For the actual frequency determination, preferably at least two different methods are used. The FFT (Fast Fourier Transform) and Welch spectral estimation have proven to be particularly suitable. For these two methods, a transformation of the signal from the time domain into the frequency domain (spectrum) takes place. Subsequently, the dominant peak can be assumed as an estimator of the heart rate.
Mit Schätzer ist dabei ein Schätzwert für die Herzfrequenz gemeint.By estimator is meant an estimate of the heart rate.
Im finalen Schritt sollen die Schätzer für die Herzfrequenz bestätigt bzw. modifiziert werden. Vorrangig geht es darum, Sprünge in der Herzfrequenz zu vermeiden. Da sich die Segmente zu maximal 90 Prozent überlappen, ist davon auszugehen, dass sich die Herzfrequenz nicht sprunghaft ändern kann. Die vorherigen Segmente dienen daher als Basis für das jeweils nächste Segment. Vorzugsweise wird davon ausgegangen, dass sich die Herzfrequenz nicht mehr als 15 Schläge pro Minute zwischen zwei Segmenten (in etwa 0,1 Sekunden) ändern wird. Dies entspricht 0,25 Hz. Innerhalb dieses Intervalls wird der dominante Peak im Spektrum bestimmt. Es ist nicht mehr der dominante Peak im gesamten Spektrum ausschlaggebend.In the final step, the heart rate estimates should be confirmed or modified. The priority is to avoid leaps in heart rate. Since the segments overlap to a maximum of 90 percent, it can be assumed that the heart rate can not change abruptly. The previous segments therefore serve as the basis for the next segment. Preferably, it is believed that the heart rate will not change more than 15 beats per minute between two segments (in about 0.1 seconds). This corresponds to 0.25 Hz. Within this interval, the dominant peak in the spectrum is determined. It is no longer the dominant peak across the spectrum.
Vorteilhafterweise können durch das erfindungsgemäße Verfahren sowohl Bewegungsartefakte als auch Intensitätsartefakte, die üblicherweise bei vergleichbaren Verfahren auftreten reduziert bzw. eliminiert werden. Dies geht einher mit einer genaueren Bestimmung der Herzrate und einer verbesserten Robustheit. Durch das erfindungsgemäße Verfahren kann eine vorbeugende Überwachung einer Person erfolgen um das Eintreten eines Notfalls zu vermeiden. Neben dem Bereich Ambient Assisted Living kann dieses Verfahren in E-Rehabilitation eingesetzt werden, um die Vitalparameter während einer Trainingsübung zu erfassen. Darüber hinaus kann es zur Detektion des plötzlichen Kindstodes, zur Überwachung eines Fahrzeugführers oder zur Triage im Krankenhaus eingesetzt werden.Advantageously, both motion artifacts and intensity artifacts, which usually occur in comparable methods, can be reduced or eliminated by the method according to the invention. This goes along with a more accurate determination of the heart rate and improved robustness. By the method according to the invention, a preventive monitoring of a person can take place in order to avoid the occurrence of an emergency. In addition to Ambient Assisted Living, this technique can be used in e-rehabilitation to record vital signs during a training exercise. In addition, it can be used to detect sudden infant death, to monitor a driver or to triage in the hospital.
Da für das Verfahren ein optisches kontaktloses Verfahren ist, bei dem kein direkter Körperkontakt zur Person nötig ist, ist es besonders geeignet für Personengruppen wie beispielsweise Menschen mit Demenz oder sensitiver Haut, ältere Menschen, Neugeborene oder Pflegebedürftige im Allgemeinen. Since the method is an optical non-contact method which requires no direct physical contact with the person, it is particularly suitable for groups of people such as people with dementia or sensitive skin, the elderly, newborns or people in need of care in general.
Die Erfindung wird nachfolgend anhand eines Ausführungsbeispiels und zugehöriger Zeichnungen näher erläutert, ohne dabei auf diese beschränkt zu sein.The invention will be explained in more detail with reference to an embodiment and associated drawings, without being limited to these.
Dabei zeigen:
-
1 : ein Fließschema des erfindungsgemäßen Verfahrens, -
2 : eine schematische Darstellung eines detektierten Gesichtes nach Erstellen der Landmarken und der Bounding-Box, -
3 : eine schematische Darstellung eines detektierten Gesichtes nach Bestimmung der Regions of Interest (ROI), -
4 : Darstellung der räumlich gemittelten Pixel über die Zeit für die drei Farbkanäle Rot, Grün und Blau.
-
1 : a flow chart of the process according to the invention, -
2 : a schematic representation of a detected face after creating the landmarks and the bounding box, -
3 : a schematic representation of a detected face after determination of the regions of interest (ROI), -
4 : Representation of spatially averaged pixels over time for the three color channels red, green and blue.
In
Eine Darstellung der räumlich gemittelten Pixel über die Zeit für die drei Farbkanäle Rot, Grün und Blau ist in
zitierte Nichtpatentliteratur:quoted non-patent literature:
-
[1]
Hertzman, A. B. and Spealman, C. R. (1937). Observations on the finger volume pulse recorded photoelectrically. American Journal of Physiology, 119:334-335 Hertzman, AB and Spealman, CR (1937). Observations on the finger volume pulse recorded photoelectrically. American Journal of Physiology, 119: 334-335 -
[2]
Verkruysse, W., Svaasand, L. O., and Nelson, J. S. (2008). Observations on the finger volume pulse recorded photoelectrically. Optics Express, 16(26):21434-21445 Verkruysse, W., Svaasand, LO, and Nelson, JS (2008). Observations on the finger volume pulse recorded photoelectrically. Optics Express, 16 (26): 21434-21445 -
[3]
Poh, M.-Z., McDuff, D., and Picard, R. (2010). Noncontact, automated cardiac pulse measurements using video imaging and blind source separation. Optics Express, 18(10):10762-10774 Poh, M.Z., McDuff, D., and Picard, R. (2010). Noncontact, automated cardiac pulse measurements using video imaging and blind source separation. Optics Express, 18 (10): 10762-10774 -
[4]
van Gastel, M., Zinger, S., Kemps, H., and de With, P. (2014). e-health video system for performance analysis in heart revalidation cycling. In Consumer Electronics Berlin (ICCE-Berlin), 2014 IEEE Fourth International Conference on, pages 31-35 van Gastel, M., Zinger, S., Kemps, H., and de With, P. (2014). e-health video system for performance analysis in heart revalidation cycling. In Consumer Electronics Berlin (ICCE-Berlin), 2014 IEEE Fourth International Conference on, pages 31-35 -
[5]
Lewandowska, M., Ruminski, J., Kocejko, T., and Nowak, J. (2011). Measuring pulse rate with a webcam - a non-contact method for evaluating cardiac activity. In Computer Science and Information Systems (FedCSIS), 2011 Federated Conference on, pages 405-410 Lewandowska, M., Ruminski, J., Kocejko, T., and Nowak, J. (2011). Measuring pulse rate with a webcam - a non-contact method for evaluating cardiac activity. In Computer Science and Information Systems (FedCSIS), 2011 Federated Conference on, pages 405-410 -
[6]
de Haan, G. and Jeanne, V. (2013). Robust pulse rate from chrominance-based rppg. Biomedical Engineering, IEEE Transactions on, 60(10):2878-2886 de Haan, G. and Jeanne, V. (2013). Robust pulse rate from chrominance-based rppg. Biomedical Engineering, IEEE Transactions on, 60 (10): 2878-2886 -
[7]
Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on, pages 3430-3437 Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on, pages 3430-3437 -
[8]
X. Zhu and D. Ramanan. Face detection, pose estimation, and landmark localization in the wild. In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pat-tern Recognition, pages 2879-2886 X. Zhu and D. Ramanan. Face detection, pose estimation, and landmark localization in the wild. In Proceedings of the IEEE Computer Society Conference on Computer Vision and Patents Recognition, pages 2879-2886 -
[9]
Shi, J. and Tomasi, C. (1993). Good Features to Track. Technical report, Cornell University, Ithaca, NY, USA Shi, J. and Tomasi, C. (1993). Good features to track. Technical report, Cornell University, Ithaca, NY, USA - [10] Tomasi, C. and Kanade, T. (1991). Detection and Tracking of Point Features. Technical report, Carnegie Mellon University.[10] Tomasi, C. and Kanade, T. (1991). Detection and Tracking of Point Features. Technical report, Carnegie Mellon University.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Bildaufnahme KameraImage capture camera
- 22
- WeißabgleichWhite balance
- 33
- Gesichtsdetektionface detection
- 3.13.1
- erste Bounding Boxfirst bounding box
- 3.23.2
- Landmarkenlandmarks
- 3.33.3
- zweite Bounding Boxsecond bounding box
- 44
- Bestimmung der GesichtsorientierungDetermination of facial orientation
- 55
- Auswahl von Regions of Interest (ROI)Selection of Regions of Interest (ROI)
- 5.15.1
- ROI auf der StirnROI on the forehead
- 5.25.2
- ROIs auf den WangenROIs on the cheeks
- 5.35.3
- ROI auf der NaseROI on the nose
- 66
- Bestimmung der Gesichtshautfarbe / eines HautfarbenmodellsDetermination of facial skin color / a skin color model
- 77
- Bestimmung von BildmerkmalenDetermination of image features
- 88th
- Gesichtstrackingface tracking
- 99
- Auswahl geeigneter Pixel auf der HautSelection of suitable pixels on the skin
- 1010
- ZeitsignalextraktionTime signal extraction
- 1111
- Signalnormalisierungsignal normalization
- 1212
- BandpassfilterungBandpass filtering
- 1313
- Independent Component AnalysisIndependent Component Analysis
- 1414
- Kanalbestimmungdetermining channel
- 1515
- Frequenzbestimmungfrequency determination
- 1616
- adaptive Filterungadaptive filtering
- 1717
- Herzfrequenzheart rate
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017118636.0A DE102017118636B3 (en) | 2017-08-15 | 2017-08-15 | Method for contactless determination of the heart rate of a person |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017118636.0A DE102017118636B3 (en) | 2017-08-15 | 2017-08-15 | Method for contactless determination of the heart rate of a person |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017118636B3 true DE102017118636B3 (en) | 2018-12-06 |
Family
ID=64279266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017118636.0A Active DE102017118636B3 (en) | 2017-08-15 | 2017-08-15 | Method for contactless determination of the heart rate of a person |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017118636B3 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111281367A (en) * | 2018-12-10 | 2020-06-16 | 绍兴图聚光电科技有限公司 | Anti-interference non-contact heart rate detection method based on face video |
CN112932415A (en) * | 2021-03-17 | 2021-06-11 | 上海交通大学医学院附属上海儿童医学中心 | Premature infant skin moisture analysis method and system |
CN116999044B (en) * | 2023-09-07 | 2024-04-16 | 南京云思创智信息科技有限公司 | Real-time motion full-connection bidirectional consistent optical flow field heart rate signal extraction method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140180132A1 (en) * | 2012-12-21 | 2014-06-26 | Koninklijke Philips Electronics N.V. | System and method for extracting physiological information from remotely detected electromagnetic radiation |
EP2846550A1 (en) | 2011-01-05 | 2015-03-11 | Koninklijke Philips N.V. | Video coding and decoding devices and methods preserving PPG relevant information |
US20160015308A1 (en) | 2012-02-28 | 2016-01-21 | Koninklijke Philips N.V. | Device and method for monitoring vital signs |
US20160302679A1 (en) | 2013-12-12 | 2016-10-20 | Koninklijke Philips N.V. | Device and method for determining vital signs of a subject |
US20160343135A1 (en) | 2015-05-21 | 2016-11-24 | Koninklijke Philips N.V. | Determining a pulse signal from a video sequence |
-
2017
- 2017-08-15 DE DE102017118636.0A patent/DE102017118636B3/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2846550A1 (en) | 2011-01-05 | 2015-03-11 | Koninklijke Philips N.V. | Video coding and decoding devices and methods preserving PPG relevant information |
US20160015308A1 (en) | 2012-02-28 | 2016-01-21 | Koninklijke Philips N.V. | Device and method for monitoring vital signs |
US20140180132A1 (en) * | 2012-12-21 | 2014-06-26 | Koninklijke Philips Electronics N.V. | System and method for extracting physiological information from remotely detected electromagnetic radiation |
US20160302679A1 (en) | 2013-12-12 | 2016-10-20 | Koninklijke Philips N.V. | Device and method for determining vital signs of a subject |
US20160343135A1 (en) | 2015-05-21 | 2016-11-24 | Koninklijke Philips N.V. | Determining a pulse signal from a video sequence |
Non-Patent Citations (11)
Title |
---|
Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on, pages 3430-3437 |
de Haan, G. and Jeanne, V. (2013). Robust pulse rate from chrominance-based rppg. Biomedical Engineering, IEEE Transactions on, 60(10):2878-2886 |
Hertzman, A. B. and Spealman, C. R. (1937). Observations on the finger volume pulse recorded photoelectrically. American Journal of Physiology, 119:334-335 |
Lewandowska, M., Ruminski, J., Kocejko, T., and Nowak, J. (2011). Measuring pulse rate with a webcam - a non-contact method for evaluating cardiac activity. In Computer Science and Information Systems (FedCSIS), 2011 Federated Conference on, pages 405-410 |
Poh, M.-Z., McDuff, D., and Picard, R. (2010). Noncontact, automated cardiac pulse measurements using video imaging and blind source separation. Optics Express, 18(10):10762-10774 |
Shi, J. and Tomasi, C. (1993). Good Features to Track. Technical report, Cornell University, Ithaca, NY, USA |
van Gastel, M., Zinger, S., Kemps, H., and de With, P. (2014). e-health video system for performance analysis in heart revalidation cycling. In Consumer Electronics Berlin (ICCE-Berlin), 2014 IEEE Fourth International Conference on, pages 31-35 |
Verkruysse, W., Svaasand, L. O., and Nelson, J. S. (2008). Observations on the finger volume pulse recorded photoelectrically. Optics Express, 16(26):21434-21445 |
WIEDE, Christian [et al.]: Remote Heart Rate Determination in RGB Data. In: Proceedings of the 5th International Conference on Pattern Recognition Applications and Methods, 2016, 240-246. - ISSN 978-989-758-173-1. http://www.scitepress.org/Papers/2016/56940/56940.pdf [abgerufen am 12.07.2018] * |
WIEDE, Christian; RICHTER, Julia; HIRTZ, Gangolf: Signal fusion based on intensity and motion variations for remote heart rate determination. In: 2016 IEEE International Conference on Imaging Systems and Techniques (IST), 2016, 526-531. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7738282&isnumber=7738183 [abgerufen am 12.07.2018] * |
X. Zhu and D. Ramanan. Face detection, pose estimation, and landmark localization in the wild. In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pat-tern Recognition, pages 2879-2886 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111281367A (en) * | 2018-12-10 | 2020-06-16 | 绍兴图聚光电科技有限公司 | Anti-interference non-contact heart rate detection method based on face video |
CN112932415A (en) * | 2021-03-17 | 2021-06-11 | 上海交通大学医学院附属上海儿童医学中心 | Premature infant skin moisture analysis method and system |
CN116999044B (en) * | 2023-09-07 | 2024-04-16 | 南京云思创智信息科技有限公司 | Real-time motion full-connection bidirectional consistent optical flow field heart rate signal extraction method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11229372B2 (en) | Systems and methods for computer monitoring of remote photoplethysmography based on chromaticity in a converted color space | |
DE112019002467T5 (en) | SYSTEM AND PROCEDURE FOR THE REMOTE MEASUREMENT OF VITAL SIGNS | |
EP2956906B1 (en) | Analysing video images of a subject to identify spatial image areas which contain periodic intensity variations | |
EP3664704B1 (en) | Device, system and method for determining a physiological parameter of a subject | |
DE102013208588A1 (en) | PROCESSING A VIDEO TO ESTIMATE A RESPIRATORY RATE | |
EP3440991A1 (en) | Device, system and method for determining a physiological parameter of a subject | |
DE102017118636B3 (en) | Method for contactless determination of the heart rate of a person | |
Fallet et al. | Imaging photoplethysmography: What are the best locations on the face to estimate heart rate? | |
DE102013210713A1 (en) | Video-based estimation of heart rate variability | |
Bobbia et al. | Remote photoplethysmography based on implicit living skin tissue segmentation | |
DE102013208587A1 (en) | PROCESSING A VIDEO FOR VASCULAR PATTERN RECOGNITION AND HEART FUNCTIONAL ANALYSIS | |
KR102215557B1 (en) | Heart rate estimation based on facial color variance and micro-movement | |
DE102016200045A1 (en) | Selecting a region of interest to extract physiological parameters from a subject's video | |
Bousefsaf et al. | Automatic selection of webcam photoplethysmographic pixels based on lightness criteria | |
DE112015000614T5 (en) | Contactless physiological monitoring during simultaneous magnetic resonance imaging | |
Huang et al. | A motion-robust contactless photoplethysmography using chrominance and adaptive filtering | |
DE102015208144A1 (en) | Increase the accuracy of a physiological signal, obtained from a video of a patient | |
DE112019004512T5 (en) | INFORMATION PROCESSING DEVICE, PROGRAM AND INFORMATION PROCESSING METHOD | |
Wang et al. | Quality metric for camera-based pulse rate monitoring in fitness exercise | |
Hassan et al. | Optimal source selection for image photoplethysmography | |
Yin et al. | Heart rate estimation based on face video under unstable illumination | |
Al-Naji et al. | Contactless cardiac activity detection based on head motion magnification | |
Ryu et al. | A measurement of illumination variation-resistant noncontact heart rate based on the combination of singular spectrum analysis and sub-band method | |
Cho et al. | Reduction of motion artifacts from remote photoplethysmography using adaptive noise cancellation and modified HSI model | |
Andreotti et al. | Improved heart rate detection for camera-based photoplethysmography by means of Kalman filtering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R018 | Grant decision by examination section/examining division | ||
R084 | Declaration of willingness to licence | ||
R020 | Patent grant now final |