DE102013208588A1 - Verarbeitung eines videos zur schätzung einer atemrate - Google Patents

Verarbeitung eines videos zur schätzung einer atemrate Download PDF

Info

Publication number
DE102013208588A1
DE102013208588A1 DE102013208588A DE102013208588A DE102013208588A1 DE 102013208588 A1 DE102013208588 A1 DE 102013208588A1 DE 102013208588 A DE102013208588 A DE 102013208588A DE 102013208588 A DE102013208588 A DE 102013208588A DE 102013208588 A1 DE102013208588 A1 DE 102013208588A1
Authority
DE
Germany
Prior art keywords
video
video camera
individual
target region
series data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013208588A
Other languages
English (en)
Inventor
Lalit Keshav MESTHA
Edgar A. Bernal
Beilei Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/486,637 external-priority patent/US9226691B2/en
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of DE102013208588A1 publication Critical patent/DE102013208588A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • A61B5/1135Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing by monitoring thoracic expansion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • G06F2218/10Feature extraction by analysing the shape of a waveform, e.g. extracting parameters relating to peaks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30076Plethysmography
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Es werden ein System und ein Verfahren zum Schätzen einer Atemrate durch Analysieren von Verzerrungen in Reflexionen von Mustern strukturierter Beleuchtung offenbart, die in einem Video aufgenommen werden, das eine Ansicht der Thoraxregion eines Individuums beinhaltet. Bei einer Ausführungsform wird ein Video einer Zielregion eines Körpers eines Individuums von Interesse empfangen. Videobild-Frames werden verarbeitet, um 3D-Zeitreihendaten für die Zielregion zu schätzen. Wie hier ausführlicher offenbart, wird die Atemrate des Individuums anhand der 3D-Zeitreihendaten geschätzt. Messungen können unter diversen Beleuchtungsbedingungssätzen erfasst werden. Die vorliegenden Lehren stellen einen kontaktlosen Ansatz für das Überwachen der Atemfunktion eines Patienten bereit, der sich für Intensivstationen und für eine Überwachung zu Hause eignet, und der das Erkennen einer plötzlichen Verschlechterung von physiologischen Zuständen, die durch Änderungen der Atemraten bedingt ist, erleichtert. Die vorliegenden Lehren stellen ein wirksames Werkzeug für die kontaktlose Untersuchung und Analyse der Atemfunktion bereit.

Description

  • Die vorliegende Erfindung ist auf Systeme und Verfahren zum Schätzen einer Atemrate durch Analysieren von Verzerrungen in Reflexionen von Mustern strukturierter Beleuchtung, die in einem Video aufgenommen wurden, das zumindest eine Teilansicht einer Thoraxregion eines Patienten beinhaltet, dessen Atemfunktion überwacht wird.
  • sDas Überwachen von respiratorischen Ereignissen ist bei der Früherkennung von potenziell tödlichen Leiden von klinischer Wichtigkeit. Derzeitige Technologien umfassen Kontaktsensoren, die der Einzelne konstant tragen muss. Eine solche Anforderung kann zu Unbehagen, Abhängigkeit und Verlust der Würde auf Seiten des Patienten führen und kann darüber hinaus aus diversen Gründen versagen, darunter Weigerung, die Überwachungseinheit zu tragen. Bei älteren Patienten und neugeborenen Kleinkindern ist die Wahrscheinlichkeit von unerwünschten Wirkungen einer kontinuierlichen Überwachung sogar höher. Unauffällige, kontaktlose, bildgebungsbasierte Verfahren sind für die Überwachung der Atemfunktion zunehmend wünschenswert.
  • Bisherige Verfahren nehmen Videobilder einer Region von Interesse eines Individuums auf und verarbeiten das Video, um physiologische Messungen in Bezug auf die Herz- und Atemfunktion zu erhalten. Diese Systeme verfolgen ein photoplethysmographisches Signal, das von einer Region freigelegter Haut reflektiert wird. Die reflektierten Signale werden verarbeitet, um Komponenten, die sich auf ein pulsierendes Blutvolumen beziehen, zu identifizieren und isolieren. Wenn eine Region freigelegter Haut fehlt, kann die Videokamera diese Signale nicht registrieren. Auch wenn Aufzeichnungen von 2D-Videos einer Nicht-Haut-Region bewegungsbezogene Informationen enthalten, waren bisherige Versuche, respiratorische Signale ausschließlich auf Basis von Bewegung zu isolieren, bislang nicht erfolgreich. Die vorliegende Erfindung ist darauf ausgerichtet, diese Nachteile auszuräumen.
  • Es werden ein System und ein Verfahren zum Schätzen einer Atemrate für ein Individuum von Interesse offenbart, die in einem Video aufgenommen wurde, das eine Ansicht der Thoraxregion dieses Individuums enthält. Bei einer Ausführungsform wird ein Video einer Zielregion eines Körpers eines Individuums von Interesse empfangen. Wie hier noch ausführlicher offenbart, wird die Bewegung der Thoraxregion des Individuums in einem Video aufgezeichnet. Videobild-Frames werden verarbeitet, um ein kontinuierliches Zeitreihensignal zu erhalten. Dieses Signal wird danach verarbeitet, um Frequenzinformationen zu erhalten, aus denen die Atemrate des Individuums isoliert werden kann. Vorteilhafterweise können Messungen unter diversen Beleuchtungsbedingungssätzen erfasst werden, ohne den Patienten zu stören. Die vorliegenden Lehren stellen einen kontaktlosen Ansatz für das Überwachen der Atemfunktion bereit, der auf Intensivstationen und Zuhause besonders nützlich ist, um das Erkennen einer plötzlichen Verschlechterung der physiologischen Zustände bedingt durch Änderungen der Atemrate zu erleichtern. Das hier offenbarte System und die hier offenbarten Verfahren bieten ein wirksames Werkzeug für die kontaktlose Analyse der Atemfunktion.
  • 1 zeigt sowohl eine anteriore (vordere) Ansicht als auch eine posteriore (hintere) Ansicht eines erwachsenen Menschen.
  • 2 zeigt das Ergebnis eines Spirometers einer normalen Person, die sieben Ruheatemzüge nimmt, gefolgt von maximaler Einatmung und Ausatmung.
  • 3 zeigt ein beispielhaftes Motiv, das mit einer strukturierten Lichtquelle und einer Videokamera beleuchtet ist, die ein Video des Brustbereichs eines Individuums zur Schätzung der Atemrate gemäß den vorliegenden Lehren aktiv erfasst.
  • 4 zeigt die geometrischen Verhältnisse zwischen einem Bildsensor, einem Projektor strukturierten Lichts und einem Objektoberflächenpunkt, ausgedrückt als Triangulation.
  • 5 zeigt die Phasenverschiebung mit drei Projektionsmustern und ein beispielhaftes Streifenbild.
  • 6 zeigt eine beispielhafte Ausführungsform eines Phase-Unwrapping-Prozesses.
  • 7 zeigt ein System, das einen Bildsensor nutzt, um reflektiertes Licht zu erfassen, das von einem Projektor strukturierter Quelle abgegeben wird, gemäß einer vorliegenden Ausführungsform.
  • 8 zeigt ein beispielhaftes normalisiertes mittelwertfreies volumetrisches Zeitreihensignal für einen 60-sekündigen Zeitraum, das aus Messungen an einem männlichen Individuum erhalten wurde, und das trendbereinigte Zeitreihensignal.
  • 9A zeigt die Leistungsspektrumsdichte-Kurven für die Atmungssignale vor der Trendbereinigung.
  • 9B zeigt die Leistungsspektrumsdichte-Kurven für die Atmungssignale nach der Trendbereinigung (λ = 80).
  • 10 ist ein Ablaufplan, der eine beispielhafte Ausführungsform des vorliegenden Verfahrens zur Ermittlung der Atemrate für ein Individuum von Interesse zeigt, dessen Atemfunktion überwacht wird.
  • 11 zeigt ein Blockschaubild eines beispielhaften Videoverarbeitungssystems zum Umsetzen diverser Aspekte des vorliegenden Verfahrens, wie unter Bezug auf den Ablaufplan von 10 beschrieben.
  • Ein "Individuum von Interesse" bezieht sich auf ein Individuum, dessen Atemfunktion überwacht wird, so dass eine Atemrate für dieses Individuum gemäß den vorliegenden Lehren ermittelt werden kann. 1 zeigt eine anteriore (vordere) Ansicht 101 eines erwachsenen Menschen sowie eine posteriore (hintere) Ansicht 102. Eine Zielregion 103 umreißt die anteriore Thoraxregion des Individuums. Eine Zielregion 104 umreißt die posteriore Thoraxregion des Individuums. Wie hier verwendet, bezieht sich eine Zielregion auch auf eine beliebige Ansicht einer Region des Körpers des Individuums, die eine Atemfunktion ausführt. Es sei verstanden, dass die Verwendung der Ausdrücke "Mensch", "Person" oder "Patient" hier nicht als den Umfang der beiliegenden Ansprüche ausschließlich auf menschliche Individuen von Interesse begrenzend angesehen werden soll. Die vorliegenden Lehren gelten gleichermaßen für andere Individuen von Interesse, die auch eine Atemfunktion aufweisen. Solche weiteren Individuen umfassen beispielsweise Säugetiere, Vögel, Fische und Reptilien.
  • Eine "Atemfunktion" ist ein mehrstufiger Prozess, der das Inhalieren von Luft in die Lunge (Einatmen), Gasaustausch und das Ausstoßen von Luft aus der Lunge (Ausatmen), gefolgt von einer post-exspiratorischen Pause, umfasst. Das Einatmen bewirkt, dass die in der Brusthöhle enthaltene Lunge sich mit Luft füllt, wodurch das Brustvolumen erweitert wird. Das Einatmen wird durch einen Zwerchfellmuskel eingeleitet und von Interkostalmuskeln unterstützt. Unter normalen Bedingungen ist das Zwerchfell der primäre Einatmungsantrieb. Wenn sich das Zwerchfell zusammenzieht, erweitert sich der Brustkorb und die Inhalte des Bauchs werden nach unten bewegt. Dies führt zu einem größeren thorakalen Volumen und Unterdruck (in Bezug auf Atmosphärendruck) innerhalb des Thorax. Gasaustausch ist eine primäre Funktion des Atmungssystems. Gasmoleküle werden zwischen der externen Umgebung und einem Blutkreislaufsystem im Lungenkreislauf ausgetauscht. Dieser Austausch erleichtert die Oxygenierung der Bluts und wiederum von Geweben und das Entfernen von Kohlendioxid und anderen metabolischen Abfällen aus dem Körper. Der Gasaustausch hilft auch dabei, das Säure-Base-Gleichgewicht des Körpers zu halten. Der zelluläre Mechanismus des Gasaustausches wird durch das einfache Phänomen des Druckunterschieds bewirkt. Ist der Atmosphärendruck außen gering, strömt Luft von der Lunge in die Umgebung. Ist der Luftdruck in der Lunge gering, ist das Gegenteil der Fall. Die Ausatmung ist im Allgemeinen ein passiver Prozess, der auf die natürliche Elastizität des Lungengewebes zurückzuführen ist, die bewirkt, dass sich die Lunge von der Einatmungsdehnung zurückzieht, wodurch Luft nach außen forciert wird, bis die Drücke in der Brust und die Drücke der Außenatmosphäre ein Gleichgewicht erreichen. Während der forcierten Ausatmung erzeugen exspiratorische Muskeln wie Bauch- und interne Interkostalmuskeln, wie beim Ausblasen einer Kerze, einen Druck im Bauch- und Thoraxbereich, der dabei hilft, Luft aus der Lunge hinaus zu forcieren. Während der forcierten Einatmung, beispielsweise beim tiefen Luftholen, unterstützen äußere Interkostalmuskeln und Hilfsmuskeln das Ausdehnen der Brusthöhle und das Bringen von mehr Luft in die Lunge. Während der starken Einatmung (bei Raten von mehr als 35 Atemzügen pro Minute) oder bei einem sich nähernden Atemversagen werden Hilfsmuskeln wie Musculus sternocleidomastoideus, Platysma, Musculus scalenus des Halses sowie Brustmuskeln und Musculus latissimus dorsi der Atmung als Unterstützung beansprucht. Eine "post-exspiratorische Pause" tritt auf, wenn ein Druckausgleich zwischen der Lungen und der Atmosphäre erfolgt. Die Dauer der postexspiratorischen Pause verringert sich mit gesteigerter körperlicher Aktivität und kann bei hohen Belastungsraten sogar auf null fallen. Befindet sich das Individuum in einer Ruhephase, ist die Dauer der post-exspiratorischen Pause relativ lang. Der Atmungszyklus eines Individuums ist das Zeitintervall zwischen dem Beginn der Inhalation und dem Ende der post-exspiratorischen Pause. Der nächste Zyklus beginnt unmittelbar nach der post-exspiratorischen Pause.
  • "Atemrate" bezieht sich auf die Anzahl von Atemzügen (Einatmen und Ausatmen), die ein Individuum innerhalb eines gewissen Zeitraums (für gewöhnlich in Atemzügen/Minute) macht. Die Atemrate wird häufig gemessen, wenn sich ein Individuum in der Ruhephase befindet, und umfasst lediglich das Ermitteln der Anzahl von Ruheatemzügen, die das Individuum pro Minute macht. Ein erwachsener Mensch macht im Ruhezustand zwischen 12 und 20 Ruheatemzüge pro Minute, je nach Gesamtzustand der Herz-Kreislauf- und Atmungssysteme dieser Person. Da die Lungengesamtkapazität eines durchschnittlichen erwachsenen Menschen ungefähr 6,0 Liter Luft beträgt, verschiebt die Lunge nach dem Einatmen und Ausatmen ein relativ kleines Volumen während der Ruheatmung. Restriktive Lungenerkrankungen wie pulmonale Fibrose, Pneumothorax, Atemnotsyndrom des Neugeborenen und dergleichen verringern das Lungenvolumen, wogegen obstruktive Lungenerkrankungen wie Asthma, Bronchitis und Emphysem die Luftströmung blockieren. 2 zeigt das Ergebnis eines Spirometers einer normalen Person, die sieben Ruheatemzüge nimmt, gefolgt von maximaler Einatmung und Ausatmung.
  • Eine "Remote-Erfassungsumgebung" bezieht sich auf ein kontaktloses, unauffälliges, nicht-invasives Mittel zum Erfassen von Daten von einem Individuum, d. h. die Erfassungseinheit berührt das Individuum, dessen Werte erfasst werden, physisch nicht. Die Erfassungseinheit kann eine beliebige Distanz vom Individuum weg sein, z. B. so nahe wie ein Zoll oder so weit weg wie Kilometer im Fall von Telemedizin. Die vorliegenden Lehren finden ihren Verwendungszweck in einer solchen Remote-Erfassungsumgebung, so dass der ruhende Herzpatient ungestört bleibt.
  • Ein "Video" ist, wie allgemein verstanden, eine zeitlich variierende Sequenz von Bild-Frames eines Motivs, das über die Zeit mithilfe einer Videokamera aufgenommen wurden. Ein voll bestücktes 2D-Bild, das beispielsweise unter Verwendung einer 3-Kanal-Farbvideokamera aufgenommen wird, ist ein 2D-Pixel-Array, wobei jedes Pixel im Array Farbwerte aufweist, die für Pixel aus jedem dieser Kanäle gesammelt werden. Ein voll bestücktes 2D-Bild, das beispielsweise unter Verwendung einer 1-Kanal-Videokamera aufgenommen wird, ist ein 2D-Pixel-Array, wobei jedes Pixel im Array einen Intensitätswert aufweist, der für diese Pixelposition in einem gewünschten Wellenlängenband von Interesse gemessen wurde. Das Video kann darüber hinaus andere Komponenten wie Audio, Zeitreferenzsignale und dergleichen beinhalten. Die Größe der Videodaten kann für längere Videosequenzen groß werden. Das Video kann auch verarbeitet oder vorverarbeitet werden, um durch die Krümmung einer Oberfläche der Haut bedingte nicht-einheitliche Beleuchtung, durch Körper- oder Oberflächenbewegung bedingte bewegungsinduzierte Unschärfe, Bewegungsunschärfe und langsame Leuchtmittelvariation zu kompensieren. Eine Bewegung im Video kann beispielsweise unter Verwendung von videobasierten 2D-Bild- oder 3D-Oberflächenstabilisierungsverfahren kompensiert werden. "Empfangen eines Videos" soll breit ausgelegt werden und bedeutet Abrufen, Empfangen, Aufnehmen mit einer Videokamera oder anderweitiges Erhalten eines Videos zum Verarbeiten der Atemzugvolumenschätzung gemäß dem vorliegenden Verfahren. Das Video kann aus einem Speicher oder internen Speicher des Videokamerasystems empfangen oder von einer Remote-Einheit über ein Netzwerk erhalten werden. Das Video kann auch über ein Medium abgerufen werden, z. B. CD-ROM oder DVD. Das Video kann durch Herunterladen von einer Website empfangen werden, die solche Videos für eine Vorverarbeitung oder Nachverarbeitung bereitstellt. Das Video kann auch unter Verwendung einer Anwendung abgerufen werden, wie jenen, die für mobile Telefoneinheiten verfügbar sind, und kann auf dem Mobiltelefon des Benutzers oder einer anderen mobilen Recheneinheit wie iPad verarbeitet werden.
  • Eine "Videokamera" bezieht sich auf eine Einheit zum Aufnehmen eines Videos. Die Videokamera kann eine Videokamera sein, die in einem sichtbaren Wellenlängenbereich empfindlich ist, oder eine IR-Videokamera, die in einem Infrarot-Wellenlängenbereich empfindlich ist, z. B. Nahinfrarot (NIR), kurzwelliges Infrarot (SWIR), mittelwelliges Infrarot (MWIR) und langwelliges Infrarot (LWIR). Die Videokamera kann eine Hybrideinheit umfassen, die Videos sowohl im sichtbaren als auch Infrarot-Wellenlängenbereich aufnimmt.
  • Eine "Quelle strukturierter Beleuchtung" ist eine Lichtquelle, die Quelllicht durch ein strukturiertes Gitter oder Fenster mit bekannten räumlichen Charakteristika projiziert. Das Muster kann ein Pseudozufallsmuster mit bekannten räumlichen Charakteristika sein. Genaue 3D-Oberflächenprofile von Objekten in einem Motiv können unter Verwendung von Prinzipien strukturierten Lichts und triangulationsbasierten Bildrekonstruktionsverfahren berechnet werden.
  • Es wird nun auf 3 Bezug genommen, die einen einzelnen D-Bild-Frame 300 zeigt, der von einer Zielregion 303 der Thoraxregion des Individuums von Interesse von 1 aufgenommen wird. Eine Videokamera 310 nimmt von der Zielregion reflektierte Energie auf, die von einer Quelle strukturierter Beleuchtung 311 ausgegeben wird. Die Videokamera 310 ist mit einem Datenübertragungselement 313 gezeigt, um eine bidirektionale Datenübertragung mit einer Remote-Einheit, z. B. einer Computer-Workstation, zu bewirken, wobei das Video für eine Verarbeitung empfangen wird. Steuereinheiten 314 und 315 sind gezeigt, um eine Manipulation von der Quelle strukturierter Beleuchtung 311 bzw. 312 zu bewirken, so dass Artefakte verringert werden. Eine Manipulation ist nur erforderlich, um ein Video zum Extrahieren der Atemrate aufzunehmen, im Gegensatz zu anderen Parametern. Bei der vorliegenden Anmeldung kann eine Hybridvideoaufnahme verwendet werden, um ein erstes 2D-Bild mit strukturierter Beleuchtung zum Schätzen der Atemrate aufzunehmen, gefolgt von einem zweiten 2D-Bild mit nicht-strukturierter Beleuchtung zum Schätzen der Herzrate. Es sei verstanden, dass ein solches System in Betracht gezogen werden kann, wenn in Verbindung mit Systemen gearbeitet wird, die eine Quelle nicht-strukturierter Beleuchtung zum Extrahieren von anderen wichtigen physiologischen Parametern erfordern. Ein Videoaufnahmesystem kann darüber hinaus ein Videoanalysemodul umfassen. Bei einer Ausführungsform umfasst ein Videoanalysemodul eine Hardwareeinheit, z. B. eine ASIC, mit zumindest einem Prozessor, der in der Lage ist, maschinenlesbare Programmanweisungen zum Analysieren von Videobildern auf Frame-für-Frame-Basis für eine Schätzung der Atemrate gemäß den vorliegenden Lehren auszuführen. Ein solches Modul kann auch zur Gänze oder teilweise eine Softwareanwendung umfassen, die alleine oder in Verbindung mit einer oder mehreren Hardwareressourcen arbeitet. Softwareanwendungen können durch Prozessoren auf unterschiedlichen Hardwareplattformen ausgeführt oder in einer virtuellen Umgebung nachgebildet werden. Aspekte des Videoanalysemoduls können serienmäßig produzierte Software nutzen.
  • Eine "Tiefenkarte" ist eine Karte, die Tiefenwerte auf Basis einer Analyse der Verzerrungshöhe eines Musters strukturierten Lichts enthält, das von Oberflächen in dieser Region des Bildes reflektiert wird. Nachdem die Tiefenkarte erzeugt wurde, kann ein Volumen berechnet werden. In 4 projizierte eine Quelle 403 strukturierter Beleuchtung sinusförmige Rasterungen 404 auf ein Objekt 405 und die Reflexion der auftreffenden sinusförmigen Rasterungen wird vom Kamerasystem 402 aufgenommen, wenn sie vom Objekt reflektiert werden. Die sinusförmigen Rasterungen haben bekannte räumliche Charakteristika von unverzerrten projizierten Mustern. Das Kamerasystem 402 ist mit einem Datenübertragungselement 406 für eine bidirektionale Datenübertragung mit einer Remote-Einheit, z. B. einer Workstation (nicht dargestellt), gezeigt, wobei das aufgenommene Video zur Verarbeitung übertragen wird. Wenn das Motiv eine planare Oberfläche ohne jedwede 3D-Oberflächenvariation und ungefähr parallel zum Kamerasensor ausgerichtet ist, wird das im erfassten Bild gezeigte Muster ähnlich jenem des projizierten Musters strukturierten Lichts sein. Wenn die Oberfläche allerdings nicht planar ist, nicht parallel zum Kamerasensor ausgerichtet ist oder ein 3D-Objekt enthält, verzerrt die Form des Objekts das projizierte Muster strukturierten Lichts. Solche Lichtverzerrungen können von der Kamera 402 erkannt werden. Die geometrische Beziehung zwischen der Kamera 402, einer Quelle 403 strukturierter Beleuchtung und Punkt P auf der Oberfläche des 3D-Objekts 405 kann in Bezug auf eine Triangulation wie folgt ausgedrückt werden:
    Figure 00100001
  • Eine genaue 3D-Bildrekonstruktion kann auf einem Phasenverschiebungs- oder Phasenmodulationverfahren basieren, das Phasen an unterschiedlichen Positionen auf der Oberfläche des Objekts misst und Tiefeninformationen aus diesen Phasen berechnet. 5 zeigt die Phasenverschiebung mit drei Projektionsmustern, gesammelt bei 501, die auf die Objektoberfläche projiziert werden, und ein beispielhaftes Streifenbild 502. Die Bildrekonstruktion mittels Phasenverschiebung ist ein hinlänglich bekanntes Verfahren, wobei Intensitäten für jedes Pixel (x, y) der drei projizierten Streifenmuster durch die folgenden Beziehungen beschrieben werden:
    Figure 00100002
    wobei I1(x, y), I2(x, y) und I3(x, y) die Intensitäten der drei Streifenmuster sind, I0(x, y) die DC-Komponente (Hintergrund) ist, Imod(x, y) die Modulationssignalamplitude ist, ϕ(x, y) die Phase ist und θ der konstante Phasenverschiebungswinkel ist. "Phase-Unwrapping" ist das Verfahren, das die eingewickelte (wrapped) Phase in eine absolute Phase umwandelt. Die Phaseninformationen ϕ(x, y) können aus den Intensitäten in den drei Streifenmustern abgerufen (d. h. ausgewickelt (unwrapped)) werden.
    Figure 00100003
  • Die Diskontinuität der Arcustangensfunktion bei 2π kann durch Hinzufügen oder Subtrahieren von Vielfachen von 2π in Bezug auf den ϕ'(x, y)-Wert entfernt werden (von 6): ϕ(x, y) = ϕ'(x, y)+ 2kn (6) wobei k eine ganze Zahl ist, die eine Projektionsperiode darstellt. Man bemerke, dass Unwrapping-Verfahren nur ein relatives Unwrapping bereitstellen und nicht die absolute Phase ergeben. Die 3D-(x, y, z)-Koordinaten können auf Basis der Differenz zwischen der gemessenen Phase ϕ(x, y) und dem Phasenwert aus einer Referenzebene berechnet werden.
  • Es wird nun auf das System von 7 Bezug genommen, das eine Videokamera 702 verwendet, um reflektiertes Licht, das (bei 704) abgegeben, von einem Projektor 705 Quelle strukturierter Beleuchtung projiziert und von einem Punkt P des Objekts 706 reflektiert wird, d. h. einer Position in der Thoraxregion des Individuums. Tiefenwerte werden durch eine Geometrie berechnet, gegeben durch:
    Figure 00110001
  • Streifenindexierung kann ebenfalls verwendet werden, um eine 3D-Oberflächenrekonstruktion zu erzielen, da die Reihenfolge, in der die Streifen beobachtet werden, nicht notwendigerweise der Reihenfolge entspricht, in der die Streifen projiziert werden, wobei dies auf eine inhärente Parallaxe zurückzuführen ist, die bei triangulationsbasierten 3D-Oberflächenbildgebungssystemen besteht, und auf die Möglichkeit, dass Streifen gegenüber dem erfassten Bild bedingt durch den Ausschluss von 3D-Oberflächenmerkmale fehlen. Die Sammlung von Pixeln bildet das Bild. Die Verwendung von Farben für die Streifenindexierung in den Projektionsmustern hilft dabei, das Mehrdeutigkeitsproblem zu lindern, das bei Phasenverschiebungs-oder Mehrstreifenverfahren unter Verwendung von monochromen Mustern besteht. Dieser Systemtyp ermöglicht das Kodieren von mehreren Mustern in ein einzelnes Farbprojektionsbild, wobei jedes Muster einen eindeutigen Farbwert besitzt. Um die Dekodierfehlerrate zu senken, kann man einen Farbsatz auswählen, in dem jede Farbe eine maximale Distanz zu jeder anderen Farbe im Satz aufweist. Die maximale Anzahl von Farben ist auf eine Distanz zwischen Farben beschränkt, die eine minimale Überlagerung in den erfassten Bildern erzeugt. Es sei verstanden, dass wenn das Ziel-3D-Objekt statisch ist, wie der Fall, wenn das Atmen kurzzeitig aussetzt, und die Anwendung keine stringenten Beschränkungen auf die Erfassungszeit vorsieht, Multi-Shot-Verfahren (sequenzielle Verfahren) verwendet werden und oftmals zu verlässlicheren und genaueren Ergebnissen führen können. Wenn sich das Ziel andererseits bewegt, werden Single-Shot-Verfahren verwendet, um ein Schnappschuss-3D-Oberflächenbild des 3D-Objekts zu einer bestimmten Zeitinstanz zu erfassen. Single-Shot-Verfahren können in Verfahren, bei denen kontinuierlich variierende Muster strukturierten Lichts verwendet werden, Verfahren, bei denen 1D-Kodierschemata (Streifenindexierung) verwendet werden, und Verfahren, bei denen 2D-Kodierschemata (Gitterindexierung) verwendet werden, klassifiziert werden. Jedes Verfahren hat seine eigenen Vor- und Nachteile, je nach der spezifischen Anwendung. Einige Verfahren können kombiniert werden.
  • Es sei darüber hinaus verstanden, dass die Beleuchtungsquellen manipuliert werden können, d. h. während der Aufnahme des Videos durch die Videokamera räumlich und/oder spektral variiert werden können. Eine Beleuchtungsquelle kann räumlich variiert werden, indem beispielsweise die Beleuchtungsquelle bewegt wird, so dass das Quelllicht aus unterschiedlichen Winkeln auf gewisse Regionen in dem Motiv projiziert wird. Eine Beleuchtungsquelle kann zeitlich variiert werden, indem beispielsweise die Projektion des Quelllichts gemäß einem Plan oder einer gewünschten Periodizität ein- und ausgeschaltet wird. Eine Beleuchtungsquelle kann spektral variiert werden, indem beispielsweise das Wellenlängenband der elektromagnetischen Strahlung modifiziert wird, so dass es keine anderen Beleuchtungsquellen und/oder Videokameras im System stört. Eine Gerätesteuereinheit kann so konfiguriert sein, dass sie die Intensität der Lichtquelle variiert, die eine Beleuchtungsquelle projiziert.
  • Um die geräteabhängigen Tiefenausgaben (in Bytes) zu geräteunabhängigen hinlänglich bekannten Metriken umzuwandeln, muss eine Kalibrierung durchgeführt werden. Die Kalibrierung der Raumkoordinaten des Geräts (von Pixeln zu Millimetern oder Metern oder Zoll) kann auf eine Weise durchgeführt werden, die im Wesentlichen der Weise entspricht, auf die eine herkömmliche RGB-Kamera kalibriert wird. Die Kalibrierung der Tiefenausgabe erfordert Kenntnis der geometrischen Konfiguration des Stereopaars (Beleuchtung und Bildgebungsmodule). Sowohl die Raumkoordinaten als auch die Tiefenausgaben aus dem 3D-Bildgebungssensor können in geräteunabhängige Einheiten (z. B. Millimeter oder Meter oder Zoll) umgewandelt werden. Dies gewährleistet jedoch nicht, dass die geschätzten Volumen dem gemessenen Volumen entsprechen, wobei dies auf die Tatsache zurückzuführen ist, dass die Veränderungen im Brustkorbvolumen möglicherweise nicht mit den Veränderungen im Lungenvolumen identisch sind, bedingt durch Elastizitätsunterschiede zwischen den beiden. Somit kann eine zusätzliche Kalibrierung wünschenswert sein. Nimmt man eine lineare Beziehung zwischen geschätztem und tatsächlichem Volumen an, kann eine Proportionalitätskonstante mithilfe von Labortests geschätzt werden, die für unterschiedliche Atmungsintensitäten über einen für die Messungen erforderlichen Bereich durchgeführt werden. Das tatsächliche Volumen kann mithilfe eines Spirometers gemessen werden. Die Steigerung der linearen Regressionsgeraden zwischen den Messungen des Spirometers und jenen, die mit dem D-Bildgebungssystem erhalten werden, würde die Kalibrierungskonstante bereitstellen.
  • Bevor die Atemrate geschätzt werden kann, wird die Region der Tiefenkarte, die dem Körper des Individuums entspricht, in den Bildern vorzugsweise segmentiert. Dies kann auf verschiedene Methoden erzielt werden. Da die Distanz von der Kamera zur Oberfläche des Betts bekannt ist, kann die Position des Körpers des Individuums beispielsweise durch Erkennen von Pixeln, die von der Oberfläche des Betts umgeben sind und näher an der Kamera als das Bett selbst positioniert sind, extrahiert werden. Eine weitere Methode besteht darin, eine Lokalisierung durchzuführen und den Zielbereich danach einem Bereichswachstumsverfahren zu unterziehen, um Pixel mit ähnlichen Tiefeninformationen mit einzuschließen. Dadurch wird eine binäre Maske erhalten. Die Brustkorblokalisierung kann durch angemessene Anwendung von morphologischen Operationen auf die binäre Maske durchgeführt werden, die aus der Körpersegmentierungsstufe erhalten wird. Beispielsweise entfernt eine morphologische Öffnung der Maske mit einem Strukturierelement geeigneter Größe Pixel, die den Extremitäten und dem Kopf entsprechen, angesichts deren relativen Größe in Bezug auf den Brustbereich. Eine weitere Methode besteht darin, eine morphologische Skelettierung auf die Maske anzuwenden und die Verzweigungspunkte des entstehenden Skeletts zu ermitteln. Diese Verzweigungspunkte werden ungefähr am Genick und an den Schultern angeordnet sein, wodurch ein Hinweis auf die Position der Thoraxregion des Individuums bereitgestellt wird.
  • Schätzen von 3D-Zeitreihendaten
  • Zeitreihendaten werden durch Verarbeiten jedes Bild-Frames des empfangenen Videos geschätzt. Das Verarbeiten eines Bild-Frames umfasst das Vergleichen von Raumattributen der aufgenommenen räumlichen Verzerrung mit bekannten Raumattributen von unverzerrten projizierten Mustern, z. B. die Verzerrung kann im Bild charakterisiert werden. Danach wird eine Tiefenkarte anhand der charakterisierten Verzerrung an unterschiedlichen Positionen auf der Oberfläche der Zielregion berechnet. Ein 3D-Volumen kann für jedes Bild anhand der zugehörigen Tiefenkarte geschätzt werden. Die entstehenden geschätzten 3D-Volumen, die aus den verarbeiteten Bild-Frames erhalten werden, werden dann miteinander verknüpft, um die geschätzten 3D-Zeitreihendaten zu generieren. Um eine Frequenzanalyse in den darauffolgenden Stufen des vorliegenden Verfahrens durchzuführen, werden eine Normalisierung und Mittelwertzentrierung an den erhaltenen Zeitreihendaten durchgeführt. Die Normalisierung kann durch Teilen des Signals durch dessen Maximalwert erzielt werden. FIG. zeigt ein beispielhaftes normalisiertes mittelwertfreies volumetrisches Zeitreihensignal für einen 60-sekündigen Zeitraum, das aus Messungen an einem männlichen Individuum erhalten wurde.
  • Wenn die Atemrate aus dem normalisierten mittelwertfreien Zeitreihensignal unter Verwendung eines herkömmlichen FFT-Verfahrens (d. h. Spektralanalyseverfahrens) extrahiert wird, ist es für eine langfristige kontinuierliche Überwachung wichtig, dass das Signal stationär ist. Ein langsam variierender Trend im Zeitreihensignal kann zu einer nicht-stationären Signalkomponente führen, die dann zu großen Teilbändern um die Atemfrequenz führen kann. Darüber hinaus kann eine Trendbereinigung insbesondere in diesem Fall langsam variierende bewegungsinduzierte Frequenzkomponenten entfernen. Eine Methode verwendet einen Glättungsansatz, der wie ein zeitlich variierendes Hochpass-FIR-Filter arbeitet, indem niederfrequente Komponenten entfernt werden. Das trendbereinigte beinahe stationäre Atmungssignal, Rstat, wird wie folgt erhalten:
    Figure 00150001
    wobei Roriginal das normalisierte nullbereinigte Zeitreihensignal ist, I eine Identitätsmatrix ist, λ ein Parameter ist, der zum Einstellen des Frequenzgangs des Trendbereinigungsalgorithmus ist, T die Matrixumwandlungsoperation ist und D2 eine Differenzmatrix zweiter Ordnung der folgenden Form ist:
    Figure 00150002
  • Wenn Roriginal die Größe N aufweist, ist I eine Identitätsmatrix der Größe N × N. Der Parameter λ wird a priori durch Experimentieren an einem Patienten in dessen klinischer/häuslicher/arbeitsbezogenen Umgebung mit Probedaten eingestellt, und zwar so, dass keine nützlichen Informationen aus den niederfrequenten Komponenten verloren gehen.
  • Es wird nun auf die 9A bis B Bezug genommen, die die Verwendung eines nicht-parametrischen Ansatzes (FFT-basiert) zum Analysieren der Spektren des trendbereinigten Atmungs-Zeitreihungssignals zeigt. Nicht-parametrische Ansätze wie die autoregressive (AR) Zeitreihenmodellierung können statt der FFT auch verwendet werden. 9A zeigt die Leistungsspektrumsdichte-Kurven für die Atmungssignale vor der Trendbereinigung. 9B zeigt die Leistungsspektrumsdichte-Kurven für die Atmungssignale nach der Trendbereinigung (λ = 80). Die Atemrate wurde durch Ermitteln der Position, an der die spektrale Signatur am höchsten ist, geschätzt. Auf Basis dieser Analyse wurde eine Aufzeichnung von 10 Zyklen pro Minute im einminütigen Intervall beobachtet, was mit der Anzahl von Einatmungs- und Ausatmungszyklen im ursprünglichen Zeitreihensignal durchaus vergleichbar ist.
  • Es wird nun auf den Ablaufplan von 10 Bezug genommen, der eine beispielhafte Ausführungsform des vorliegenden Verfahrens zur Ermittlung der Atemrate für ein Individuum von Interesse zeigt, dessen Atemfunktion überwacht wird. Die Prozessverarbeitung beginnt bei Schritt 1000 und geht sofort zu Schritt 1002 über.
  • Bei Schritt 1002 wird ein Video einer Zielregion eines Individuums von Interesse empfangen, dessen Atemfunktion überwacht wird. Das Video wurde unter Verwendung einer Videokamera und eines Illuminators aufgenommen, der so konfiguriert ist, dass er ein Muster strukturierter Beleuchtung projiziert. Die Videokamera ist so konfiguriert, dass sie gegenüber elektromagnetischer Strahlung in einer Wellenlänge der strukturierten Beleuchtung empfindlich ist. Jedes Bild des aufgenommenen Videos umfasst eine Abtastung der Strahlung, die durch Reflexion der strukturierten Beleuchtung von einer Oberfläche der Zielregion abgegeben wurde. Eine räumliche Verzerrung wird durch eine Reflexion des projizierten Musters von dieser Oberfläche eingebracht. Eine beispielhafte Zielregion eines Individuums von Interesse ist in 1 gezeigt.
  • Bei Schritt 1004 werden die Videobilder verarbeitet, um geschätzte 3D-Zeitreihendaten für die Zielregion zu erhalten.
  • Bei Schritt 1006 wird eine Atemrate für das Individuum anhand der 3D-Zeitreihendaten geschätzt.
  • Bei Schritt 1008 wird die Atemrate an eine Anzeigeeinheit übertragen. Bei dieser Ausführungsform endet die weitere Verarbeitung hier. Bei einer weiteren Ausführungsform wird ein Alarm ausgelöst, der anzeigt, dass die Atemrate des Individuums nicht innerhalb akzeptabler Parameter liegt. Das Auslösen des Alarms kann beispielsweise das Aktivieren eines Lichts, das Produzieren eines hörbaren Geräuschs oder ein anderweitiges Erzeugen eines Signals sein, das eine Einheit aktiviert, die wiederum eine Aktion durchgeführt oder eine Benachrichtigung bereitstellt. Der Typ des erzeugten Alarmsignals hängt von der bestimmten Ausführungsform ab, in der die vorliegenden Lehren umgesetzt werden. Bei dieser alternativen Ausführungsform endet die weitere Verarbeitung, nachdem das Alarmsignal aktiviert wurde. Bei einer weiteren Ausführungsform wird die Verarbeitung wiederholt, so dass die Atemrate des Individuums kontinuierlich überwacht wird. Das vorliegende System kann in Verbindung mit anderen Gesundheitsüberwachungseinrichtungen verwendet oder in diese integriert werden, so dass das ausgelöste Alarmsignal diese anderen Einheiten veranlasst, gewünschte Funktionen auszuführen.
  • Es sei verstanden, dass die hier gezeigten Ablaufpläne veranschaulichend sind. Ein oder mehrere der in den Ablaufplänen gezeigten operativen Schritte können in einer unterschiedlichen Reihenfolge durchgeführt werden. Andere Operationen können beispielsweise hinzugefügt, modifiziert, verbessert, verkürzt, integriert oder mit den Schritten davon zusammengelegt werden. Solche Variationen sollen in den Umfang der beiliegenden Ansprüche fallen. Alle Ablaufpläne oder Teile davon können teilweise oder gänzlich in Hardware in Verbindung mit maschinenausführbaren Anweisungen umgesetzt sein.
  • Es wird nun auf 11 Bezug genommen, die ein Blockschaubild eines beispielhaften Videoverarbeitungssystems zum Umsetzen diverser Aspekte des vorliegenden Verfahrens zeigt, wie unter Bezug auf den Ablaufplan von 10 beschrieben.
  • In 10 steht eine Workstation 1100 in Verbindung mit einem Datenübertragungselement 1102 für das Empfangen von erkannten Mustern strukturierter Beleuchtung, beispielsweise von der Videokamera 310 von 3, und für eine anderweitige Umsetzung einer Datenübertragung zwischen verschiedenen Einheiten und der Computer-Workstation 1100 über ein Netzwerk 1101. Der Computer 1100 umfasst eine Anzeigeeinheit 1103, um eine Anzeige von Informationen zu ermöglichen, und eine Tastatur 1105, um eine Benutzereingabe oder -auswahl zu ermöglichen. Ein Benutzer des vorliegenden Systems kann die graphische Benutzeroberfläche der Workstation verwenden, um Bilder des Videos für die Verarbeitung oder erneute Verarbeitung zu identifizieren oder anderweitig auszuwählen und um eine Benutzereingabe bereitzustellen, wie für die vorliegende Umsetzung erforderlich sein kann. Das empfangene Video kann über das Netzwerk 1101 von einer Remote-Einheit abgerufen werden. Verschiedene Abschnitte des Videos können in einem Speicher oder einer Speichereinheit (nicht gezeigt) gespeichert werden, der bzw. die mit der Workstation 1100 in Verbindung steht, oder können über das Netzwerk 1101 über einen Datenübertragungsweg an eine Remote-Einheit übertragen werden, z. B. eine Einheit 1102 für eine Remote-Speicherung oder weitere Verarbeitung. Die Workstation 1100 und Datenübertragungseinheit 1102 stehen mit einer Videoverarbeitungseinheit 1106 zum Verarbeiten des Videos gemäß den vorliegenden Lehren in Verbindung.
  • Die Videoverarbeitungseinheit 1106 ist mit einem Puffer gezeigt. Ein solcher Puffer kann verwendet werden, um Informationen über das empfangene Bild in eine Warteschlange zu stellen, z. B. eine oder mehrere Zielregionen innerhalb der Bild-Frames, Größe des Videos, Zeit-/Datumsinformationen und dergleichen. Der Puffer kann so konfiguriert sein, dass er auch Daten, mathematische Formeln und andere Repräsentationen speichert, um eine Verarbeitung des Bildes gemäß den vorliegenden Lehren zu vereinfachen. Ein Videopräprozessor 1108 führt jede Vorverarbeitung des Videos durch, wie gewünscht oder erforderlich sein kann, um durch die Krümmung einer Oberfläche der Haut bedingte nicht-einheitliche Beleuchtung, durch Körper-oder Oberflächenbewegung bedingte bewegungsinduzierte Unschärfe, Bewegungsunschärfe und langsame Leuchtmittelvariation zu kompensieren. Der Videopräprozessor 1108 kann so programmiert sein, dass er die Dimensionalität der Daten verringert und eine Independent Component Analysis (ICA, unabhängige Komponentenanalyse) am Videosignal durchführt. Eine Lichtverzerrungsermittlungseinheit 1009 ermittelt eine Verzerrungshöhe im empfangenen reflektierten Muster strukturierten Lichts. Ein Prozessor 1110 für räumliche Verzerrung empfängt die ermittelte Verzerrungshöhe und vergleicht Raumattribute der ermittelten räumlichen Verzerrungen mit bekannten Raumattributen von nicht-verzerrten projizierten Mustern, so dass die Verzerrung in jedem Bild-Frame charakterisiert werden kann. Die räumlichen Verzerrungen werden an die Speichereinheit 1111 bereitgestellt. Ein Tiefenkartenprozessor 1112 ruft die ermittelte Höhe an räumlichen Verzerrungen aus der Speichereinheit 1111 ab und wandelt die Verzerrung auf Basis einer Pixel-für-Pixel-Basis für jedes Frame des Videos in einen Tiefenwert um. Danach wird eine Tiefenkarte anhand der charakterisierten Verzerrung an unterschiedlichen Positionen auf der Oberfläche der Zielregion erzeugt und in der Speichereinheit 1111 gespeichert. Ein 3D-Volumenschätzer 1113 schätzt ein 3D-Volumen anhand der Tiefenkarte auf einer Pro-Frame-Basis. Ein Zeitreihensignalgenerator 1114 ruft die entstehenden geschätzten 3D-Volumen ab und verknüpft diese miteinander, um die geschätzten 3D-Zeitreihendaten zu erhalten. Ein Atemratenschätzermodul 1115 schätzt die Atemrate des Individuums anhand der 3D-Zeitreihendaten auf eine hier offenbarte Weise. Die Atemrate des Individuums wird an ein Übertragungselement 1116 übertragen, das die Atemrate wiederum beispielsweise an den Arzt des Individuums oder einen Krankenpfleger oder einen Atmungstherapeuten sendet. Eine solche Datenübertragung kann einen Teil des ursprünglichen Videos oder das gesamte ursprüngliche Video und/oder einen Teil der erhaltenen 3D-Zeitreihendaten oder alle erhaltenen 3D-Zeitreihendaten beinhalten. Ein Teil der übertragenen Signale oder alle übertragenen Signale kann bzw. können wiederum an die Workstation 1100 übertragen und auf einer graphischen Anzeigeeinheit 1103 für eine visuelle Prüfung angezeigt werden. Bei einer weiteren Ausführungsform wird die Atemrate des Patienten mit einem oder mehreren Parametern verglichen, die für diesen Patienten festgelegt wurden, und ein Benachrichtigungssignal wird ausgelöst, wenn ermittelt wird, dass die Atemrate des Individuums nicht innerhalb eines akzeptablen Grenzwerts oder Bereichs liegt. Ein Benachrichtigungssignal kann ein hörbares Geräusch umfassen, das einen Benutzer oder Spezialisten darauf hinweist, dass das Individuum Aufmerksamkeit bedarf. Eine solche Benachrichtigung kann die Form einer vorgefertigten Audiomeldung oder beispielsweise eines Glockentongeräuschs oder einer akustischen Warnung annehmen. Die übertragene Benachrichtigungsmeldung kann ein Text-, eine Audio- und/oder eine Videonachricht sein, die direkt an eine mobile Telefoneinheit übertragen werden kann. Eine solche Benachrichtigung kann das Auslösen von sichtbarem Licht umfassen, das eine visuelle Benachrichtigung bereitstellt, z. B. ein blinkendes farbiges Licht, oder kann dies zusätzlich umfassen. Solche Ausführungsformen sollen in den Umfang der beiliegenden Ansprüche fallen.
  • Die verschiedenen Module und Verarbeitungseinheiten von 11 stehen mit einem Monitor 1103 in Verbindung, um auf diesem Informationen für eine Benutzerauswahl bereitzustellen. Jedes der Module und/oder jede der Verarbeitungseinheiten von 11 steht bzw. stehen über gezeigte und nicht-gezeigte Wege mit der Speichereinheit 1111 in Verbindung und kann bzw. können Daten, Parameterwerte, Funktionen, Seiten, Datensätze und maschinenlesbare/-ausführbare Programmanweisungen, die für das Ausführen deren verschiedener Funktionen erforderlich sind, speichern/abrufen. Jedes der Module und jede der Verarbeitungseinheiten des Videoverarbeitungssystems 1106 steht darüber hinaus über gezeigte und nicht-gezeigte Wege mit der Workstation 1100 in Verbindung und kann darüber hinaus über das Netzwerk 1101 mit einer oder mehreren Remote-Einheiten in Verbindung stehen. Es sei verstanden, dass einige oder alle der Funktionalitäten für ein beliebiges der Module zur Gänze oder teilweise von workstationinternen Komponenten durchgeführt werden können. Es sei ferner verstanden, dass die Workstation ein Betriebssystem und andere spezielle Software aufweist, die so konfiguriert sind, dass sie eine Vielzahl von numerischen Werten, Text, Bildlaufleisten, Pull-down-Menüs mit benutzerwählbaren Optionen und dergleichen zum Eingeben, Auswählen oder Ändern von auf der Anzeigeeinheit 1103 angezeigten Informationen anzeigen.
  • Verschiedene Module der vorliegenden Ausführungsformen können eine oder mehrere Komponenten bezeichnen, die wiederum Software und/oder Hardware umfassen, die so konfiguriert ist, dass sie die gewünschte Funktion ausführen. Eine Vielzahl von Modulen kann eine einzelne Funktion gemeinsam ausführen. Jedes Modul kann einen speziellen Prozessor aufweisen, der in der Lage ist, maschinenlesbare Programmanweisungen auszuführen. Ein Modul kann ein einzelnes Stück Hardware, beispielsweise eine ASIC, eine elektronische Schaltung oder einen speziellen Prozessor, umfassen. Eine Vielzahl von Modulen kann entweder von einem einzelnen speziellen Computersystem oder von einer Mehrzahl von parallel arbeitenden speziellen Computersystemen ausgeführt werden. Verbindungen zwischen Modulen umfassen sowohl physische als auch logische Verbindungen. Module können darüber hinaus ein oder mehrere Software-/Hardwaremodule umfassen, die ferner ein Betriebssystem, Treiber, Steuerungen für Einheiten und andere Vorrichtungen umfassen können, wobei einige oder alle davon über ein Netzwerk verbunden sein können. Es wird darüber hinaus in Betracht gezogen, dass ein oder mehrere Aspekte des vorliegenden Verfahrens auf einem dedizierten Computersystem ausgeführt werden und auch in verteilten Rechenumgebungen umgesetzt werden können, wobei Aufgaben von Remote-Einheiten durchgeführt werden, die über ein Netzwerk verbunden sind.
  • Verschiedene Änderungen an den oben beschriebenen Ausführungsformen können vorgenommen werden, ohne sich vom Geist und Umfang der Erfindung zu entfernen.

Claims (10)

  1. Verfahren zum Schätzen der Atemrate eines Individuums von Interesse, dessen Atemfunktion überwacht wird, in einer kontaktlosen Remote-Erfassungsumgebung, wobei das Verfahren umfasst: Empfangen eines Videos einer Zielregion eines Körpers eines Individuums von Interesse, dessen Atemfunktion überwacht wird; Verarbeiten der Videobilder, um 3D-Tiefeninformationen des Motivs zu rekonstruieren und 3D-Zeitreihendaten anhand der 3D-Tiefeninformationen für die Zielregion zu schätzen; und Schätzen der Atemrate des Individuums anhand der 3D-Zeitreihendaten.
  2. Verfahren nach Anspruch 1, wobei das Video unter Verwendung einer Videokamera und eines Illuminators aufgenommen wird, der so konfiguriert ist, dass er ein Muster strukturierter Beleuchtung projiziert, wobei die Videokamera gegenüber elektromagnetischer Strahlung in einer Wellenlänge der strukturierten Beleuchtung empfindlich ist, wobei jedes Bild des aufgenommenen Videos eine Abtastung der Strahlung umfasst, die durch eine Reflexion der strukturierten Beleuchtung von einer Oberfläche der Zielregion abgegeben wurde, wobei eine räumliche Verzerrung durch eine Reflexion des projizierten Musters von der Oberfläche eingebracht wird.
  3. Verfahren nach Anspruch 2, wobei das Schätzen der 3D-Zeitreihendaten umfasst: für jedes Bild des Videos: Vergleichen von Raumattributen der räumlichen Verzerrung mit bekannten Raumattributen von nicht-verzerrten projizierten Mustern, so dass die Verzerrung im Bild charakterisiert werden kann; Berechnen einer Tiefenkarte anhand der charakterisierten Verzerrung an unterschiedlichen Positionen auf der Oberfläche der Zielregion; und Schätzen eines 3D-Volumens anhand der Tiefenkarte; und Verknüpfen der resultierenden geschätzten 3D-Volumen miteinander, um die geschätzten 3D-Zeitreihendaten zu erhalten.
  4. Verfahren nach Anspruch 2, wobei die Videokamera eines des Folgenden umfasst: eine Videokamera, die in einem sichtbaren Wellenlängenbereich empfindlich ist, und eine Videokamera, die in einem Infrarot-Wellenlängenbereich empfindlich ist.
  5. Verfahren nach Anspruch 1, ferner umfassend stufenweise Veränderungen der Atemrate für ein Auftreten von: PUHD Typ I und PUHD Typ II.
  6. System zum Schätzen der Atemrate eines Individuums von Interesse, dessen Atemfunktion überwacht wird, in einer kontaktlosen Remote-Erfassungsumgebung, wobei das System umfasst: einen Illuminator, der so konfiguriert ist, dass er ein Muster strukturierter Beleuchtung projiziert; eine Videokamera zum Aufnehmen eines Videos einer Zielregion eines Individuums von Interesse, dessen Atemfunktion überwacht wird, wobei die Videokamera gegenüber zumindest der elektromagnetischen Strahlung in einer Wellenlänge der strukturierten Beleuchtung empfindlich ist; und einen Prozessor, der mit der Videokamera und einer Anzeigeeinheit in Verbindung steht, wobei der Prozessor maschinenlesbare Programmanweisungen ausführt, um durchzuführen: Empfangen eines von der Videokamera aufgenommenen Videos, wobei jedes Bild des Videos eine Abtastung der Strahlung umfasst, die durch eine Reflexion der strukturierten Beleuchtung von einer Oberfläche der Zielregion abgegeben wurde, wobei eine räumliche Verzerrung durch eine Reflexion des projizierten Musters von der Oberfläche eingebracht wird; Verarbeiten des Videos, um 3D-Zeitreihendaten für die Zielregion zu schätzen; Schätzen einer Atemrate anhand der 3D-Zeitreihendaten; und Übertragen der geschätzten Atemrate an die Anzeigeeinheit.
  7. System nach Anspruch 6, wobei das Video unter Verwendung einer Videokamera und eines Illuminators aufgenommen wird, der so konfiguriert ist, dass er ein Muster strukturierter Beleuchtung projiziert, wobei die Videokamera gegenüber elektromagnetischer Strahlung in einer Wellenlänge der strukturierten Beleuchtung empfindlich ist, wobei jedes Bild des aufgenommenen Videos eine Abtastung der Strahlung umfasst, die durch eine Reflexion der strukturierten Beleuchtung von einer Oberfläche der Zielregion abgegeben wurde, wobei eine räumliche Verzerrung durch eine Reflexion des projizierten Musters von der Oberfläche eingebracht wird.
  8. System nach Anspruch 6, wobei das Schätzen der 3D-Zeitreihendaten umfasst: für jedes Bild des Videos: Vergleichen von Raumattributen der räumlichen Verzerrung mit bekannten Raumattributen von nicht-verzerrten projizierten Mustern, so dass die Verzerrung im Bild charakterisiert werden kann; Berechnen einer Tiefenkarte anhand der charakterisierten Verzerrung an unterschiedlichen Positionen auf der Oberfläche der Zielregion; und Schätzen eines 3D-Volumens anhand der Tiefenkarte; und Verknüpfen der resultierenden geschätzten 3D-Volumen miteinander, um die geschätzten 3D-Zeitreihendaten zu erhalten.
  9. System nach Anspruch 6, wobei die Videokamera eines des Folgenden umfasst: eine Videokamera, die in einem sichtbaren Wellenlängenbereich empfindlich ist, und eine Videokamera, die in einem Infrarot-Wellenlängenbereich empfindlich ist.
  10. System nach Anspruch 6, ferner umfassend stufenweise Veränderungen der Atemrate für ein Auftreten von: PUHD Typ I und PUHD Typ II.
DE102013208588A 2012-06-01 2013-05-09 Verarbeitung eines videos zur schätzung einer atemrate Pending DE102013208588A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US13/486,637 2012-06-01
US13/486,637 US9226691B2 (en) 2012-06-01 2012-06-01 Processing a video for tidal chest volume estimation
US13/529,648 2012-06-21
US13/529,648 US9301710B2 (en) 2012-06-01 2012-06-21 Processing a video for respiration rate estimation

Publications (1)

Publication Number Publication Date
DE102013208588A1 true DE102013208588A1 (de) 2013-12-05

Family

ID=49579658

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013208588A Pending DE102013208588A1 (de) 2012-06-01 2013-05-09 Verarbeitung eines videos zur schätzung einer atemrate

Country Status (4)

Country Link
US (1) US9301710B2 (de)
JP (1) JP5980720B2 (de)
CN (1) CN103445782B (de)
DE (1) DE102013208588A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232256A (zh) * 2020-10-26 2021-01-15 南京读动信息科技有限公司 一种无接触式运动及体测数据采集系统
CN113727646A (zh) * 2019-05-10 2021-11-30 莱利专利股份有限公司 反刍动物监测系统

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9141868B2 (en) 2012-06-26 2015-09-22 Xerox Corporation Contemporaneously reconstructing images captured of a scene illuminated with unstructured and structured illumination sources
US9155475B2 (en) * 2012-06-26 2015-10-13 Xerox Corporation Enabling hybrid video capture of a scene illuminated with unstructured and structured illumination sources
US9639952B2 (en) * 2012-12-12 2017-05-02 Konica Minolta, Inc. Image-processing apparatus and storage medium
US8903149B1 (en) * 2013-01-18 2014-12-02 Anritsu Company System and method of communicating information about an object concealed by a scanned surface
RU2676147C2 (ru) * 2013-07-22 2018-12-26 Конинклейке Филипс Н.В. Непрерывное автоматическое наблюдение за движениями пациента
WO2015030611A1 (en) * 2013-09-02 2015-03-05 Interag Method and apparatus for determining respiratory characteristics of an animal
US20150094606A1 (en) 2013-10-02 2015-04-02 Xerox Corporation Breathing pattern identification for respiratory function assessment
US10201293B2 (en) 2013-09-11 2019-02-12 Xerox Corporation Non-contact monitoring of spatio-temporal respiratory mechanics via depth sensing
US11297284B2 (en) 2014-04-08 2022-04-05 Udisense Inc. Monitoring camera and mount
WO2015185706A1 (en) * 2014-06-06 2015-12-10 Koninklijke Philips N.V. Device, system and method for detecting apnoea of a subject
CN104000598B (zh) * 2014-06-13 2015-11-18 安徽工业大学 一种基于最大内切圆的猪呼吸急促运动建模方法及系统
US20170127977A1 (en) * 2014-06-26 2017-05-11 Koninklijke Philips N.V. Non-invasive monitoring of pulmonary conditions
US9693710B2 (en) * 2014-10-21 2017-07-04 Xerox Corporation System and method for determining respiration rate from a video
JPWO2016076009A1 (ja) * 2014-11-10 2017-08-17 シャープライフサイエンス株式会社 被験体の呼吸に起因する生体活動の計測システム、および画像処理装置
US10242278B2 (en) * 2014-12-01 2019-03-26 Koninklijke Philips N.V. Device and method for skin detection
EP3226754B1 (de) * 2014-12-02 2021-02-03 Brainlab AG Messung des menschlichen körpers mit thermografischen bildern
DE112015005804T5 (de) * 2014-12-24 2017-10-19 Asahi Kasei Kabushiki Kaisha Atemzustandsschätzvorrichtung, tragbare Vorrichtung, an Körper tragbare Vorrichtung, Programm, Medium, Atemzustandsschätzverfahren und Atemzustandsschätzer
US20160189172A1 (en) * 2014-12-30 2016-06-30 Ebay Inc. Sentiment analysis
US10194835B2 (en) 2015-04-01 2019-02-05 Medical Research Infrastructure And Health Services Fund Of The Tel Aviv Medical Center Method of monitoring volumetric change of a lung
KR101755094B1 (ko) * 2015-04-23 2017-07-06 순천향대학교 산학협력단 깊이 카메라를 이용한 수면 중 호흡률 모니터링 장치
US20170055878A1 (en) * 2015-06-10 2017-03-02 University Of Connecticut Method and system for respiratory monitoring
US9697599B2 (en) * 2015-06-17 2017-07-04 Xerox Corporation Determining a respiratory pattern from a video of a subject
JP6854284B2 (ja) * 2015-10-06 2021-04-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生体のバイタルサイン関連情報を取得するデバイス、システム及び方法
US10220172B2 (en) 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
GB201601140D0 (en) 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for estimating heart rate
GB201601143D0 (en) 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for health and safety monitoring of a subject in a room
GB201601217D0 (en) 2016-01-22 2016-03-09 Oxehealth Ltd Signal processing method and apparatus
CA2958010C (en) 2016-02-19 2021-09-07 Covidien Lp System and methods for video-based monitoring of vital signs
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
US10925496B2 (en) 2016-07-16 2021-02-23 Alexander Misharin Methods and systems for obtaining physiologic information
US11412943B2 (en) 2016-07-16 2022-08-16 Olesya Chornoguz Methods and systems for obtaining physiologic information
CN109640819B (zh) * 2016-08-23 2022-04-08 皇家飞利浦有限公司 用于检测对象的哮喘发作或哮喘的设备、系统和方法
GB201615899D0 (en) 2016-09-19 2016-11-02 Oxehealth Ltd Method and apparatus for image processing
WO2018069419A1 (en) * 2016-10-11 2018-04-19 Koninklijke Philips N.V. Detection and measurement of breathing using an optical camera and projected shadows
WO2018087528A1 (en) 2016-11-08 2018-05-17 Oxehealth Limited Method and apparatus for image processing
IL250432A0 (en) * 2017-02-02 2017-06-29 Elbit Systems Ltd Magnified imaging with high resolution and traceability for medical use
EP3378387B1 (de) 2017-03-21 2024-05-01 Tata Consultancy Services Limited Herzfrequenzkalkulation aus gesichtsvideos mithilfe von qualitätsabhängiger fusion
GB201706449D0 (en) * 2017-04-24 2017-06-07 Oxehealth Ltd Improvements in or realting to in vehicle monitoring
US10939824B2 (en) 2017-11-13 2021-03-09 Covidien Lp Systems and methods for video-based monitoring of a patient
TWI668665B (zh) * 2017-11-15 2019-08-11 合盈光電科技股份有限公司 Health care monitoring system
EP3713487A4 (de) * 2017-11-22 2021-07-21 UdiSense Inc. Atemmonitor
CN111565638B (zh) 2018-01-08 2023-08-15 柯惠有限合伙公司 用于基于视频的非接触式潮气容积监测的系统和方法
GB201803508D0 (en) 2018-03-05 2018-04-18 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
US11547313B2 (en) 2018-06-15 2023-01-10 Covidien Lp Systems and methods for video-based patient monitoring during surgery
WO2020033613A1 (en) 2018-08-09 2020-02-13 Covidien Lp Video-based patient monitoring systems and associated methods for detecting and monitoring breathing
US11263911B2 (en) * 2018-08-09 2022-03-01 Sensors Unlimited, Inc. Systems and methods for identifying air traffic objects
US11617520B2 (en) 2018-12-14 2023-04-04 Covidien Lp Depth sensing visualization modes for non-contact monitoring
GB201900033D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Mrthod and apparatus for monitoring of a human or animal subject
GB201900032D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
GB201900034D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
US11315275B2 (en) 2019-01-28 2022-04-26 Covidien Lp Edge handling methods for associated depth sensing camera devices, systems, and methods
WO2020168094A1 (en) * 2019-02-15 2020-08-20 Nikon Corporation Simultaneous depth profile and spectral measurement
JP7101880B2 (ja) * 2019-05-09 2022-07-15 帝人ファーマ株式会社 呼吸状態検出装置、呼吸状態検出方法および呼吸状態検出プログラム
US20220261981A1 (en) * 2019-07-26 2022-08-18 Fuji Corporation Substrate work system
US11484208B2 (en) 2020-01-31 2022-11-01 Covidien Lp Attached sensor activation of additionally-streamed physiological parameters from non-contact monitoring systems and associated devices, systems, and methods
CN111772633B (zh) * 2020-07-16 2023-06-23 韩锋 一种遥感呼吸功能监护装置及方法
CN114943732A (zh) * 2022-07-01 2022-08-26 上海商汤临港智能科技有限公司 一种心率检测方法、装置、设备和存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2623388A1 (fr) 1987-11-23 1989-05-26 Bertin & Cie Procede et dispositif de surveillance de la respiration d'un individu
US5800360A (en) 1992-02-11 1998-09-01 Spectrum Medical Technologies, Inc. Apparatus and method for respiratory monitoring
AU2001261159A1 (en) * 2000-05-03 2001-11-12 Stephen T Flock An optical monitor for sudden infant death syndrome
JP3477166B2 (ja) * 2000-12-07 2003-12-10 学校法人慶應義塾 監視装置
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US6958809B2 (en) 2001-11-08 2005-10-25 Optiscan Biomedical Corporation Reagent-less whole-blood glucose meter
US7050157B2 (en) 2001-11-08 2006-05-23 Optiscan Biomedical Corp. Reagent-less whole-blood glucose meter
US7061593B2 (en) 2001-11-08 2006-06-13 Optiscan Biomedical Corp. Device and method for in vitro determination of analyte concentrations within body fluids
US6989891B2 (en) 2001-11-08 2006-01-24 Optiscan Biomedical Corporation Device and method for in vitro determination of analyte concentrations within body fluids
JP3738291B2 (ja) * 2003-06-09 2006-01-25 住友大阪セメント株式会社 三次元形状測定装置
GB0318935D0 (en) * 2003-08-13 2003-09-17 Mossanen Shams Iden Pulmonary evaluation device
US20070279629A1 (en) 2004-01-07 2007-12-06 Jacob Grun Method and apparatus for identifying a substance using a spectral library database
US7570979B2 (en) 2004-03-30 2009-08-04 Philip George Cooper Methods and apparatus for patient monitoring
US7760354B2 (en) 2005-01-07 2010-07-20 The United States Of America As Represented By The Secretary Of The Navy Spectroscopic method and apparatus for identification of a substance using a tunable light source
US7729750B2 (en) 2005-01-20 2010-06-01 The Regents Of The University Of California Method and apparatus for high resolution spatially modulated fluorescence imaging and tomography
WO2007053576A2 (en) * 2005-10-31 2007-05-10 Christopher Hyde Heart rate based bioassessment method and apparatus
US7899764B2 (en) 2007-02-16 2011-03-01 Siemens Aktiengesellschaft Medical ontologies for machine learning and decision support
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
JP4582505B2 (ja) * 2008-03-21 2010-11-17 医療法人新明会 都島放射線科クリニック 呼吸換気量インジケータ及び呼吸換気変位量の測定方法
US20100152600A1 (en) 2008-04-03 2010-06-17 Kai Sensors, Inc. Non-contact physiologic motion sensors and methods for use
WO2009135081A2 (en) 2008-04-30 2009-11-05 Board Of Regents, The University Of Texas System Integrated patient bed system
WO2009142758A1 (en) 2008-05-23 2009-11-26 Spectral Image, Inc. Systems and methods for hyperspectral medical imaging
GB0822605D0 (en) * 2008-12-11 2009-01-21 Pneumacare Ltd Method and apparatus for monitoring an object
US7896498B2 (en) 2009-03-30 2011-03-01 Ottawa Hospital Research Institute Apparatus and method for optical measurements

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113727646A (zh) * 2019-05-10 2021-11-30 莱利专利股份有限公司 反刍动物监测系统
CN112232256A (zh) * 2020-10-26 2021-01-15 南京读动信息科技有限公司 一种无接触式运动及体测数据采集系统
CN112232256B (zh) * 2020-10-26 2024-02-02 南京读动信息科技有限公司 一种无接触式运动及体测数据采集系统

Also Published As

Publication number Publication date
JP2013248387A (ja) 2013-12-12
US20130324875A1 (en) 2013-12-05
CN103445782A (zh) 2013-12-18
US9301710B2 (en) 2016-04-05
CN103445782B (zh) 2017-04-26
JP5980720B2 (ja) 2016-08-31

Similar Documents

Publication Publication Date Title
DE102013208588A1 (de) Verarbeitung eines videos zur schätzung einer atemrate
Wang et al. A comparative survey of methods for remote heart rate detection from frontal face videos
Lam et al. Robust heart rate measurement from video using select random patches
Tasli et al. Remote PPG based vital sign measurement using adaptive facial regions
EP3057487B1 (de) Vorrichtung und verfahren zum erhalt eines lebenszeichens eines patienten
Iozzia et al. Relationships between heart-rate variability and pulse-rate variability obtained from video-PPG signal using ZCA
DE102015222498A1 (de) Identifikation von atmungsmustern zur bewertung der respiratorischen funktion
CN105989357A (zh) 一种基于人脸视频处理的心率检测方法
Fan et al. Non-contact remote estimation of cardiovascular parameters
Rahman et al. Non-contact physiological parameters extraction using facial video considering illumination, motion, movement and vibration
DE112019002467T5 (de) System und verfahren für die fernmessungen von vitalzeichen
DE102013208587A1 (de) Verarbeitung eines videos zur gefässmustererkennung und herzfunktionsanalyse
Casado et al. Face2PPG: An unsupervised pipeline for blood volume pulse extraction from faces
US20200367773A1 (en) Device, system and method for determining a physiological parameter of a subject
CN109259749A (zh) 一种基于视觉摄像头的非接触式心率测量方法
EP3768157A1 (de) Vorrichtung und verfahren zur aufnahme und analyse von bildern der haut
CN111243739A (zh) 抗干扰的生理参数遥测方法及系统
US20230233091A1 (en) Systems and Methods for Measuring Vital Signs Using Multimodal Health Sensing Platforms
DE112015005804T5 (de) Atemzustandsschätzvorrichtung, tragbare Vorrichtung, an Körper tragbare Vorrichtung, Programm, Medium, Atemzustandsschätzverfahren und Atemzustandsschätzer
Huang et al. A motion-robust contactless photoplethysmography using chrominance and adaptive filtering
DE102016200045A1 (de) Auswählen eines interessierenden Bereichs zum Extrahieren physiologischer Parameter aus einem Video eines Probanden
CN109009052A (zh) 基于视觉的嵌入式心率测量系统及其测量方法
Yin et al. Heart rate estimation based on face video under unstable illumination
Qi et al. Robust heart-rate estimation from facial videos using Project_ICA
Liu et al. Detecting pulse wave from unstable facial videos recorded from consumer-level cameras: A disturbance-adaptive orthogonal matching pursuit

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE

R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE

R012 Request for examination validly filed
R016 Response to examination communication