DE112021007128T5 - Pulswellen-Schätzvorrichtung und Pulswellen Schätzverfahren - Google Patents

Pulswellen-Schätzvorrichtung und Pulswellen Schätzverfahren Download PDF

Info

Publication number
DE112021007128T5
DE112021007128T5 DE112021007128.9T DE112021007128T DE112021007128T5 DE 112021007128 T5 DE112021007128 T5 DE 112021007128T5 DE 112021007128 T DE112021007128 T DE 112021007128T DE 112021007128 T5 DE112021007128 T5 DE 112021007128T5
Authority
DE
Germany
Prior art keywords
image frame
unit
pulse wave
facial organ
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021007128.9T
Other languages
English (en)
Inventor
Ryohei Murachi
Yudai Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112021007128T5 publication Critical patent/DE112021007128T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Cardiology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Image Analysis (AREA)

Abstract

Eine Pulswellen-Schätzvorrichtung (1) umfasst: eine Erfassungseinheit, um ein erstes und ein zweites Bild-Frame (F1) und (F2) eines Objekts (T) zu erfassen; eine Erkennungseinheit, um einen Gesichtsorganpunkt (KK) zu erkennen, der eine Position eines Gesichtsorgans des Objekts (T) in dem ersten Bild-Frame (F1) angibt; eine Verfolgungseinheit, um einen Verfolgungspunkt (TR) zu setzen, der eine Position des Gesichtsorgans in dem zweiten Bild-Frame (F2) durch Bezugnahme auf den ersten Bild-Frame (F1) angibt; eine erste Einstelleinheit, um eine Position eines Messbereichs (KR) in dem ersten Bild-Frame (F1) auf der Grundlage des Gesichtsorganpunkts (KK) in dem ersten Bild-Frame (F1) zu setzen; eine zweite Einstelleinheit zum Einstellen einer Position des Messbereichs (KR) in dem zweiten Bild-Frame (F2) auf der Grundlage des Verfolgungspunkts (TR) in dem zweiten Bild-Frame (F2); eine Messeinheit zum Messen eines Luminanzwerts eines Pixels in dem Messbereich (KR); und eine Schätzeinheit zum Schätzen einer Pulswelle (MH) des Objekts (T) auf der Grundlage einer Luminanzdifferenz (KD), die eine Differenz zwischen den Luminanzwerten ist.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Pulswellen-Schätzvorrichtung und ein Pulswellen-Schätzverfahren.
  • HINTERGRUND
  • In der in der Patentliteratur 1 beschriebenen Vorrichtung zur Messung biologischer Informationen, die den Zustand eines lebenden Körpers, beispielsweise den Blutdruck, berührungslos misst, ist es erforderlich, einen Hautbereich zur Messung des Blutdrucks in einem Bild eines Gesichtsorgans in jedem einer Vielzahl von Bild-Frames, in denen der lebende Körper abgebildet wird, festzulegen. Um den Hautbereich festzulegen, führt die Vorrichtung zur Messung biologischer Informationen beispielsweise eine Verarbeitung zur Erkennung des Gesichtsorgans durch, bei der eine Position des Gesichtsorgans in einem ersten Bild-Frame erkannt wird. Andererseits führt die Vorrichtung zur Messung biologischer Informationen eine Verfolgungsverarbeitung an einer Vielzahl von Bild-Frames im Anschluss an das erste Bild-Frame durch, anstatt die Gesichtsorgan-Erkennungsverarbeitung durchzuführen. Die Verfolgungsverarbeitung ist eine Verarbeitung der Festlegung der Position des Hautbereichs im Ziel-Bild-Frame durch Bezugnahme auf die Position des Hautbereichs im vorherigen Bild-Frame.
  • Wenn eine Bewegung im Gesichtsorgan des lebenden Körpers zwischen den Bild-Frames vor und nach der Tracking-Verarbeitung auftritt, beispielsweise wenn eine Änderung des Gesichtsausdrucks, eine Bewegung der Position des Gesichts oder Ähnliches auftritt, tritt eine Abweichung zwischen der Position des Hautbereichs in dem Bild-Frame vor der Tracking-Verarbeitung, d.h. bevor die Bewegung des Gesichtsorgans auftritt, und der Position des Hautbereichs in dem Bild-Frame nach der Tracking-Verarbeitung, d.h. nachdem die Bewegung des Gesichtsorgans auftritt, auf. Wenn die Tracking-Verarbeitung nacheinander an einer Vielzahl von aufeinanderfolgenden Bild-Frames durchgeführt wird, akkumuliert sich daher die oben beschriebene Abweichung. Um die akkumulierte Abweichung zu beseitigen, d.h. sie zurückzusetzen, führt die Vorrichtung zur Messung biologischer Informationen in Intervallen von einer vorbestimmten Anzahl von Bild-Frames eine Rücksetzungsverarbeitung durch, bei der es sich um die Verarbeitung der Gesichtsorganerkennung handelt.
  • ZITATENLISTE
  • PATENTLITERATUR
  • Patentliteratur 1: JP 2016-190022 A
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • TECHNISCHE AUFGABENSTELLUNG
  • Die Vorrichtung zur Messung biologischer Informationen weist jedoch ein Problem auf. Das Problem besteht darin, dass die akkumulierte Abweichung zwischen der Position des Hautbereichs, der durch die Gesichtsorgan-Erkennungsverarbeitung in dem ersten Bild-Frame erkannt wurde, und der Position des Hautbereichs, der durch die Verfolgungsverarbeitung in einem anderen Bild-Frame erkannt wurde, an dem die Rücksetzungsverarbeitung nicht durchgeführt wird, auftritt, weil der andere Bild-Frame dem ersten Bild-Frame folgt, ohne von dem ersten Bild-Frame durch nicht weniger als die oben beschriebene vorbestimmte Anzahl von Bild-Frames getrennt zu sein, weil die Verfolgungsverarbeitung sequentiell zwischen dem ersten Bild-Frame und dem anderen Bild-Frame durchgeführt wird.
  • Die Vorrichtung zur Messung biologischer Informationen weist ein weiteres Problem auf. Das Problem besteht darin, dass in den Bild-Frames vor und nach der Rücksetzverarbeitung die akkumulierte Abweichung zwischen der Position des Hautbereichs mit der akkumulierten Abweichung in dem Bild-Frame vor der Rücksetzverarbeitung und der Position des Hautbereichs ohne Abweichung als Ergebnis der Rücksetzverarbeitung in dem Bild-Frame nach der Rücksetzverarbeitung auftritt.
  • Eine Aufgabe der vorliegenden Offenbarung ist es, eine Pulswellen-Schätzvorrichtung vorzusehen, die mindestens eines der beiden oben beschriebenen Probleme löst.
  • LÖSUNG DER AUFGABENSTELLUNG
  • Um das obige Problem zu lösen, umfasst eine Pulswellen-Schätzvorrichtung gemäß der vorliegenden Offenbarung: eine Erfassungseinheit zum Erfassen einer Vielzahl von aufeinanderfolgenden Bild-Frames eines Objekts, dessen Pulswelle zu schätzen ist, wobei die Bild-Frames ein erstes Bild-Frame umfassen, das vor einem zweiten Bild-Frame liegt, und das zweite Bild-Frame, das nach dem ersten Bild-Frame liegt; eine Erkennungseinheit zum Erkennen eines Gesichtsorgan-Punktes, der eine Position eines Gesichtsorgans des Objekts in dem ersten Bild-Frame angibt; eine Erkennungseinheit zum Erkennen eines Gesichtsorganpunkts, der eine Position eines Gesichtsorgans des Objekts im ersten Bild-Frame angibt; eine Verfolgungseinheit zum Setzen eines Verfolgungspunkts, der eine Position des Gesichtsorgans im zweiten Bild-Frame durch Bezugnahme auf den ersten Bild-Frame angibt; eine erste Einstelleinheit zum Setzen einer Position eines Messbereichs im ersten Bild-Frame auf der Grundlage des erkannten Gesichtsorganpunkts im ersten Bild-Frame, wobei der Messbereich ein Bereich ist, in dem ein Luminanzwert zum Schätzen der Pulswelle zu messen ist; eine zweite Einstelleinheit zum Einstellen einer Position des Messbereichs in dem zweiten Bild-Frame auf der Grundlage des eingestellten Verfolgungspunkts in dem zweiten Bild-Frame; eine Messeinheit zum Messen eines Luminanzwerts eines Pixels in dem eingestellten Messbereich in dem ersten Bild-Frame und eines Luminanzwerts eines Pixels in dem eingestellten Messbereich in dem zweiten Bild-Frame; und eine Schätzeinheit zum Schätzen der Pulswelle des Objekts auf der Grundlage einer Luminanzdifferenz, die eine Differenz zwischen dem gemessenen Luminanzwert des Messbereichs in dem ersten Bild-Frame und dem gemessenen Luminanzwert des Messbereichs in dem zweiten Bild-Frame ist.
  • VORTEILHAFTE EFFEKTE DER ERFINDUNG
  • Gemäß der Pulswellen-Schätzvorrichtung der vorliegenden Offenbarung ist es möglich, eine Situation zu vermeiden, in der eine akkumulierte Abweichung auftritt, wenn die Tracking-Verarbeitung sequentiell durchgeführt wird. Gemäß der Pulswellen-Schätzvorrichtung der vorliegenden Offenbarung ist es möglich, eine Situation zu vermeiden, in der eine akkumulierte Abweichung zwischen Bild-Frames vor und nach der Rücksetzverarbeitung auftritt. Daher kann die Pulswellen-Schätzvorrichtung gemäß der vorliegenden Offenbarung die Pulswelle des Objekts mit höherer Genauigkeit schätzen als eine Pulswellen-Schätzvorrichtung, bei der mindestens eine der beiden akkumulierten Abweichungen auftritt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
    • 1 ist ein Funktionsblockdiagramm einer Pulswellen-Schätzvorrichtung 1 gemäß einer Ausführungsform.
    • 2 veranschaulicht die Funktionsweise einer Aufnahmeeinheit 11 und einer Erkennungseinheit 12 gemäß dieser Ausführungsform.
    • 3 veranschaulicht eine Konfiguration einer Einstelleinheit 13 gemäß der Ausführungsform.
    • 4 veranschaulicht die Funktionsweise einer Gesichtsorgan-Erkennungseinheit 13A gemäß dieser Ausführungsform.
    • 5 veranschaulicht die Funktionsweise einer Verfolgungseinheit 13B gemäß dieser Ausführungsform.
    • 6 veranschaulicht eine Konfiguration der Pulswellen-Schätzvorrichtung 1 gemäß der Ausführungsform.
    • 7 ist ein Flussdiagramm, das den Betrieb der Pulswellen-Schätzvorrichtung 1 gemäß dieser Ausführungsform zeigt.
    • 8 ist ein Zeitdiagramm, das den Betrieb der Pulswellen-Schätzvorrichtung 1 gemäß dieser Ausführungsform veranschaulicht.
    • 9 veranschaulicht den Betrieb einer Pulswellen-Schätzvorrichtung in einem vergleichenden Beispiel.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Es wird eine Ausführungsform einer Pulswellen-Schätzvorrichtung gemäß der vorliegenden Offenbarung beschrieben.
  • <Erste Ausführungsform>
  • < Ausführungsform >
  • <Konfiguration der Ausführungsform>
  • 1 ist ein funktionelles Blockdiagramm einer Pulswellen-Schätzvorrichtung 1 gemäß einer Ausführungsform.
  • Nachfolgend werden die Funktionen der Pulswellen-Schätzvorrichtung 1 der Ausführungsform unter Bezugnahme auf 1 beschrieben.
  • Wie in 1 dargestellt, umfasst die Pulswellen-Schätzvorrichtung 1 gemäß der Ausführungsform eine Aufnahmeeinheit 11, eine Erkennungseinheit 12, eine Einstelleinheit 13, eine Messeinheit 14 und eine Schätzeinheit 15, um eine Pulswelle auf der Grundlage der Leuchtdichte eines Pixels in einem fotografierten Bild zu schätzen.
  • Die Aufnahmeeinheit 11 korrespondiert zu einer „Erfassungseinheit“, die Messeinheit 14 korrespondiert zu einer „Messeinheit“ und die Schätzeinheit 15 korrespondiert zu einer „Schätzeinheit“. Die Korrespondenzbeziehung der Einstelleinheit 13 wird später beschrieben.
  • Wie später beschrieben, korrespondiert die Erkennungseinheit 12, die einen Hautbereich erkennt, nicht zu einer „Erkennungseinheit“, die einen Gesichtsorganpunkt erkennt. Andererseits korrespondiert eine Gesichtsorgan-Erkennungseinheit 13A in der Einstelleinheit 12, die eine Gesichtsorgan-Erkennungsverarbeitung und eine Verfolgungsverarbeitung durchführt, zu der „Erkennungseinheit“ und korrespondiert auch zu einer „ersten Einstelleinheit“.
  • Um die Beschreibung und das Verständnis zu erleichtern, können im Folgenden Bezugszeichen, bei denen an die Bezugszeichen angehängte Suffixe weggelassen werden, als Oberbegriff verwendet werden. Beispielsweise können die Bild-Frames F1 bis Fm zusammen als Bild-Frame (Einzelbild) F und die Hautbereiche S1 bis Sm zusammen als Hautbereich S bezeichnet werden.
  • 2 veranschaulicht die Funktionsweise der Fotoeinheit 11 und der Erkennungseinheit 12 gemäß der Ausführungsform.
  • Die Aufnahmeeinheit 11 ist beispielsweise eine Kamera und nimmt ein Bild G eines Objekts (Person) T auf, dessen Pulswelle abgeschätzt werden soll, beispielsweise das Bild G, das auf den Oberkörper des Objekts T zentriert ist, insbesondere das Gesicht des Objekts T, wie in 2 dargestellt. Wie in 2 dargestellt, umfasst das Bild G eine Vielzahl von aufeinanderfolgenden Bild-Frames F1, F2, F3, ... und Fm. Dabei ist m eine ganze Zahl gleich oder größer als 2.
  • Beispielsweise liegt das Bild-Frame F1 vor dem Bild-Frame F2, und das Bild-Frame F2 liegt nach dem Bild-Frame F1. Ebenso liegt das Bild-Frame F2 vor dem Bild-Frame F3, und das Bild-Frame F3 liegt nach dem Bild-Frame F2.
  • Die Aufnahmeeinheit 11 gibt die Vielzahl der fotografierten Bild-Frames F1 bis Fm an die Erkennungseinheit 12 aus.
  • Wie in 2 dargestellt, erkennt die Erkennungseinheit 12 beispielsweise den Hautbereich S1 aus dem Bild-Frame F1. Der Hautbereich S1 ist ein rechteckiger Bereich, der die Position, Form, Größe und dergleichen des gesamten Gesichts des Objekts T im Bild-Frame F1 darstellt.
  • Die Erkennungseinheit 12 erkennt die Hautbereiche S2, S3,..., Sm aus den anderen Bild-Frames F2, F3,..., Fm ähnlich wie die Erkennung des Hautbereichs S1 aus dem Bild-Frame F1.
  • Nachfolgend werden zur leichteren Beschreibung und zum besseren Verständnis beispielsweise sowohl der Hautbereich S1 selbst als auch die den Hautbereich S1 angebende Information gemeinsam als Hautbereich S1 bezeichnet. Dasselbe gilt für die anderen Hautregionen S2 bis Sm.
  • Die Hautregionen S1 bis Sm können andere Abschnitte des Objekts T darstellen, beispielsweise Positionen des Nackens, der Schultern, der Arme, der Hände und dergleichen des Objekts T, anstelle des oben beschriebenen Gesichts des Objekts T. Die Hautbereiche S1 bis Sm können die Position und dergleichen eines Abschnitts des Gesichts des Objekts T darstellen, beispielsweise eines Abschnitts, der eine oder mehrere der Stirn, der Augenbrauen, der Augen, der Nase, des Mundes, der Wangen, des Kinns und dergleichen des Gesichts des Objekts T umfasst, anstelle des gesamten Gesichts des Objekts T. In den Hautbereichen S1 bis Sm ist die Anzahl des gesamten Gesichts des Objekts T und des Abschnitts des Gesichts des Objekts T nicht begrenzt. Genauer gesagt können die Hautregionen S1 bis Sm nur eine darstellen, beispielsweise die Position des gesamten Gesichts des Objekts T oder dergleichen, oder sie können zwei darstellen, beispielsweise die Position der rechten Wange des Objekts T und die Position der linken Wange des Objekts T oder dergleichen, oder sie können ferner drei darstellen, beispielsweise die Position der Nase des Objekts T, die Position des Mundes des Objekts T und die Position des Kinns des Objekts T oder dergleichen.
  • Zurück zu 1, die Erkennungseinheit 12 gibt die Vielzahl von Bild-Frames F1 bis Fm und die Vielzahl von Hautregionen S1 bis Sm an die Einstelleinheit 13 aus.
  • 3 zeigt eine Konfiguration der Einstelleinheit 13 gemäß der Ausführungsform.
  • Wie in 3 dargestellt, umfasst die Einstelleinheit 13 die Gesichtsorgan-Erkennungseinheit 13A und eine Verfolgungseinheit 13B. Die Gesichtsorgan-Erkennungseinheit 13A korrespondiert zu der „Erkennungseinheit“ und der „ersten Einstelleinheit“, und die Verfolgungseinheit 13B korrespondiert zu einer „Verfolgungseinheit“ und einer „zweiten Einstelleinheit“.
  • Um es zu ermöglichen, eine Luminanzdifferenz (Leuchtdichtedifferenz) zwischen zwei vorhergehenden und nachfolgenden Frames zu berechnen, beispielsweise eine Luminanzdifferenz zwischen dem Bild-Frame F2 und dem unmittelbar folgenden Bild-Frame F3, führt die Gesichtserkennungseinheit 13A die Gesichtsorganerkennungsverarbeitung an dem vorhergehenden Bild-Frame F2 durch.
  • Ähnlich wie die Gesichtserkennungseinheit 13A ermöglicht die Verfolgungseinheit 13B die Berechnung einer Luminanzdifferenz zwischen zwei vorhergehenden und nachfolgenden Bildern; die Verfolgungseinheit 13B unterscheidet sich jedoch von der Gesichtsorganerkennungseinheit 13A. Um beispielsweise die Berechnung einer Luminanzdifferenz zwischen dem Bild-Frame F2 und dem unmittelbar vorangehenden Bild-Frame F1 zu ermöglichen, führt die Verfolgungseinheit 13B die Verfolgungsverarbeitung an dem folgenden Bild-Frame F2 durch.
  • Um die Gesichtsorgan-Erkennungsverarbeitung durch die Gesichtsorgan-Erkennungseinheit 13A und die Verfolgungsverarbeitung durch die Verfolgungseinheit 13B zusammenzufassen, werden die Gesichtsorgan-Erkennungsverarbeitung und die Verfolgungsverarbeitung für jedes der Bild-Frames F2, F3, .... durchgeführt.
  • Beispielsweise legt die Gesichtsorgan-Erkennungseinheit 13A in dem von der Erkennungseinheit 12 empfangenen Hautbereich S1 einen oder mehrere rechteckige Messbereiche KR1(1) bis KR1(n) fest (dargestellt in 4), in denen die Leuchtdichte zur Schätzung einer Pulswelle des Objekts T zu messen ist. Dabei ist n eine ganze Zahl gleich oder größer als 1.
  • 4 veranschaulicht den Betrieb der Gesichtsorgan-Erkennungseinheit 13A für Gesichtsorgane gemäß dieser Ausführungsform.
  • Die Gesichtsorgan-Erkennungseinheit 13A verwendet beispielsweise ein eingeschränktes lokales Modell (CLM), das ein Modell eines konventionell bekannten Gesichtsorgan-Erkennungsverfahrens ist. Die Gesichtsorgan-Erkennungseinheit 13A führt die Verarbeitung der Gesichtsorgan-Erkennung unter Verwendung des CLM durch. Konkret erkennt die Gesichtsorgan-Erkennungseinheit 13A die Koordinatenwerte einer Vielzahl von Gesichtsorganpunkten KK1(1) bis KK1(p) im Hautbereich S1, beispielsweise wie in 4 (im linken Bild) dargestellt. Dabei sind die Gesichtsorganpunkte KK1(1) bis KK1(p) Merkmalspunkte zur Bestimmung des Gesichts des Objekts T. p ist eine ganze Zahl gleich oder größer als 2.
  • Im Anschluss an die Gesichtsorgan-Erkennungsverarbeitung, wie in 4 (im rechten Rahmen) dargestellt, setzt die Gesichtsorgan-Erkennungseinheit 13A die Koordinatenwerte der Messbereiche KR1(1) bis KR1(n) unter Verwendung der für den Hautbereich S1 erkannten Gesichtsorganpunkte KK1(1) bis KK1(p) als Referenzen (4 (im linken Rahmen)).
  • Auch für die Hautregionen S2 bis Sm außer der Hautregion S1 führt die Gesichtsorgan-Erkennungseinheit 13A eine ähnliche Verarbeitung wie für die Hautregion S1 durch, d.h. sie erkennt die Koordinatenwerte des Gesichtsorganpunktes KK und setzt die Koordinatenwerte des Messbereichs KR.
  • Beispielsweise erkennt die Gesichtsorgan-Erkennungseinheit 13A die Koordinatenwerte einer Vielzahl von Gesichtsorganpunkten KK2(1), KK2(2),... (Nicht gezeigt.) im Hautbereich S2, und setzt die Koordinatenwerte einer Vielzahl von Messbereichen KR2(1), KR2(2),... (Nicht gezeigt.).
  • 5 veranschaulicht eine Funktionsweise der Tracking-Einheit 13B der Ausführungsform.
  • Die Verfolgungseinheit 13B führt die Verfolgungsverarbeitung zwischen vorhergehenden und nachfolgenden Bild-Frames unter Verwendung eines Kanade-Lucas-Tomasi (KLT)-Trackers durch, der eine herkömmlich bekannte Verfolgungstechnologie ist.
  • Wie in 5 dargestellt, führt die Verfolgungseinheit 13B die Verfolgungsverarbeitung beispielsweise auf der Grundlage des Bild-Frames F1, des Hautbereichs S1 im Bild-Frame F1 und des Bild-Frames F2 im Anschluss an den Bild-Frame F1 durch. Infolgedessen setzt die Verfolgungseinheit 13B, wie in 5 dargestellt, Koordinatenwerte von Verfolgungspunkten TR2(1), TR2(2), TR2(3), TR2(4), ..., die Merkmalspunkte zur Bestimmung des Gesichts des Objekts T sind, in der Hautregion S2 des Bild-Frames F2.
  • Im Anschluss an die Tracking-Verarbeitung, wie in 5 dargestellt, setzt die Gesichtsorgan-Erkennungseinheit 13B die Koordinatenwerte der Messbereiche KR2(1), KR2(2), KR2(3),... unter Verwendung der Tracking-Punkte TR2(1), TR2(2), TR2(3), TR2(4),... als Referenzen.
  • Vergleicht man die Gesichtsorgan-Erkennungseinheit 13A mit der Verfolgungseinheit 13B, so verwendet die Gesichtsorgan-Erkennungseinheit 13A die oben beschriebenen Gesichtsorgan-Punkte KK1(1) bis KK1(p) (in 4. dargestellt) als Referenzen, während die Verfolgungseinheit 13B die oben beschriebenen Verfolgungspunkte TR2(1), TR2(2), TR2(3), TR2(4),... (dargestellt in 5.) als Referenzen verwendet.
  • Auch für die Hautbereiche S3 bis Sm außer dem Hautbereich S2 führt die Verfolgungseinheit 13B eine ähnliche Verarbeitung wie für den Hautbereich S2 durch, d.h. sie setzt die Koordinatenwerte des Verfolgungspunkts TR und setzt die Koordinatenwerte des Messbereichs KR.
  • Wie in 1 dargestellt, gibt die Einstelleinheit 13 die Messbereiche KR aus, d.h. die Messbereiche KR1(1), KR1(2), ... (dargestellt in 4.), KR2(1), KR2(2),... (dargestellt in 5.), KRm(1), KRm(2),... (nicht dargestellt.) für die Hautbereiche S1 bis Sm an die Messeinheit 14.
  • Zurückkommend auf 1 wird die Beschreibung der Konfiguration der Pulswellen-Schätzvorrichtung 1 fortgesetzt.
  • Die Messeinheit 14 misst den Leuchtdichtewert des Pixels in jedem der Messbereiche KR der vorhergehenden und nachfolgenden Bild-Frames F, die von der Einstelleinheit 13 empfangen wurden, und erzeugt ein Leuchtdichtesignal, das eine Differenz zwischen den gemessenen Leuchtdichtewerten in Zeitreihen angibt.
  • Beispielsweise berechnet die Berechnungseinheit 14 für die in 5 dargestellten Bild-Frames F1 und F2 eine Differenz zwischen einem Durchschnittswert der Leuchtdichtewerte einer Vielzahl von Pixeln, die in dem Messbereich KR1(1) in dem Bild-Frame F1 umfasst sind, und einem Durchschnittswert der Leuchtdichtewerte einer Vielzahl von Pixeln, die in dem Messbereich KR2(1) umfasst sind, der dem Messbereich KR1(1) des Bild-Frames F1 zugehört und der sich in dem Bild-Frame F2 befindet.
  • Anschließend berechnet die Berechnungseinheit 14 eine Differenz zwischen einem Durchschnittswert der Luminanzwerte (Leuchtdichtewerte) einer Vielzahl von Pixeln, die in dem Messbereich KR2(1) in dem Bild-Frame F2 umfasst sind, und einem Durchschnittswert der Luminanzwerte einer Vielzahl von Pixeln, die in dem Messbereich KR3(1) (nicht gezeigt) umfasst sind, der dem Messbereich KR2(1) des Bild-Frame F2 zugehört und der sich in dem Bild-Frame F3 (nicht gezeigt) befindet.
  • Anschließend berechnet die Berechnungseinheit 14 ferner eine Differenz zwischen einem Durchschnittswert der Luminanzwerte einer Vielzahl von Pixeln, die in dem Messbereich KR3(1) in dem Bild-Frame F3 umfasst sind, und einem Durchschnittswert der Luminanzwerte einer Vielzahl von Pixeln, die in dem Messbereich KR4(1) (nicht gezeigt) umfasst sind, der dem Messbereich KR3(1) des Bild-Frames F3 zugehört und der sich in dem Bild-Frame F4 (nicht gezeigt) befindet.
  • Die Messeinheit 14 kann beispielsweise einen Varianzwert anstelle des oben beschriebenen Durchschnittswerts verwenden.
  • Die Messeinheit 14 führt die gleiche Verarbeitung wie oben beschrieben auch an den Messbereichen KR der Bild-Frames F außer den oben beschriebenen Messbereichen KR1(1), KR2(1), KR3(1) und KR4(1) der Bild-Frames F1, F2, F3 und F4 durch. Wie in 1 dargestellt, gibt die Messeinheit 14 ein Luminanzsignal (Leuchtdichtesignal) KS, das eine Pixeldifferenz zwischen den Messbereichen KR des vorhergehenden und des nachfolgenden Bild-Frames F angibt, an die Schätzeinheit 15 aus.
  • Die Schätzeinheit 15 schätzt eine Pulswelle MH auf der Grundlage des von der Messeinheit 14 empfangenen Luminanzsignals KS. Die Schätzeinheit 15 berechnet ferner eine Pulsrate MS auf der Grundlage der geschätzten Pulswelle MH. Die Schätzeinheit 15 gibt mindestens eine der geschätzten Pulswelle MH und der berechneten Pulsrate MS aus.
  • 6 zeigt eine Konfiguration der Pulswellen-Schätzvorrichtung 1 gemäß der Ausführungsform.
  • Wie in 6 dargestellt, umfasst die Pulswellen-Schätzvorrichtung 1 gemäß der Ausführungsform eine Eingabeeinheit 1N, einen Prozessor 1P, eine Ausgabeeinheit 1S, ein Speichermedium 1K und einen Speicher 1M zur Durchführung der oben beschriebenen Funktionen.
  • Die Eingabeeinheit 1N umfasst beispielsweise eine Kamera, ein Mikrofon, eine Tastatur, eine Maus oder ein Touchpanel. Der Prozessor 1P ist ein Kern eines bekannten Computers, der die Hardware in Übereinstimmung mit der Software betreibt. Die Ausgabeeinheit 1S umfasst beispielsweise einen Flüssigkristallmonitor, einen Drucker oder ein Touchpanel. Der Speicher 1M umfasst beispielsweise einen dynamischen Direktzugriffsspeicher (DRAM) oder einen statischen Direktzugriffsspeicher (SRAM). Das Speichermedium 1K umfasst beispielsweise ein Festplattenlaufwerk (HDD), ein Solid State Drive (SSD) oder einen Festwertspeicher (ROM).
  • Das Speichermedium 1K speichert ein Programm 1PR. Das Programm 1PR ist eine Befehlsgruppe, die den Inhalt der vom Prozessor 1P auszuführenden Verarbeitung definiert.
  • Hinsichtlich der Beziehung zwischen den Funktionen und der Konfiguration der Pulswellen-Schätzvorrichtung 1 führt der Prozessor 1P das in dem Speichermedium 1K gespeicherte Programm 1PR unter Verwendung des Speichers 1M hardwaremäßig aus und steuert die Operationen der Eingabeeinheit 1N und der Ausgabeeinheit 1S nach Bedarf, wodurch die Funktionen der jeweiligen Einheiten, die die Aufnahmeeinheit 11 und die Schätzeinheit 15 umfassen, implementiert werden.
  • <Betrieb der Ausführungsform>
  • 7 ist ein Flussdiagramm, das den Betrieb der Pulswellen-Schätzvorrichtung 1 der Ausführungsform illustriert. 8 ist ein Zeitdiagramm, das den Betrieb der Pulswellen-Schätzvorrichtung 1 gemäß der Ausführungsform illustriert. Nachfolgend wird der Betrieb der Pulswellen-Schätzvorrichtung 1 unter Bezugnahme auf das Flussdiagramm von 7 und das Zeitdiagramm von 8 beschrieben.
  • Um die Beschreibung und das Verständnis zu erleichtern, werden im Folgenden die Suffixe „(KK)“ und „(TR)“ an die Messbereiche KR angehängt. Das Suffix „(KK)“ steht für die Verarbeitung der Erkennung von Gesichtsorganen und das Suffix „(TR)“ für die Verarbeitung der Verfolgung.
  • Schritt ST11: Wie in 2 dargestellt, fotografiert die Aufnahmeeinheit 11 das Bild G des Objekts T, dessen Pulswelle zu schätzen ist, d.h. eine Vielzahl von Bild-Frames F1 bis Fm. Die Aufnahmeeinheit 11 gibt die Vielzahl der fotografierten Bild-Frames F1 bis Fm an die Erkennungseinheit 12 aus.
  • Schritt ST12: Wie in 2 dargestellt, extrahiert die Erkennungseinheit 12 die Vielzahl von Hautbereichen S1 bis Sm aus der Vielzahl von Bild-Frames F1 bis Fm. Die Erkennungseinheit 12 gibt die Vielzahl der Bild-Frames F1 bis Fm und die Vielzahl der Hautregionen S1 bis Sm sequentiell an die Einstelleinheit 13 aus.
  • Schritt ST13: Wenn das Bild-Frame F1 von der Erkennungseinheit 12 ausgegeben wird, erkennt die Gesichtsorgan-Erkennungseinheit 13A in der Einstelleinheit 13 die Koordinatenwerte einer Vielzahl von Gesichtsorgan-Punkten KK1 (nicht dargestellt) in der Hautregion S1 des Bild-Frame F1, wie in 8 dargestellt, da das Bild-Frame F1 das erste Bild-Frame ist. Die Gesichtsorgan-Erkennungseinheit 13A setzt auch die Koordinatenwerte des Messbereichs KR1(KK) in dem Hautbereich S1 unter Verwendung der erkannten Koordinatenwerte der Vielzahl von Gesichtsorganpunkten KK1 als Referenzen, beispielsweise wie in 8 dargestellt.
  • Schritt ST14A: Wenn das Bild-Frame F2, das auf das Bild-Frame F1 folgt, von der Erkennungseinheit 12 ausgegeben wird, führt die Verfolgungseinheit 13B in der Einstelleinheit 13 zunächst die Verfolgungsverarbeitung auf der Grundlage des Bild-Frame F1, des Hautbereichs S1 und des Bild-Frame F2 durch, wie in 8 dargestellt, da das Bild-Frame F2 das zweite Bild-Frame ist. Infolgedessen setzt die Verfolgungseinheit 13B eine Vielzahl von Verfolgungspunkten TR2 (nicht gezeigt) in der Hautregion S2 im Bild-Frame F2. Wie in 8 dargestellt, stellt die Verfolgungseinheit 13B die Koordinatenwerte des Messbereichs KR2(TR) so ein, dass sie dem Messbereich KR1(KK) zugehören, wobei die Vielzahl der gesetzten Verfolgungspunkte TR2 als Referenzen verwendet werden.
  • Schritt ST14B: Als nächstes erkennt die Gesichtsorgan-Erkennungseinheit 13A in der Einstelleinheit 13, wie in 8 dargestellt, die Koordinatenwerte einer Vielzahl von Gesichtsorgan-Punkten KK2 (nicht gezeigt) im Hautbereich S2 des Bild-Frame F2. Die Gesichtsorgan-Erfassungseinheit 13A setzt auch die Koordinatenwerte des Messbereichs KR2(KK) in dem Hautbereich S2 unter Verwendung der erkannten Koordinatenwerte der Vielzahl von Gesichtsorganpunkten KK2 als Referenzen, wie in 8 dargestellt.
  • Schritt ST15A: Wenn das Bild-Frame F3 von der Erkennungseinheit 12 ausgegeben wird, führt die Verfolgungseinheit 13B in der Einstelleinheit 13 zunächst die Verfolgung auf der Grundlage des Bild-Frame F2, des Hautbereichs S2 und des Bild-Frame F3 durch, wie in 8 ähnlich wie in Schritt ST14A dargestellt, da der Bild-Frame F3 das dritte Bild-Frame ist. Infolgedessen setzt die Tracking-Einheit 13B eine Vielzahl von Tracking-Punkten TR3 (nicht gezeigt) im Hautbereich S3 im Bild-Frame F3. Die Verfolgungseinheit 13B setzt Koordinatenwerte des Messbereichs KR3(TR) so, dass sie dem Messbereich KR2(KK) zugehören, wobei die Vielzahl der gesetzten Verfolgungspunkte TR3 als Referenzen verwendet werden.
  • Schritt ST15B: Als nächstes erkennt die Gesichtsorgan-Erkennungseinheit 13A in der Einstelleinheit 13, wie in Schritt ST14B, Koordinatenwerte von Gesichtsorgan-Punkten KK3 (nicht gezeigt) im Hautbereich S3 des Bild-Frames F3, wie in 8 dargestellt. Die Gesichtsorgan-Erfassungseinheit 13A setzt auch die Koordinatenwerte des Messbereichs KR3(KK) im Hautbereich S3 unter Verwendung der erkannten Koordinatenwerte der Gesichtsorganpunkte als Referenzen.
  • Die nachfolgenden Bild-Frames F4, F6,..., und Fm werden ebenfalls in der gleichen Weise verarbeitet wie in den oben beschriebenen Schritten ST15A und ST15B.
  • Schritt ST16: Die Messeinheit 14 misst den Leuchtdichtewert des Messbereichs KR, und zwar den Messbereich KR1(KK), den Messbereich KR2(TR), den Messbereich KR2(KK), den Messbereich KR3(TR),....
  • Die Messeinheit 14 berechnet nach der oben beschriebenen Messung eine Leuchtdichtedifferenz KD. Beispielsweise berechnet die Berechnungseinheit 14 einen Durchschnittswert der Leuchtdichtewerte der Pixel in dem in 8 dargestellten Messbereich KR1(KK) und einen Durchschnittswert der Leuchtdichtewerte der Pixel in dem in 8 dargestellten Messbereich KR2(TR) und berechnet ferner eine Differenz zwischen den beiden Durchschnittswerten, d.h. eine Leuchtdichtedifferenz KD(1-2). In ähnlicher Weise berechnet beispielsweise die Berechnungseinheit 14 einen Durchschnittswert der Leuchtdichtewerte der Pixel in dem in 8 dargestellten Messbereich KR2(KK) und einen Durchschnittswert der Leuchtdichtewerte der Pixel in dem in 8 dargestellten Messbereich KR3(TR) und berechnet ferner eine Differenz zwischen den beiden Durchschnittswerten, d. h. eine Leuchtdichtedifferenz KD(2-3). Die Messeinheit 14 berechnet auf ähnliche Weise die Leuchtdichtedifferenz KD zwischen den anderen Bild-Frames F3, F4, .... Die Messeinheit 14 gibt das Leuchtdichtesignal KS aus, das die Leuchtdichtedifferenz KD(1-2), die Leuchtdichtedifferenz KD(2-3) angibt,....
  • Schritt ST17: Wenn das Leuchtdichtesignal KS von der Messeinheit 14 ausgegeben wird, schätzt die Schätzeinheit 15 die Pulswelle MH auf der Grundlage des Leuchtdichtesignals KS. Die Schätzeinheit 15 berechnet auch die Pulsrate MS auf der Grundlage der geschätzten Pulswelle MH. Die Schätzeinheit 15 gibt mindestens eine der geschätzten Pulswelle MH und der berechneten Pulswellenzahl MS aus.
  • <Effekte der Ausführungsform>
  • Wie oben beschrieben, setzt gemäß der Pulswellen-Schätzvorrichtung 1 der Ausführungsform die Gesichtsorgan-Erkennungseinheit 13A den Messbereich KR1(KK) auf der Basis der Gesichtsorganpunkte KK1 für den Bild-Frame F1. Weiterhin setzt die Tracking-Einheit 13B den Messbereich KR2(TR) auf der Basis der Tracking-Punkte TR2 für das auf das Bild-Frame F1 folgende Bild-Frame F2, und die Gesichtsorgan-Erfassungseinheit 13A setzt den Messbereich KR2(KK) auf der Basis der Gesichtsorgan-Punkte KK2 für das Bild-Frame F2. Darüber hinaus werden die Messbereiche KR(KK) und KR(TR) in ähnlicher Weise für die nachfolgenden Bild-Frames F3 bis Fm festgelegt. Nach der oben beschriebenen Einstellung misst die Messeinheit 14 die Pixelwerte in den Messbereichen KR(KK) und KR(TR) und berechnet die Leuchtdichtedifferenz KD der gemessenen Pixelwerte zwischen dem vorhergehenden und dem nachfolgenden Messbereich KR. Dann schätzt die Schätzeinheit 15 die Pulswelle MH und berechnet die Pulswellenzahl MS auf der Basis der Leuchtdichteunterschiede KD(1-2), KD(2-3),....
  • Dadurch kann eine Situation vermieden werden, in der die Abweichung weiterhin akkumuliert wird, wenn die Verfolgung weiterhin sequentiell durchgeführt wird. Darüber hinaus ist es auch möglich, eine Situation zu vermeiden, in der die akkumulierte Abweichung zwischen Bild-Frames vor und nach der konventionellen Rücksetzverarbeitung auftritt.
  • Infolgedessen kann die Luminanzdifferenz KD zwischen den Messbereichen KR1(KK) und KR2(TR), die Luminanzdifferenz KD zwischen KR2(KK) und KR3(TR), ... mit höherer Genauigkeit als zuvor gemessen werden. Infolgedessen können die Schätzung der Pulswelle MH des Objekts T und die Berechnung der Pulswellenzahl MS mit höherer Genauigkeit als zuvor durchgeführt werden.
  • Vergleichsbeispiel.
  • < Vergleichsbeispiel >
  • 9 veranschaulicht einen Betrieb einer Pulswellen-Schätzvorrichtung eines Vergleichsbeispiels.
  • In der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels, wie in 9 dargestellt, wird der Messbereich KR1(KK) durch Ausführen der Gesichtsorgan-Erkennungsverarbeitung nur auf dem ersten Bild-Frame F1 festgelegt, und andererseits werden die Messbereiche KR2(TR), KR3(TR),... durch Ausführen der Verfolgungsverarbeitung ohne Ausführen der Gesichtsorgan-Erkennungsverarbeitung auf der nachfolgenden Vielzahl von anderen Bild-Frames F2, F3, .... festgelegt.
  • Genauer gesagt wird eine Vielzahl von Gesichtsorganpunkten KK1 (nicht gezeigt) erkannt, indem die Gesichtsorganerkennungsverarbeitung an dem Bild-Frame F1 als dem ersten Bild-Frame durchgeführt wird, und der Messbereich KR1(KK) wird in dem Hautbereich S1 unter Verwendung der Vielzahl von erkannten Gesichtsorganpunkten KK1 als Referenzen festgelegt.
  • In der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels wird die Tracking-Verarbeitung auf dem Bild-Frame F2 im Anschluss an den Bild-Frame F1 auf der Grundlage des Bild-Frames F1, des Hautbereichs S1 und des Bild-Frames F2 durchgeführt, ohne die Gesichtsorgan-Erkennungsverarbeitung durchzuführen, so dass eine Vielzahl von Tracking-Punkten TR2 (nicht gezeigt) erkannt wird. Dann wird der Messbereich KR2(TR) im Hautbereich S2 unter Verwendung der erkannten Tracking-Punkte TR2 als Referenzen festgelegt. In der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels werden die Messbereiche KR3(TR),..., und KR(k-1) (TR) gesetzt, indem die Tracking-Verarbeitung analog zum Bild-Frame F2 auch für die dem Bild-Frame F2 folgenden Bild-Frames F3,..., und F(k-1) fortgesetzt wird.
  • Andererseits wird in der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels bestimmt, dass die Verfolgungsverarbeitung in Intervallen von ungefähr k (k ist eine vorbestimmte positive ganze Zahl) Bild-Frames gestoppt, d.h. die Verfolgungsverarbeitung zurückgesetzt werden sollte. Dementsprechend wird in der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels die Verfolgungsverarbeitung gestoppt, d.h. die Verfolgungsverarbeitung wird für den Bild-Frame F(k) zurückgesetzt, und dann wird die Gesichtsorgan-Erkennungsverarbeitung für den Bild-Frame F(k) ähnlich wie die Gesichtsorgan-Erkennungsverarbeitung für den Bild-Frame F1 durchgeführt. Als Ergebnis wird eine Vielzahl von Gesichtsorganpunkten KK(k) (nicht gezeigt) erkannt, und der Messbereich KR(k)(KK) wird in dem Hautbereich S(k) unter Verwendung der Vielzahl von erkannten Gesichtsorganpunkten KK(k) als Referenzen festgelegt. In der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels wird der Messbereich KR(k+1) (TR) und dergleichen durch Fortsetzen der Verfolgungsverarbeitung für den Bild-Frame F(k+1) und dergleichen im Anschluss an den Bild-Frame F(k) ähnlich wie der Bild-Frame F2 und dergleichen im Anschluss an den Bild-Frame F1 festgelegt.
  • In der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels wird, wie oben beschrieben, die Gesichtsorgan-Erkennungsverarbeitung an den Bild-Frames F1, F(k), ... durchgeführt, und andererseits wird die Verfolgungsverarbeitung an anderen Bild-Frames F2, F3, ... im Anschluss an das Bild-Frame F1, das Bild-Frame F(k+1) im Anschluss an das Bild-Frame F(k) und dergleichen durchgeführt, ohne die Gesichtsorgan-Erkennungsverarbeitung durchzuführen. Infolgedessen wird in der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels die Verfolgungsverarbeitung sequentiell in der Weise durchgeführt, dass die Verfolgungsverarbeitung für das Bild-Frame F2, die Verfolgungsverarbeitung für das Bild-Frame F3, die Verfolgungsverarbeitung für das Bild-Frame F4 (nicht gezeigt.),.... Da die Verfolgungsverarbeitung sequentiell durchgeführt wird, wird die Abweichung zwischen dem Messbereich KR2(TR) und dem Messbereich KR3(TR), die Abweichung zwischen dem Messbereich KR3(TR) und dem Messbereich KR4(TR), ..., akkumuliert. Infolgedessen ist beispielsweise die Position des Messbereichs KR(k-1) (TR) des Bild-Frames F(k-1) unmittelbar vor dem Bild-Frame F(k), an dem die Gesichtsorgan-Erkennungsverarbeitung durchgeführt wird, von der Position des Messbereichs KR1(KK) des ersten Bild-Frames F1 um einen Abstand entfernt, der der akkumulierten Abweichung zugehört.
  • In der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels ist die Position des Messbereichs KR(k)(KK) für das Bild-Frame F(k), auf dem die Tracking-Verarbeitung zurückgesetzt wird, d.h. nur die Gesichtsorgan-Erkennungsverarbeitung durchgeführt wird, im Wesentlichen die gleiche wie die Position des Messbereichs KR1(KK) des Bild-Frame F1, auf dem nur die Gesichtsorgan-Erkennungsverarbeitung durchgeführt wird. Daher sind die Position des Messbereichs KR(k)(KK) für das Bild-Frame F(k) und die Position des Messbereichs KR(k-1) (TR) für das Bild-Frame F(k-1) durch einen Abstand getrennt, der im Wesentlichen gleich dem oben beschriebenen Abstand zwischen der Position des Messbereichs KR1(KK) und der Position des Messbereichs KR(k-1)(TR) ist.
  • Im Gegensatz zu der Pulswellen-Schätzvorrichtung des Vergleichsbeispiels führt die Pulswellen-Schätzvorrichtung 1 der Ausführungsform grundsätzlich die Gesichtsorgan-Erkennungsverarbeitung und die Nachführungsverarbeitung für jedes Bild-Frame F der Bild-Frames F1, F2, F3,... wie oben beschrieben durch. Daher kann die Pulswellen-Schätzvorrichtung 1 der Ausführungsform eine Situation vermeiden, in der der oben beschriebene Abstand, der sich aus der Akkumulation der Abweichung ergibt, zwischen der Position des Messbereichs KR(k-1)(TR) des Bild-Frames F(k-1) und der Position des Messbereichs KR1(KK) des ersten Bild-Frames F1 auftritt. Ebenso kann vermieden werden, dass zwischen der Position des Messbereichs KR(k-1)(TR) des Bild-Frames F(k-1) und der Position des Messbereichs KR(k)(KK) des Bild-Frames F(k) ebenfalls ein Abstand entsteht, der im Wesentlichen gleich dem oben beschriebenen Abstand ist.
  • Modifikationen
  • <Modifikationen>
  • Anstatt die oben beschriebene Gesichtsorgan-Erkennungsverarbeitung und die Nachführungsverarbeitung für jedes Bild-Frame F durchzuführen, d.h. für jedes der Bild-Frames F1, F2, F3, ..., kann die Pulswellen-Schätzvorrichtung 1 der Modifikation die Gesichtsorgan-Erkennungsverarbeitung und die Nachführungsverarbeitung nur in Intervallen einer vorbestimmten Anzahl von Bild-Frames F durchführen und nur die Nachführungsverarbeitung für die anderen Bild-Frames F durchführen. Insbesondere kann beispielsweise die Pulswellen-Schätzvorrichtung 1 der Modifikation die Gesichtsorgan-Erkennungsverarbeitung auf dem Bild-Frame F1 durchführen und dann für die nachfolgenden Bild-Frames F nur die Verfolgungsverarbeitung auf den Bild-Frames F2 und F3 durchführen, sowohl die Gesichtsorgan-Erkennungsverarbeitung als auch die Verfolgungsverarbeitung auf dem Bild-Frame F4 durchführen, nur die Verfolgungsverarbeitung auf den Bild-Frames F5 und F6 durchführen und sowohl die Gesichtsorgan-Erkennungsverarbeitung als auch die Verfolgungsverarbeitung auf dem Bild-Frame F7 durchführen.
  • Jede Komponente der Ausführungsform kann geändert oder weggelassen werden.
  • INDUSTRIELLE ANWENDBARKEIT
  • Die Pulswellen-Schätzvorrichtung und das Pulswellen-Schätzverfahren gemäß der vorliegenden Offenbarung können beispielsweise zur Schätzung einer Pulswelle und zur Berechnung einer Pulswellenzahl verwendet werden.
  • BEZUGSZEICHEN-LISTE
  • 1
    Pulswellen-Schätzvorrichtung,
    11
    Aufnahmeeinheit,
    12
    Erkennungseinheit,
    13
    Einstelleinheit,
    14
    Messeinheit,
    15
    Schätzeinheit,
    13A
    Gesichtsorgan-Erkennungseinheit,
    13B
    Verfolgungseinheit,
    1N
    Eingabeeinheit,
    1P
    Prozessor,
    1S
    Ausgabeeinheit,
    1M
    Speicher,
    1K
    Speichermedium,
    1PR
    Programm,
    T
    Objekt,
    G
    Bild,
    F
    Bild-Frame,
    S
    Hautbereich,
    KK
    Gesichtsorgan-Punkt,
    TR
    Tracking-Punkt,
    KR
    Messbereich,
    KD
    Leuchtdichte-Differenz,
    KS
    Leuchtdichte-Signal,
    MH
    Pulswelle,
    MS
    Pulsrate.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016190022 A [0004]

Claims (4)

  1. Eine Pulswellen-Schätzvorrichtung, umfassend: eine Erfassungseinheit zum Erfassen einer Vielzahl von aufeinanderfolgenden Bild-Frames eines Objekts, dessen Pulswelle zu schätzen ist, wobei die Bild-Frames ein erstes Bild-Frame umfassen, das vor einem zweiten Bild-Frame liegt, und das zweite Bild-Frame, das nach dem ersten Bild-Frame liegt; eine Erkennungseinheit, zum Erkennen eines Gesichtsorganpunktes, der eine Position eines Gesichtsorgans des Objekts in dem ersten Bild-Frame angibt; eine Verfolgungseinheit, zum Einstellen eines Verfolgungspunktes, der eine Position des Gesichtsorgans in dem zweiten Bild-Frame angibt, durch Bezugnahme auf den ersten Bild-Frame; eine erste Einstelleinheit zum Einstellen einer Position eines Messbereichs in dem ersten Bild-Frame auf der Grundlage des erkannten Gesichtsorganpunkts in dem ersten Bild-Frame, wobei der Messbereich ein Bereich ist, in dem ein Luminanzwert zum Schätzen der Pulswelle zu messen ist; eine zweite Einstelleinheit zum Einstellen einer Position des Messbereichs in dem zweiten Bild-Frame auf der Grundlage des eingestellten Verfolgungspunkts in dem zweiten Bild-Frame; eine Messeinheit zum Messen eines Luminanzwerts eines Pixels in dem eingestellten Messbereich in dem ersten Bild-Frame und eines Luminanzwerts eines Pixels in dem eingestellten Messbereich in dem zweiten Bild-Frame; und eine Schätzeinheit zum Schätzen der Pulswelle des Objekts auf der Grundlage einer Luminanzdifferenz, die eine Differenz zwischen dem gemessenen Luminanzwert des Messbereichs in dem ersten Bild-Frame und dem gemessenen Luminanzwert des Messbereichs in dem zweiten Bild-Frame ist.
  2. Pulswellen-Schätzvorrichtung nach Anspruch 1, wobei die Erkennungseinheit und die Verfolgungseinheit jeweils den Gesichtsorganpunkt erkennen und den Verfolgungspunkt einstellen, für jedes der Bild-Frames.
  3. Pulswellen-Schätzvorrichtung nach Anspruch 1, wobei die Erkennungseinheit und die Verfolgungseinheit jeweils den Gesichtsorganpunkt extrahieren und den Verfolgungspunkt einstellen, in Intervallen von einer vorbestimmten Anzahl von Bild-Frames.
  4. Ein Pulswellen-Schätzverfahren, umfassend: Erfassen, durch eine Erfassungseinheit, einer Vielzahl von aufeinanderfolgenden Bild-Frames eines Objekts, dessen Pulswelle zu schätzen ist, wobei die Bild-Frames ein erstes Bild-Frame umfassen, das vor einem zweiten Bild-Frame liegt, und das zweite Bild-Frame, das nach dem ersten Bild-Frame liegt; Erkennen, durch eine Erkennungseinheit, eines Gesichtsorganpunktes, der eine Position eines Gesichtsorgans des Objekts in dem ersten Bild-Frame angibt; Einstellen, durch eine Verfolgungseinheit, eines Verfolgungspunktes, der eine Position des Gesichtsorgans in dem zweiten Bild-Frame angibt, durch Bezugnahme auf den ersten Bild-Frame; Einstellen, durch eine erste Einstelleinheit, einer Position eines Messbereichs in dem ersten Bild-Frame auf der Grundlage des erkannten Gesichtsorganpunkts in dem ersten Bild-Frame, wobei der Messbereich ein Bereich ist, in dem ein Luminanzwert zum Schätzen der Pulswelle zu messen ist; Einstellen, durch eine zweite Einstelleinheit, einer Position des Messbereichs in dem zweiten Bild-Frame auf der Grundlage des eingestellten Verfolgungspunkts in dem zweiten Bild-Frame; Messen, durch eine Messeinheit, eines Luminanzwertes eines Pixels in dem eingestellten Messbereich in dem ersten Bild-Frame und eines Luminanzwertes eines Pixels in dem eingestellten Messbereich in dem zweiten Bild-Frame; und Schätzen, durch eine Schätzeinheit, der Pulswelle des Objekts auf der Basis einer Luminanzdifferenz, die eine Differenz zwischen dem gemessenen Luminanzwert des Messbereichs in dem ersten Bild-Frame und dem gemessenen Luminanzwert des Messbereichs in dem zweiten Bild-Frame ist.
DE112021007128.9T 2021-02-19 2021-02-19 Pulswellen-Schätzvorrichtung und Pulswellen Schätzverfahren Pending DE112021007128T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/006237 WO2022176137A1 (ja) 2021-02-19 2021-02-19 脈波推定装置及び脈波推定方法

Publications (1)

Publication Number Publication Date
DE112021007128T5 true DE112021007128T5 (de) 2023-12-14

Family

ID=82930420

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021007128.9T Pending DE112021007128T5 (de) 2021-02-19 2021-02-19 Pulswellen-Schätzvorrichtung und Pulswellen Schätzverfahren

Country Status (4)

Country Link
US (1) US20240315580A1 (de)
JP (1) JPWO2022176137A1 (de)
DE (1) DE112021007128T5 (de)
WO (1) WO2022176137A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016190022A (ja) 2015-03-30 2016-11-10 国立大学法人東北大学 生体情報計測装置、生体情報計測方法、生体情報表示装置及び生体情報表示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006027A1 (ja) * 2014-07-07 2016-01-14 富士通株式会社 脈波検出方法、脈波検出プログラム及び脈波検出装置
WO2016158624A1 (ja) * 2015-03-30 2016-10-06 国立大学法人東北大学 生体情報計測装置、生体情報計測方法、生体情報表示装置及び生体情報表示方法
JP7068339B2 (ja) * 2017-12-15 2022-05-16 シャープ株式会社 血圧測定装置、および、血圧測定方法
JP6944901B2 (ja) * 2018-03-29 2021-10-06 株式会社日立製作所 生体情報検出装置および生体情報検出方法
CN111513701A (zh) * 2020-05-26 2020-08-11 上海眼控科技股份有限公司 心率检测方法、装置、计算机设备和可读存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016190022A (ja) 2015-03-30 2016-11-10 国立大学法人東北大学 生体情報計測装置、生体情報計測方法、生体情報表示装置及び生体情報表示方法

Also Published As

Publication number Publication date
JPWO2022176137A1 (de) 2022-08-25
US20240315580A1 (en) 2024-09-26
WO2022176137A1 (ja) 2022-08-25

Similar Documents

Publication Publication Date Title
DE602005002802T2 (de) Anordnung, Verfahren und Programm zur Bestimmung der Zentralposition eines Gesichts
DE112017002799T5 (de) Verfahren und system zum generieren multimodaler digitaler bilder
DE69131350T2 (de) Verfahren und vorrichtung zur bildverarbeitung
DE112015006160T5 (de) Emotionsschätzvorrichtung und Emotionsschätzverfahren
DE69516959T2 (de) Stabilisierungsabschätzung einer zielbereichlokalisierung, abgeleitet von mehrfacherfassten marksteinbereichen auf einem videobild
DE102018129863A1 (de) Vorrichtung und Verfahren zur Datenverarbeitung
DE60127889T2 (de) Verfahren zur Erkennung Doppelbildern in einem automatischen Albensystem
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE102007034010A1 (de) Verfahren und Vorrichtung zur Bearbeitung von Videodaten
DE112011105445B4 (de) Rote-Augen-Bestimmungsvorrichtung
DE69618913T2 (de) Eichung eines interaktiven Bürosystems
DE112017005640T5 (de) Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
DE102019122402A1 (de) Das klassifizieren von zeitreihenbilddaten
DE102007028226A1 (de) Auswertungsverfahren für eine zeitliche Sequenz von Röntgenbildern und hiermit korrespondierende Gegenstände
DE102016123149A1 (de) Bilddatenbasierte rekonstruktion dreidimensionaler oberflächen
DE112020003412T5 (de) Verfahren zum Prüfen medizinischer Daten
AT515595A2 (de) Verfahren zur optischen Erkennung von Zeichen
DE112017000075T5 (de) Vorrichtung zur Schätzung des Grads des Interesses, Verfahren zur Schätzung des Grads des Interesses, Programm und Speichermedium
DE112019003225T5 (de) Herzschlagdetektionsvorrichtung, Herzschlagdetektionsverfahren und Programm
DE112021000126T5 (de) Verfahren und Einrichtung zum Detektieren eines Zustands einer Tür oder eines Fensters
DE112019007857T5 (de) Bewegungsanalysesystem und bewegungsanalyseprogramm
DE112021007128T5 (de) Pulswellen-Schätzvorrichtung und Pulswellen Schätzverfahren
EP2048597A1 (de) Verfahren zur Objekterfassung
WO2003025843A2 (de) Modellbasierte objektklassifikation und zielerkennung
DE69625649T2 (de) Verfahren zur Überprüfung von Unterschriften

Legal Events

Date Code Title Description
R012 Request for examination validly filed