DE102014019760A1 - Method and device for determining the time course of the respiratory depth - Google Patents

Method and device for determining the time course of the respiratory depth Download PDF

Info

Publication number
DE102014019760A1
DE102014019760A1 DE102014019760.3A DE102014019760A DE102014019760A1 DE 102014019760 A1 DE102014019760 A1 DE 102014019760A1 DE 102014019760 A DE102014019760 A DE 102014019760A DE 102014019760 A1 DE102014019760 A1 DE 102014019760A1
Authority
DE
Germany
Prior art keywords
data structure
segment
matrix data
height profile
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102014019760.3A
Other languages
German (de)
Inventor
Christoph Wiesmeyr
Dr. Garn Heinrich
Bernhard Kohn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AIT Austrian Institute of Technology GmbH
Original Assignee
AIT Austrian Institute of Technology GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AIT Austrian Institute of Technology GmbH filed Critical AIT Austrian Institute of Technology GmbH
Priority to DE102014019760.3A priority Critical patent/DE102014019760A1/en
Publication of DE102014019760A1 publication Critical patent/DE102014019760A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1073Measuring volume, e.g. of limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • A61B5/1135Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing by monitoring thoracic expansion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4818Sleep apnoea
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des zeitlichen Verlaufs der Atemtiefe (T) einer, insbesondere schlafenden, Person. Es werden laufend zu einzelnen Aufnahmezeitpunkten Höhenprofile (H) der Person (1) erstellt. Höhenprofile aus benachbarter Aufnahmezeitpunkte werden zu Segmenten zusammengefasst. Der Bereich, der den Bauch- oder Brustbereich der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich (21) angibt, wird als Betrachtungsbereich (22) ausgewählt. Für jedes Höhenprofil (H) innerhalb des Segments (S1, ..., Sq) wird jeweils gesondert der Mittelwert der Abstände der innerhalb des Betrachtungsbereichs (22) befindlichen Punkte des Höhenprofils (H) zu einem Referenzpunkt oder Referenzgegenstand ermittelt wird. Für das Segment (S1, ..., Sq) wird ein Signal (si) ermittelt, dem zum jeweiligen Aufnahmezeitpunkt (t1, ..., tp) des Höhenprofils (H) der für dieses Höhenprofil (H) ermittelte Mittelwert zugeordnet wird. Basierend auf dem ermittelten Signal (si), insbesondere basierend auf dessen Signalamplitude, werden ein oder mehrere den zeitlichen Verlauf der Atemtiefe (T) charakterisierende Werte ermitteltThe invention relates to a method and a device for determining the time course of the breathing depth (T) of a, in particular sleeping, person. There are continuously created at individual recording times height profiles (H) of the person (1). Height profiles from adjacent recording times are combined into segments. The area indicating the abdominal or chest area of the person depending on the respective reference point or reference area (21) is selected as the viewing area (22). For each height profile (H) within the segment (S1,..., Sq), the mean value of the distances of the points of the height profile (H) within the viewing area (22) to a reference point or reference object is determined separately. For the segment (S1,..., Sq), a signal (si) is determined, to which the mean value determined for this height profile (H) is assigned to the respective recording time (t1,..., Tp) of the height profile (H). Based on the determined signal (si), in particular based on its signal amplitude, one or more values characterizing the temporal course of the breathing depth (T) are determined

Description

Die Erfindung betrifft ein Verfahren zur Bestimmung zeitlichen Verlaufs der Atemtiefe einer, insbesondere schlafenden, Person. Weiters betrifft die Erfindung eine Vorrichtung zur Bestimmung des zeitlichen Verlaufs der Atemtiefe. Schließlich betrifft die Erfindung einen Datenträger mit einem Programm zur Bestimmung des zeitlichen Verlaufs der Atemtiefe.The invention relates to a method for determining the time course of the breathing depth of a, in particular sleeping, person. Furthermore, the invention relates to a device for determining the time course of the respiratory depth. Finally, the invention relates to a data carrier with a program for determining the time course of the breathing depth.

Es werden laufend zu einzelnen Aufnahmezeitpunkten Höhenprofile der Person erstellt. Höhenprofile aus benachbarten Aufnahmezeitpunkten werden zu Segmenten zusammengefasst. Der Bereich, der den Bauch- oder Brustbereich der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich angibt, wird als Betrachtungsbereich ausgewählt.There are continuously created at individual recording times height profiles of the person. Height profiles from adjacent recording times are grouped into segments. The area indicating the abdominal or chest area of the person depending on the respective reference point or reference area is selected as the viewing area.

Für jedes Höhenprofil innerhalb des Segments wird jeweils gesondert der Mittelwert der Abstände der innerhalb des Betrachtungsbereichs befindlichen Punkte des Höhenprofils zu einem Referenzpunkt oder Referenzgegenstand ermittelt wird. Für das Segment wird ein Signal ermittelt, dem zum jeweiligen Aufnahmezeitpunkt des Höhenprofils der für dieses Höhenprofil ermittelte Mittelwert zugeordnet wird.For each height profile within the segment, the mean value of the distances of the points of the height profile located within the viewing area to a reference point or reference object is determined separately in each case. For the segment, a signal is determined, which is assigned to the respective recording time of the height profile of the determined for this height profile average.

Basierend auf dem ermittelten Signal, insbesondere basierend auf dessen Signalamplitude, werden ein oder mehrere den zeitlichen Verlauf der Atemtiefe charakterisierende Werte ermitteltBased on the detected signal, in particular based on its signal amplitude, one or more values characterizing the temporal course of the breathing depth are determined

Aus dem Stand der Technik ist eine Vielzahl von Verfahren bekannt, mit denen die Atmungsaktivität einer Person, insbesondere während des Schlafs, aufgezeichnet wird. Bei diesen bekannten Verfahren wird die zu untersuchende Person jeweils unmittelbar mit unterschiedlichen Sensoren verbunden, die die Person während des Schlafs stören können. Auch die mitunter zur sofortigen Auswertung der Sensorsignale verwendeten Kabel und Leitungen können den Schlaf der betreffenden Person stören.From the prior art, a variety of methods are known, with which the breathability of a person, especially during sleep, is recorded. In these known methods, the person to be examined is in each case directly connected to different sensors which can disturb the person during sleep. Also, the cables and wires sometimes used for immediate evaluation of the sensor signals can disturb the sleep of the person concerned.

Aufgabe der Erfindung ist es daher, ein Verfahren und eine Vorrichtung zur Verfügung zu stellen, die für die zu untersuchende Person wenig störend ist und insbesondere berührungslos die Atmung feststellt.The object of the invention is therefore to provide a method and a device which is not very disturbing for the person to be examined and in particular determines the respiration without contact.

Die Erfindung löst diese Aufgabe bei dem eingangs genannten Verfahren mit den Merkmalen des Patentanspruchs 1. Die Erfindung löst diese Aufgabe bei der eingangs genannten Vorrichtung mit den Merkmalen des Patentanspruchs 18.The invention solves this problem in the aforementioned method with the features of claim 1. The invention solves this problem in the aforementioned device with the features of claim 18th

Bei einem Verfahren zur Bestimmung des zeitlichen Verlaufs der Atemtiefe einer, insbesondere schlafenden, Person, sieht die Erfindung vor, dass mit einer auf die Person gerichteten Detektoreinheit laufend zu aufeinander folgenden Aufnahmezeitpunkten jeweils ein Höhenprofil der Person erstellt wird,

  • a) wobei im Höhenprofil eine Anzahl von zumindest zwei Punkten im Raum festgelegt ist, die auf der Oberfläche der Person oder auf der Oberfläche eines auf oder neben der Person befindlichen Gegenstands liegen,
  • b) wobei für jeden der Aufnahmezeitpunkte das jeweilige Höhenprofil in einer Datenstruktur abgespeichert und zur Verfügung gehalten wird,
  • c) wobei eine Anzahl von zu aufeinander folgenden Aufnahmezeitpunkten, insbesondere innerhalb eines Zeitbereichs von 3 bis 20 Sekunden, aufgenommenen Höhenprofilen zu einem Segment zusammengefasst werden,
  • d) wobei ein Bereich, der den Bauch- oder Brustbereich der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich angibt als Betrachtungsbereich ausgewählt wird,
  • e) wobei für jedes Höhenprofil innerhalb des Segments jeweils gesondert der Mittelwert der Abstände der innerhalb des Betrachtungsbereichs befindlichen Punkte des Höhenprofils zu einem Referenzpunkt oder Referenzgegenstand ermittelt wird, und für das Segment ein Signal ermittelt wird, dem zum jeweiligen Aufnahmezeitpunkt des Höhenprofils der für dieses Höhenprofil ermittelte Mittelwert zugeordnet wird, und
  • f) wobei basierend auf dem ermittelten Signal, insbesondere basierend auf dessen Signalamplitude, ein oder mehrere den zeitlichen Verlauf der Atemtiefe charakterisierende Werte ermittelt wird oder werden.
In a method for determining the temporal progression of the breathing depth of a person, in particular a sleeping person, the invention provides that a height profile of the person is continuously produced with a detector unit directed at the person continuously at successive recording times,
  • a) wherein the height profile defines a number of at least two points in the space lying on the surface of the person or on the surface of an object located on or next to the person,
  • b) wherein for each of the recording times the respective height profile is stored in a data structure and made available,
  • c) wherein a number of height profiles recorded at successive recording times, in particular within a time range of 3 to 20 seconds, are combined to form a segment,
  • d) wherein an area indicating the abdominal or chest area of the person as a function of the respective reference point or reference area is selected as the viewing area,
  • e) wherein for each height profile within the segment each separately the average of the distances of the points located within the viewing range of the height profile is determined to a reference point or reference object, and for the segment, a signal is determined to the respective recording time of the height profile of the height profile determined mean value is assigned, and
  • f) wherein based on the detected signal, in particular based on the signal amplitude, one or more of the temporal course of the breathing depth characterizing values is or will be determined.

Durch diese vorteilhaften Maßnahmen wird eine berührungslose Detektion der Atmung einer Person ermöglicht, die die zu untersuchende Person im Schlaf nicht stört. Insbesondere ist es nicht erforderlich, Sensoren am Körper der zu untersuchenden Person zu befestigen.Through these advantageous measures, a non-contact detection of the breathing of a person is made possible, which does not disturb the person to be examined while sleeping. In particular, it is not necessary to attach sensors to the body of the person to be examined.

Eine vorteilhafte und numerisch einfache Ausführungsform der Erfindung sieht vor, dass zur Bestimmung des zeitlichen Verlaufs der Atemtiefe einer, insbesondere schlafenden, Person, mit einer auf die Person gerichteten Detektoreinheit laufend zu aufeinander folgenden Aufnahmezeitpunkten jeweils ein Höhenprofil der Person erstellt wird,

  • a) wobei das Höhenprofil eine Anzahl von zumindest zwei Abstandswerten zur Festlegung jeweils eines Punktes im Raum aufweist, wobei die einzelnen Abstandswerte jeweils den Abstand des Schnittpunktes eines relativ zur Detektoreinheit vorab festgelegten, insbesondere von der Detektoreinheit ausgehenden, Strahls mit der Oberfläche der Person oder der Oberfläche eines auf der oder neben der Person befindlichen Gegenstands von einem Referenzpunkt oder einer Referenzebene angeben
  • b) wobei für jeden der Aufnahmezeitpunkte jeweils eine Datenstruktur erstellt wird, die das jeweilige Höhenprofil enthält, wobei sämtliche so erstellte Datenstrukturen jeweils dieselbe Größe aufweisen und jeweils mit Speicherpositionen für die einzelnen Abstandswerte des Höhenprofils aufweisen,
  • c) wobei eine Anzahl von zu aufeinander folgenden Aufnahmezeitpunkten, insbesondere innerhalb eines Zeitbereichs von 3 bis 20 Sekunden, aufgenommenen Höhenprofilen zu einem Segment zusammengefasst wird,
  • d) wobei eine Anzahl von Speicherpositionen der Datenstruktur, in denen Abstandswerte abgespeichert sind, die den Abstand des Bauch- oder Brustbereichs der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich angeben, als Betrachtungsbereich (ausgewählt wird,
  • e) wobei für jedes Höhenprofil innerhalb eines Segments jeweils gesondert der Mittelwert der innerhalb des Betrachtungsbereichs befindlichen Abstandswerte ermittelt wird, und für das Segment ein Signal ermittelt wird, dem zum jeweiligen Aufnahmezeitpunkt des Höhenprofils der für dieses Höhenprofil ermittelte Mittelwert zugeordnet wird, und
  • f) wobei basierend auf dem ermittelten Signal, insbesondere basierend auf dessen Signalamplitude, ein oder mehrere den zeitlichen Verlauf der Atemtiefe charakterisierende Werte ermittelt wird oder werden.
An advantageous and numerically simple embodiment of the invention provides that for determining the time course of the breathing depth of a, in particular sleeping, person with a person on the person Directional detector unit is continuously created at successive recording times in each case a height profile of the person,
  • a) wherein the height profile has a number of at least two distance values for defining a point in space, the individual distance values in each case the distance of the intersection of a predetermined relative to the detector unit, in particular emanating from the detector unit, the beam with the surface of the person or Indicate the surface of an object on or next to the person from a reference point or a reference plane
  • b) wherein for each of the recording times in each case a data structure is created which contains the respective height profile, wherein all the data structures thus created each have the same size and in each case have memory positions for the individual distance values of the height profile,
  • c) wherein a number of height profiles taken at successive recording times, in particular within a time range of 3 to 20 seconds, is combined to form a segment,
  • d) wherein a number of memory positions of the data structure in which distance values are stored, which indicate the distance of the abdominal or chest region of the person as a function of the respective reference point or reference region, is selected as the viewing region (FIG.
  • e) wherein, for each height profile within a segment, the mean value of the distance values located within the viewing area is determined separately, and a signal is determined for the segment to which the average value determined for this height profile is assigned at the respective time of recording of the height profile, and
  • f) wherein based on the detected signal, in particular based on the signal amplitude, one or more of the temporal course of the breathing depth characterizing values is or will be determined.

Eine alternative vorteilhafte und numerisch präzise Ausführungsform der Erfindung, die die Verwendung von Höhenprofilen in Form von allgemeinen Punktwolken ermöglicht, sieht vor, dass das Höhenprofil eine Punktwolke mit einer Anzahl von zumindest zwei Punkten im Raum beschreibt, die auf der Oberfläche der Person oder auf der Oberfläche eines auf oder neben der Person befindlichen Gegenstands liegen.An alternative advantageous and numerically precise embodiment of the invention, which allows the use of height profiles in the form of general point clouds, provides that the height profile describes a point cloud with a number of at least two points in space on the surface of the person or on the Surface of an object located on or next to the person.

Eine vorteilhafte Extraktion der Atmungstiefe aus dem Signal wird erreicht, indem zur Charakterisierung der Atemtiefe in einem Segment aus dem Signal zumindest ein Maximum und zumindest ein Minimum extrahiert werden und zumindest eine Differenz zwischen dem Maximum und dem Minimum als die Atemtiefe charakterisierender Wert für den dem Segment zugeordneten Zeitbereich herangezogen wird.An advantageous extraction of the respiration depth from the signal is achieved by extracting at least one maximum and at least one minimum from the signal for characterizing the respiratory depth and at least one difference between the maximum and the minimum as the value characterizing the respiration depth for the segment assigned time range is used.

Eine alternative vorteilhafte Extraktion der Atmungstiefe aus dem Signal wird erreicht, indem das Signal einer spektralen Transformation, insbesondere Fourier-Transformation oder Cosinustransformation oder Wavelet-Transformation, unterworfen wird und innerhalb eines vorgegebenen Frequenzbands, insbesondere von 0,1 Hz bis 1 Hz, nach demjenigen Spektralanteil mit der höchsten Signalenerige gesucht wird und die Signalenergie dieses Spektralanteils zur Charakterisierung der Atemtiefe in diesem Segment herangezogen wird.An alternative advantageous extraction of the depth of respiration from the signal is achieved by subjecting the signal to a spectral transformation, in particular Fourier transformation or cosine transformation or wavelet transformation, and within a given frequency band, in particular from 0.1 Hz to 1 Hz, after that Spectral component with the highest signal levels is sought and the signal energy of this spectral component is used to characterize the breathing depth in this segment.

Zur rauscharmen Extraktion von Atembewegungen, aus denen letztlich eine besonders gute Extraktion der Atemtiefe möglich ist, kann vorgesehen sein, dass das einem Segment zugeordnete Signal nach seiner Erstellung, insbesondere vor der Bestimmung des die Atemtiefe charakterisierenden Werts, einer Rauschfilterung unterzogen wird, wobei insbesondere

  • a) Signalanteile mit einer Frequenz von mehr als 0,5 Hz unterdrückt werden, und/oder
  • b) Gleichanteile unterdrückt werden.
For low-noise extraction of respiratory movements, from which ultimately a particularly good extraction of the respiratory depth is possible, it can be provided that the signal assigned to a segment is subjected to noise filtering after its creation, in particular before the determination of the value characterizing the respiration depth, wherein in particular
  • a) signal components are suppressed with a frequency of more than 0.5 Hz, and / or
  • b) Gleichanteile be suppressed.

Der Verlauf der Atemtiefe über die Zeit kann vorteilhaft ermittelt werden, indem für eine Anzahl von überlappenden oder nicht überlappenden Segmenten jeweils separat die Atemtiefe ermittelt wird.The course of the breathing depth over time can advantageously be determined by separately determining the breathing depth for a number of overlapping or non-overlapping segments.

Eine vorteilhafte adaptive Anpassung des Betrachtungsbereichs, die regelmäßig mit geringem Aufwand vorgenommen werden kann, sieht vor, dass der Betrachtungsbereich für jedes Segment separat, insbesondere auf Grundlage des für das jeweils vorangehende Segment ermittelten Betrachtungsbereichs, ermittelt wird.An advantageous adaptive adaptation of the viewing area, which can be performed regularly with little effort, provides that the viewing area for each segment is determined separately, in particular on the basis of the viewing area determined for the respective preceding segment.

Besonders aussagekräftige Höhenprofile können erstellt werden, indem – das Höhenprofil durch eine zweidimensionale Matrixdatenstruktur umfassend eine Anzahl von Zeilen und Spalten charakterisiert wird,

  • – ein Anzahl von in Zeilen und Spalten rasterförmig angeordneten Positionen vorgegeben wird, an denen jeweils die Abstandswerte des Höhenprofils bestimmt werden
  • – die Matrixdatenstruktur ein Raster von derselben Größe und Struktur aufweist, und
  • – die Matrixdatenstruktur erstellt wird, indem die an den jeweiligen Positionen aufgenommenen Abstandswerte an den den Positionen im Raster entsprechenden Speicherpositionen in der Matrixdatenstruktur abgespeichert und zur Verfügung gehalten werden.
Particularly meaningful height profiles can be created by: characterizing the height profile by a two-dimensional matrix data structure comprising a number of rows and columns,
  • - Given a number of arranged in rows and columns grid-like positions, at each of which the distance values of the height profile are determined
  • The matrix data structure has a grid of the same size and structure, and
  • - The matrix data structure is created by the stored at the respective positions distance values are stored at the positions corresponding to the grid positions in the matrix data structure and kept available.

Um eine raschere Verarbeitung der Daten zu ermöglichen, den erforderlichen Speicherplatz zu reduzieren sowie das auftretende Rauschen zu reduzieren, kann vorgesehen sein, dass die Matrixdatenstruktur nach ihrer Erstellung in ihren Abmessungen durch eine reduzierte Matrixdatenstruktur ersetzt wird, wobei für rechteckige, insbesondere die gesamte Matrixdatenstruktur abdeckende, und nicht überlappende Bildbereiche von jeweils gleicher Größe in der Matrixdatenstruktur jeweils ein mittlerer Abstandswert ermittelt wird und dieser mittlere Abstandswert dem bezüglich seiner Lage entsprechenden Bildpunkt der reduzierten Matrixdatenstruktur zugeordnet wird.In order to enable a faster processing of the data, to reduce the required storage space and to reduce the occurring noise, it may be provided that the matrix data structure is dimensioned after its creation by a reduced matrix data structure, covering for rectangular, in particular the entire matrix data structure , and non-overlapping image areas of the same size in the matrix data structure in each case a mean distance value is determined and this average distance value is assigned to the corresponding pixel with respect to its position of the reduced matrix data structure.

Eine vorteilhafte Methode zur Bestimmung des Betrachtungsbereichs sieht vor, dass der Betrachtungsbereich gesetzt wird, indem

  • a) im Höhenprofil, insbesondere in der Matrixdatenstruktur oder in der Punktwolke, eine Anzahl von möglichen Betrachtungsbereichen vorab vorgegeben werden,
  • b) für das jeweilige Segment die jeweilige Atemtiefe unter Zugrundelegung jedes der möglichen Betrachtungsbereiche ermittelt wird, und
  • c) derjenige vorgegebene möglichen Betrachtungsbereich als Betrachtungsbereich herangezogen wird, für den die ermittelte Atemtiefe am größten ist.
An advantageous method for determining the viewing area provides that the viewing area is set by
  • a) a number of possible viewing ranges are predefined in the height profile, in particular in the matrix data structure or in the point cloud,
  • b) for each segment the respective breathing depth is determined on the basis of each of the possible viewing areas, and
  • c) that predetermined possible viewing area is used as the viewing area for which the determined breathing depth is greatest.

Eine zweite vorteilhafte Methode zur Bestimmung des Betrachtungsbereichs, die besonders auf anatomische Gegebenheiten Rücksicht nimmt, sieht vor, dass der Betrachtungsbereich gesetzt wird, indem

  • a) im Höhenprofil, insbesondere in der Matrixdatenstruktur oder in der Punktwolke, mittels Objekterkennung nach Bereichen gesucht wird oder dass vorab Bereiche ausgewählt werden, die einem menschlichen Kopf und Torso entsprechen, und
  • b) der den Torso abbildende Bereich des Höhenprofils, insbesondere der Matrixdatenstruktur oder der Punktwolke, oder ein Teilbereich dieses Bereichs als Betrachtungsbereich ausgewählt wird, wobei insbesondere
  • – zur Detektion des Verlaufs oder der Atemtiefe der Brustatmung der dem Kopf nahe Teilbereich dieses Bereichs als Betrachtungsbereich ausgewählt wird und/oder
  • – zur Detektion des Verlaufs oder der Atemtiefe der Bauchatmung der dem Kopf ferne Teilbereich dieses Bereichs als Betrachtungsbereich ausgewählt wird.
A second advantageous method for determining the viewing area, which takes particular account of anatomical conditions, provides that the viewing area is set by
  • a) in the height profile, in particular in the matrix data structure or in the point cloud, by means of object recognition is searched for areas or that areas are selected in advance, which correspond to a human head and torso, and
  • b) the torso-imaging region of the height profile, in particular the matrix data structure or the point cloud, or a subregion of this region is selected as the viewing region, wherein in particular
  • - For detecting the course or the breathing depth of the chest breathing of the head near portion of this area is selected as a viewing area and / or
  • - For detecting the course or the breathing depth of the abdominal breathing of the head remote portion of this area is selected as the viewing area.

Eine rasche Anpassung des Betrachtungsbereichs kann erreicht werden, indem für jedes zu untersuchende Segment oder für einzelne Höhenprofile eines Segments der Betrachtungsbereich mittels Objekterkennung an die im Segment vorliegenden Höhenprofile ausgehend von der Position des ausgewählten Betrachtungsbereichs im jeweils vorangehenden Segment adaptiv neu ermittelt wird.A rapid adaptation of the viewing area can be achieved by adaptively recalculating the viewing area for each segment to be examined or for individual height profiles of a segment by means of object recognition to the height profiles present in the segment starting from the position of the selected viewing area in the respective preceding segment.

Eine dritte vorteilhafte Methode zur Bestimmung des Betrachtungsbereichs, die numerisch stabil und effizient ausführbar ist, sieht vor, dass der Betrachtungsbereich gesetzt wird, indem

  • a) für sämtliche Punkte des Höhenprofils, insbesondere für alle Einträge der Matrixdatenstruktur oder der Punktwolke, separat die Varianz über das jeweilige Segment bestimmt wird, und
  • b) ein Bereich oder mehrere Bereiche mit jeweils zusammenhängenden Punkten des Höhenprofils, deren jeweilige Varianz oberhalb eines unteren Schwellenwerts oder innerhalb eines vorgegebenen Intervalls liegen, als Betrachtungsbereich ausgewählt wird oder werden, insbesondere
  • – indem zusammenhängende Bereiche von Punkten als Betrachtungsbereich ausgewählt werden, deren Größe eine vorgegebene Anzahl von Punkten übersteigt
  • – wobei insbesondere ein Bereich dann als zusammenhängend angesehen wird, wenn jeder Punkt des Höhenprofils ausgehend von einem Punkt innerhalb dieses Bereichs über jeweils benachbarte Pixel erreichbar ist,
  • – wobei vorzugsweise Punkte des Höhenprofils dann als benachbart angesehen werden,
  • – wenn sie durch benachbarte Einträge der Matrix-Datenstruktur festgelegt sind oder
  • – wenn sie oder ihre Projektion auf eine horizontale Ebene im Raum einen einen Schwellenwert unterschreitenden Abstand voneinander aufweisen.
A third advantageous method for determining the viewing area, which is numerically stable and efficiently executable, provides that the viewing area is set by
  • a) for all points of the height profile, in particular for all entries of the matrix data structure or the point cloud, separately the variance over the respective segment is determined, and
  • b) an area or a plurality of areas, each having contiguous points of the height profile whose respective variance is above a lower threshold or within a predetermined interval, is or are selected as the viewing area, in particular
  • - by selecting contiguous areas of points as a viewing area whose size exceeds a given number of points
  • In particular, a region is considered to be contiguous if each point of the height profile can be reached, starting from a point within this region, via respectively neighboring pixels,
  • Preferably points of the height profile are then considered to be adjacent,
  • If they are defined by adjacent entries of the matrix data structure or
  • - If they or their projection on a horizontal plane in space have a threshold below the threshold distance from each other.

Um Situationen, bei denen sich die zu untersuchende Person bewegt, detektieren zu können und die in diesen Situationen aufgenommenen fehlerhaften Messwerte verwerfen zu können, kann vorgesehen sein, dass der Betrachtungsbereich in zwei oder mehreren aufeinander folgenden Segmenten separat ermittelt wird und ein Höhenprofil verworfen und eine Fehlermeldung ausgegeben wird, wenn sich der Betrachtungsbereich, insbesondere dessen Größe und/oder dessen Schwerpunkt, gegenüber dem jeweils vorangehenden Segment um einen vorgegebenen Schwellenwert verschiebt. In order to be able to detect situations in which the person to be examined moves and to be able to reject the erroneous measured values recorded in these situations, it can be provided that the viewing area is determined separately in two or more consecutive segments and a height profile is discarded and one Error message is issued when the viewing area, in particular its size and / or its center of gravity, relative to the respective preceding segment shifts by a predetermined threshold.

Zur verbesserten Detektion des Aussetzens der Atmung kann zusätzlich eine akustische Kontrolle vorgesehen sein. Hierbei ist vorgesehen, dass

  • a) gleichzeitig parallel zur Aufnahme des Abstands der Person von der Detektoreinheit der von der Person abgegebene Schall ermittelt und in Form eines Audio-Signals mit einer Anzahl von Audio-Abtastwerten zur Verfügung gehalten wird,
  • b) das Audio-Signal in eine Anzahl von Audio-Segmente, insbesondere mit einer Länge von 100 ms bis 1 Sekunde, unterteilt wird und für jedes der Audio-Segmente untersucht wird, ob in diesem menschliche Atemgeräusche oder andere Geräusche enthalten sind, und für jedes Audio-Segment jeweils ein Klassifikationsergebnis zur Verfügung gehalten wird,
  • c) zeitgleich aufgenommene Audio-Segmente und Segmente einander zugeordnet werden, und
  • d) nach Audio-Segmenten oder Segmenten mit geringer Atemtiefe oder mit fehlenden Atemgeräuschen gesucht wird und die einem solchen Audio-Segment oder Segment zugeordneten Segmente oder Audio-Segmente ebenfalls auf das Vorliegen geringer Atemtiefe oder fehlender Atemgeräuschen untersucht werden, und
  • e) für den Fall, dass in einander zugeordneten Segmenten und Audio-Segmenten jeweils geringe Atemtiefe und fehlender Atemgeräusche detektiert wurden, das Fehlen der Atmung der Person festgestellt wird.
In addition, an acoustic control may be provided for improved detection of respiration. It is provided that
  • a) simultaneously detected parallel to the distance of the person from the detector unit of the sound emitted by the person and is kept in the form of an audio signal with a number of audio samples,
  • b) the audio signal is divided into a number of audio segments, in particular with a length of 100 ms to 1 second, and is examined for each of the audio segments, whether this human breath sounds or other sounds are included, and for each audio segment is given a classification result,
  • c) at the same time recorded audio segments and segments are assigned to each other, and
  • d) searching for audio segments or segments with low breathing depth or with missing breath sounds and the segments or audio segments assigned to such an audio segment or segment are also examined for the presence of low breathing depth or absence of breathing sounds, and
  • e) in the event that in each case associated segments and audio segments each low breathing depth and lack of breath sounds were detected, the absence of respiration of the person is detected.

Eine besonders bevorzugte Ausführungsform der Erfindung, die eine Detektion des Beginns und des Endes von Atemaussetzern ermöglicht, sieht vor, dass

  • a) ein Klassifikationssignal erstellt wird, das für jedes Audio-Segment jeweils zumindest ein Klassifikationsergebnis enthält, das die Art und Stärke des jeweiligen Geräuschs im Zeitbereich des jeweiligen Audio-Segment angibt,
  • b) dass jeweils eine Anzahl von aufeinander folgenden Audio-Segmente zu weiteren Audio-Segmenten, insbesondere mit einer Dauer von 5 bis 10 Sekunden zusammengefasst werden, die vorzugsweise dieselben Zeitbereiche umfassen wie die Segmente,
  • c) über die innerhalb eines weiteren Audio-Segments enthaltenen Klassifikationsergebnisse eine Mittelung vorgenommen wird und dem weiteren Audio-Segment der jeweilige Mittelwert zugewiesen wird,
  • d) ein weiteres Klassifikationssignal durch Interpolation der Mittelwerte der weiteren Audio-Segmente erstellt wird,
  • e) im weiteren Klassifikationssignal sowie im Atemtiefesignal nach Zeitpunkten gesucht wird, zu denen in den beiden Signalen starke Änderungen auftreten,
  • f) die so erkannten Zeitpunkte werden als umso relevanter eingestuft werden, je stärker die Änderung des jeweiligen Signals zum jeweiligen Zeitpunkt ist,
  • g) diesen Zeitpunkten jeweils ein diesbezüglicher Relevanzwert zugeordnet wird, und
  • h) jene Zeitpunkte als Startpunkte oder Endpunkte eines Atemstillstandes detektiert werden, für welche der Betrag des Relevanzwerts über dem Betrag eines Schwellwert liegt, wobei insbesondere
  • – der Schwellenwert gebildet wird, indem über einen Zeitbereich, insbesondere vor und/oder nach dem Vergleichszeitpunkt mit dem Referenzmaß ein Mittelwert des Referenzmaßes gebildet wird und der Schwellenwert im Bereich zwischen 120% und 200% dieses Mittelwerts festgelegt wird.
A particularly preferred embodiment of the invention, which enables detection of the beginning and end of respiratory misfires, provides that
  • a) a classification signal is generated which contains for each audio segment at least one classification result which indicates the type and strength of the respective noise in the time domain of the respective audio segment,
  • b) that in each case a number of consecutive audio segments are combined to form further audio segments, in particular with a duration of 5 to 10 seconds, which preferably comprise the same time ranges as the segments,
  • c) an averaging is performed on the classification results contained within a further audio segment and the respective average value is assigned to the further audio segment,
  • d) a further classification signal is created by interpolation of the mean values of the further audio segments,
  • e) is searched in the further classification signal as well as in the respiratory depression signal according to times at which strong changes occur in the two signals,
  • (f) the times thus identified will be considered to be the more relevant the more the change in the signal at that time is,
  • g) a relevant relevance value is assigned to each of these times, and
  • h) those times are detected as starting points or end points of a respiratory arrest, for which the amount of the relevance value is above the magnitude of a threshold, in particular
  • - The threshold value is formed by a mean value of the reference measure is formed over a time range, in particular before and / or after the comparison time with the reference measure and the threshold is set in the range between 120% and 200% of this average.

Ein Verfahren zur Durchführung eines erfindungsgemäßen Verfahrens kann vorteilhaft auf einem Datenträger abgespeichert werden.A method for carrying out a method according to the invention can advantageously be stored on a data carrier.

Die Erfindung betrifft weiters eine Vorrichtung zur Bestimmung des zeitlichen Verlaufs der Atemtiefe einer, insbesondere schlafenden, Person, umfassend

  • – eine auf eine Schlafgelegenheit, insbesondere ein Bett ausrichtbare Detektoreinheit, die laufend zu aufeinander folgenden Aufnahmezeitpunkten jeweils ein Höhenprofil der Person erstellt, wobei im Höhenprofil eine Anzahl von zumindest zwei Punkten im Raum festgelegt ist, die auf der Oberfläche der Person oder auf der Oberfläche eines auf oder neben der Person befindlichen Gegenstands liegen, sowie
  • – eine Verarbeitungseinheit, die
  • a) für jeden der Aufnahmezeitpunkte das jeweilige Höhenprofil in einer Datenstruktur abgespeichert und zur Verfügung hält,
  • b) eine Anzahl von zu aufeinander folgenden Aufnahmezeitpunkten, insbesondere innerhalb eines Zeitbereichs von 3 bis 20 Sekunden, aufgenommenen Höhenprofilen zu einem Segment zusammenfasst,
  • c) einen Bereich, der den Bauch- oder Brustbereich der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich angibt als Betrachtungsbereich auswählt,
  • d) für jedes Höhenprofil innerhalb des Segments jeweils gesondert den Mittelwert der Abstände der innerhalb des Betrachtungsbereichs befindlichen Punkte des Höhenprofils zu einem Referenzpunkt oder Referenzgegenstand ermittelt, und für das Segment ein Signal ermittelt wird, dem zum jeweiligen Aufnahmezeitpunkt des Höhenprofils der für dieses Höhenprofil ermittelte Mittelwert zugeordnet ist, und
  • e) insbesondere anschließend basierend auf diesem Signal oder dessen Signalamplitude einen die Atemtiefe charakterisierender Wert ermittelt.
The invention further relates to a device for determining the temporal course of the breathing depth of a, in particular sleeping, person comprising
  • A detector unit which can be oriented towards a sleeping accommodation, in particular a bed, which continuously generates a height profile of the person at successive recording times, wherein in the height profile a number of at least two points in the room are defined on the surface of the person or on the surface of a person lying on or next to the person, as well as
  • A processing unit, the
  • a) stores and makes available the respective height profile for each of the recording times in a data structure,
  • b) a number of height profiles recorded at successive recording times, in particular within a time range of 3 to 20 seconds, into a segment,
  • c) selects an area which indicates the abdominal or chest area of the person as a function of the respective reference point or reference area as the viewing area,
  • d) for each height profile within the segment separately determines the average of the distances of the points located within the viewing range of the height profile to a reference point or reference object, and for the segment a signal is determined to the respective recording time of the height profile of the determined for this height profile mean is assigned, and
  • e) determines, in particular subsequently based on this signal or its signal amplitude, a value characterizing the breathing depth.

Durch diese vorteilhaften Maßnahmen wird eine berührungslose Detektion der Atmung einer Person ermöglicht, die die zu untersuchende Person im Schlaf nicht stört. Insbesondere ist es nicht erforderlich, Sensoren am Körper der zu untersuchenden Person zu befestigen.Through these advantageous measures, a non-contact detection of the breathing of a person is made possible, which does not disturb the person to be examined while sleeping. In particular, it is not necessary to attach sensors to the body of the person to be examined.

Eine vorteilhafte und numerisch einfache Ausführungsform der Erfindung sieht eine Vorrichtung zur Bestimmung des zeitlichen Verlaufs der Atemtiefe einer, insbesondere schlafenden, Person vor, umfassend

  • – eine auf eine Schlafgelegenheit, insbesondere ein Bett, ausrichtbare Detektoreinheit, die laufend zu aufeinander folgenden Aufnahmezeitpunkten jeweils ein Höhenprofil der Person erstellt, wobei das Höhenprofil eine Anzahl von zumindest zwei Abstandswerten zur Festlegung jeweils eines Punktes im Raum aufweist, wobei die einzelnen Abstandswerte jeweils den Abstand des Schnittpunktes eines relativ zur Detektoreinheit vorab festgelegten, insbesondere von der Detektoreinheit ausgehenden, Strahls mit der Oberfläche der Person oder der Oberfläche eines auf der oder neben der Person befindlichen Gegenstands von einem Referenzpunkt oder einer Referenzebene angeben sowie
  • – eine Verarbeitungseinheit, die
  • a) für jeden der Aufnahmezeitpunkte jeweils eine Datenstruktur erstellt, die das jeweilige Höhenprofil enthält, wobei sämtliche so erstellte Datenstrukturen jeweils dieselbe Größe aufweisen und jeweils mit Speicherpositionen für die einzelnen Abstandswerte des Höhenprofils aufweisen,
  • b) eine Anzahl von zu aufeinander folgenden Aufnahmezeitpunkten, insbesondere innerhalb eines Zeitbereichs von 3 bis 20 Sekunden, aufgenommenen Höhenprofilen zu einem Segment zusammenfasst,
  • c) eine Anzahl von Speicherpositionen der Datenstruktur, in denen Abstandswerte abgespeichert sind, die den Abstand des Bauch- oder Brustbereichs der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich angeben, als Betrachtungsbereich auswählt,
  • d) für jedes Höhenprofil innerhalb eines Segments jeweils gesondert den Mittelwert der innerhalb des Betrachtungsbereichs befindlichen Abstandswerte ermittelt, und für das Segment ein Signal ermittelt, dem zum jeweiligen Aufnahmezeitpunkt des Höhenprofils der für dieses Höhenprofil ermittelte Mittelwert zugeordnet ist,
  • e) insbesondere anschließend basierend auf diesem Signal oder dessen Signalamplitude einen die Atemtiefe charakterisierender Wert ermittelt.
An advantageous and numerically simple embodiment of the invention provides a device for determining the time course of the breathing depth of a, in particular sleeping, person comprising
  • A detector unit which can be oriented to a sleeping accommodation, in particular a bed, which continuously generates a height profile of the person at successive recording times, wherein the height profile has a number of at least two distance values for fixing one point each in space, the individual distance values corresponding to each Indicate the distance of the point of intersection of a beam predefined relative to the detector unit, in particular emanating from the detector unit, with the surface of the person or the surface of an object located on or next to the person from a reference point or reference plane;
  • A processing unit, the
  • a) creates a data structure for each of the recording times, which contains the respective height profile, wherein all the data structures thus created each have the same size and in each case have memory positions for the individual distance values of the height profile,
  • b) a number of height profiles recorded at successive recording times, in particular within a time range of 3 to 20 seconds, into a segment,
  • c) a number of memory positions of the data structure in which distance values are stored, which indicate the distance of the abdominal or chest region of the person as a function of the respective reference point or reference region, as the viewing region,
  • d) determines separately for each height profile within a segment the average value of the distance values located within the viewing range, and determines for the segment a signal to which the average value determined for this height profile is assigned at the respective recording time of the height profile,
  • e) determines, in particular subsequently based on this signal or its signal amplitude, a value characterizing the breathing depth.

Eine alternative vorteilhafte und numerisch präzise Ausführungsform der Erfindung, die die Verwendung von Höhenprofilen in Form von allgemeinen Punktwolken ermöglicht, sieht vor, dass die Detektoreinheit die Höhenprofile in Form von Punktwolken mit einer Anzahl von zumindest zwei Punkten im Raum erstellt, wobei die Punkte auf der Oberfläche der Person oder auf der Oberfläche eines auf oder neben der Person befindlichen Gegenstands liegen.An alternative advantageous and numerically precise embodiment of the invention, which allows the use of height profiles in the form of general point clouds, provides that the detector unit creates the height profiles in the form of point clouds with a number of at least two points in space, the points on the Surface of the person or on the surface of an object located on or next to the person.

Bei einer Vorrichtung zur Bestimmung zeitlichen Verlaufs der Atemtiefe einer, insbesondere schlafenden, Person, sieht die Erfindung vor, dass die Verarbeitungseinheit zur Charakterisierung der Atemtiefe in einem Segment aus dem Signal zumindest ein Maximum und zumindest ein Minimum extrahiert und die zumindest eine Differenz zwischen dem Maximum und dem Minimum als die Atemtiefe charakterisierenden Wert für den dem Segment zugeordneten Zeitbereich zur Verfügung hält und gegebenenfalls heranzieht.In a device for determining the time course of the breathing depth of a person, in particular a sleeping person, the invention provides that the processing unit for characterizing the breathing depth in a segment extracts at least one maximum and at least one minimum from the signal and the at least one difference between the maximum and the minimum as the breathing depth characterizing value for the segment associated with the time period available and possibly zoom.

Eine numerisch einfache Filterung des Signals, die störendes Rauschen weitestgehend unterdrückt sieht vor, die Verarbeitungseinheit das Signal einer spektralen Transformation, insbesondere Fourier-Transformation, Cosinustransformation oder Wavelet-Transformation, unterzieht und innerhalb eines vorgegebenen Frequenzbands, insbesondere von 0,1 Hz bis 1 Hz, nach demjenigen Spektralanteil mit der höchsten Signalenerige sucht und die Signalenergie dieses Spektralanteils zur Charakterisierung der Atemtiefe in diesem Segment heranzieht.A numerically simple filtering of the signal which largely suppresses disturbing noise provides that the processing unit subjects the signal to a spectral transformation, in particular Fourier transformation, cosine transformation or wavelet transformation, and within a predetermined frequency band, in particular from 0.1 Hz to 1 Hz , searches for the spectral component with the highest signal level and uses the signal energy of this spectral component to characterize the breathing depth in this segment.

Zur rauscharmen Extraktion von Atembewegungen, aus denen letztlich eine besonders gute Extraktion der Atemtiefe möglich ist, kann vorgesehen sein, dass dass die Verarbeitungseinheit das einem Segment zugeordnete Signal nach seiner Erstellung, insbesondere vor der Bestimmung des die Atemtiefe charakterisierenden Werts, einer Rauschfilterung unterzieht, wobei sie insbesondere

  • a) Signalanteile mit einer Frequenz von mehr als 0,5 Hz unterdrückt, und/oder
  • b) Gleichanteile unterdrückt.
For low-noise extraction of respiratory movements, from which ultimately a particularly good extraction of the respiratory depth is possible, it can be provided that the processing unit subjects the signal assigned to a segment to noise filtering after its creation, in particular before the determination of the value characterizing the respiration depth in particular
  • a) suppresses signal components with a frequency of more than 0.5 Hz, and / or
  • b) Equal shares suppressed.

Der Verlauf der Atemtiefe über die Zeit kann vorteilhaft ermittelt werden, indem die Verarbeitungseinheit für eine Anzahl von überlappenden oder nicht überlappenden Segmenten jeweils separat die Atemtiefe ermittelt.The course of the breathing depth over time can advantageously be determined by the processing unit separately determining the breathing depth for a number of overlapping or non-overlapping segments.

Eine vorteilhafte adaptive Anpassung des Betrachtungsbereichs, die regelmäßig mit geringem Aufwand vorgenommen werden kann, sieht vor, die Verarbeitungseinheit den Betrachtungsbereich für jedes Segment separat, insbesondere auf Grundlage des für das jeweils vorangehende Segment ermittelten Betrachtungsbereichs ermittelt.An advantageous adaptive adaptation of the viewing area, which can be performed regularly with little effort, provides that the processing unit determines the viewing area for each segment separately, in particular on the basis of the viewing area determined for the respective preceding segment.

Besonders aussagekräftige und numerisch einfach handhabbare Höhenprofile können erstellt werden, indem die Verarbeitungseinheit

  • – das Höhenprofil durch eine zweidimensionale Matrixdatenstruktur umfassend eine Anzahl von Zeilen und Spalten charakterisiert,
  • – ein Anzahl von in Zeilen und Spalten rasterförmig angeordneten Positionen vorgegeben wird, an denen jeweils die Abstandswerte des Höhenprofils bestimmt
  • – die Matrixdatenstruktur ein Raster von derselben Größe und Struktur aufweist, und
  • – die Matrixdatenstruktur erstellt, indem sie die an den jeweiligen Positionen aufgenommenen Abstandswerte an den den Positionen im Raster entsprechenden Speicherpositionen in der Matrixdatenstruktur abspeichert und zur Verfügung hält.
Particularly meaningful and numerically easy to handle height profiles can be created by the processing unit
  • Characterized the height profile by a two-dimensional matrix data structure comprising a number of rows and columns,
  • - Given a number of arranged in rows and columns grid-like positions, at which each determines the distance values of the height profile
  • The matrix data structure has a grid of the same size and structure, and
  • - Creates the matrix data structure by storing the stored at the respective positions distance values at the positions corresponding to the grid positions in the matrix data structure and keeps available.

Um eine raschere Verarbeitung der Daten zu ermöglichen, den erforderlichen Speicherplatz zu reduzieren sowie das auftretende Rauschen zu reduzieren, kann vorgesehen sein, dass die Verarbeitungseinheit die Matrixdatenstruktur nach ihrer Erstellung in ihren Abmessungen durch eine reduzierte Matrixdatenstruktur ersetzt, wobei sie für rechteckige, insbesondere die gesamte Matrixdatenstruktur abdeckende, und nicht überlappende Bildbereiche von jeweils gleicher größe in der Matrixdatenstruktur jeweils einen mittleren Abstandswert ermittelt und diesen mittleren Abstandswert dem bezüglich seiner Lage entsprechenden Bildpunkt der reduzierten Matrixdatenstruktur zuordnet.In order to enable a faster processing of the data, to reduce the storage space required and to reduce the noise that occurs, it can be provided that the processing unit replaces the matrix data structure after its creation by a reduced matrix data structure, for rectangular, in particular the entire Matrix data structure covering and non-overlapping image areas of the same size in the matrix data structure in each case determines a mean distance value and assigns this mean distance value corresponding to its location pixel of the reduced matrix data structure.

Eine vorteilhafte Methode zur Bestimmung des Betrachtungsbereichs sieht vor, dass die Verarbeitungseinheit den Betrachtungsbereich festlegt, indem sie

  • a) in der im Höhenprofil, insbesondere in der Matrixdatenstruktur oder in der Punktwolke, eine Anzahl von möglichen Betrachtungsbereichen, vorab vorgibt,
  • b) für das jeweilige Segment die jeweilige Atemtiefe unter Zugrundelegung jedes der möglichen Betrachtungsbereiche ermittelt, und
  • c) denjenigen vorgegebenen möglichen Betrachtungsbereich als Betrachtungsbereich auswählt und heranzieht, für den die ermittelte Atemtiefe am größten ist.
An advantageous method for determining the viewing area provides that the processing unit determines the viewing area by
  • a) predetermines in the height profile, in particular in the matrix data structure or in the point cloud, a number of possible viewing areas,
  • b) determines the respective breathing depth for each segment on the basis of each of the possible viewing areas, and
  • c) selects and uses the given possible viewing area as the viewing area for which the determined breathing depth is greatest.

Eine zweite vorteilhafte Methode zur Bestimmung des Betrachtungsbereichs, die besonders auf anatomische Gegebenheiten Rücksicht nimmt, sieht vor, dass die Verarbeitungseinheit den Betrachtungsbereich festlegt, indem sie

  • a) im Höhenprofil, insbesondere in der Matrixdatenstruktur oder in der Punktwolke, mittels Objekterkennung nach Bereichen sucht oder Mittel zur Auswahl von Bereichen zur Verfügung stellt, die einem menschlichen Kopf und Torso entsprechen, und
  • b) den den Torso abbildenden Bereich der des Höhenprofils, insbesondere der Matrixdatenstruktur oder der Punktwolke, oder ein Teilbereich dieses Bereichs als Betrachtungsbereich auswählt, wobei sie insbesondere
  • – zur Detektion des Verlaufs oder der Atemtiefe der Brustatmung der dem Kopf nahe Teilbereich dieses Bereichs als Betrachtungsbereich auswählt und/oder
  • – zur Detektion des Verlaufs oder der Atemtiefe der Bauchatmung der dem Kopf ferne Teilbereich dieses Bereichs als Betrachtungsbereich auswählt.
A second advantageous method for determining the viewing area, which takes particular account of anatomical conditions, provides that the processing unit determines the viewing area by
  • a) in the height profile, in particular in the matrix data structure or in the point cloud, searches for areas by means of object recognition or provides means for selecting areas corresponding to a human head and torso, and
  • b) selecting the torso-imaging region of the height profile, in particular the matrix data structure or the point cloud, or a subregion of this region as the viewing region, in particular
  • - For detecting the course or the breathing depth of the chest breathing of the near the head portion of this area selects as a viewing area and / or
  • - For detecting the course or the breathing depth of the abdominal breathing of the head remote portion of this range selects as a viewing area.

Eine rasche Anpassung des Betrachtungsbereichs kann erreicht werden, indem dass die Verarbeitungseinheit für jedes zu untersuchende Segment oder für einzelne Höhenprofile eines Segments der Betrachtungsbereich mittels Objekterkennung an die im Segment vorliegenden Höhenprofile ausgehend von der Position des ausgewählten Betrachtungsbereichs im jeweils vorangehenden Segment adaptiv neu ermittelt.A rapid adaptation of the viewing area can be achieved by the fact that the processing unit for each segment to be examined or for individual height profiles of a segment of the Viewing range by object recognition to the present in the segment height profiles based on the position of the selected viewing area in the respective previous segment adaptively redetermined.

Eine dritte vorteilhafte Methode zur Bestimmung des Betrachtungsbereichs, die numerisch stabil und effizient ausführbar ist, sieht vor, dass dass die Verarbeitungseinheit den Betrachtungsbereich festlegt, indem sie

  • a) für sämtliche Punkte des Höhenprofils, insbesondere für alle Einträge der Matrixdatenstruktur, separat die Varianz der Werte über das jeweilige Segment bestimmt, und
  • b) einen Bereich oder mehrere Bereiche mit jeweils zusammenhängenden Punkten des Höhenprofils, deren jeweilige Varianz oberhalb eines unteren Schwellenwerts oder innerhalb eines vorgegebenen Intervalls liegen, als Betrachtungsbereich auswählt, insbesondere
  • – indem sie zusammenhängende Bereiche als Betrachtungsbereich auswählt, deren Größe eine vorgegebene Anzahl von Punkten übersteigt
  • – wobei insbesondere ein Bereich dann als zusammenhängend gilt, wenn jeder Punkt des Höhenprofils ausgehend von einem Punkt innerhalb dieses Bereichs über jeweils benachbarte Pixel erreichbar ist,
  • – wobei vorzugsweise Punkte des Höhenprofils dann als benachbart gilt,
  • – wenn sie durch benachbarte Einträge der Matrix-Datenstruktur festgelegt sind oder
  • – wenn sie oder ihre Projektion auf eine horizontale Ebene im Raum einen einen Schwellenwert unterschreitenden Abstand voneinander aufweisen.
A third advantageous method for determining the viewing area, which is numerically stable and efficiently executable, provides that the processing unit determines the viewing area by
  • a) for all points of the height profile, in particular for all entries of the matrix data structure, separately determines the variance of the values over the respective segment, and
  • b) selects a region or a plurality of regions, each having contiguous points of the height profile whose respective variance is above a lower threshold value or within a predetermined interval, as the viewing region, in particular
  • - by selecting contiguous areas as a viewing area whose size exceeds a given number of points
  • In which, in particular, an area is deemed to be connected if each point of the height profile can be reached from a point within this area via respectively adjacent pixels,
  • - preferably points of the height profile is then considered adjacent,
  • If they are defined by adjacent entries of the matrix data structure or
  • - If they or their projection on a horizontal plane in space have a threshold below the threshold distance from each other.

Um Situationen, bei denen sich die zu untersuchende Person bewegt, detektieren zu können und die in diesen Situationen aufgenommenen fehlerhaften Messwerte verwerfen zu können, kann vorgesehen sein, die Verarbeitungseinheit den Betrachtungsbereich in zwei oder mehreren aufeinander folgenden Segmenten separat ermittelt und ein Höhenprofil verwirft und gegebenenfalls eine Fehlermeldung ausgibt, wenn sich der Betrachtungsbereich, insbesondere dessen Größe und/oder dessen Schwerpunkt, gegenüber dem jeweils vorangehenden Segment um einen vorgegebenen Schwellenwert verschiebt.In order to be able to detect situations in which the person to be examined moves and to reject the erroneous measured values recorded in these situations, it can be provided that the processing unit separately determines the viewing area in two or more consecutive segments and discards a height profile and, if necessary issues an error message if the viewing area, in particular its size and / or its center of gravity, shifts by a predetermined threshold relative to the respective preceding segment.

Zur verbesserten Detektion des Aussetzens der Atmung kann zusätzlich eine akustische Kontrolle vorgesehen sein. Hierbei ist vorgesehen, dass dass der Verarbeitungseinheit ein Mikrofon vorgeschaltet ist, das gleichzeitig parallel zur Aufnahme des Abstands der Person den von der Person abgegebene Schall in Form eines Audio-Signals an seinem Ausgang zur Verfügung hält und dieses Audio-Signal der Verarbeitungseinheit zugeführt ist, und dass die Verarbeitungseinheit

  • a) das Audio-Signal in eine Anzahl von Audio-Segmente, insbesondere mit einer Länge von 100 ms bis 1 Sekunde, unterteilt und für jedes der Audio-Segmente untersucht, ob in diesem menschliche Atemgeräusche oder andere Geräusche zu hören sind, und für jedes Audio-Segment jeweils ein Klassifikationsergebnis zur Verfügung hält,
  • c) zeitgleich aufgenommene Audio-Segmente und Segmente einander zuordnet, und
  • d) nach Audio-Segmenten oder Segmenten mit geringer Atemtiefe oder mit fehlenden Atemgeräuschen sucht und die einem solchen Audio-Segment oder Segment zugeordneten Segmente oder Audio-Segmente ebenfalls auf das Vorliegen geringer Atemtiefe oder fehlender Atemgeräuschen untersucht, und
  • e) für den Fall, dass in einander zugeordneten Segmenten und Audio-Segmenten jeweils geringe Atemtiefe und fehlender Atemgeräusche detektiert wurden, das Fehlen der Atmung der Person feststellt.
In addition, an acoustic control may be provided for improved detection of respiration. Here, it is provided that the processing unit is preceded by a microphone which at the same time holds the sound emitted by the person in the form of an audio signal at its output parallel to the distance of the person and this audio signal is fed to the processing unit. and that the processing unit
  • a) the audio signal divided into a number of audio segments, in particular with a length of 100 ms to 1 second, and examined for each of the audio segments, whether in this human breath sounds or other sounds are heard, and for each Audio segment each has a classification result available,
  • c) assigns simultaneously recorded audio segments and segments, and
  • d) searches for audio segments or segments with low breathing depth or with no breath sounds and also examines the segments or audio segments assigned to such an audio segment or segment for the presence of low breathing depth or lack of breathing noise, and
  • e) in the event that in each associated segments and audio segments each low breathing depth and lack of breath sounds were detected, the lack of respiration of the person detects.

Eine besonders bevorzugte Ausführungsform der Erfindung, die eine Detektion des Beginns und des Endes von Atemaussetzern ermöglicht, sieht vor, dass dass die Verarbeitungseinheit

  • a) ein Klassifikationssignal erstellt, das für jedes Audio-Segment jeweils zumindest ein Klassifikationsergebnis enthält, das die Art und Stärke des jeweiligen Geräuschs im Zeitbereich des jeweiligen Audio-Segment angibt,
  • b) jeweils eine Anzahl von aufeinander folgenden Audio-Segmente zu weiteren Audio-Segmenten, insbesondere mit einer Dauer von 5 bis 10 Sekunden zusammengefasst, die vorzugsweise dieselben Zeitbereiche umfassen wie die Segmente,
  • c) über die innerhalb eines weiteren Audio-Segments enthaltenen Klassifikationsergebnisse eine Mittelung vornimmt und dem weiteren Audio-Segment den jeweilige Mittelwert zuweist,
  • d) ein weiteres Klassifikationssignal durch Interpolation der Mittelwerte der weiteren Audio-Segmente erstellt,
  • e) im weiteren Klassifikationssignal sowie im Atemtiefesignal nach Zeitpunkten sucht, zu denen in den beiden Signalen starke Änderungen auftreten, und die so erkannten Zeitpunkte als umso relevanter eingestuft, je stärker die Änderung des jeweiligen Signals zum jeweiligen Zeitpunkt ist, wobei sie diesen Zeitpunkten jeweils ein diesbezügliches Relevanzmaß zuordnet, und
  • f) jene Zeitpunkten als Startpunkte oder Endpunkte eines Atemstillstandes detektiert, für welche der Betrag des Relevanzwerts über dem Betrag eines Schwellwert liegt, wobei sie insbesondere
  • – der Schwellenwert bildet, indem sie über einen Zeitbereich, insbesondere vor und/oder nach dem Vergleichszeitpunkt mit dem Referenzmaß ein Mittelwert des Referenzmaßes bildet und der Schwellenwert im Bereich zwischen 120% und 200% dieses Mittelwerts festlegt.
A particularly preferred embodiment of the invention, which allows detection of the beginning and end of respiratory misfires, provides that the processing unit
  • a) generates a classification signal which contains for each audio segment at least one classification result which indicates the type and strength of the respective noise in the time domain of the respective audio segment,
  • b) in each case a number of successive audio segments are combined to form further audio segments, in particular having a duration of 5 to 10 seconds, which preferably comprise the same time ranges as the segments,
  • c) averaging over the classification results contained within a further audio segment and assigning the respective average value to the further audio segment,
  • d) creating a further classification signal by interpolation of the mean values of the further audio segments,
  • e) in the further classification signal as well as in the breath depth signal searches for times at which strong changes occur in the two signals, and the times thus identified as all the more relevant, the stronger the change of the respective signal at the respective time, in each case these times assigns relevance measure to this, and
  • f) detects those points in time as starting points or end points of a respiratory arrest for which the magnitude of the relevance value is above the magnitude of a threshold, in particular
  • - The threshold forms by over a time range, in particular before and / or after the comparison time with the reference measurement forms an average of the reference measure and the threshold in the range between 120% and 200% of this average.

Mehrere Ausführungsbeispiele und Varianten der Erfindung werden anhand der folgenden Zeichnungsfiguren näher beschrieben. 1 zeigt ein Bett mit einer schlafenden Person. 2 zeigt eine Ansicht des in 1 dargestellten Betts von oben. 2a zeigt einen Signalverlauf des Signals bei einer Person mit normaler Atmung. 2b zeigt einen Signalverlauf des Signals bei einer Person mit einer Obstruktion der Atmung. In 3 ist eine Folge von Signalen von zeitlich aufeinander folgenden Segmenten dargestellt. 4 und 5 zeigen eine erste Vorgehensweise zur Bestimmung des Betrachtungsbereichs. 6 zeigt ein alternatives Vorgehen zur Bestimmung des Betrachtungsbereichs unter Zuhilfenahme von Objekterkennungsalgorithmen. 7 und 8 zeigen eine dritte Vorgehensweise zur Bestimmung des Betrachtungsbereichs. 9 zeigt eine Kombination eines auf der Auswertung von Höhenprofilen beruhenden Verfahrens mit einem akustischen Verfahren zur Erkennung von Atemaussetzern.Several embodiments and variants of the invention will be described in more detail with reference to the following drawing figures. 1 shows a bed with a sleeping person. 2 shows a view of the in 1 shown bed from above. 2a shows a waveform of the signal in a person with normal breathing. 2 B shows a waveform of the signal in a person with a respiratory obstruction. In 3 is a sequence of signals of temporally successive segments shown. 4 and 5 show a first procedure for determining the viewing area. 6 shows an alternative procedure for determining the viewing area with the aid of object recognition algorithms. 7 and 8th show a third procedure for determining the viewing range. 9 shows a combination of a method based on the evaluation of height profiles with an acoustic method for the detection of respiratory misfires.

In 1 ist ein Bett 10 von der Seite dargestellt. Das Bett 10 verfügt über einen Korpus, eine Matratze 11, ein Kissen 13 und eine Bettdecke 12. Im Bett 10 liegt eine schlafende Person 1, deren Kopf auf dem Kissen 13 liegt und dessen Oberkörper und Beine von der Bettdecke 12 abgedeckt sind.In 1 is a bed 10 shown from the side. The bed 10 has a body, a mattress 11 , a pillow 13 and a blanket 12 , In bed 10 is a sleeping person 1 whose head is on the pillow 13 and his torso and legs are off the comforter 12 are covered.

Oberhalb der Person ist eine Detektoreinheit 20 angeordnet, mit der der Abstand der Person 1 bzw. von einer Vielzahl von Punkten auf der Person von einer vorgegebenen, relativ zur Detektoreinheit 20 ermittelt werden kann. Der Detektoreinheit 20 ist eine Verarbeitungseinheit 50 nachgeschaltet, die die im Folgenden dargestellten numerischen Verarbeitungsschritte durchführt.Above the person is a detector unit 20 arranged with the distance of the person 1 or from a plurality of points on the person of a given, relative to the detector unit 20 can be determined. The detector unit 20 is a processing unit 50 downstream, which performs the numerical processing steps shown below.

Im vorliegenden Fall handelt es sich bei der Detektoreinheit 20 um eine Einheit, die jeweils den Normalabstand eines Punkts auf der Person 1 von einer oberhalb der Person 1 horizontal verlaufenden Referenzebene 21 angibt. Die Detektoreinheit 20 misst den jeweiligen Abstand d1, ..., dn an n unterschiedlichen Positionen, die im vorliegenden Ausführungsbeispiel rasterförmig in Form von Zeilen und Spalten angeordnet sind, und erstellt aufgrund dieser Abstandsmesswerte ein Höhenprofil H.In the present case, the detector unit is 20 to a unit, each the normal distance of a point on the person 1 from one above the person 1 horizontally extending reference plane 21 indicates. The detector unit 20 measures the respective distance d 1 ,..., d n at n different positions, which in the present exemplary embodiment are arranged in the form of a grid in the form of rows and columns, and uses these distance measurement values to produce a height profile H.

Im vorliegenden Ausführungsbeispiel wird zur Erstellung eines Höhenprofils H eine Detektoreinheit 20 verwendet, die etwa 2 Meter über der Person angeordnet ist. Eine solche Detektoreinheit kann auf unterschiedliche Weise aufgebaut sein.In the present embodiment, to create a height profile H, a detector unit 20 used, which is located about 2 meters above the person. Such a detector unit can be constructed in different ways.

In einer ersten Ausführungsvariante kann die Detektoreinheit als Time-Of-Flight Kamera (TOF-Kamera) ausgebildet sein. Diese bestimmt den Abstand zu einem Objekt wird mithilfe der „Flugzeit” eines ausgesendeten Lichtimpulses. Dabei entstehen Abstandsmessungen mit einer lateralen Auflösung, die sich typischerweise ca. im Bereich von 320×240 Pixel bewegt. Die konkrete Funktionsweise einer solchen TOF-Kamera ist aus dem Stand der Technik bekannt und ist in Hansard, M., Lee, S., Choi, O., and Horaud, R. (2013) . Time-of-fight cameras. Springer näher dargestellt.In a first embodiment, the detector unit can be designed as a time-of-flight camera (TOF camera). This determines the distance to an object is determined by the "flight time" of a transmitted light pulse. This results in distance measurements with a lateral resolution, which typically moves approximately in the range of 320 × 240 pixels. The concrete operation of such a TOF camera is known from the prior art and is in Hansard, M., Lee, S., Choi, O., and Horaud, R. (2013) , Time-of-fight cameras. Springer shown in more detail.

Alternativ kann ein Höhenprofil auch mittels Lichtschnittverfahren bestimmt werden. Bei diesen wird mithilfe von einer Lichtquelle, die auf die Person 1 gerichtet ist die Oberfläche trianguliert. Man erhält keine absoluten Abstandsmessungen, sondern lediglich ein Höhenprofil. Da im Rahmen der Erfindung ohnedies keine absoluten Messwerte sondern lediglich die relative Werte wie Varianz bzw. die Änderung der Varianz über die Zeit verwendet werden, können auch Höhenprofile ohne weiteres für die Erfindung verwendet werden. Die folgende Veröffentlichung beschreibt ein System, das Höhenprofile mit einer Framerate von ca. 40 fps und bei einer Auflösung von 640×480 Pixeln liefert: Oike, Y., Shintaku, H., Takayama, S., Ikeda, M., and Asada, K. (2003) . Real-time and high-resolution 3d imaging system using light-section method and smart cmos sensor. In Sensors, 2003. Proceedings of IEEE, volume 1, pages 502–507. IEEE .Alternatively, a height profile can also be determined by means of light-section method. These are made using a light source that focuses on the person 1 directed the surface is triangulated. You do not get absolute distance measurements, but only a height profile. Since, in the context of the invention, no absolute measured values are used in any case, but only the relative values such as variance or the change of the variance over time, height profiles can also easily be used for the invention. The following publication describes a system that provides height profiles at a frame rate of approximately 40 fps and at a resolution of 640 × 480 pixels: Oike, Y., Shintaku, H., Takayama, S., Ikeda, M., and Asada, K. (2003) , Real-time and high resolution 3d imaging system using light-section method and smart cmos sensor. In Sensors, 2003. Proceedings of IEEE, volume 1, pages 502-507. IEEE ,

Eine weitere alternative Methode zur Aufnahme eines Höhenprofils bedient sich einer Radarmessung. Hierfür werden Radarmesseinrichtungen, gegebenenfalls in ihrer Richtung steuerbare Radarmesseinrichtungen, sogenannte Phased Arrays verwendet. Mithilfe von Phasenverschiebungen in dem Radarimpuls im Antennenarray kann der Impuls auf einen gewissen Punkt auf dem Körper der Person 1 gelenkt werden und damit der Raum abgetastet werden. Grundsätzlich kann mit einer solchen Radarmesseinrichtung eine hohe räumliche Auflösung erzielt werden. Es ist auch ohne weiteres möglich, 30 Höhenprofile pro Sekunde zu erzielen. Der konkrete Aufbau solcher Radarmesseinrichtungen ist in Mailloux, R. J. (2005) . Phased array antenna handbook. Artech House Boston beschrieben.Another alternative method for taking a height profile uses a radar measurement. For this purpose, radar measuring devices, possibly in their direction controllable Radarmesseinrichtungen, so-called phased arrays are used. By means of phase shifts in the radar pulse in the antenna array, the impulse can be at some point on the body of the person 1 be steered and thus the room are scanned. In principle, a high spatial resolution can be achieved with such a radar measuring device. It is also easily possible to have 30 height profiles per second achieve. The concrete structure of such Radarmesseinrichtungen is in Mailloux, RJ (2005) , Phased array antenna handbook. Artech House Boston.

2 zeigt eine Ansicht des in 1 dargestellten Betts 10 von oben, wobei an einer Anzahl n von Positionen jeweils der Abstand d1, ..., dn der Person 1 und/oder der die Person 1 überdeckenden Bettdecke 12 und/oder des Kissens 13 von der Referenzebene 21 gemessen wird. Die einzelnen Positionen an denen Messungen vorgenommen werden, sind rasterförmig angeordnet und in 2 durch Kreuze dargestellt. Diese Positionen lassen sich durch die Angabe einer x-Koordinate und einer y-Koordinate eindeutig beschreiben. Aus den einzelnen ermittelten Abständen d1, ..., dn wird laufend zu aufeinander folgenden Aufnahmezeitpunkten t1, ..., tp ein Höhenprofil H der Person 1 erstellt. Im vorliegenden Fall enthält das Höhenprofil die einzelnen ermittelten Abstände d1, ..., dn und wird in Form einer Matrixdatenstruktur zur Verfügung gehalten. 2 shows a view of the in 1 shown bed 10 from above, wherein at a number n of positions in each case the distance d 1 , ..., d n of the person 1 and / or the person 1 covering duvet 12 and / or the pillow 13 from the reference plane 21 is measured. The individual positions at which measurements are taken are arranged in a grid pattern and in 2 represented by crosses. These positions can be clearly described by specifying an x-coordinate and a y-coordinate. From the individual determined distances d 1 ,..., D n , a height profile H of the person is continuously recorded at successive recording times t 1 ,..., T p 1 created. In the present case, the height profile contains the individual determined distances d 1 ,..., D n and is kept available in the form of a matrix data structure.

Eine solche Darstellung des Höhenprofils ist jedoch für die Erfindung aus mehreren Gründen nicht zwingend.However, such a representation of the height profile is not mandatory for the invention for several reasons.

Das Höhenprofil muss nicht notwendigerweise an Punkten den Abstand der Oberfläche der Person oder der Oberfläche eines auf der oder neben der Person befindlichen Gegenstands zu einer Referenzebene 21 geben, die lateral rasterförmig angeordnet sind. Vielmehr ist es auch denkbar, dass die Abstände entlang von vorgegebenen Strahlen, die von der Detektoreinheit ausgehen gemessen werden und dann die vertikalen Abstände von dem jeweiligen Schnittpunkt mit der Oberfläche zur Referenzebene mithilfe des gemessenen Abstandes und des jeweilig verwendeten Messwinkels errechnet werden. Die Winkel der verschiedenen Messstrahlen können dabei so gewählt werden, dass sich bei Auftreffen auf eine Ebene, die parallel zur Referenzebene 21 ist eine rasterförmige Anordnung ergeben würde. Selbst bei dieser sehr speziellen Auswahl von Messstrahlen ergeben sich laterale Messpunkte, deren x- und y-Koordinaten von der regelmäßigen Rasteranordnung in 2 abweichen, sobald die gemessene Oberfläche von einer Ebene abweicht. Da jedoch die Schwankung der Höhe der gemessenen Oberfläche eines auf der oder neben der Person befindlichen Gegenstands im Verhältnis zum Abstand der Detektoreinheit typischerweise klein ist können die lateralen Koordinaten bei obig genannter Anordnung der Messstrahlen annähernd in der Anordnung von 2 und damit in einer Matrixdatenstruktur angenommen werden.The height profile need not necessarily be at points the distance of the surface of the person or the surface of an object located on or next to the person to a reference plane 21 give, which are arranged laterally grid-shaped. Rather, it is also conceivable that the distances along predetermined radiation, which are measured by the detector unit to be measured and then the vertical distances from the respective intersection with the surface to the reference plane using the measured distance and the respective used measuring angle are calculated. The angles of the various measuring beams can be chosen so that when hitting a plane parallel to the reference plane 21 is a grid-shaped arrangement would result. Even with this very special selection of measuring beams, lateral measuring points, whose x and y coordinates are derived from the regular grid arrangement in FIG 2 differ as soon as the measured surface deviates from a plane. However, since the variation of the height of the measured surface of an object located on or near the person in relation to the distance of the detector unit is typically small, the lateral coordinates in the above-mentioned arrangement of the measuring beams can be approximately in the arrangement of 2 and thus assumed in a matrix data structure.

Im Allgemeinen geben die einzelnen Abstandswerte jeweils den Abstand des Schnittpunktes eines relativ zur Detektoreinheit vorab festgelegten, insbesondere von der Detektoreinheit ausgehenden, Strahls mit der Oberfläche der Person (1) oder der Oberfläche eines auf der oder neben der Person (1) befindlichen Gegenstands von einem Referenzpunkt oder einer Referenzebene (21) an.In general, the individual distance values respectively give the distance of the point of intersection of a beam which has been predetermined in advance relative to the detector unit, and in particular emanates from the detector unit, with the surface of the person ( 1 ) or the surface of one on or next to the person ( 1 ) from a reference point or reference plane ( 21 ) at.

Weiters ist es nicht notwendig, dass die einzelnen zur Verfügung stehenden Abstandswerte in einer Matrixdatenstruktur angeordnet sind. Es ist auch möglich, dass eine Datenstruktur mit abweichendem Aufbau gewählt wird und nur Abstände entlang ganz bestimmter Strahlen ermittelt werden.Furthermore, it is not necessary for the individual available distance values to be arranged in a matrix data structure. It is also possible that a data structure with a different structure is selected and only distances along specific rays are determined.

Im Rahmen der Erfindung ist es aber auch möglich, das Höhenprofil in Form einer Punktwolke anzugeben. Die Punktwolke umfasst eine Liste von Punkten jeweils unter Angabe ihrer jeweiligen Koordinaten in drei Dimensionen bezogen auf einen Bezugspunkt im Raum.In the context of the invention, it is also possible to specify the height profile in the form of a point cloud. The point cloud comprises a list of points each indicating their respective coordinates in three dimensions relative to a reference point in space.

Auch andere Darstellungen der Relativposition der Oberfläche der Person 1 oder der Oberfläche eines auf der oder neben der Person 1 befindlichen Gegenstands in Bezug der Detektoreinheit oder zum Raum sind möglich, wenn einzelne Punkte auf dieser Oberfläche bestimmbar sind.Also other representations of the relative position of the surface of the person 1 or the surface of one on or next to the person 1 The object in relation to the detector unit or to the room is possible if individual points on this surface can be determined.

Der von der Detektoreinheit 20 aufgenommene bzw. der von den Positionen abgedeckte Bereich 25 beschränkt sich auf den Körper der Person 1, um möglichst wenige irrelevante Bewegungen der Person 1 oder Bewegungsartefakte zu detektieren.The one from the detector unit 20 the area covered or covered by the positions 25 is limited to the body of the person 1 To minimize the number of irrelevant movements of the person 1 or to detect motion artifacts.

Die Abstandsmesswerte d1, ..., dn des Höhenprofils H werden im Folgenden mit H(x, y, t) bezeichnet, wobei die ersten beiden Koordinaten die räumliche Position bezeichnen und die letzte Koordinate t den Aufnahmezeitpunkt t1, ..., tp bezeichnet. Es wird angenommen, dass x ∊ [0, ..., X] und y ∊ [0, ...‚ Y], das heißt die räumliche Auflösung des Datenstromes ist X × Y. Die dritte Koordinate t steht für die Zeit und bezeichnet den Aufnahmezeitpunkt t1, ... tp, der in Vielfachen der zeitlichen Samplingdichte bzw. Abtastrate, z. B. 1/30 s für 30 Frames/Sekunde, angegeben wird.The distance measurement values d 1 ,..., D n of the height profile H will be referred to below as H (x, y, t), the first two coordinates denoting the spatial position and the last coordinate t the recording time t 1 ,... , t p . It is assumed that x ε [0, ..., X] and y ε [0, ..., Y], that is, the spatial resolution of the data stream is X × Y. The third coordinate t stands for the time and refers to the recording time t 1 , ... t p , in multiples of the temporal sampling density or sampling rate, z. B. 1/30 s for 30 frames / second.

Insgesamt wird im Zuge der Aufnahme eine dreidimensionale Datenstruktur erstellt, bei der für jeden Aufnahmezeitpunkt t1, ..., tp jeweils eine zweidimensionale Matrixdatenstruktur zur Verfügung steht, deren Einträge jeweils dem Abstand der Person 1 von der Referenzebene 21 in einem durch die Position der Einträge in der Matrixdatenstruktur definierten Bereich entsprechen. Jede so erstellte Matrixdatenstruktur ist gleich groß. Alle Matrixdatenstrukturen enthalten jeweils Speicherpositionen für die einzelnen Abstandsmesswerte d1, ..., dn oder für daraus abgeleitete Werte.Overall, a three-dimensional data structure is in the course of recording created in each recording time t 1, ..., t, p is each a two-dimensional matrix data structure available, the Entries each the distance of the person 1 from the reference plane 21 in an area defined by the position of the entries in the matrix data structure. Each matrix data structure created in this way is the same size. All matrix data structures each contain memory positions for the individual distance measurement values d 1 ,..., D n or for values derived therefrom.

In einem optionalen Schritt kann die räumliche Auflösung der Matrixdatenstruktur verringert werden, indem mehrere Einträge der Matrixdatenstruktur zu einem Eintrag einer reduzierten Matrixdatenstruktur zusammengefasst werden. Dies kann im einfachsten Fall bedeuten, dass nur einzelne der Abstandsmesswerte d für die Bildung der reduzierten Matrixdatenstruktur herangezogen werden und die übrigen Abstandsmesswerte verworfen werden. Für ganzzahlige Parameter a und b bekommt man eine reduzierte Matrixdatenstruktur Hr(x, y, t) = H(ax, by, t), deren Speicherbedarf um das (a × b)-fache kleiner ist als der Speicherbedarf der Matrixdatenstruktur.In an optional step, the spatial resolution of the matrix data structure can be reduced by combining a plurality of entries of the matrix data structure into an entry of a reduced matrix data structure. In the simplest case, this can mean that only individual ones of the distance measurement values d are used for the formation of the reduced matrix data structure and the other distance measurement values are discarded. For integer parameters a and b, one obtains a reduced matrix data structure H r (x, y, t) = H (ax, by, t) whose memory requirement is smaller than the memory requirement of the matrix data structure by the (a × b) -fold.

Um ein besseres und robusteres Ergebnis zu bekommen, kann vor der Reduktion der Auflösung die Matrixdatenstruktur geglättet oder gefiltert werden. Dazu berechnet man die zweidimensionale Fouriertransformation von H bezüglich der ersten beiden Koordinaten, multipliziert mit einer Filtertransferfunktion, periodisiert dieses Signal mit den Parametern X/a und Y/b und berechnet dann die inverse Fouriertransformation, um die reduzierte Matrixdatenstruktur zu erhalten. Das vorstehend beschriebene Subsampling ist lediglich ein Spezialfall davon mit einer konstanten Filtertransferfunktion. Auch eine Mittelwertbildung über eine Anzahl von innerhalb von rechteckigen Bereichen der Matrixdatenstruktur der Größe a × b kann mithilfe einer Filterung mit anschließendem Subsampling realisiert werden.To get a better and more robust result, before reducing the resolution, the matrix data structure can be smoothed or filtered. For this, one calculates the two-dimensional Fourier transform of H with respect to the first two coordinates multiplied by a filter transfer function, periodicizes this signal with the parameters X / a and Y / b and then calculates the inverse Fourier transform to obtain the reduced matrix data structure. The subsampling described above is merely a special case thereof with a constant filter transfer function. An averaging over a number of within rectangular areas of the matrix data structure of size a × b can also be realized by means of a filtering followed by subsampling.

In einem weiteren Schritt wird das Aufnahmeintervall, in dem Höhenprofile H erstellt wurden, in vorzugsweise aneinander anschließende und nicht überlappende Zeitabschnitte von 5 bis 10 Sekunden unterteilt. Es werden Segmente S1, ..., Sm erstellt, die die einzelnen ermittelten Matrixdatenstrukturen, die innerhalb eines Zeitabschnitts aufgenommen wurden, enthalten. Alternativ ist es auch möglich, dass die einzelnen Zeitabschnitte überlappen oder dass Höhenprofile einzelner Zeitbereiche in keinem der Segmente S1, ..., Sn enthalten sind.In a further step, the recording interval in which height profiles H were created is subdivided into preferably contiguous and non-overlapping time intervals of 5 to 10 seconds. Segments S 1 ,..., S m are created which contain the individual determined matrix data structures that were recorded within a time interval. Alternatively, it is also possible that the individual time segments overlap or that height profiles of individual time domains are not contained in any of the segments S 1 ,..., S n .

Für jedes der Segmente Si ergibt sich eine Datenstruktur Hi(x, y, t), wobei ∊ [0, ..., X], y ∊ [0, ..., Y] und t ∊ Si. Darüber hinaus werden die Zeitpunkte, zu denen ein Segment beginnt mit T3D,i bezeichnet. Im Folgenden wird beschrieben wie für jeden einzelnen dieser Zeitblöcke Atemaktivität festgestellt werden kann und optional auch die Atemtiefe gemessen werden kann.For each of the segments S i , a data structure H i (x, y, t) results, where ε [0,..., X], y ∈ [0,..., Y] and t ∈ S i . In addition, the times at which a segment begins are designated T 3D, i . In the following it is described how for each of these time blocks respiratory activity can be determined and optionally also the depth of breath can be measured.

Für jedes Segment Si wird ein Betrachtungsbereich 22 ausgewählt, der diejenige Region oder Regionen der Matrixdatenstruktur bezeichnet, in der oder denen eine Atembewegung erwartet wird. Diese kann von Hand voreingestellt werden und über die einzelnen Segmente Si hinweg konstant gewählt werden.For each segment S i becomes a viewing area 22 selected, which indicates the region or regions of the matrix data structure in which a breathing movement is expected. This can be preset by hand and can be selected constantly over the individual segments S i .

Es besteht jedoch auch die Möglichkeit, den Betrachtungsbereich 22 an Bewegungen der Person anzupassen. Da die einzelnen Segmente Si jedoch nur Matrixdatenstrukturen aus Zeitbereichen von etwa 10 Sekunden enthalten, ist eine Anpassung innerhalb eines Segments Si in den meisten Fällen nicht erforderlich. Innerhalb eines Segments Si wird der Betrachtungsbereich 22 üblicherweise konstant angenommen.However, there is also the possibility of the viewing area 22 to adapt to movements of the person. However, since the individual segments S i only contain matrix data structures from time periods of about 10 seconds, an adaptation within a segment S i is not required in most cases. Within a segment S i , the viewing area becomes 22 usually assumed constant.

Die Anpassung des Betrachtungsbereichs 22 für die einzelnen Segmente Si hat den Vorteil, dass eine einfache Detektion der Atmung der Person 1 auch möglich ist, wenn diese sich im Schlaf bewegt. Vorteilhaft wird der Betrachtungsbereich 22 automatisch bestimmt. Weiter unten werden drei verschiedene Techniken beschrieben, um den Betrachtungsbereich 22 für jedes Segment Si automatisch zu adaptieren, um möglichen Bewegungen der Person 1 folgen zu können.The adaptation of the viewing area 22 For the individual segments S i has the advantage that easy detection of the respiration of the person 1 is also possible if this moves in sleep. The viewing area becomes advantageous 22 automatically determined. Below, three different techniques are described to the viewing area 22 for each segment S i automatically adapt to possible movements of the person 1 to be able to follow.

Nachdem der Betrachtungsbereich 22 festgelegt ist, wird ein zeitliches Signal si erstellt, bei dem für jede Matrixdatenstruktur jeweils ein Signalwert si(t) ermittelt wird. Der Signalwert wird im vorliegenden Fall ermittelt, indem für den jeweiligen Zeitpunkt t der Mittelwert der Abstandswerte H(x, y, t) ermittelt wird, deren Position innerhalb des Betrachtungsbereichs 22 liegt. Man erhält auf diese Weise ein Signal si(t), das nur mehr von der Zeit abhängig ist.After the viewing area 22 is fixed, a temporal signal s i is created, in which for each matrix data structure in each case a signal value s i (t) is determined. The signal value is determined in the present case by determining the mean value of the distance values H (x, y, t) for the respective time t, their position within the viewing range 22 lies. This gives a signal s i (t) which depends only more on time.

Dieses Signal s(t) kann eventuell Rauschen enthalten. Um aus diesem verrauschten Signal s(t) die Atmung, sowie optional auch ein Maß für die Atemstärke zu erhalten kann dieses Signal s(t) einer Rauschfilterung unterzogen werden. Eine vorteilhafte Rauschunterdrückung kann beispielsweise erreicht werden, indem Signalanteile mit einer Frequenz von mehr als 1 Hz unterdrückt werden. Alternativ oder zusätzlich kann auch vorgesehen sein, Gleichanteile bzw. Frequenzen bis zu 0.1 Hz zu unterdrücken. Mit dieser Filterung kann erreicht werden, dass nur Frequenzen, die für die Feststellung der Atmung relevant sind übrig bleiben. Das so erhaltene Signal si(t) stimmt mit den tatsächlich durchgeführten Atembewegungen gut überein.This signal s (t) may contain noise. In order to obtain from this noisy signal s (t) the respiration, and optionally also a measure of the respiratory strength, this signal s (t) can be subjected to noise filtering. An advantageous noise suppression can be achieved, for example, by suppressing signal components with a frequency of more than 1 Hz. Alternatively or additionally, it may also be provided to suppress DC components or frequencies up to 0.1 Hz. With this filtering can be achieved that only frequencies that are relevant for the determination of respiration are left. The signal s i (t) thus obtained agrees well with the actually performed breathing movements.

Die Atemtiefe T kann besonders vorteilhaft von diesem Signal s(t) abgeleitet werden. Hierfür gibt es eine Vielzahl an Möglichkeiten, von denen zwei näher dargestellt werden. 2a zeigt einen ersten Signalverlauf des Signals s(t), wobei innerhalb des Signalverlaufs nach einem Minimum smin und nach einem Maximum smax gesucht wird. Anschließend wird die Differenz Δ zwischen dem Minimum smin und einem Maximum smax gebildet und diese Differenz Δ als Maß für die Atemtiefe T herangezogen.The breathing depth T can be derived particularly advantageously from this signal s (t). There are many possibilities for this, two of which are described in more detail. 2a shows a first waveform of the signal s (t), wherein within the waveform for a minimum s min and a maximum s max is searched. Subsequently, the difference Δ between the minimum s min and a maximum s max is formed and this difference Δ is used as a measure for the breathing depth T.

Wie aus 2b ersichtlich, ist die Atmung der Person 1 wesentlich schwächer als bei dem in 2a dargestellten Signal. Aus diesem Grund ist auch die Differenz Δ zwischen dem Minimum smin und einem Maximum smax kleiner als bei dem in 2a dargestellten Signal.How out 2 B Obviously, is the breathing of the person 1 much weaker than the one in 2a represented signal. For this reason, the difference Δ between the minimum s min and a maximum s max is smaller than in the 2a represented signal.

Sofern innerhalb eines Signals mehrere lokale Maxima und Minima aufgefunden werden, ist es auch möglich, als Atemtiefe T die größte Differenz zwischen je einem Minimum und dem jeweils nächstfolgenden lokalen Maximum heranzuziehen.If a plurality of local maxima and minima are found within a signal, it is also possible to use the greatest difference between a minimum and the respectively following local maximum as the breathing depth T.

Alternativ ist es auch möglich, dass das Signal einer spektralen Transformation, insbesondere Fourier-Transformation, Cosinustransformation oder Wavelet-Transformation, unterworfen wird. Innerhalb eines vorgegebenen Frequenzbands, insbesondere von 0,1 Hz bis 1 Hz, wird nach demjenigen Spektralanteil mit der höchsten Signalenergie gesucht. Die Signalenergie dieses Spektralanteils wird zur Charakterisierung der Atemtiefe T in diesem Segment herangezogen.Alternatively, it is also possible for the signal to be subjected to a spectral transformation, in particular Fourier transformation, cosine transformation or wavelet transformation. Within a given frequency band, in particular from 0.1 Hz to 1 Hz, the spectral component with the highest signal energy is searched for. The signal energy of this spectral component is used to characterize the breathing depth T in this segment.

In 3 ist eine Folge von Signalen si(t) von zeitlich aufeinander folgenden Segmenten Si dargestellt, wobei während der Segmente S3 und S4 ein Atemaussetzer der Person 1 vorliegt. Weiters ist in 3 jeweils auch über derselben Zeitachse die Atemtiefe Ai für das jeweilige Segment Si dargestellt sowie eine Interpolationskurve T(t), die die Atemtiefe T für sämtliche Zeitpunkte innerhalb der dargestellten Segmente S1, ..., S7 angibt. Klar ersichtlich ist, dass die Werte A1, ..., A7 für die Atemtiefe während des Atemaussetzers in den Segmenten S3 und S4 gegenüber den übrigen Segmenten deutlich verringert sind.In 3 is a sequence of signals s i (t) of temporally successive segments S i shown, wherein during the segments S 3 and S 4 a breathing misfire the person 1 is present. Furthermore is in 3 the respiratory depth A i shown in each case also on the same time axis for each segment S i as well as an interpolation curve T (t) indicating the depth of breathing T for all time points within the illustrated segments S 1, ..., S. 7 It can clearly be seen that the values A 1 ,..., A 7 for the respiratory depth during the respiratory misfire in segments S 3 and S 4 are markedly reduced compared with the other segments.

Im Folgenden werden einzelne mögliche Vorgehensweisen zur automatischen Erkennung des Betrachtungsbereichs 22 innerhalb eines Segments Si gezeigt.The following are individual possible ways to automatically detect the viewing area 22 shown within a segment S i .

Bei einer ersten Vorgehensweise (4) werden einzelne mögliche Betrachtungsbereiche R1,1, ... vorgegeben. Anschließend wird gemäß den vorstehend genannten Methoden jeweils die Atemtiefe T in sämtlichen möglichen Betrachtungsbereiche R1,1, ... ermittelt. In 5 sind einzelne Signale s3,4, s2,3 und s3,3 gezeigt, die auf Grundlage der möglichen Betrachtungsbereiche R3,4, R2,3 und R3,3 erstellt wurden. Da der möglichen Betrachtungsbereich R3,3 genau den Brustkorbbereich der Person 1 abbildet, sind auch die Signalamplituden in diesem möglichen Betrachtungsbereich R3,3 größer als in den beiden anderen Betrachtungsfenstern R3,4, R2,3, die den Kopf bzw. die Arme der Person 1 abbilden. Aus diesem Grund wird der mögliche Betrachtungsbereich R3,3 als Betrachtungsbereich 22 für das jeweilige Segment Si ausgewählt.In a first approach ( 4 ) individual possible viewing ranges R 1,1 , ... are given. Subsequently, in each case the breathing depth T is determined in all possible viewing ranges R 1,1 ,... According to the methods mentioned above. In 5 For example, individual signals s 3,4 , s 2,3 and s 3,3 are shown, which were created on the basis of the possible viewing ranges R 3,4 , R 2,3 and R 3,3 . Since the possible viewing area R 3,3 exactly the chest area of the person 1 The signal amplitudes in this possible viewing area R 3,3 are also greater than in the other two viewing windows R 3,4 , R 2,3 , which are the person's head and arms, respectively 1 depict. For this reason, the possible observation range R 3,3 becomes the observation range 22 selected for the respective segment S i .

Die Position und Größe des Betrachtungsbereichs R3,3 kann noch verbessert werden, indem versucht wird, die Eckpunkte des den Betrachtungsbereich festlegenden Rechtecks zu verschieben und die Atemtiefe T unter Zugrundelegung dieses modifizierten Betrachtungsbereichs erneut zu berechnen. Durch Variation der Eckpunkte des Betrachtungsbereichs kann dieser adaptiv so lange verbessert werden, bis eine Erhöhung der ermittelten Atemtiefe durch Verschiebung der Eckpunkte nicht mehr erreicht werden kann.The position and size of the viewing area R 3,3 can be further improved by attempting to shift the vertices of the rectangle defining the viewing area and recomputing the breathing depth T based on this modified viewing area. By varying the corner points of the viewing area, this can be adaptively improved until it is no longer possible to increase the determined breathing depth by displacing the corner points.

Eine weitere, in den 6 dargestellte Vorgehensweise zur Bestimmung des Betrachtungsbereichs 22 kann mittels Objekterkennung vorgenommen werden. Zunächst wird in einer oder mehreren der Matrixdatenstrukturen des Segments Si mittels Objekterkennung nach Bereichen 31, 32 gesucht, die einem menschlichen Kopf und Oberkörper bzw. Torso entsprechen. Der den Torso abbildende Bereich 32 der Matrixdatenstruktur oder ein Teilbereich dieses Bereichs kann als Betrachtungsbereich 22 ausgewählt werden.Another, in the 6 illustrated procedure for determining the viewing area 22 can be done by means of object recognition. First, in one or more of the matrix data structures of the segment S i, by means of object recognition, regions are determined 31 . 32 searched, which correspond to a human head and torso or torso. The torso imaging area 32 The matrix data structure or a subarea of this area can be used as a viewing area 22 to be selected.

Zur Detektion der Brustatmung kann der dem Kopf 31 nahe Teilbereich 33 dieses Bereichs 32 als Betrachtungsbereich 22 ausgewählt werden. Zur Detektion der Bauchatmung kann der dem Kopf 31 ferne Teilbereich 34 dieses Bereichs 32 als Betrachtungsbereich 22 ausgewählt werden.For the detection of the chest breathing the head can 31 near subarea 33 this area 32 as a viewing area 22 to be selected. For the detection of the abdominal breathing can be the head 31 distant subarea 34 this area 32 as a viewing area 22 to be selected.

Für die Objekterkennung kommen mehrere verschiedene Bildverarbeitungsmethoden in Frage. Ziel der bekannten Objekterkennungsverfahren ist es, die Umrisse eines menschlichen Körpers automatisch oder halbautomatisch, d. h. zum Teil mit menschlicher Unterstützung, in einem 3D Bild oder Höhenprofil zu erkennen. Ein solches Vorgehen ist in den folgenden Veröffentlichungen beschrieben:
Gabriele Fanelli, Juergen Gall, and Luc Van Gool. Real time head pose estimation with random regression forests. In Computer Vision and Pattern Recognition (CVPR), pages 617–624, June 2011 .
Jamie Shotton, Ross Girshick, Andrew Fitzgibbon, Toby Sharp, Mat Cook, Mark Finocchio, Richard Moore, Pushmeet Kohli, Antonio Criminisi, Alex Kipman, et al. Efficient human pose estimation from single depth images. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 35(12): 2821–2840, 2013 .
For the object recognition several different image processing methods come into question. The object of the known object recognition methods is to automatically or outlines the contours of a human body Semi-automatic, ie partly with human support, to recognize in a 3D image or height profile. Such a procedure is described in the following publications:
Gabriele Fanelli, Juergen Gall, and Luc Van Gool. Real time head pose estimation with random regression forests. In Computer Vision and Pattern Recognition (CVPR), pages 617-624, June 2011 ,
Jamie Shotton, Ross Girshick, Andrew Fitzgibbon, Toby Sharp, Mat Cook, Mark Finocchio, Richard Moore, Pushmeet Kohli, Antonio Criminisi, Alex Kipman, et al. Efficient human pose estimation from single depth images. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 35 (12): 2821-2840, 2013 ,

Bei der Detektion von Körperstrukturen mittels Objekterkennung kommen statistische Lernmethoden zum Einsatz. Während die erste Veröffentlichung darauf abzielt die Haltung des Kopfes zu bestimmen, zielt die zweite Veröffentlichung darauf ab den Körper und im Speziellen die Gelenke zu lokalisieren. Mit beiden Verfahren kann auch die Position des Kopfes und des Torsos in dem Höhenprofil H bestimmt werden.In the detection of body structures by means of object recognition statistical learning methods are used. While the first publication aims to determine the posture of the head, the second publication aims to localize the body and, in particular, the joints. With both methods, the position of the head and the torso in the height profile H can be determined.

Eine weitere Möglichkeit besteht darin, das Höhenprofil H des Kopfes zunächst manuell festzulegen und dann in jedem Segment Si mithilfe einer Korrelation festzustellen, wo sich der Kopf zu dieser Zeit befindet. Auf die gleiche Weise kann auch der Torso in jedem Segment Si bzw. in jeder Matrixdatenstruktur innerhalb eines Segments Si gefunden werden. Ist die Lage des Torso und des Kopfes bekannt ist es einfach, den Torso in Brust und Bauchregion zu unterteilen. Dadurch kann man Atmung sowohl in der Brust, als auch in der Bauchgegend separat detektieren. Die gleiche Segmentierung des Körpers der Person kann mithilfe vieler verschiedener Algorithmen realisiert werden.Another possibility is to first manually set the height profile H of the head and then to determine in each segment S i by means of a correlation where the head is at that time. In the same way, the torso can also be found in each segment S i or in each matrix data structure within a segment S i . If the position of the torso and head is known, it is easy to divide the torso into the chest and abdominal region. This allows one to separately detect respiration both in the chest and in the abdomen. The same segmentation of the person's body can be realized using many different algorithms.

Kann in einem der Segmente Si ein Betrachtungsbereich 22 identifiziert werden, so kann in den meisten Fällen mit geringem Aufwand der Betrachtungsbereich 22 in dem Segment Si+1 identifiziert werden, das diesem Segment Si unmittelbar nachfolgt. Bei beiden vorab dargestellten Vorgehensweisen erleichtert die Kenntnis der ungefähren Position des Abbilds des Bauch- oder Brustbereichs das Auffinden des Bauch- oder Brustbereichs im jeweils nächsten Segment Si+1.Can in one of the segments S i a viewing area 22 can be identified, in most cases with little effort of the viewing area 22 in the segment S i + 1 which immediately follows this segment S i . In both of the above-described procedures, knowledge of the approximate position of the image of the abdominal or thoracic region facilitates locating the abdominal or thoracic region in the respective next segment S i + 1 .

In 7 und 8 ist eine dritte Möglichkeit zum Auffinden des Bauch- oder Brustbereichs der Person als Betrachtungsbereich 22 dargestellt. In einem ersten Schritt wird für sämtliche Einträge der Matrixdatenstruktur separat die Varianz der Werte über das jeweilige Segment Si bestimmt. Anschließend wird derjenige Bereich oder werden zusammenhängende Bereiche von Einträgen innerhalb der Matrixdatenstruktur als Betrachtungsbereich 22 ausgewählt, deren jeweilige Varianzen oberhalb eines unteren Schwellenwerts oder innerhalb eines vorgegebenen Intervalls liegen. 7 zeigt einen Schnitt durch ein Höhenprofil einer Person entlang der Schnittlinie VII-VII aus 2. Die strichlierte Linie stellt den zeitlichen Mittelwert der einzelnen Abstandswerte an der jeweiligen Position dar. Die Pfeile zeigen die Varianz an der jeweiligen Position. Es zeigt sich, dass im Bereich der Brust und im Bereich des Bauchs der Person größere Varianzen auftreten als im Rest des Körpers. Diese Bereiche werden als Betrachtungsbereiche 22a, 22b ausgewählt.In 7 and 8th is a third way to find the abdominal or chest area of the person as a viewing area 22 shown. In a first step, the variance of the values over the respective segment S i is determined separately for all entries of the matrix data structure. Subsequently, the region or contiguous regions of entries within the matrix data structure becomes a viewing region 22 whose respective variances are above a lower threshold or within a predetermined interval. 7 shows a section through a height profile of a person along the section line VII-VII 2 , The dashed line represents the time average of the individual distance values at the respective position. The arrows show the variance at the respective position. It turns out that in the area of the chest and in the area of the person's belly more variances occur than in the rest of the body. These areas are called viewing areas 22a . 22b selected.

Um Fehldetektionen durch einzelne Artefakte vermeiden zu können, werden als Betrachtungsbereich ausschließlich zusammenhängende Bereiche 22a, 22b der Matrixdatenstruktur ausgewählt, deren Größe eine vorgegebene Anzahl von Einträgen übersteigt.In order to be able to avoid misdetection by individual artefacts, only contiguous areas are used as the viewing area 22a . 22b of the matrix data structure whose size exceeds a predetermined number of entries.

Diese Variante der Ermittlung des Betrachtungsbereichs 22 erlaubt auch die Detektion von Positionsänderungen der Person sowie von Messfehlern. Wird der Betrachtungsbereich 22 in zwei oder mehreren aufeinander folgenden Segmenten Si, ... separat ermittelt, so kann ein Höhenprofil verworfen werden und eine Fehlermeldung ausgegeben werden, wenn sich die Größe und der Schwerpunkt eines Betrachtungsbereichs 22a, 22b, gegenüber dem entsprechenden Betrachtungsbereich 22a, 22b im jeweils vorangehenden Segment Si um einen vorgegebenen Schwellenwert verschiebt oder ändert.This variant of determining the viewing area 22 also allows the detection of position changes of the person as well as measurement errors. Will the viewing area 22 in two or more consecutive segments S i , ... determined separately, so a height profile can be discarded and an error message is issued when the size and the center of gravity of a viewing area 22a . 22b , opposite the corresponding viewing area 22a . 22b in the respective preceding segment S i shifts or changes by a predetermined threshold.

Es ist natürlich auch möglich, die vorstehend genannten Vorgehensweisen zur Bestimmung des Betrachtungsbereichs 22 zu kombinieren. Zum Beispiel kann mithilfe der Bildverarbeitungsmethoden zur Objekterkennung der Torso bestimmt werden und dann innerhalb dieses Bereichs nur diejenigen Einträge ausgewählt werden, für die eine signifikante Bewegung mithilfe der Varianz detektiert wurde. Alternativ ist es auch möglich, mehrere verschiedene mögliche Betrachtungsbereiche 22 auszuwählen und dann denjenigen Betrachtungsbereich 22, mit dem die größte Atemtiefe ermittelt wurde, zur Atemdetektion heranzuziehen.Of course, it is also possible to use the aforementioned procedures for determining the viewing range 22 to combine. For example, using the image-recognition methods for object recognition, the torso can be determined and then within that range only those entries can be selected for which a significant movement was detected using the variance. Alternatively, it is also possible to have several different possible viewing ranges 22 and then that viewing area 22 , which was used to determine the greatest breathing depth, should be used for respiratory detection.

In den dargestellten Ausführungsbeispielen wurde stets ein Höhenprofil verwendet, das in einer Matrixdatenstruktur abgespeichert ist. Die Erfindung erlaubt jedoch auch alternative Ausführungsformen, bei denen die Höhenprofile jeweils nur eine Anzahl von im Raum befindlichen Punkten festlegen. Es ist nicht erforderlich, dass die jeweiligen Punkte explizit durch Koordinaten festgelegt werden, solange der jeweilige Punkt aufgrund der Angaben im Höhenprofil H im Raum eindeutig festlegbar ist. Bei den vorliegenden Ausführungsbeispielen ist dies implizit durch die konkrete Position, an der der Abstand der Person 1 bestimmt wird, gegeben.In the illustrated embodiments, a height profile was always used, which is stored in a matrix data structure. However, the invention also allows alternative embodiments in which the height profiles each set only a number of points in space. It is not necessary that the respective points be explicitly determined by coordinates as long as the respective point is due the information in height profile H in space is clearly defined. In the present embodiments, this is implied by the concrete position at which the distance of the person 1 is determined, given.

Alternativ ist es auch möglich, das Höhenprofil durch eine Punktwolke anzugeben, d. h. im Wesentlichen eine Liste von Punkten im Raum anzugeben. In einem solchen Fall kann der Betrachtungsbereich 22 als dreidimensionaler Bereich festgelegt werden, der sich im Brust- bzw. Bauchbereich der Person 1 befindet. Für die Bildung des jeweiligen Mittelwerts werden lediglich Punkte herangezogen, die sich innerhalb des jeweiligen Betrachtungsbereichs 22 befinden. Um sämtliche Hebungen und Senkungen des Brust- bzw. Bauchbereichs der Person 1 abzudecken, kann als Betrachtungsbereichs 22 ein Bereich gewählt werden, der auch ein über dem Brust- bzw. Bauchbereich liegendes Volumen bis etwa 10 cm über dem Brust- bzw. Bauchbereich umfasst.Alternatively, it is also possible to specify the height profile by means of a point cloud, ie to essentially specify a list of points in the space. In such a case, the viewing area 22 be defined as a three-dimensional area located in the chest or abdomen of the person 1 located. For the formation of the respective mean only points are used, which are within the respective viewing range 22 are located. To all elevations and subsidence of the chest or abdomen of the person 1 can cover, as a viewing area 22 an area may be selected that also includes a volume above the chest or abdomen area to about 10 cm above the chest or abdominal area.

Eine bevorzugte Ausführungsform der Erfindung bietet auch die Möglichkeit, die Atemtiefe und Atmung der Person 1 parallel zu den Höhenprofilen durch akustische Aufnahmen zu ermitteln. In 1 ist ein optionales Mikrofon 40 dargestellt, mit dem ein Audio-Signal sa aufgenommen wird. Das vom Mikrofon 40 erstellte Audio-Signal sa wird digitalisiert und mit einer vorgegebenen Abtastrate abgespeichert und zur Verfügung gehalten. Das Mikrofon ist an die Verarbeitungseinheit 50 angeschlossen.A preferred embodiment of the invention also offers the possibility of breathing depth and breathing of the person 1 parallel to the height profiles by acoustic recordings. In 1 is an optional microphone 40 represented, with which an audio signal s a is recorded. The microphone 40 created audio signal s a is digitized and stored at a predetermined sampling rate and kept available. The microphone is connected to the processing unit 50 connected.

Das Audio-Signal sa wird zuerst in Audio-Segmente Sa mit einer vorgegebenen Länge von etwa 200 ms unterteilt. Diese Audio-Segmente Sa können sich im Allgemeinen auch überlappen, im vorliegenden Fall werden jedoch aneinander anschließende, nicht überlappende Audio-Segmente Sa gewählt.The audio signal s a is first divided into audio segments S a with a predetermined length of about 200 ms. These audio segments S a may generally also overlap, but in the present case contiguous, non-overlapping audio segments S a are selected.

Optional können die Audio-Segmente Sa mit einer Fensterfunktion multipliziert werden, um bei den weiter unten beschriebenen Fourier-Methoden Randeffekte zu vermeiden. Darüber hinaus wird mit jedem Audio-Segment Sa auch ein Zeitpunkt Taudio,i verknüpft, der angibt, zu welchem Zeitpunkt das Segment fi beginnt.Optionally, the audio segments S a may be multiplied by a window function to avoid edge effects in the Fourier methods described below. In addition, a time T audio, i is also associated with each audio segment S a , which indicates at which time the segment f i starts.

Jedes der Audio-Segmente SAi wird einer Klassifikation zugeführt, mit der erkannt wird, ob im jeweiligen Audio-Segment SAi kein Geräusch, ein Hintergrundgeräusch H, ein Atmungsgeräusch oder ein Schnarchgeräusch A/S zu hören ist. Für jedes Audio-Segment SAi wird jeweils ein Klassifikationsergebnis erstellt, das ja nachdem, ob kein Geräusch, ein Hintergrundgeräusch, ein Atmungsgeräusch oder ein Schnarchgeräusch zu hören ist, einen diesbezüglichen Wert N, H, A/S (9) aufweist. Die Klassifikationswegebnisse werden zu einem diskreten zeitlichen Klassifikationssignal A(t) zusammengefasst.Each of the audio segments S Ai is supplied to a classification with which it is detected whether in the respective audio segment S Ai no noise, a background noise H, a respiratory noise or a snore sound A / S can be heard. For each audio segment S Ai , a classification result is produced which, depending on whether no noise, a background noise, a respiratory noise or a snoring sound can be heard, has a corresponding value N, H, A / S ( 9 ) having. The classification results are combined into a discrete temporal classification signal A (t).

Im Folgenden wird beschrieben, wie man mit statistischen Lernmethoden jedes dieser einzelnen Audio-Segmente SAi auf das Vorhandensein von Schnarchgeräuschen untersuchen kann.The following describes how to use statistical learning methods to examine each of these individual audio segments S Ai for the presence of snoring sounds.

In einem ersten Schritt kann zur Detektion von Schnarchgeräuschen in den einzelnen Audio-Segmenten SAi aus den Audio-Segmenten SAi ein Merkmalsvektor mi extrahiert werden. Der Merkmalsvektor mi für das i-te Segment Audio-Segment SAi wird direkt aus den Abtastwerten des jeweiligen Audio-Segments SAi berechnet. Der i-te Merkmalsvektor mi kann von verschiedener Dimension sein, je nachdem welche Methoden zum Einsatz kommen, um die Merkmale zu berechnen. Im Folgenden werden einige verschiedene Techniken aufgezählt, die verwendet werden können, um Merkmale zu generieren.In a first step, a feature vector m i can be extracted from the audio segments S Ai to detect snoring sounds in the individual audio segments S Ai . The feature vector m i for the ith segment audio segment S Ai is calculated directly from the samples of the respective audio segment S Ai . The i-th feature vector m i can be of various dimensions, depending on which methods are used to calculate the features. Below are a few different techniques that can be used to generate features.

Mithilfe der Fourier-Transformation eines Audio-Segments SAi kann eine Spektralanalyse des jeweiligen Audio-Segments SAi durchgeführt werden. Als Merkmale werden die Energien in gewissen Frequenzbändern verwendet, also die Summe der Betragsquadrate der Fourierkoeffizienten über gewisse vorspezifizierte Bänder. Dadurch erhält man für jedes Audio-Segment SAi einen Vektor mit einer Länge, die festgelegt ist durch die Anzahl der Bänder. Wird dieser Vektor noch einmal diskret Cosinus-transformiert, so erhält man ein weiteres mögliches Set an Koeffizienten des Merkmalsvektors mi.By means of the Fourier transformation of an audio segment S Ai , a spectral analysis of the respective audio segment S Ai can be carried out. As characteristics, the energies in certain frequency bands are used, that is the sum of the squares of the Fourier coefficients over certain prespecified bands. This gives, for each audio segment S Ai, a vector with a length determined by the number of bands. If this vector is discretely cosine transformed once again, one obtains another possible set of coefficients of the feature vector m i .

Ein weiteres mögliches Merkmal eines Merkmalsvektors mi ist die Energie in einem Audio-Segment SAi. Darüber hinaus kann auch die Anzahl der Nulldurchgänge, also die Anzahl der Vorzeichenwechsel in einem Audio-Segment SAi als mögliches Merkmal eines Merkmalsvektors mi herangezogen werden.Another possible feature of a feature vector m i is the energy in an audio segment S Ai . In addition, the number of zero crossings, that is to say the number of sign changes in an audio segment S Ai, can also be used as a possible feature of a feature vector m i .

Nachdem festgelegt ist, wie sich die Merkmalsvektoren mi zusammensetzen, wird eine statistische Lernmethode ausgewählt. Hierfür steht eine große Anzahl an möglichen Methoden im Stand der Technik zur Verfügung, daher wird hier nicht näher auf die verschiedenen Optionen eingegangen. Diese Methoden erlauben es, ein Audio-Segment SAi anhand eines Merkmalsvektors mi als Schnarchgeräusch zu identifizieren. Dazu wird der Merkmalsraum in eine Menge von Punkten unterteilt, die dem Schnarchen zugeordnet werden und in den Rest, der als Nicht-Schnarchen klassifiziert wird. Um diese Klassifikation vornehmen zu können, werden diese Algorithmen zuerst anhand bekannter Schnarchgeräusche trainiert, das heißt es werden manuell Audio-Segmente mit Schnarchgeräuschen ausgewählt, die Merkmalsvektoren mi davon berechnet und dann wird der Klassifikations-Algorithmus damit trainiert. Implementierungen von allen verwendeten statistischen Lernmethoden sind frei verfügbar und bereits implementiert.After determining how the feature vectors m i are composed, a statistical learning method is selected. There are a large number of possible methods available in the state of the art for this, therefore, the various options will not be discussed in more detail here. These methods make it possible to identify an audio segment S Ai as a snore noise on the basis of a feature vector m i . For this purpose, the feature space is subdivided into a set of points that are assigned to the snore and the remainder, which is classified as non-snoring. In order to be able to perform this classification, these algorithms are first trained on the basis of known snore sounds, that is, they are manual Audio segments are selected with snoring sounds, the feature vectors m i calculated by it and then the classification algorithm is trained with it. Implementations of all statistical learning methods used are freely available and already implemented.

Mithilfe der oben erwähnten Klassifikationsverfahren ist es möglich, festzustellen, welche Audio-Segmente SAi Schnarchgeräusche enthalten. In einem durchschnittlichen Schnarchsignal sind jedoch zwischen den lauten Phasen oft auch ruhige Zeitspannen, da oft nur beim Einatmen geschnarcht wird, wie dies in 9 gezeigt ist. Um die gesamte Schnarchphase und auch Ruhesegmente zwischen den lauten Episoden korrekt einem Schnarchen zuordnen zu können, werden an der i-ten Stelle mehrere Segmente vorher und nachher betrachtet. Sind in dieser Menge mehr Segmente mit Schnarchgeräuschen als ein gewisser Schwellwert, so wird zum Zeitpunkt Taudio,i Schnarchen detektiert.Using the above-mentioned classification methods, it is possible to determine which audio segments S Ai contain snoring sounds. In an average snore signal, however, quiet periods are often between the loud phases, as often snored only by inhalation, as in 9 is shown. To correctly snore the entire snoring phase as well as resting segments between the loud episodes, several segments before and after are considered at the i-th point. If there are more segments with snoring noise in this quantity than a certain threshold, snoring is detected at time T audio, i .

Das Ziel, aufgenommene Geräusche zu klassifizieren, um Atemgeräusche wie Schnarchen und Atmen von anderen eventuell auftretenden Hintergrundgeräuschen unterscheiden zu können, kann mit aus dem Stand der Technik bekannten Methoden gelöst werden. Solche Verfahren sind insbesondere aus den folgenden Veröffentlichungen bekannt:
Hisham Alshaer, Aditya Pandya, T Douglas Bradley, and Frank Rudzicz. Subject independent identification of breath sounds components using multiple classifiers. In Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on, pages 3577–3581. IEEE, 2014 .
The goal of classifying recorded sounds to distinguish breath sounds such as snoring and breathing from other background sounds that may occur, can be solved by methods known in the art. Such methods are known in particular from the following publications:
Hisham Alshaer, Aditya Pandya, T Douglas Bradley, and Frank Rudzicz. Subject independent identification of breath sounds components using multiple classifiers. In Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on, pages 3577-3581. IEEE, 2014 ,

Es werden verschiedene statistische Lernmethoden verwendet, um die aufgenommenen Geräusche in verschiedene Kategorien einteilen zu können. Im ersten Paper wird das Mikrofon in einer Maske am Gesicht des Patienten fixiert, dadurch gibt es kaum Hintergrundgeräusche, bzw. sind diese vernachlässigbar. In dieser Publikation werden die aufgenommenen Geräusche in einatmen, ausatmen, schnarchen und keuchen eingeteilt. Es wird dazu eine Vielzahl an verschiedenen Merkmalen generiert, mit denen die gewählte Lernmethode arbeitet.
M Cavusoglu, M Kamasak, O Erogul, T Ciloglu, Y Serinagaoglu, and T Akcam. An efficient method for snore/nonsnore classification of sleep sounds. Physiological measurement, 28(8): 841, 2007 .
Various statistical learning methods are used to divide the recorded sounds into different categories. In the first paper, the microphone is fixed in a mask on the face of the patient, so there are hardly any background noise, or these are negligible. In this publication, the recorded sounds are inhaled, exhaled, snore and wheeze. It is generated to a variety of different characteristics, with which the selected learning method works.
M Cavusoglu, M Kamasak, O Erogul, T Ciloglu, Y Serinagaoglu, and T Akcam. An efficient method for snoring / non-classification of sleep sounds. Physiological measurement, 28 (8): 841, 2007 ,

Auch in dieser Veröffentlichung werden statistische Lernmethoden verwendet, um die aufgenommenen Geräusche in verschiedene Kategorien einteilen zu können. Das Mikrofon ist ca. 15 cm vom Kopf der Testperson entfernt und die aufgenommenen Geräusche werden in ”Schnarchen” bzw. ”Nicht Schnarchen” unterteilt.Also in this publication, statistical learning methods are used to divide the recorded sounds into different categories. The microphone is about 15 cm from the subject's head and the recorded sounds are divided into "snoring" and "not snoring".

In 9 sind Schnarchgeräusche Xs beim Ausatmen dargestellt, wobei zwischen diesen Schnarchgeräuschen Xs auch Hintergrundgeräusche XH aufgenommen werden. Aufgrund der dargestellten Klassifikation kann jedem der Audio-Segmente SAi jeweils ein Klassifikationswert Ka zugeordnet werden, der im obersten Bereich der 9 dargestellt ist.In 9 are snore sounds X s shown exhaling, between these snoring sounds X s and background noise X H are recorded. On the basis of the illustrated classification, each of the audio segments S Ai can be assigned a classification value K a , which in the uppermost region of the 9 is shown.

Optional können je nach Qualität des Audio-Signals und Levels der Hintergrundgeräusche die Schnarchgeräusche noch genauer in Unterklassen, wie z. B. pathologisch und nicht pathologisch, eingeteilt werden. Unter sehr günstigen Bedingungen kann auch Atmen als separates Geräusch klassifiziert werden und dessen Stärke ermittelt werden.Optionally, depending on the quality of the audio signal and levels of background noise, the snoring sounds can be more accurately subclassed, such as sub-classes. B. pathological and non-pathological. Under very favorable conditions, breathing can also be classified as a separate noise and its strength can be determined.

In 9 ist das Ergebnis einer verbesserten Ausführungsform der Erfindung näher dargestellt, bei dem sowohl die Ergebnisse der Auswertung der Höhenprofile als auch die Ergebnisse der akustischen Schnarchanalyse in die Bewertung der Atmungsaktivität eingehen. Typischerweise sind die Segmente Si und die Audio-Segmente SAi miteinander nicht zeitlich korreliert.In 9 is the result of an improved embodiment of the invention shown in more detail, in which both the results of the evaluation of the height profiles as well as the results of the acoustic snoring analysis enter into the evaluation of the breathability. Typically, the segments S i and the audio segments S Ai are not time correlated with each other.

Aus diesem Grund werden zeitgleich aufgenommene Audio-Segmente SAi und Segmente Si einander zunächst aufgrund ihres jeweiligen Aufnahmezeitpunkts einander zugeordnet. Für jedes Segment Si stehen typischerweise mehrere Audio-Segmente SAi zur Verfügung, die während der Zeitspanne des Segments aufgenommen wurden.For this reason, simultaneously recorded audio segments S Ai and segments S i are initially assigned to one another on the basis of their respective recording time. For each segment S i, there are typically several audio segments S Ai available that were recorded during the period of the segment.

Im vorliegenden Ausführungsbeispiel der Erfindung wird nach Segmenten Si mit geringer Atemtiefe T gesucht. Den in 9 dargestellten Daten kann entnommen werden, dass im Segment S3 eine Atemtiefe T vorliegt, die wesentlich geringer ist als in den beiden vorangehenden Segmenten S1, S2. Anschließend wird in allen diesem Segment S3 zugeordneten Audio-Segmenten SAi nach fehlenden Atemgeräuschen gesucht. Hier kann festgestellt werden, dass sich in den Audio-Segmenten SAi, die gleichzeitig mit dem Segment S3 aufgenommen wurden, keine Schnarch- oder Atemgeräusche sondern lediglich Hintergrundgeräusche XH vorhanden sind. Da also einerseits eine geringe Atemtiefe erkannt wurde und andererseits auch keine Schnarch- oder Atemgeräusche festgestellt werden konnten, ist davon auszugehen, dass die betreffende Person nicht atmet.In the present embodiment of the invention, segments S i with low breathing depth T are searched for. The in 9 Data shown can be found that in the segment S 3 a breathing depth T is present, which is substantially less than in the two preceding segments S 1 , S 2 . Subsequently, in all this segment S 3 associated audio segments S Ai searched for lack of breath sounds. Here it can be stated that in the audio segments S Ai , which were recorded simultaneously with the segment S 3 , no snoring or breathing noises but only background noise X H available. Since, on the one hand, a low level of breathing was recognized and, on the other hand, no snoring or breathing sounds could be detected, it can be assumed that the person in question is not breathing.

Aus den Daten, die aus den Audio-Signalen und Höhenprofilen extrahiert wurden, können nun zu einem beliebigen Zeitpunkt Aussagen über die Atmung getroffen werden. Dazu wird wie folgt vorgegangen: Es werden zwei Indizes I und J gesucht, sodass die jeweiligen Beginnzeitpunkte Taudio,I der Audio-Segmente SAi und die Beginnzeitpunkte T3D,J der Segmente S jeweils am nächsten beim Zeitpunkt t sind unter allen möglichen Zeitpunkten, die für die Audiosegmentierung und für die Segmentierung der Höhenprofile gewählt wurden. Die Möglichkeiten, die sich für diesen Zeitpunkt ergeben, sind in der folgenden Tabelle zusammengefasst: Schnarchen bei Taudio,I Kein Schnarchen bei Taudio,I große Atemtiefe bei T3D,J Atmung Atmung keine oder geringe Atemtiefe bei T3D,J Atmung Atemstillstand From the data extracted from the audio signals and height profiles, statements about respiration can now be made at any time. The procedure is as follows: Two indices I and J are sought, so that the respective start times T audio, I of the audio segments S Ai and the start times T 3D, J of the segments S are closest to the time t at all possible times that were selected for audio segmentation and segmentation of the elevation profiles. The possibilities that arise at this time are summarized in the following table: Snoring at T audio, I No snoring at T audio, I great breathing depth at T 3D, J breathing breathing no or little breathing depth at T 3D, J breathing Apnea

Im Folgenden wird eine weitere Ausführungsform der Erfindung dargestellt, bei der eine verbesserte Verknüpfung der ermittelten Atemtiefe T und der akustischen Klassifikation der Atemgeräusche und damit eine verbesserte Detektion von Atemaussetzern ermöglicht. Durch Interpolation der ermittelten Atemtiefen über die Zeit kann ein Atemtiefesignal T(t) ermittelt werden.In the following, a further embodiment of the invention is shown in which an improved combination of the determined breathing depth T and the acoustic classification of the breathing sounds and thus an improved detection of respiratory misfires is made possible. By interpolation of the determined breathing depths over time, a respiratory depression signal T (t) can be determined.

Diese Klassifikation beruht auf der Atemtiefefunktion T(t), die den zeitlichen Verlauf der Atemtiefe bezeichnet, sowie das Klassifikationssignal A(t), das zu jedem Zeitpunkt angibt ob und gegebenenfalls welche Atemgeräusche vorhanden waren. Im vorliegenden Ausführungsbeispiel wird das Klassifikationssignal A(t) modifiziert und als vektorwertige Funktion festgelegt, die jedem Zeitpunkt einen Vektor zuordnet, dessen Komponenten jeweils die Intensität des jeweils erkannten Signals angeben. Konkret könnte das Klassifikationssignal A(t) Komponenten aufweisen, von denen eine die Stärke Stärke des Schnarchgeräuschs oder eines Schnarchgeräuschs von einem bestimmten Typ repräsentieren, während eine andere die Stärke der zum jeweiligen Zeitpunkt vorhandenen Hintergrundgeräusche repräsentiert.This classification is based on the respiratory depression function T (t), which indicates the time course of the respiratory depth, as well as the classification signal A (t), which indicates at each time whether and, if so, which respiratory sounds were present. In the present exemplary embodiment, the classification signal A (t) is modified and defined as a vector-valued function which assigns to each time point a vector whose components in each case indicate the intensity of the respective detected signal. Concretely, the classification signal A (t) could comprise components, one of which represents the strength of the snoring sound or a snore sound of a certain type, while another represents the strength of the background noise present at the time.

Es besteht dann die Möglichkeit, mehrere Audio-Segmente zu einem weiteren Audio-Segment mit einer Länge von beispielsweise 5 bis 10 Sekunden zusammenzufassen und mithilfe einer Mittelwertbildung die jeweiligen Signalstärken in diesem weiteren Audio-Segment zu ermitteln. Durch diesen Schritt ist es möglich, längere Perioden, in denen eine Person beim Einatmen schnarcht, jedoch leise ausatmet, insgesamt als Schnarchen zu klassifizieren. Durch diese Mittelung wird ein gemitteltes Klassifikationssignal B(t) erstellt. Besonders vorteilhaft ist es, wenn das gemitteltes Klassifikationssignal B(t) und das Atemtiefesignal A(t) auf zeitlich miteinander übereinstimmenden Segmenten bzw. weiteren Audio-Segmenten festgelegt werden.It is then possible to combine several audio segments to form another audio segment with a length of, for example, 5 to 10 seconds and to determine the respective signal strengths in this further audio segment by means of an averaging. With this step, it is possible to classify a total of snoring for longer periods in which a person snores while inhaling but exhales quietly. This averaging produces an averaged classification signal B (t). It is particularly advantageous if the averaged classification signal B (t) and the respiratory depression signal A (t) are defined on segments which coincide with one another or on further audio segments.

In einem nachfolgenden Schritt wird sowohl im Atemtiefesignal T(t) als auch im weiteren Klassifikationssignal B(t) nach Zeitpunkten gesucht, zu denen in den beiden Signalen T(t), B(t) starke Änderungen auftreten. Hierbei handelt es sich beispielsweise um Zeitpunkte, zu denen Atemgeräusche verschwinden bzw. wieder einsetzen oder Atembewegungen verschwinden oder wieder einsetzen.In a subsequent step, both the respiratory depression signal T (t) and the further classification signal B (t) are searched for times at which strong changes occur in the two signals T (t), B (t). These are, for example, times at which breath sounds disappear or re-insert or respiratory movements disappear or re-insert.

Die so erkannten Zeitpunkte werden als umso relevanter eingestuft, je stärker die Änderung des Signals T(t), B(t) zum jeweiligen Zeitpunkt ist. Es wird ein diesbezüglicher Relevanzwert REL erstellt, das die Relevanz der einzelnen Zeitpunkte für den Beginn oder das Ende einer Phase mit geringer Atmung angibt.The times thus recognized are considered to be all the more relevant, the stronger the change in the signal T (t), B (t) at the respective time. A REL relevance value is created that indicates the relevance of each point in time for the beginning or end of a low-respiration phase.

Es werden jene Punkte als Startpunkte RS oder Endpunkte RE eines Atemstillstandes auswählt, für welche der Betrag des Relevanzmaßes REL über dem Betrag eines vorgegebenen Schwellwerts liegt. Ein Startzeitpunkt RS kann angenommen werden, wenn der Relevanzwert REL negativ ist, ein Endzeitpunkt RE kann angenommen werden, wenn der Relevanzwert REL positiv ist. Der Zeitraum AP zwischen dem Startzeitpunkt RS und dem Endzeitpunkt RE wird als Zeitraum geringer oder fehlender Atemtätigkeit angesehen.Those points are selected as starting points R S or end points R E of a respiratory arrest, for which the amount of the relevance measure REL is above the magnitude of a predetermined threshold value. A start time R S can be assumed when the relevance value REL is negative, an end time R E can be assumed when the relevance value REL is positive. The period AP between the start time R S and the end time R E is regarded as a period of low or absent breathing activity.

Der Schwellenwert kann insbesondere schleifend bzw. gleitend gebildet werden, indem über einen Zeitbereich, insbesondere vor und/oder nach dem Vergleichszeitpunkt mit dem Referenzmaß ein Mittelwert des Referenzmaßes gebildet wird und der Schwellenwert im Bereich zwischen 120% und 200% dieses Mittelwerts festgelegt wird.In particular, the threshold value can be formed in a sliding manner by establishing a mean value of the reference measurement over a time range, in particular before and / or after the comparison time with the reference measurement, and setting the threshold in the range between 120% and 200% of this mean value.

Insgesamt ist es im Rahmen der Erfindung möglich, den gesamten Schlaf einer Person über mehrere Stunden aufzuzeichnen und die Höhenprofile, gegebenenfalls auch die Audio-Signale, in einzelne Segmente, und gegebenenfalls auch Audio-Segmente, zu unterteilen. Selbstverständlich ist es auch möglich, nur einzelne besonders relevante Schlafphasen der Person zu betrachten und nur einige der aufgenommenen Höhenprofile bzw. Audio-Abtastwerte einzelnen Segmente und gegebenenfalls Audio-Segmenten zuzuordnen.Overall, it is within the scope of the invention possible to record the entire sleep of a person over several hours and the height profiles, possibly also the audio signals, into individual segments, and possibly also audio segments. Of course, it is also possible to consider only individual particularly relevant sleep phases of the person and to assign only a few of the recorded height profiles or audio samples to individual segments and possibly audio segments.

Weiters ist es möglich, die Anzahl und Dauer der ermittelten Phasen von geringer Atemtiefe oder fehlender Atemtägigkeit über den gesamten Schlaf aufzuzeichnen und statistischen Analysen zu unterziehen.Furthermore, it is possible to record the number and duration of the determined phases of low breathing depth or lack of respiratory activity over the entire sleep and to submit statistical analyzes.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Hansard, M., Lee, S., Choi, O., and Horaud, R. (2013) [0050] Hansard, M., Lee, S., Choi, O., and Horaud, R. (2013) [0050]
  • Oike, Y., Shintaku, H., Takayama, S., Ikeda, M., and Asada, K. (2003) [0051] Oike, Y., Shintaku, H., Takayama, S., Ikeda, M., and Asada, K. (2003) [0051]
  • Sensors, 2003. Proceedings of IEEE, volume 1, pages 502–507. IEEE [0051] Sensors, 2003. Proceedings of IEEE, volume 1, pages 502-507. IEEE [0051]
  • Mailloux, R. J. (2005) [0052] Mailloux, RJ (2005) [0052]
  • Gabriele Fanelli, Juergen Gall, and Luc Van Gool. Real time head pose estimation with random regression forests. In Computer Vision and Pattern Recognition (CVPR), pages 617–624, June 2011 [0082] Gabriele Fanelli, Juergen Gall, and Luc Van Gool. Real time head pose estimation with random regression forests. In Computer Vision and Pattern Recognition (CVPR), pages 617-624, June 2011 [0082]
  • Jamie Shotton, Ross Girshick, Andrew Fitzgibbon, Toby Sharp, Mat Cook, Mark Finocchio, Richard Moore, Pushmeet Kohli, Antonio Criminisi, Alex Kipman, et al. Efficient human pose estimation from single depth images. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 35(12): 2821–2840, 2013 [0082] Jamie Shotton, Ross Girshick, Andrew Fitzgibbon, Toby Sharp, Mat Cook, Mark Finocchio, Richard Moore, Pushmeet Kohli, Antonio Criminisi, Alex Kipman, et al. Efficient human pose estimation from single depth images. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 35 (12): 2821-2840, 2013 [0082]
  • Hisham Alshaer, Aditya Pandya, T Douglas Bradley, and Frank Rudzicz. Subject independent identification of breath sounds components using multiple classifiers. In Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on, pages 3577–3581. IEEE, 2014 [0102] Hisham Alshaer, Aditya Pandya, T Douglas Bradley, and Frank Rudzicz. Subject independent identification of breath sounds components using multiple classifiers. In Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on, pages 3577-3581. IEEE, 2014 [0102]
  • M Cavusoglu, M Kamasak, O Erogul, T Ciloglu, Y Serinagaoglu, and T Akcam. An efficient method for snore/nonsnore classification of sleep sounds. Physiological measurement, 28(8): 841, 2007 [0103] M Cavusoglu, M Kamasak, O Erogul, T Ciloglu, Y Serinagaoglu, and T Akcam. An efficient method for snoring / non-classification of sleep sounds. Physiological measurement, 28 (8): 841, 2007 [0103]

Claims (32)

Verfahren zur Bestimmung des zeitlichen Verlaufs der Atemtiefe (T) einer, insbesondere schlafenden, Person, wobei mit einer auf die Person (1) gerichteten Detektoreinheit (20) laufend zu aufeinander folgenden Aufnahmezeitpunkten (t1, ..., tp) jeweils ein Höhenprofil (H) der Person (1) erstellt wird, a) wobei im Höhenprofil (H) eine Anzahl von zumindest zwei Punkten im Raum festgelegt ist, die auf der Oberfläche der Person (1) oder auf der Oberfläche eines auf oder neben der Person (1) befindlichen Gegenstands liegen, b) wobei für jeden der Aufnahmezeitpunkte (t1, ..., tp) das jeweilige Höhenprofil (H) in einer Datenstruktur abgespeichert und zur Verfügung gehalten wird, c) wobei eine Anzahl von zu aufeinander folgenden Aufnahmezeitpunkten (t1, ..., tp), insbesondere innerhalb eines Zeitbereichs von 3 bis 20 Sekunden, aufgenommenen Höhenprofilen (H) zu einem Segment (S1, ..., Sq) zusammengefasst wird, d) wobei ein Bereich, der den Bauch- oder Brustbereich der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich (21) angibt als Betrachtungsbereich (22) ausgewählt wird, e) wobei für jedes Höhenprofil (H) innerhalb des Segments (S1, ..., Sq) jeweils gesondert der Mittelwert der Abstände der innerhalb des Betrachtungsbereichs (22) befindlichen Punkte des Höhenprofils (H) zu einem Referenzpunkt oder Referenzgegenstand ermittelt wird, und für das Segment (S1, ..., Sq) ein Signal (si) ermittelt wird, dem zum jeweiligen Aufnahmezeitpunkt (t1, ..., tp) des Höhenprofils (H) der für dieses Höhenprofil (H) ermittelte Mittelwert zugeordnet wird, und f) wobei basierend auf dem ermittelten Signal (si), insbesondere basierend auf dessen Signalamplitude, ein oder mehrere den zeitlichen Verlauf der Atemtiefe (T) charakterisierende Werte ermittelt wird oder werden, dadurch gekennzeichnet, dass g) das Höhenprofil (H) durch eine zweidimensionale Matrixdatenstruktur umfassend eine Anzahl von Zeilen und Spalten charakterisiert wird, h) – eine Anzahl von in Zeilen und Spalten rasterförmig angeordneten Positionen vorgegeben wird, an denen jeweils die Abstandswerte (d1, ..., dn) des Höhenprofils (H) bestimmt werden, oder – die Matrixdatenstruktur erstellt wird, indem die Abstandswerte (d1, ..., dn) als die Abstände entlang von vorgegebenen Strahlen, die von der Detektoreinheit ausgehen, gemessen werden und dann die vertikalen Abstände von dem jeweiligen Schnittpunkt mit der Oberfläche zur Referenzebene mithilfe des gemessenen Abstandes und des jeweilig verwendeten Messwinkels errechnet werden, wobei die Winkel der verschiedenen Messstrahlen dabei so gewählt werden, dass sich bei Auftreffen der Messstrahlen auf eine Ebene, die parallel zur Referenzebene (21) liegt, eine rasterförmige Anordnung ergeben würde, i) die Matrixdatenstruktur ein Raster von derselben Größe und Struktur aufweist, j) die Matrixdatenstruktur erstellt wird, indem die an den jeweiligen Positionen aufgenommenen Abstandswerte (d1, ..., dn) an den Positionen im Raster entsprechenden Speicherpositionen in der Matrixdatenstruktur abgespeichert und zur Verfügung gehalten werden, und k) die Matrixdatenstruktur nach ihrer Erstellung in den Abmessungen durch eine reduzierte Matrixdatenstruktur ersetzt wird, deren räumliche Auflösung verringert wird, indem mehrere Einträge der Matrixdatenstruktur zu einem Eintrag einer reduzierten Matrixdatenstruktur zusammengefasst werden, – wobei insbesondere nur einzelne der Abstandsmesswerte (d) für die Bildung der reduzierten Matrixdatenstruktur herangezogen werden und die übrigen Abstandsmesswerte verworfen werden, und – wobei vorzugsweise die Parameter (a, b) als ganze Zahlen bestimmt werden und die reduzierte Matrixdatenstruktur Hr(x, y, t) = H(ax, by, t) bestimmt wird.Method for determining the time course of the breathing depth (T) of a person, in particular a sleeping person, with a person ( 1 ) directed detector unit ( 20 ) continuously to successive recording times (t 1 , ..., t p ) each have a height profile (H) of the person ( 1 a) wherein in the height profile (H) a number of at least two points in the space is defined, which on the surface of the person ( 1 ) or on the surface of one on or next to the person ( 1 b) wherein for each of the recording times (t 1 , ..., t p ) the respective height profile (H) is stored in a data structure and kept available, c) where a number of successive recording times ( t 1 , ..., t p ), in particular within a time range of 3 to 20 seconds, recorded height profiles (H) to a segment (S 1 , ..., S q ) is summarized, d) wherein a range, the the abdominal or chest area of the person as a function of the respective reference point or reference area ( 21 ) indicates as a viewing area ( 22 ) is selected for each height profile (H) within the segment (S 1 ,..., S q ) in each case separately the mean value of the distances within the viewing region ( 22 ) points of the height profile (H) to a reference point or reference object is determined, and for the segment (S 1 , ..., S q ) a signal (s i ) is determined to the respective recording time (t 1 , .. ., t p ) of the height profile (H) is assigned to the mean value determined for this height profile (H), and f) wherein, based on the determined signal (s i ), in particular based on its signal amplitude, one or more of the temporal course of the breathing depth (T) characterizing values is or are determined, characterized in that g) the height profile (H) is characterized by a two-dimensional matrix data structure comprising a number of rows and columns, h) a number of positions arranged in rows and columns in grid-shaped positions in which the distance values (d 1 ,..., d n ) of the height profile (H) are respectively determined, or - the matrix data structure is created by the distance values (d 1 ,..., d n ) a ls the distances along predetermined radiation emanating from the detector unit are measured, and then the vertical distances from the respective intersection with the surface to the reference plane using the measured distance and the respective used measuring angle are calculated, the angles of the various measuring beams so be chosen so that when the measuring beams hit a plane parallel to the reference plane ( 21 i) the matrix data structure has a raster of the same size and structure, j) the matrix data structure is created by adding the distance values (d 1 , ..., d n ) recorded at the respective positions to the K) the matrix data structure after its creation is replaced in dimensions by a reduced matrix data structure whose spatial resolution is reduced by adding multiple entries of the matrix data structure to an entry of a reduced matrix data structure in particular, only individual ones of the distance measurement values (d) are used for the formation of the reduced matrix data structure and the remaining distance measurement values are discarded, and wherein preferably the parameters (a, b) are determined as integers and the reduced matrix d ten structure H r (x, y, t) = H (ax, by, t) is determined. Verfahren zur Bestimmung des zeitlichen Verlaufs der Atemtiefe (T) einer, insbesondere schlafenden, Person, wobei mit einer auf die Person (1) gerichteten Detektoreinheit (20) laufend zu aufeinander folgenden Aufnahmezeitpunkten (t1, ..., tp) jeweils ein Höhenprofil (H) der Person (1) erstellt wird, a) wobei das Höhenprofil (H) eine Anzahl von zumindest zwei Abstandswerten (d1, ..., dn) zur Festlegung jeweils eines Punktes im Raum aufweist, wobei die einzelnen Abstandswerte jeweils den Abstand des Schnittpunktes eines relativ zur Detektoreinheit vorab festgelegten, insbesondere von der Detektoreinheit ausgehenden, Strahls mit der Oberfläche der Person (1) oder der Oberfläche eines auf der oder neben der Person (1) befindlichen Gegenstands von einem Referenzpunkt oder einer Referenzebene (21) angeben b) wobei für jeden der Aufnahmezeitpunkte (t1, ..., tp) jeweils eine Datenstruktur erstellt wird, die das jeweilige Höhenprofil (H) enthält, wobei sämtliche so erstellte Datenstrukturen jeweils dieselbe Größe aufweisen und jeweils mit Speicherpositionen für die einzelnen Abstandswerte des Höhenprofils (H) aufweisen, c) wobei eine Anzahl von zu aufeinander folgenden Aufnahmezeitpunkten (t1, ..., tp), insbesondere innerhalb eines Zeitbereichs von 3 bis 20 Sekunden, aufgenommenen Höhenprofilen (H) zu einem Segment (S1, ..., Sq) zusammengefasst wird, d) wobei eine Anzahl von Speicherpositionen der Datenstruktur, in denen Abstandswerte (d1, ..., dn) abgespeichert sind, die den Abstand des Bauch- oder Brustbereichs der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich (21) angeben, als Betrachtungsbereich (22) ausgewählt wird, e) wobei für jedes Höhenprofil (H) innerhalb eines Segments (S1, ..., Sq) jeweils gesondert der Mittelwert der innerhalb des Betrachtungsbereichs (22) befindlichen Abstandswerte (d1, ..., dn) ermittelt wird, und für das Segment (S1, ..., Sq) ein Signal (si) ermittelt wird, dem zum jeweiligen Aufnahmezeitpunkt (t1, ..., tp) des Höhenprofils (H) der für dieses Höhenprofil (H) ermittelte Mittelwert zugeordnet wird, und f) wobei basierend auf dem ermittelten Signal (si), insbesondere basierend auf dessen Signalamplitude, ein oder mehrere den zeitlichen Verlauf der Atemtiefe (T) charakterisierende Werte ermittelt wird oder werden, dadurch gekennzeichnet, dass g) das Höhenprofil (H) durch eine zweidimensionale Matrixdatenstruktur umfassend eine Anzahl von Zeilen und Spalten charakterisiert wird, h) – eine Anzahl von in Zeilen und Spalten rasterförmig angeordneten Positionen vorgegeben wird, an denen jeweils die Abstandswerte (d1, ..., dn) des Höhenprofils (H) bestimmt werden, oder – die Matrixdatenstruktur erstellt wird, indem die Abstandswerte (d1, ..., dn) als die Abstände entlang von vorgegebenen Strahlen, die von der Detektoreinheit ausgehen, gemessen werden und dann die vertikalen Abstände von dem jeweiligen Schnittpunkt mit der Oberfläche zur Referenzebene mithilfe des gemessenen Abstandes und des jeweilig verwendeten Messwinkels errechnet werden, wobei die Winkel der verschiedenen Messstrahlen dabei so gewählt werden, dass sich bei Auftreffen der Messstrahlen auf eine Ebene, die parallel zur Referenzebene (21) liegt, eine rasterförmige Anordnung ergeben würde, i) die Matrixdatenstruktur ein Raster von derselben Größe und Struktur aufweist, j) die Matrixdatenstruktur erstellt wird, indem die an den jeweiligen Positionen aufgenommenen Abstandswerte (d1, ..., dn) an den Positionen im Raster entsprechenden Speicherpositionen in der Matrixdatenstruktur abgespeichert und zur Verfügung gehalten werden, und k) die Matrixdatenstruktur nach ihrer Erstellung in den Abmessungen durch eine reduzierte Matrixdatenstruktur ersetzt wird, deren räumliche Auflösung verringert wird, indem mehrere Einträge der Matrixdatenstruktur zu einem Eintrag einer reduzierten Matrixdatenstruktur zusammengefasst werden, – wobei insbesondere nur einzelne der Abstandsmesswerte (d) für die Bildung der reduzierten Matrixdatenstruktur herangezogen werden und die übrigen Abstandsmesswerte verworfen werden, und – wobei vorzugsweise die Parameter (a, b) als ganze Zahlen bestimmt werden und die reduzierte Matrixdatenstruktur Hr(x, y, t) = H(ax, by, t) bestimmt wird.Method for determining the time course of the breathing depth (T) of a person, in particular a sleeping person, with a person ( 1 ) directed detector unit ( 20 ) continuously to successive recording times (t 1 , ..., t p ) each have a height profile (H) of the person ( 1 a) wherein the height profile (H) has a number of at least two distance values (d 1 ,..., d n ) for defining in each case a point in space, wherein the individual distance values in each case the distance of the intersection point of a relative to Detector unit predetermined, in particular emanating from the detector unit, the beam with the surface of the person ( 1 ) or the surface of one on or next to the person ( 1 ) from a reference point or reference plane ( 21 b) wherein for each of the recording times (t 1 , ..., t p ) in each case a data structure is created, which contains the respective height profile (H), wherein all data structures thus created each have the same size and each with memory positions for the c) where a number of height profiles (H) recorded to successive recording times (t 1 ,..., t p ), in particular within a time range of 3 to 20 seconds, become a segment (FIG. S 1 , ..., S q ) is summarized, d) wherein a number of memory positions of the data structure in which distance values (d 1 ,..., d n ) are stored which are the distance of the abdominal or chest region of the person as a function of the respective reference point or reference range ( 21 ), as a viewing area ( 22 ) is selected for each height profile (H) within a segment (S 1 ,..., S q ) in each case separately the mean value of the within ( 22 ) distance values (d 1 , ..., d n ) is determined, and for the segment (S 1 , ..., S q ), a signal (s i ) is determined, to the respective recording time (t 1 ,. .., t p ) of the height profile (H) is assigned to the mean value determined for this height profile (H), and f) wherein based on the detected signal (s i ), in particular based on its signal amplitude, one or more of the time course of the Resp. Characterizing values are or are characterized, characterized in that g) the height profile (H) is characterized by a two-dimensional matrix data structure comprising a number of rows and columns, h) a number of positions arranged in rows and columns in grid form at which the distance values (d 1 ,..., d n ) of the height profile (H) are respectively determined, or - the matrix data structure is created by taking the distance values (d 1 ,..., d n ) as the distances along given St are measured and then the vertical distances from the respective intersection with the surface to the reference plane are calculated using the measured distance and the respectively used measuring angle, wherein the angles of the different measuring beams are chosen so that Impact of the measuring beams on a plane parallel to the reference plane ( 21 i) the matrix data structure has a raster of the same size and structure, j) the matrix data structure is created by adding the distance values (d 1 , ..., d n ) recorded at the respective positions to the K) the matrix data structure after its creation is replaced in dimensions by a reduced matrix data structure whose spatial resolution is reduced by adding multiple entries of the matrix data structure to an entry of a reduced matrix data structure in particular, only individual ones of the distance measurement values (d) are used for the formation of the reduced matrix data structure and the remaining distance measurement values are discarded, and wherein preferably the parameters (a, b) are determined as integers and the reduced matrix d ten structure H r (x, y, t) = H (ax, by, t) is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Höhenprofil (H) eine Punktwolke mit einer Anzahl von zumindest zwei Punkten im Raum beschreibt, die auf der Oberfläche der Person (1) oder auf der Oberfläche eines auf oder neben der Person (1) befindlichen Gegenstands liegen.A method according to claim 1, characterized in that the height profile (H) describes a point cloud with a number of at least two points in the space, which on the surface of the person ( 1 ) or on the surface of one on or next to the person ( 1 ) are located. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Charakterisierung der Atemtiefe (T) in einem Segment (S1, ..., Sq) aus dem Signal (si) zumindest ein Maximum (smax) und zumindest ein Minimum (smin) extrahiert werden und die zumindest eine Differenz (Δ) zwischen dem Maximum (smax) und dem Minimum (smin) als die Atemtiefe (T) charakterisierender Wert für den dem Segment (S1, ..., Sq) zugeordneten Zeitbereich herangezogen wird.Method according to one of the preceding claims, characterized in that for characterizing the breathing depth (T) in a segment (S 1 , ..., S q ) from the signal (s i ) at least one maximum (s max ) and at least one minimum (s min ) and the at least one difference (Δ) between the maximum (s max ) and the minimum (s min ) as the breathing depth (T) characterizing value for the segment (S 1 , ..., S q ) is used. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Signal (si) einer spektralen Transformation, insbesondere Fourier-Transformation oder Cosinustransformation oder Wavelet-Transformation, unterworfen wird und innerhalb eines vorgegebenen Frequenzbands, insbesondere von 0,1 Hz bis 1 Hz, nach demjenigen Spektralanteil mit der höchsten Signalenerige gesucht wird und die Signalenergie dieses Spektralanteils zur Charakterisierung der Atemtiefe (T) in diesem Segment (S1, ..., Sq) herangezogen wird.Method according to one of the preceding claims, characterized in that the signal (s i ) is subjected to a spectral transformation, in particular Fourier transformation or cosine transformation or wavelet transformation, and within a predetermined frequency band, in particular from 0.1 Hz to 1 Hz, the spectral component with the highest signal level is searched for and the signal energy of this spectral component is used to characterize the breathing depth (T) in this segment (S 1 ,..., S q ). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das einem Segment (S1, ..., Sq) zugeordnete Signal (si) nach seiner Erstellung, insbesondere vor der Bestimmung des die Atemtiefe charakterisierenden Werts, einer Rauschfilterung unterzogen wird, wobei insbesondere a) Signalanteile mit einer Frequenz von mehr als 0,5 Hz unterdrückt werden, und/oder b) Gleichanteile unterdrückt werden.Method according to one of the preceding claims, characterized in that the signal (s i ) associated with a segment (S 1 , ..., S q ) is subjected to noise filtering after its creation, in particular before the determination of the value characterizing the breathing depth, wherein in particular a) signal components with a frequency of more than 0.5 Hz are suppressed, and / or b) DC components are suppressed. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, a) dass für eine Anzahl von überlappenden oder nicht überlappenden Segmenten (S1, ..., Sq) jeweils separat die Atemtiefe (T) ermittelt wird und/oder b) dass der Betrachtungsbereich (22) für jedes Segment (S1, ..., Sq) separat, insbesondere auf Grundlage des für das jeweils vorangehende Segment (S1, ..., Sq) ermittelten Betrachtungsbereichs (22), ermittelt wird.Method according to one of the preceding claims, characterized in that a) that the breathing depth (T) is determined separately for a number of overlapping or non-overlapping segments (S 1 , ..., S q ) and / or b) that the viewing area ( 22 ) for each segment (S 1 , ..., S q ) separately, in particular on the basis of the respective preceding segment (S 1 ,..., S q ) 22 ), is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Matrixdatenstruktur nach ihrer Erstellung in ihren Abmessungen durch eine reduzierte Matrixdatenstruktur ersetzt wird, wobei für rechteckige, insbesondere die gesamte Matrixdatenstruktur abdeckende, und nicht überlappende Bildbereiche von jeweils gleicher größe in der Matrixdatenstruktur jeweils ein mittlerer Abstandswert (d') ermittelt wird und dieser mittlere Abstandswert (d') dem bezüglich seiner Lage entsprechenden Bildpunkt der reduzierten Matrixdatenstruktur zugeordnet wird. A method according to claim 1, characterized in that the matrix data structure is replaced after its creation in their dimensions by a reduced matrix data structure, wherein for rectangular, in particular the entire matrix data structure covering and non-overlapping image areas of the same size in the matrix data structure in each case a mean distance value ( d ') is determined and this average distance value (d') is assigned to the image point corresponding to its position of the reduced matrix data structure. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Betrachtungsbereich (22) gesetzt wird, indem a) im Höhenprofil (H), insbesondere in der Matrixdatenstruktur oder in der Punktwolke, eine Anzahl von möglichen Betrachtungsbereichen (R1,1, ...) vorab vorgegeben werden, b) für das jeweilige Segment (S1, ..., Sq) die jeweilige Atemtiefe (T) unter Zugrundelegung jedes der möglichen Betrachtungsbereiche (22) ermittelt wird, und c) derjenige vorgegebene möglichen Betrachtungsbereich (R1,1, ...) als Betrachtungsbereich (22) herangezogen wird, für den die ermittelte Atemtiefe (22) am größten ist.Method according to one of the preceding claims, characterized in that the viewing area ( 22 ) is set by a) in the height profile (H), in particular in the matrix data structure or in the point cloud, a number of possible viewing ranges (R 1,1 , ...) are predetermined in advance, b) for the respective segment (S 1 , ..., S q ) the respective breathing depth (T) on the basis of each of the possible viewing areas ( 22 ), and c) the predetermined possible viewing area (R 1,1 , ...) as the viewing area ( 22 ), for which the determined breathing depth ( 22 ) is the largest. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Betrachtungsbereich (22) gesetzt wird, indem a) im Höhenprofil, insbesondere in der Matrixdatenstruktur oder in der Punktwolke, mittels Objekterkennung nach Bereichen gesucht wird oder dass vorab Bereiche ausgewählt werden, die einem menschlichen Kopf und Torso entsprechen, und b) der den Torso abbildende Bereich des Höhenprofils, insbesondere der Matrixdatenstruktur oder der Punktwolke, oder ein Teilbereich dieses Bereichs als Betrachtungsbereich (22) ausgewählt wird, wobei insbesondere – zur Detektion des Verlaufs oder der Atemtiefe der Brustatmung der dem Kopf nahe Teilbereich dieses Bereichs als Betrachtungsbereich (22) ausgewählt wird und/oder – zur Detektion des Verlaufs oder der Atemtiefe der Bauchatmung der dem Kopf ferne Teilbereich dieses Bereichs als Betrachtungsbereich (22) ausgewählt wird.Method according to one of the preceding claims, characterized in that the viewing area ( 22 ) by locating a) in the elevation profile, in particular in the matrix data structure or in the point cloud, by means of object recognition, or by selecting areas corresponding to a human head and torso in advance, and b) the area of the height profile which images the torso , in particular the matrix data structure or the point cloud, or a subarea of this area as a viewing area ( 22 ) is selected, wherein in particular - for detecting the course or the breathing depth of the chest breathing of the head near partial area of this area as a viewing area ( 22 ) is selected and / or - for detecting the course or the breathing depth of the abdominal breathing, the portion of this area remote from the head as a viewing area ( 22 ) is selected. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass für jedes zu untersuchende Segment (S1, ..., Sq) oder für einzelne Höhenprofile (H) eines Segments (S1, ..., Sq) der Betrachtungsbereich (22) mittels Objekterkennung an die im Segment (S1, ..., Sq) vorliegenden Höhenprofile (H) ausgehend von der Position des ausgewählten Betrachtungsbereichs (22) im jeweils vorangehenden Segment (S1, ..., Sq) adaptiv neu ermittelt wird.A method according to claim 10, characterized in that for each segment to be examined (S 1 , ..., S q ) or for individual height profiles (H) of a segment (S 1 , ..., S q ) of the viewing area ( 22 ) by means of object recognition to the height profiles (H) present in the segment (S 1 , ..., S q ) starting from the position of the selected viewing region ( 22 ) in the respective preceding segment (S 1 , ..., S q ) is adaptively newly determined. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Betrachtungsbereich (22) gesetzt wird, indem a) für sämtliche Punkte des Höhenprofils (H), insbesondere für alle Einträge der Matrixdatenstruktur oder der Punktwolke, separat die Varianz über das jeweilige Segment (S1, ..., Sq) bestimmt wird, und b) ein Bereich oder mehrere Bereiche (22a, 22b) mit jeweils zusammenhängenden Punkten des Höhenprofils (H), deren jeweilige Varianz oberhalb eines unteren Schwellenwerts oder innerhalb eines vorgegebenen Intervalls liegen, als Betrachtungsbereich (22) ausgewählt wird oder werden, insbesondere – indem zusammenhängende Bereiche (22a, 22b) von Punkten als Betrachtungsbereich ausgewählt werden, deren Größe eine vorgegebene Anzahl von Punkten übersteigt – wobei insbesondere ein Bereich dann als zusammenhängend angesehen wird, wenn jeder Punkt des Höhenprofils ausgehend von einem Punkt innerhalb dieses Bereichs über jeweils benachbarte Pixel erreichbar ist, – wobei vorzugsweise Punkte des Höhenprofils (H) dann als benachbart angesehen werden, – wenn sie durch benachbarte Einträge der Matrix-Datenstruktur festgelegt sind oder – wenn sie oder ihre Projektion auf eine horizontale Ebene im Raum einen einen Schwellenwert unterschreitenden Abstand voneinander aufweisen.Method according to one of the preceding claims, characterized in that the viewing area ( 22 ) is set by a) for all points of the height profile (H), in particular for all entries of the matrix data structure or the point cloud, separately the variance over the respective segment (S 1 , ..., S q ) is determined, and b) one area or several areas ( 22a . 22b ) with contiguous points of the height profile (H) whose respective variance is above a lower threshold value or within a predetermined interval, as the viewing area ( 22 ) or, in particular, - by providing related areas ( 22a . 22b ) are selected as points of view whose size exceeds a predetermined number of points - in particular a region is considered to be contiguous, if each point of the height profile can be reached from a point within that region via adjacent pixels, preferably points of the height profile (H) are then considered to be adjacent, - if they are defined by adjacent entries of the matrix data structure, or - if they or their projection on a horizontal plane in space have a threshold below the distance from each other. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass der Betrachtungsbereich (22) in zwei oder mehreren aufeinander folgenden Segmenten (S1, ..., Sq) separat ermittelt wird und ein Höhenprofil (H) verworfen und eine Fehlermeldung ausgegeben wird, wenn sich der Betrachtungsbereich (22), insbesondere dessen Größe und/oder dessen Schwerpunkt, gegenüber dem jeweils vorangehenden Segment (S1, ..., Sq) um einen vorgegebenen Schwellenwert verschiebt.Method according to claim 12, characterized in that the viewing area ( 22 ) is determined separately in two or more consecutive segments (S 1 ,..., S q ) and a height profile (H) is discarded and an error message is issued when the viewing area (FIG. 22 ), in particular its size and / or its center of gravity, relative to the respective preceding segment (S 1 , ..., S q ) shifts by a predetermined threshold. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass a) gleichzeitig parallel zur Aufnahme des Abstands der Person von der Detektoreinheit (20) der von der Person abgegebene Schall ermittelt und in Form eines Audio-Signals (5a) mit einer Anzahl von Audio-Abtastwerten zur Verfügung gehalten wird, b) das Audio-Signal (sa) in eine Anzahl von Audio-Segmente (SA1, ..., SAr), insbesondere mit einer Länge von 100 ms bis 1 Sekunde, unterteilt wird und für jedes der Audio-Segmente (SA1, ..., Sar) untersucht wird, ob in diesem menschliche Atemgeräusche oder andere Geräusche enthalten sind, und für jedes Audio-Segment (SA1, ..., SAr) jeweils ein Klassifikationsergebnis zur Verfügung gehalten wird, c) zeitgleich aufgenommene Audio-Segmente (SA1, ..., Sar) und Segmente (S1, ..., Sq) einander zugeordnet werden, und d) nach Audio-Segmenten (SA1, ..., Sar) oder Segmenten (S1, ..., Sq) mit geringer Atemtiefe oder mit fehlenden Atemgeräuschen gesucht wird und die einem solchen Audio-Segment (SA1, ..., Sar) oder Segment (S1, ..., Sq) zugeordneten Segmente (S1, ..., Sq) oder Audio-Segmente (SA1, ..., Sar) ebenfalls auf das Vorliegen geringer Atemtiefe oder fehlender Atemgeräuschen untersucht werden, und e) für den Fall, dass in einander zugeordneten Segmenten (S1, ..., Sq) und Audio-Segmenten (S1, ..., Sq) jeweils geringe Atemtiefe und fehlender Atemgeräusche detektiert wurden, das Fehlen der Atmung der Person festgestellt wird.Method according to one of the preceding claims, characterized in that a) simultaneously in parallel with the distance of the person from the detector unit ( 20 ) determines the sound emitted by the person and in the form of an audio signal ( 5a ) is provided with a number of audio samples, b) the audio signal (s a ) is subdivided into a number of audio segments (S A1 , ..., S Ar ), in particular with a length of 100 ms to 1 second, and for each of the audio segments (S S A1 , ..., S ar ) is examined, whether in this human breath sounds or other sounds are included, and for each audio segment (S A1 , ..., S Ar ) each have a classification result is available, c ) simultaneously recorded audio segments (S A1 , ..., S ar ) and segments (S 1 , ..., S q ) are assigned to each other, and d) audio segments (S A1 , ..., S ar ) or segments (S 1 , ..., S q ) with low breathing depth or with missing breath sounds is sought and the such an audio segment (S A1 , ..., S ar ) or segment (S 1 , .. ., S q ) associated segments (S 1 , ..., S q ) or audio segments (S A1 , ..., S ar ) are also examined for the presence of low breathing depth or lack of breathing sounds, and e) for the Case, that in each other zugeo rdneten segments (S 1 , ..., S q ) and audio segments (S 1 , ..., S q ) each low breathing depth and lack of breath sounds were detected, the lack of respiration of the person is detected. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass a) ein Klassifikationssignal (A(t)) erstellt wird, das für jedes Audio-Segment (SAi) jeweils zumindest ein Klassifikationsergebnis enthält, das die Art und Stärke des jeweiligen Geräuschs im Zeitbereich des jeweiligen Audio-Segment (SAi) angibt, b) dass jeweils eine Anzahl von aufeinander folgenden Audio-Segmente (SAi) zu weiteren Audio-Segmenten (SAi), insbesondere mit einer Dauer von 5 bis 10 Sekunden zusammengefasst werden, die vorzugsweise dieselben Zeitbereiche umfassen wie die Segmente (S1, ..., Sq), c) über die innerhalb eines weiteren Audio-Segments (SAi) enthaltenen Klassifikationsergebnisse eine Mittelung vorgenommen wird und dem weiteren Audio-Segment (SAi) der jeweilige Mittelwert zugewiesen wird, d) ein weiteres Klassifikationssignal (B(t)) durch Interpolation der Mittelwerte der weiteren Audio-Segmente (SAi) erstellt wird, e) im weiteren Klassifikationssignal B(t) sowie im Atemtiefesignal T(t) nach Zeitpunkten gesucht wird, zu denen in den beiden Signalen (T(t), B(t)) starke Änderungen auftreten, f) die so erkannten Zeitpunkte werden als umso relevanter eingestuft werden, je stärker die Änderung des jeweiligen Signals zum jeweiligen Zeitpunkt ist, g) diesen Zeitpunkten jeweils ein diesbezügliches Relevanzwert zugeordnet wird, und h) jene Zeitpunkte als Startpunkte (RS) oder Endpunkte (RE) eines Atemstillstandes detektiert werden, für welche der Betrag des Relevanzwerts (REL) über dem Betrag eines Schwellwert liegt, wobei insbesondere – der Schwellenwert gebildet wird, indem über einen Zeitbereich, insbesondere vor und/oder nach dem Vergleichszeitpunkt mit dem Referenzmaß ein Mittelwert des Referenzmaßes gebildet wird und der Schwellenwert im Bereich zwischen 120% und 200% dieses Mittelwerts festgelegt wird.A method according to claim 14, characterized in that a) a classification signal (A (t)) is created, which contains for each audio segment (S Ai ) each at least one classification result, the type and strength of the respective noise in the time domain of the respective Audio segment (S Ai ) indicates, b) that in each case a number of consecutive audio segments (S Ai ) to other audio segments (S Ai ), in particular with a duration of 5 to 10 seconds are summarized, preferably the same Time ranges include, like the segments (S 1 ,..., S q ), c) an averaging is performed via the classification results contained within a further audio segment (S Ai ) and the respective average value for the further audio segment (S Ai ) d) a further classification signal (B (t)) is produced by interpolation of the mean values of the further audio segments (S Ai ), e) in the further classification signal B (t) and in the respiratory depression signal T (t) is searched for times at which strong changes occur in the two signals (T (t), B (t)), f) the times thus recognized will be considered to be the more relevant, the stronger the change of the respective signal at the respective time , g) a respective relevance value is assigned to these times, and h) those times are detected as starting points (R S ) or end points (R E ) of a respiratory arrest for which the magnitude of the relevance value (REL) is above the magnitude of a threshold value, wherein in particular - the threshold is formed by a mean value of the reference measure is formed over a time range, in particular before and / or after the comparison time with the reference dimension and the threshold is set in the range between 120% and 200% of this average. Datenträger, auf dem ein Programm zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche abgespeichert ist.Data carrier on which a program for carrying out a method according to one of the preceding claims is stored. Vorrichtung zur Bestimmung des zeitlichen Verlaufs der Atemtiefe (T) einer, insbesondere schlafenden, Person, umfassend – eine auf eine Schlafgelegenheit, insbesondere ein Bett (10) ausrichtbare Detektoreinheit (20), die laufend zu aufeinander folgenden Aufnahmezeitpunkten (t1, ..., tp) jeweils ein Höhenprofil (H) der Person (1) erstellt, wobei im Höhenprofil (H) eine Anzahl von zumindest zwei Punkten im Raum festgelegt ist, die auf der Oberfläche der Person (1) oder auf der Oberfläche eines auf oder neben der Person (1) befindlichen Gegenstands liegen, sowie – eine Verarbeitungseinheit (50), die a) für jeden der Aufnahmezeitpunkte (t1, ..., tp) das jeweilige Höhenprofil (H) in einer Datenstruktur abgespeichert und zur Verfügung hält, b) eine Anzahl von zu aufeinander folgenden Aufnahmezeitpunkten (t1, ..., tp), insbesondere innerhalb eines Zeitbereichs von 3 bis 20 Sekunden, aufgenommenen Höhenprofilen (H) zu einem Segment (S1, ..., Sq) zusammenfasst, c) einen Bereich, der den Bauch- oder Brustbereich der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich (21) angibt als Betrachtungsbereich (22) auswählt, d) für jedes Höhenprofil (H) innerhalb des Segments (S1, ..., Sq) jeweils gesondert den Mittelwert der Abstände der innerhalb des Betrachtungsbereichs (22) befindlichen Punkte des Höhenprofils (H) zu einem Referenzpunkt oder Referenzgegenstand ermittelt, und für das Segment (S1, ..., Sq) ein Signal (si) ermittelt, dem zum jeweiligen Aufnahmezeitpunkt (t1, ..., tp) des Höhenprofils (H) der für dieses Höhenprofil (H) ermittelte Mittelwert zugeordnet ist, und e) insbesondere anschließend basierend auf diesem Signal (si) oder dessen Signalamplitude einen die Atemtiefe (T) charakterisierender Wert ermittelt, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) f) eine zweidimensionale Matrixdatenstruktur erstellt, die eine Anzahl von Zeilen und Spalten umfasst, die das Höhenprofil (H) charakterisieren, g) – eine Anzahl von in Zeilen und Spalten rasterförmig angeordneten Positionen vorgibt, an denen jeweils die Abstandswerte (d1, ..., dn) des Höhenprofils (H) bestimmt sind, oder – die Matrixdatenstruktur erstellt, indem sie die Abstandswerte (d1, ..., dn) als die Abstände entlang von vorgegebenen Strahlen, die von der Detektoreinheit ausgehen, misst und dann die vertikalen Abstände von dem jeweiligen Schnittpunkt mit der Oberfläche zur Referenzebene mithilfe des gemessenen Abstandes und des jeweilig verwendeten Messwinkels errechnet, wobei sie die Winkel der verschiedenen Messstrahlen dabei so wählt, dass sich bei Auftreffen der Messstrahlen auf eine Ebene, die parallel zur Referenzebene (21) liegt, eine rasterförmige Anordnung ergeben würde, h) wobei die Matrixdatenstruktur ein Raster von derselben Größe und Struktur aufweist, i) die Matrixdatenstruktur erstellt, indem sie die an den jeweiligen Positionen aufgenommenen Abstandswerte (d1, ..., dn) an den Positionen im Raster entsprechenden Speicherpositionen in der Matrixdatenstruktur abspeichert und zur Verfügung hält, und j) eine reduzierte Matrixdatenstruktur erstellt, durch Ersetzen der Matrixdatenstruktur nach ihrer Erstellung in den Abmessungen, deren räumliche Auflösung sie verringert, indem sie mehrere Einträge der Matrixdatenstruktur zu einem Eintrag einer reduzierten Matrixdatenstruktur zusammenfasst, – wobei sie insbesondere nur einzelne der Abstandsmesswerte (d) für die Bildung der reduzierten Matrixdatenstruktur heranzieht und die übrigen Abstandsmesswerte verwirft, und – wobei sie vorzugsweise die Parameter (a, b) als ganze Zahlen bestimmt und die reduzierte Matrixdatenstruktur Hr(x, y, t) = H(ax, by, t) bestimmt.Device for determining the time course of the breathing depth (T) of a person, in particular a sleeping person, comprising - one on a sleeping accommodation, in particular a bed ( 10 ) alignable detector unit ( 20 ), which continuously at successive recording times (t 1 , ..., t p ) each have a height profile (H) of the person ( 1 ), wherein in the height profile (H) a number of at least two points in the space is defined, which on the surface of the person ( 1 ) or on the surface of one on or next to the person ( 1 ), and - a processing unit ( 50 ), which a) stores and makes available the respective height profile (H) for each of the recording times (t 1 ,..., t p ) in a data structure, b) a number of recording times (t 1 ,. ., t p ), in particular within a time range of 3 to 20 seconds, summed up height profiles (H) to form a segment (S 1 , ..., S q ), c) a region that covers the abdomen or chest region of the person depending on the respective reference point or reference range ( 21 ) indicates as a viewing area ( 22 ), d) for each height profile (H) within the segment (S 1 ,..., S q ) separately the mean value of the distances within the viewing area ( 22 ) points of the height profile (H) to a reference point or reference object, and for the segment (S 1 , ..., S q ) a signal (s i ) is determined to the respective recording time (t 1 , ..., t p ) of the height profile (H) is assigned to the mean value determined for this height profile (H), and e) in particular subsequently determines a value characterizing the breathing depth (T) based on this signal (s i ) or its signal amplitude, characterized in that the processing unit ( 50 f) produces a two-dimensional matrix data structure comprising a number of rows and columns characterizing the height profile (H); g) - predetermining a number of rows arranged in rows and columns in which the distance values (d 1 ,. .., d n ) of the height profile (H) are determined, or - the matrix data structure is created by measuring the distance values (d 1 , ..., d n ) as the distances along predetermined beams emanating from the detector unit and then calculates the vertical distances from the respective intersection with the surface to the reference plane using the measured distance and the respective measuring angle used, whereby it selects the angles of the various measuring beams so that when the measuring beams hit a plane parallel to the reference plane ( 21 h) where the matrix data structure has a grid of the same size and structure, i) the matrix data structure is created by storing and making available the distance values (d 1 ,..., d n ) recorded at the positions in the raster corresponding storage positions in the matrix data structure, and j) creating a reduced matrix data structure, by replacing the matrix data structure after its creation in the dimensions, the spatial resolution of which reduces it, by combining several entries of the matrix data structure into an entry of a reduced matrix data structure, in particular taking only individual ones of the distance measurements (d) for the formation of the reduced matrix data structure, and rejects the remaining distance measurement values, and - preferably determining the parameters (a, b) as integers and determining the reduced matrix data structure H r (x, y, t) = H (ax, by, t). Vorrichtung zur Bestimmung des zeitlichen Verlaufs der Atemtiefe (T) einer, insbesondere schlafenden, Person, umfassend – eine auf eine Schlafgelegenheit, insbesondere ein Bett (10), ausrichtbare Detektoreinheit (20), die laufend zu aufeinander folgenden Aufnahmezeitpunkten (t1, ..., tp) jeweils ein Höhenprofil (H) der Person (1) erstellt, wobei das Höhenprofil (H) eine Anzahl von zumindest zwei Abstandswerten (d1, ..., dn) zur Festlegung jeweils eines Punktes im Raum aufweist, wobei die einzelnen Abstandswerte jeweils den Abstand des Schnittpunktes eines relativ zur Detektoreinheit vorab festgelegten, insbesondere von der Detektoreinheit ausgehenden, Strahls mit der Oberfläche der Person (1) oder der Oberfläche eines auf der oder neben der Person (1) befindlichen Gegenstands von einem Referenzpunkt oder einer Referenzebene (21) angeben sowie – eine Verarbeitungseinheit (50), die a) für jeden der Aufnahmezeitpunkte (t1, ..., tp) jeweils eine Datenstruktur erstellt, die das jeweilige Höhenprofil (H) enthält, wobei sämtliche so erstellte Datenstrukturen jeweils dieselbe Größe aufweisen und jeweils mit Speicherpositionen für die einzelnen Abstandswerte des Höhenprofils (H) aufweisen, b) eine Anzahl von zu aufeinander folgenden Aufnahmezeitpunkten (t1, ..., tp), insbesondere innerhalb eines Zeitbereichs von 3 bis 20 Sekunden, aufgenommenen Höhenprofilen (H) zu einem Segment (S1, ..., Sq) zusammenfasst, c) eine Anzahl von Speicherpositionen der Datenstruktur, in denen Abstandswerte (d1, ..., dn) abgespeichert sind, die den Abstand des Bauch- oder Brustbereichs der Person in Abhängigkeit vom jeweiligen Referenzpunkt oder Referenzbereich (21) angeben, als Betrachtungsbereich (22) auswählt, d) für jedes Höhenprofil (H) innerhalb eines Segments (S1, ..., Sq) jeweils gesondert den Mittelwert der innerhalb des Betrachtungsbereichs (22) befindlichen Abstandswerte (d1, ... dn) ermittelt, und für das Segment (S1, ..., Sq) ein Signal (si) ermittelt, dem zum jeweiligen Aufnahmezeitpunkt (t1, ..., tp) des Höhenprofils (H) der für dieses Höhenprofil (H) ermittelte Mittelwert zugeordnet ist, e) insbesondere anschließend basierend auf diesem Signal (si) oder dessen Signalamplitude einen die Atemtiefe (T) charakterisierender Wert ermittelt, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) f) eine zweidimensionale Matrixdatenstruktur erstellt, die eine Anzahl von Zeilen und Spalten umfasst, die das Höhenprofil (H) charakterisieren, g) – eine Anzahl von in Zeilen und Spalten rasterförmig angeordneten Positionen vorgibt, an denen jeweils die Abstandswerte (d1, ..., dn) des Höhenprofils (H) bestimmt sind, oder – die Matrixdatenstruktur erstellt, indem sie die Abstandswerte (d1, ..., dn) als die Abstände entlang von vorgegebenen Strahlen, die von der Detektoreinheit ausgehen, misst und dann die vertikalen Abstände von dem jeweiligen Schnittpunkt mit der Oberfläche zur Referenzebene mithilfe des gemessenen Abstandes und des jeweilig verwendeten Messwinkels errechnet, wobei sie die Winkel der verschiedenen Messstrahlen dabei so wählt, dass sich bei Auftreffen der Messstrahlen auf eine Ebene, die parallel zur Referenzebene (21) liegt, eine rasterförmige Anordnung ergeben würde, h) wobei die Matrixdatenstruktur ein Raster von derselben Größe und Struktur aufweist, i) die Matrixdatenstruktur erstellt, indem sie die an den jeweiligen Positionen aufgenommenen Abstandswerte (d1, ..., dn) an den den Positionen im Raster entsprechenden Speicherpositionen in der Matrixdatenstruktur abspeichert und zur Verfügung hält, und j) eine reduzierte Matrixdatenstruktur erstellt, durch Ersetzen der Matrixdatenstruktur nach ihrer Erstellung in den Abmessungen, deren räumliche Auflösung sie verringert, indem sie mehrere Einträge der Matrixdatenstruktur zu einem Eintrag einer reduzierten Matrixdatenstruktur zusammenfasst, – wobei sie insbesondere nur einzelne der Abstandsmesswerte (d) für die Bildung der reduzierten Matrixdatenstruktur heranzieht und die übrigen Abstandsmesswerte verwirft, und – wobei sie vorzugsweise die Parameter (a, b) als ganze Zahlen bestimmt und die reduzierte Matrixdatenstruktur Hr(x, y, t) = H(ax, by, t) bestimmt.Device for determining the time course of the breathing depth (T) of a person, in particular a sleeping person, comprising - one on a sleeping accommodation, in particular a bed ( 10 ), alignable detector unit ( 20 ), which continuously at successive recording times (t 1 , ..., t p ) each have a height profile (H) of the person ( 1 ), wherein the height profile (H) has a number of at least two distance values (d 1 , ..., d n ) for defining a respective point in space, wherein the individual distance values in each case the distance of the intersection of a predetermined relative to the detector unit , in particular from the detector unit emanating beam with the surface of the person ( 1 ) or the surface of one on or next to the person ( 1 ) from a reference point or reference plane ( 21 ) and a processing unit ( 50 ), a) for each of the recording times (t 1 , ..., t p ) each creates a data structure containing the respective height profile (H), all of the data structures thus created each having the same size and each with memory positions for the individual Distance values of the height profile (H), b) a number of successive recording times (t 1 , ..., t p ), in particular within a time range of 3 to 20 seconds, recorded height profiles (H) to a segment (S 1 , ..., S q ), c) a number of memory positions of the data structure in which distance values (d 1 ,..., D n ) are stored which are the distance of the abdomen or chest area of the person depending on the respective one Reference point or reference range ( 21 ), as a viewing area ( 22 ), d) for each height profile (H) within a segment (S 1 ,..., S q ) the mean value of each within the viewing area (S 1 ,. 22 ) distance values (d 1 , ... d n ) are determined, and for the segment (S 1 , ..., S q ) a signal (s i ) is determined to which at the respective recording time (t 1 , ..., t p) of the height profile (H) is assigned to the mean value (for this height profile H), e) in particular, then based (on this signal, s i) or its signal amplitude determines a respiratory depth (T) characterizing value, characterized in that Processing unit ( 50 f) produces a two-dimensional matrix data structure comprising a number of rows and columns characterizing the height profile (H); g) - predetermining a number of rows arranged in rows and columns in which the distance values (d 1 ,. .., d n ) of the height profile (H) are determined, or - the matrix data structure is created by measuring the distance values (d 1 , ..., d n ) as the distances along predetermined beams emanating from the detector unit and then calculates the vertical distances from the respective intersection with the surface to the reference plane using the measured distance and the respective measuring angle used, whereby it selects the angles of the various measuring beams so that when the measuring beams hit a plane parallel to the reference plane ( 21 h) wherein the matrix data structure has a raster of the same size and structure, i) the matrix data structure is created by plotting the distance values (d 1 , ..., d n ) recorded at the respective positions and j) create a reduced matrix data structure by replacing the matrix data structure after its creation in the dimensions whose spatial resolution reduces it by adding multiple entries of the matrix data structure to an entry in particular, it uses only individual ones of the distance measurement values (d) for the formation of the reduced matrix data structure and discards the remaining distance measurement values, and preferably determines the parameters (a, b) as integers and the reduced matrix data structure H r (x, y, t) = H (ax, by, t). Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, dass die Detektoreinheit (20) die Höhenprofile (H) in Form von Punktwolken mit einer Anzahl von zumindest zwei Punkten im Raum erstellt, wobei die Punkte auf der Oberfläche der Person (1) oder auf der Oberfläche eines auf oder neben der Person (1) befindlichen Gegenstands liegen.Apparatus according to claim 17, characterized in that the detector unit ( 20 ) creates the height profiles (H) in the form of point clouds with a number of at least two points in space, the points on the surface of the person ( 1 ) or on the surface of one on or next to the person ( 1 ) are located. Vorrichtung nach einem der Ansprüche 17 bis 19, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) zur Charakterisierung der Atemtiefe (T) in einem Segment (S1, ... Sq) aus dem Signal (si) zumindest ein Maximum (smax) und zumindest ein Minimum (smin) extrahiert und die zumindest eine Differenz (Δ) zwischen dem Maximum (smax) und dem Minimum (smin) als die Atemtiefe (T) charakterisierenden Wert für den dem Segment (S1, ..., Sq) zugeordneten Zeitbereich zur Verfügung hält und gegebenenfalls heranzieht.Device according to one of claims 17 to 19, characterized in that the processing unit ( 50 ) for characterizing the breathing depth (T) in a segment (S 1 , ... S q ) from the signal (s i ) at least one maximum (s max ) and at least one minimum (s min ) extracted and the at least one difference ( Δ) between the maximum (s max ) and the minimum (s min ) as the depth of breath (T) characterizing value for the segment (S 1 , ..., S q ) associated time range available and optionally uses. Vorrichtung nach einem der Ansprüche 17 bis 20, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) das Signal (si) einer spektralen Transformation, insbesondere Fourier-Transformation, Cosinustransformation oder Wavelet-Transformation, unterzieht und innerhalb eines vorgegebenen Frequenzbands, insbesondere von 0,1 Hz bis 1 Hz, nach demjenigen Spektralanteil mit der höchsten Signalenerige sucht und die Signalenergie dieses Spektralanteils zur Charakterisierung der Atemtiefe (T) in diesem Segment (S1, ..., Sq) heranzieht.Device according to one of claims 17 to 20, characterized in that the processing unit ( 50 ) the signal (s i ) undergoes a spectral transformation, in particular Fourier transformation, cosine transformation or wavelet transformation, and searches within a given frequency band, in particular from 0.1 Hz to 1 Hz, for that spectral component with the highest signal derivatives and the signal energy this spectral component is used to characterize the breathing depth (T) in this segment (S 1 , ..., S q ). Vorrichtung nach einem der Ansprüche 17 bis 21, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) das einem Segment (S1, ..., Sq) zugeordnete Signal (si) nach seiner Erstellung, insbesondere vor der Bestimmung des die Atemtiefe charakterisierenden Werts, einer Rauschfilterung unterzieht, wobei sie insbesondere a) Signalanteile mit einer Frequenz von mehr als 0,5 Hz unterdrückt, und/oder b) Gleichanteile unterdrückt.Device according to one of claims 17 to 21, characterized in that the processing unit ( 50 ) subjects the signal (s i ) associated with a segment (S 1 , ..., S q ) to noise filtering after its creation, in particular before the determination of the value characterizing the depth of respiration, in particular by a) signal components having a frequency of more suppressed as 0.5 Hz, and / or b) suppressed DC components. Vorrichtung nach einem der Ansprüche 17 bis 22, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) a) für eine Anzahl von überlappenden oder nicht überlappenden Segmenten (S1, ..., Sq) jeweils separat die Atemtiefe (T) ermittelt und/oder b) den Betrachtungsbereich (22) für jedes Segment (S1, ..., Sq) separat, insbesondere auf Grundlage des für das jeweils vorangehende Segment (S1, ..., Sq) ermittelten Betrachtungsbereichs (22), ermittelt.Device according to one of claims 17 to 22, characterized in that the processing unit ( 50 a) for a number of overlapping or non-overlapping segments (S 1 ,..., S q ) the depth of respiration (T) is determined separately and / or b) the viewing area ( 22 ) for each segment (S 1 , ..., S q ) separately, in particular on the basis of the respective preceding segment (S 1 ,..., S q ) 22 ), determined. Vorrichtung nach einem der Ansprüche 17 bis 23, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) – das Höhenprofil (H) durch eine zweidimensionale Matrixdatenstruktur umfassend eine Anzahl von Zeilen und Spalten charakterisiert, – ein Anzahl von in Zeilen und Spalten rasterförmig angeordneten Positionen vorgegeben wird, an denen jeweils die Abstandswerte (d1, ..., dn) des Höhenprofils (H) bestimmt – die Matrixdatenstruktur ein Raster von derselben Größe und Struktur aufweist, und – die Matrixdatenstruktur erstellt, indem sie die an den jeweiligen Positionen aufgenommenen Abstandswerte (d1, ..., dn) an den den Positionen im Raster entsprechenden Speicherpositionen in der Matrixdatenstruktur abspeichert und zur Verfügung hält.Device according to one of claims 17 to 23, characterized in that the processing unit ( 50 ) - the height profile (H) characterized by a two-dimensional matrix data structure comprising a number of rows and columns, - a number of arranged in rows and columns grid-like arranged positions is given, at each of which the distance values (d 1 , ..., d n ) the height profile (H) determines - the matrix data structure has a raster of the same size and structure, and - creates the matrix data structure by taking the distance values (d 1 , ..., d n ) recorded at the respective positions at the positions in the raster stores and makes available corresponding memory positions in the matrix data structure. Vorrichtung nach Anspruch 24, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) die Matrixdatenstruktur nach ihrer Erstellung in ihren Abmessungen durch eine reduzierte Matrixdatenstruktur ersetzt, wobei sie für rechteckige, insbesondere die gesamte Matrixdatenstruktur abdeckende, und nicht überlappende Bildbereiche von jeweils gleicher größe in der Matrixdatenstruktur jeweils einen mittleren Abstandswert (d') ermittelt und diesen mittleren Abstandswert (d') dem bezüglich seiner Lage entsprechenden Bildpunkt der reduzierten Matrixdatenstruktur zuordnet.Device according to claim 24, characterized in that the processing unit ( 50 The matrix data structure after its creation is replaced in its dimensions by a reduced matrix data structure, wherein it determines a mean distance value (d ') for rectangular, in particular the entire matrix data structure covering and non-overlapping image areas of the same size in the matrix data structure and this average distance value (d ') assigns the pixel corresponding to its position to the reduced matrix data structure. Vorrichtung nach Anspruch 24 oder 25, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) den Betrachtungsbereich (22) festlegt, indem sie a) in der im Höhenprofil (H), insbesondere in der Matrixdatenstruktur oder in der Punktwolke, eine Anzahl von möglichen Betrachtungsbereichen (R1,1, ...), vorab vorgibt, b) für das jeweilige Segment (S1, ..., Sq) die jeweilige Atemtiefe (T) unter Zugrundelegung jedes der möglichen Betrachtungsbereiche (22) ermittelt, und c) denjenigen vorgegebenen möglichen Betrachtungsbereich (R1,1, ...) als Betrachtungsbereich (22) auswählt und heranzieht, für den die ermittelte Atemtiefe (22) am größten ist. Device according to claim 24 or 25, characterized in that the processing unit ( 50 ) the viewing area ( 22 ) by specifying a) in the height profile (H), in particular in the matrix data structure or in the point cloud, a number of possible viewing ranges (R 1,1 , ...), b) for the respective segment ( S 1 , ..., S q ) the respective breathing depth (T) on the basis of each of the possible viewing areas ( 22 ) and c) the given possible viewing area (R 1,1 , ...) as the viewing area ( 22 ) and for which the determined depth of breath ( 22 ) is the largest. Vorrichtung nach einem der Ansprüche 24 bis 26, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) den Betrachtungsbereich (22) festlegt, indem sie a) im Höhenprofil, insbesondere in der Matrixdatenstruktur oder in der Punktwolke, mittels Objekterkennung nach Bereichen sucht oder Mittel zur Auswahl von Bereichen zur Verfügung stellt, die einem menschlichen Kopf und Torso entsprechen, und b) den den Torso abbildenden Bereich der des Höhenprofils, insbesondere der Matrixdatenstruktur oder der Punktwolke, oder ein Teilbereich dieses Bereichs als Betrachtungsbereich auswählt, wobei sie insbesondere – zur Detektion des Verlaufs oder der Atemtiefe der Brustatmung der dem Kopf nahe Teilbereich dieses Bereichs als Betrachtungsbereich (22) auswählt und/oder – zur Detektion des Verlaufs oder der Atemtiefe der Bauchatmung der dem Kopf ferne Teilbereich dieses Bereichs als Betrachtungsbereich (22) auswählt.Device according to one of claims 24 to 26, characterized in that the processing unit ( 50 ) the viewing area ( 22 ) by a) searching for areas in the elevation profile, in particular in the matrix data structure or in the point cloud, by object recognition, or providing means for selecting areas corresponding to a human head and torso, and b) the torso imaging area the height profile, in particular the matrix data structure or the point cloud, or selects a subarea of this area as a viewing area, in particular - for detecting the course or the breathing depth of the chest breathing the partial area of this area close to the head as the viewing area ( 22 ) and / or - for detecting the course or the breathing depth of the abdominal breathing, the portion of this area remote from the head as a viewing area ( 22 ) selects. Vorrichtung nach Anspruch 27, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) für jedes zu untersuchende Segment (S1, ..., Sq) oder für einzelne Höhenprofile (H) eines Segments (S1, ..., Sq) der Betrachtungsbereich (22) mittels Objekterkennung an die im Segment (S1, ..., Sq) vorliegenden Höhenprofile ausgehend (H) von der Position des ausgewählten Betrachtungsbereichs (22) im jeweils vorangehenden Segment (S1, ..., Sq) adaptiv neu ermittelt.Device according to claim 27, characterized in that the processing unit ( 50 ) for each segment to be examined (S 1 , ..., S q ) or for individual height profiles (H) of a segment (S 1 , ..., S q ) of the viewing area ( 22 ) by means of object recognition to the height profiles present in the segment (S 1 , ..., S q ) starting from the position of the selected viewing region (H) ( 22 ) in the respective preceding segment (S 1 , ..., S q ) adaptively newly determined. Vorrichtung nach einem der Ansprüche 24 bis 28, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) den Betrachtungsbereich (22) festlegt, indem sie a) für sämtliche Punkte des Höhenprofils (H), insbesondere für alle Einträge der Matrixdatenstruktur, separat die Varianz der Werte über das jeweilige Segment (S1, ..., Sq) bestimmt, und b) einen Bereich oder mehrere Bereiche (22a, 22b) mit jeweils zusammenhängenden Punkten des Höhenprofils (H), deren jeweilige Varianz oberhalb eines unteren Schwellenwerts oder innerhalb eines vorgegebenen Intervalls liegen, als Betrachtungsbereich (22) auswählt, insbesondere – indem sie zusammenhängende Bereiche (22a, 22b) als Betrachtungsbereich auswählt, deren Größe eine vorgegebene Anzahl von Punkten übersteigt – wobei insbesondere ein Bereich dann als zusammenhängend gilt, wenn jeder Punkt des Höhenprofils ausgehend von einem Punkt innerhalb dieses Bereichs über jeweils benachbarte Pixel erreichbar ist, – wobei vorzugsweise Punkte des Höhenprofils (H) dann als benachbart gilt, – wenn sie durch benachbarte Einträge der Matrix-Datenstruktur festgelegt sind oder – wenn sie oder ihre Projektion auf eine horizontale Ebene im Raum einen einen Schwellenwert unterschreitenden Abstand voneinander aufweisen.Device according to one of claims 24 to 28, characterized in that the processing unit ( 50 ) the viewing area ( 22 ) by determining a) for all points of the height profile (H), in particular for all entries of the matrix data structure, separately the variance of the values over the respective segment (S 1 , ..., S q ), and b) a range or several areas ( 22a . 22b ) with contiguous points of the height profile (H) whose respective variance is above a lower threshold value or within a predetermined interval, as the viewing area ( 22 ), in particular - by providing related areas ( 22a . 22b ) is selected as a viewing area whose size exceeds a predetermined number of points - in particular a region is considered as contiguous, if each point of the height profile is accessible from a point within this area on each adjacent pixel, - preferably points of the height profile (H ) are deemed to be adjacent, if they are defined by adjacent entries of the matrix data structure, or if they or their projection on a horizontal plane in space have a threshold below the threshold of one another. Vorrichtung nach einem Anspruch 29, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) den Betrachtungsbereich (22) in zwei oder mehreren aufeinander folgenden Segmenten (S1, ..., Sq) separat ermittelt und ein Höhenprofil (H) verwirft und gegebenenfalls eine Fehlermeldung ausgibt, wenn sich der Betrachtungsbereich (22), insbesondere dessen Größe und/oder dessen Schwerpunkt, gegenüber dem jeweils vorangehenden Segment (S1, ..., Sq) um einen vorgegebenen Schwellenwert verschiebt.Device according to claim 29, characterized in that the processing unit ( 50 ) the viewing area ( 22 ) is determined separately in two or more consecutive segments (S 1 ,..., S q ) and discards a height profile (H) and optionally outputs an error message if the viewing area (FIG. 22 ), in particular its size and / or its center of gravity, relative to the respective preceding segment (S 1 , ..., S q ) shifts by a predetermined threshold. Vorrichtung nach einem der Ansprüche 17 bis 30, dadurch gekennzeichnet, dass der Verarbeitungseinheit (50) ein Mikrofon (40) vorgeschaltet ist, das gleichzeitig parallel zur Aufnahme des Abstands der Person den von der Person (1) abgegebene Schall in Form eines Audio-Signals (sa) an seinem Ausgang zur Verfügung hält und dieses Audio-Signal der Verarbeitungseinheit zugeführt ist, und dass die Verarbeitungseinheit a) das Audio-Signal (sa) in eine Anzahl von Audio-Segmente (SA1, ..., SAr), insbesondere mit einer Länge von 100 ms bis 1 Sekunde, unterteilt und für jedes der Audio-Segmente (SA1, ..., Sar) untersucht, ob in diesem menschliche Atemgeräusche oder andere Geräusche zu hören sind, und für jedes Audio-Segment (SA1, ..., SAr) jeweils ein Klassifikationsergebnis zur Verfügung hält, c) zeitgleich aufgenommene Audio-Segmente (SA1, ..., Sar) und Segmente (S1, ..., Sq) einander zuordnet, und d) nach Audio-Segmenten (SA1, ..., Sar) oder Segmenten (S1, ..., Sq) mit geringer Atemtiefe oder mit fehlenden Atemgeräuschen sucht und die einem solchen Audio-Segment (SA1, ..., Sar) oder Segment (S1, ..., Sq) zugeordneten Segmente (S1, ..., Sq) oder Audio-Segmente (SA1, ..., Sar) ebenfalls auf das Vorliegen geringer Atemtiefe oder fehlender Atemgeräuschen untersucht, und e) für den Fall, dass in einander zugeordneten Segmenten (S1, ..., Sq) und Audio-Segmenten (S1, ..., Sq) jeweils geringe Atemtiefe und fehlender Atemgeräusche detektiert wurden, das Fehlen der Atmung der Person feststellt.Device according to one of claims 17 to 30, characterized in that the processing unit ( 50 ) a microphone ( 40 ), which at the same time parallel to the recording of the distance of the person from the person ( 1 ) is provided in the form of an audio signal (s a ) at its output and this audio signal is supplied to the processing unit, and that the processing unit a) the audio signal (s a ) in a number of audio segments (S A1 , ..., S Ar ), in particular with a length of 100 ms to 1 second, divided and examined for each of the audio segments (S A1 , ..., S ar ), whether in this human breath sounds or other sounds are heard, and for each audio segment (S A1 , ..., S Ar ) each holds a classification result, c) simultaneously recorded audio segments (S A1 , ..., S ar ) and segments (S 1 , ..., S q ) assigns each other, and d) audio segments (S A1 , ..., S ar ) or segments (S 1 , ..., S q ) with low breathing depth or with missing breath sounds and that such an audio segment (S A1 , ..., S ar ) or segment (S 1 , ..., S q ) associated segments (S 1 , ..., S q ) or audio segments (S A1 , ..., S ar ) are also examined for the presence of low breathing depth or lack of breathing sounds, and e) in the event that mutually associated Segments (S 1 , ..., S q ) and audio segments (S 1 , ..., S q ) each low breathing depth and lack of breath sounds were detected, the lack of respiration of the person detects. Vorrichtung nach Anspruch 31, dadurch gekennzeichnet, dass die Verarbeitungseinheit (50) a) ein Klassifikationssignal (A(t)) erstellt, das für jedes Audio-Segment (SAi) jeweils zumindest ein Klassifikationsergebnis enthält, das die Art und Stärke des jeweiligen Geräuschs im Zeitbereich des jeweiligen Audio-Segment (SAi) angibt, b) jeweils eine Anzahl von aufeinander folgenden Audio-Segmente (SAi) zu weiteren Audio-Segmenten (SAi), insbesondere mit einer Dauer von 5 bis 10 Sekunden zusammengefasst, die vorzugsweise dieselben Zeitbereiche umfassen wie die Segmente (S1, ..., Sq), c) über die innerhalb eines weiteren Audio-Segments (SAi) enthaltenen Klassifikationsergebnisse eine Mittelung vornimmt und dem weiteren Audio-Segment (SAi) den jeweilige Mittelwert zuweist, d) ein weiteres Klassifikationssignal (B(t)) durch Interpolation der Mittelwerte der weiteren Audio-Segmente (SAi) erstellt, e) im weiteren Klassifikationssignal B(t) sowie im Atemtiefesignal T(t) nach Zeitpunkten sucht, zu denen in den beiden Signalen (T(t), B(t)) starke Änderungen auftreten, und die so erkannten Zeitpunkte als umso relevanter eingestuft, je stärker die Änderung des jeweiligen Signals zum jeweiligen Zeitpunkt ist, wobei sie diesen Zeitpunkten jeweils ein diesbezügliches Relevanzmaß zuordnet, und f) jene Zeitpunkten als Startpunkte (RS) oder Endpunkte (RE) eines Atemstillstandes detektiert, für welche der Betrag des Relevanzwerts (REL) über dem Betrag eines Schwellwert liegt, wobei sie insbesondere – der Schwellenwert bildet, indem sie über einen Zeitbereich, insbesondere vor und/oder nach dem Vergleichszeitpunkt mit dem Referenzmaß ein Mittelwert des Referenzmaßes bildet und der Schwellenwert im Bereich zwischen 120% und 200% dieses Mittelwerts festlegt.Apparatus according to claim 31, characterized in that the processing unit ( 50 a) a classification signal (A (t)) is created which contains for each audio segment (S Ai ) at least one classification result which indicates the type and strength of the respective noise in the time domain of the respective audio segment (S Ai ), b) in each case a number of successive audio segments (S Ai ) combined to form further audio segments (S Ai ), in particular with a duration of 5 to 10 seconds, which preferably comprise the same time ranges as the segments (S 1 , .. ., S q ), c) performs an averaging over the classification results contained within a further audio segment (S Ai ) and assigns the respective mean value to the further audio segment (S Ai ), d) a further classification signal (B (t) ) by interpolation of the mean values of the further audio segments (S Ai ), e) in the further classification signal B (t) as well as in the respiratory depression signal T (t) searches for times to which in the two signals (T (t), B ( t)) changes considerably reten, and the timings thus recognized as all the more relevant, the stronger the change of the respective signal at each time point, assigning these times each relevant relevance measure, and f) those times as starting points (R S ) or endpoints (R E ) of a respiratory arrest, for which the magnitude of the relevance value (REL) is above the threshold value, wherein it forms, in particular, the threshold value by calculating a mean value of the reference measure over a time range, in particular before and / or after the reference time and the threshold between 120% and 200% of this average.
DE102014019760.3A 2014-09-10 2014-09-10 Method and device for determining the time course of the respiratory depth Ceased DE102014019760A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014019760.3A DE102014019760A1 (en) 2014-09-10 2014-09-10 Method and device for determining the time course of the respiratory depth

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014019760.3A DE102014019760A1 (en) 2014-09-10 2014-09-10 Method and device for determining the time course of the respiratory depth

Publications (1)

Publication Number Publication Date
DE102014019760A1 true DE102014019760A1 (en) 2016-04-21

Family

ID=55637664

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014019760.3A Ceased DE102014019760A1 (en) 2014-09-10 2014-09-10 Method and device for determining the time course of the respiratory depth

Country Status (1)

Country Link
DE (1) DE102014019760A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019140476A1 (en) * 2018-01-22 2019-07-25 Ait Austrian Institute Of Technology Gmbh Method for detecting body movements of a sleeping person
WO2021007605A1 (en) * 2019-07-17 2021-01-21 Ait Austrian Institute Of Technology Gmbh Method for detecting the intensity and/or the extent of body movements of a person

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Gabriele Fanelli, Juergen Gall, and Luc Van Gool. Real time head pose estimation with random regression forests. In Computer Vision and Pattern Recognition (CVPR), pages 617-624, June 2011
Hansard, M., Lee, S., Choi, O., and Horaud, R. (2013)
Hisham Alshaer, Aditya Pandya, T Douglas Bradley, and Frank Rudzicz. Subject independent identification of breath sounds components using multiple classifiers. In Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on, pages 3577-3581. IEEE, 2014
Jamie Shotton, Ross Girshick, Andrew Fitzgibbon, Toby Sharp, Mat Cook, Mark Finocchio, Richard Moore, Pushmeet Kohli, Antonio Criminisi, Alex Kipman, et al. Efficient human pose estimation from single depth images. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 35(12): 2821-2840, 2013
M Cavusoglu, M Kamasak, O Erogul, T Ciloglu, Y Serinagaoglu, and T Akcam. An efficient method for snore/nonsnore classification of sleep sounds. Physiological measurement, 28(8): 841, 2007
Mailloux, R. J. (2005)
Oike, Y., Shintaku, H., Takayama, S., Ikeda, M., and Asada, K. (2003)
Sensors, 2003. Proceedings of IEEE, volume 1, pages 502-507. IEEE

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019140476A1 (en) * 2018-01-22 2019-07-25 Ait Austrian Institute Of Technology Gmbh Method for detecting body movements of a sleeping person
WO2021007605A1 (en) * 2019-07-17 2021-01-21 Ait Austrian Institute Of Technology Gmbh Method for detecting the intensity and/or the extent of body movements of a person

Similar Documents

Publication Publication Date Title
DE102014218140B3 (en) Method and device for determining the time course of the breathing depth of a person
DE60028877T2 (en) PICTURE PROCESSING SYSTEM, SYSTEM AND DEVICE FOR FORMING AN ENTIRE IMAGE IN A LONG SCROLLED SCENE
DE102016105891A1 (en) Handheld device, object positioning method and computer readable recording medium
DE102006027992A1 (en) Image frames` movement correcting method for use in spatial-compound-ultrasonic imaging, involves updating prior movement estimated value with estimated movement, and correcting image frame and preceding image frame using updated value
DE112012003583T5 (en) Method for detecting and tracking a needle
DE102013225283B4 (en) Method and device for capturing an all-round view
DE102015014908A1 (en) Apparatus, method and program for processing a medical image, and X-ray therapy apparatus
DE102007003517A1 (en) Image display device and X-ray CT device
DE112005002577T5 (en) Respiratory Monitoring Device, Respiratory Monitoring System, Medical Processing System, Respiratory Monitoring Procedures and Respiratory Monitoring Program
DE102016205088A1 (en) CT image processing apparatus and method
DE102010043975B4 (en) Procedure for reducing the radiation dose used as part of an imaging X-ray examination and computer system
DE102007013570A1 (en) Method for noise reduction in digital images with locally different and directional noise
DE102012102736A1 (en) Method for visualizing needle for medical-ultrasound imaging apparatus utilized to capture clear images of e.g. blood vessel of patient during cardiac invasive therapy, involves outputting image frames from compounded frame sequence
DE112018003204T5 (en) Surgical imaging system and method
DE112017007011B4 (en) Face direction estimation device and face direction estimation method
DE112015006378T5 (en) Image processing apparatus, image processing method and image processing program
DE102014205828B4 (en) Method for determining the time of heart movement and for triggering an imaging system and corresponding device
DE102007061934A1 (en) Method for improving the quality of computer tomographic acquisition series by projection data processing and CT system with arithmetic unit
DE102014019760A1 (en) Method and device for determining the time course of the respiratory depth
DE112015007245T5 (en) High resolution composite ultrasound flow imaging
DE102004028710B4 (en) A method and system for automatically changing medical image processing and an ultrasonic medical imaging method
DE112021005277T5 (en) Object key point detection
WO2012055543A1 (en) Use of a two-dimensional analytical signal in sonography
Arif et al. Block level multi-focus image fusion using wavelet transform
DE102015223946A1 (en) Determining physiological activity signals

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R129 Divisional application from

Ref document number: 102014218140

Country of ref document: DE

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final