DE102015013031A1 - Vorrichtung, Verfahren und Computerprogramm zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung - Google Patents

Vorrichtung, Verfahren und Computerprogramm zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung Download PDF

Info

Publication number
DE102015013031A1
DE102015013031A1 DE102015013031.5A DE102015013031A DE102015013031A1 DE 102015013031 A1 DE102015013031 A1 DE 102015013031A1 DE 102015013031 A DE102015013031 A DE 102015013031A DE 102015013031 A1 DE102015013031 A1 DE 102015013031A1
Authority
DE
Germany
Prior art keywords
image data
information
dimensional
contraption
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015013031.5A
Other languages
English (en)
Other versions
DE102015013031B4 (de
Inventor
Jasper DIESEL
Frank Franz
Stefan Schlichting
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Draegerwerk AG and Co KGaA
Original Assignee
Draegerwerk AG and Co KGaA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Draegerwerk AG and Co KGaA filed Critical Draegerwerk AG and Co KGaA
Priority to DE102015013031.5A priority Critical patent/DE102015013031B4/de
Priority to US15/288,256 priority patent/US10134128B2/en
Publication of DE102015013031A1 publication Critical patent/DE102015013031A1/de
Application granted granted Critical
Publication of DE102015013031B4 publication Critical patent/DE102015013031B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform

Abstract

Ausführungsbeispiele schaffen eine Vorrichtung (10), ein Verfahren und ein Computerprogramm zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung (20). Die Vorrichtung (10) ist zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung (20) und zur Bestimmung einer Lage von zumindest zwei Teilsegmenten (20a; 20b; 20c; 20d) der Patientenlagerungsvorrichtung (20) basierend auf den Bilddaten ausgebildet, wobei die Vorrichtung (10) ferner eine Schnittstelle (16) zur Ausgabe einer Information über die Lage der zumindest zwei Teilsegmente (20a; 20b; 20c; 20d) aufweist.

Description

  • Ausführungsbeispiele beziehen sich auf eine Vorrichtung, ein Verfahren und ein Computerprogramm zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung, insbesondere aber nicht ausschließlich, auf ein Konzept zur automatisierten Bestimmung einer geometrischen Lage von Teilsegmenten einer Patientenlagerungsvorrichtung basierend auf optische Bilddaten.
  • In der konventionellen Technik sind verschiedene Konzepte bekannt, die eine Lage, Haltung bzw. Liegehaltung oder Position/Pose eines Patienten auf einem Krankenbett abschätzen, beispielsweise motiviert dadurch, dass ungünstige Köperhaltungen existieren, die einen Genesungs- oder Heilprozess negativ beeinflussen oder ein Gesundheitsrisiko darstellen können. Darunter kann auch ein Verharren in einer Position oder Haltung über eine gewisse Zeitdauer fallen. Für an ein Krankenbett gebundene Patienten hängt deren Haltung oder Pose von einer Einstellung oder Konfiguration des benutzten Krankenbettes ab. Solche Patienten befinden sich oftmals in Situationen, beispielsweise in dafür vorgesehenen Unterbringungen, Stationen oder Krankenzimmern, in welchen dann entsprechende Überwachung, Dokumentation und Warnmechanismen vorgesehen sind, um kritische oder Fehlhaltungen zu vermeiden. Einrichtungen für betreutes Wohnen, Pflegeeinrichtungen, Heimpflegeplätze, Altenheime, Krankenhäuser und Intensivstationen sind einige Beispiele.
  • Im Bereich der Pflege gibt es einstellbare oder konfigurierbare Kranken- oder Pflegebetten, die Patienten zu Hause oder auch in entsprechenden Einrichtungen wie Krankenhäusern zur Verfügung stehen. Die verfügbaren Krankenbetten sind zumeist nicht in der Lage Information über eine derzeitige Konfiguration zur Verfügung zu stellen, bzw. verwenden dazu herstellerspezifische oder eigene Protokolle.
  • Weitere Hintergrundinformation kann in den folgenden Schriften gefunden werden:
  • Es besteht daher ein Bedarf daran, ein verbessertes Konzept zur Überwachung einer Lage eines Patienten zu schaffen. Dies wird dadurch gelöst, dass optische Bilddaten einer Patientenlagerungsvorrichtung erfasst werden, dass ferner eine Lage von zumindest zwei Teilsegmenten der Patientenlagerungsvorrichtung basierend auf den Bilddaten bestimmt wird und dass ferner eine Information über die Lage der zumindest zwei Teilsegmente ausgegeben wird. Aus der Lage der Teilsegmente lassen sich Rückschlüsse auf die Lage des Patienten ziehen. Beispielsweise kann aus einer sich nicht verändernden Lage der Teilsegmente auf eine erhöhte Wahrscheinlichkeit dafür geschlossen werden, dass sich auch eine Patientenlage nicht verändert hat. Lagen der Segmente können z. B. die möglichen Positionen oder Lagen eines Patienten einschränken oder auch nur bestimmte Lagen zulassen. Die ausgegebene Information bezüglich der Lage der wenigstens zwei Teilsegmente kann dann später als eine indirekte Information über die Lage bzw. Liegehaltung des Patienten verwendet bzw. interpretiert werden.
  • Die vorgeschlagene Lösung ist insbesondere deshalb vorteilhaft, da von der Lage der wenigstens zwei Teilsegmente in einfacher Weise auf eine Lage des Patienten geschlossen werden kann. Die ausgegebene Information kann daher vorzugsweise ein Datensatz sein, welcher lediglich die Lage der wenigstens zwei Teilsegmente indiziert und daher möglicherweise ein deutlich geringeres Datenvolumen aufweist als eine Dateninformation, welche eine komplette Lage eines ganzen Patienten mit all seinen einzelnen Körpersegmenten indiziert. Mit einem solchen geringeren bzw. reduzierteren Datenvolumen der genannten ausgegebenen Information kann eine effizientere Dokumentation der Lage des Patienten durch Abspeicherung der Information erreicht werden. Ferner kann eine effiziente Datenübertragung der ausgegebenen Information erfolgen, da nicht eine Information über die Lage aller möglichen Körpersegmente des Patienten übertragen werden muss, sondern lediglich die ausgegebene Information bezüglich der Teilsegmente der Patientenlagerungsvorrichtung. Diese kann nach der Übertragung dann, wie bereits zuvor erwähnt, als indirekte Information über die Lage des Patienten interpretiert oder abgespeichert werden. Ferner kann mitunter eine Bestimmung der Teillagen der Teilsegmente der Patientenlagerungsvorrichtung sicherer bzw. zuverlässiger durchgeführt werden als eine Bestimmung von Teillagen jeweiliger Körperteile bzw. Körperabschnitte des Patienten selber.
  • Diesem Bedarf werden Ausführungsbeispiele einer Vorrichtung nach Anspruch 1, eines Verfahrens nach Anspruch 16 und eines Computerprogramms nach Anspruch 17 gerecht.
  • Mit anderen Worten: Ausführungsbeispiele der vorliegenden Erfindung basieren auch auf dem Gedanken, optisch erfasste Bilddaten einer Patientenlagerungsvorrichtung auszuwerten bzw. zu verarbeiten und daraus auf die Lage zumindest zweier Teilsegmente zu schließen. Ausführungsbeispiele stellen eine Vorrichtung zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung und zur Bestimmung einer Lage von zumindest zwei Teilsegmenten der Patientenlagerungsvorrichtung basierend auf den Bilddaten bereit. Manche Ausführungsbeispiele können so eine optische Bestimmung der Lage einer Patientenlagerungsvorrichtung ermöglichen, was eine Kommunikation direkt mit der Patientenlagerungsvorrichtung und etwaige dafür erforderliche Kommunikationskomponenten und Kommunikationsprotokolle sowie Erfassungseinrichtungen an der Patientenlagerungsvorrichtung, wie etwa Stellgradrückmeldungen, vermeiden kann. Die Vorrichtung weist ferner eine Schnittstelle zur Ausgabe einer Information über die Lage der zumindest zwei Teilsegmente auf. Ausführungsbeispiele können so Information über die Teilsegmentlage zur Weiterverarbeitung (z. B. in einem Rechner) oder auch zur Darstellung (z. B. auf einem Monitor oder Anzeigeelement (auch engl. Display)) bereitstellen.
  • In einigen Ausführungsbeispielen umfasst die Vorrichtung eine Erfassungseinrichtung zur Erfassung der optischen Bilddaten der Patientenlagerungsvorrichtung, wobei die Erfassungseinrichtung ein oder mehrere Sensoren aufweist. Hierbei können ein oder mehrere Bildsensoren zum Einsatz kommen und so in manchen Ausführungsbeispielen die Verwendung von ein oder mehreren Kameras ermöglichen, deren optische Erfassung auch die Patientenlagerungsvorrichtung erfasst. Die ein oder mehreren Sensoren können in weiteren Ausführungsbeispielen zumindest einen Sensor umfassen, der zumindest dreidimensionale Daten liefert. Die Bilddaten können dann beispielsweise neben anderen Informationen auch Tiefeninformation umfassen, die eine genauere Bestimmung der Lage der zumindest zwei Teilsegmente erlaubt. Die ein oder mehreren Sensoren können beispielsweise ausgebildet sein, um als Bilddaten eine Menge von Bildpunkten zu erfassen, wobei die Menge der Bildpunkte im Wesentlichen unabhängig von einer Beleuchtungsintensität der Patientenlagerungsvorrichtung ist, wobei die Beleuchtungsintensität auf einen Einfluss externer Lichtquellen zurückgeht. Die Lichtquellen sind extern im dem Sinne, dass sie nicht Teil der Vorrichtung sind. Dies kann eine Bestimmung der Lage der Teilsegmente unabhängig von der Tageszeit und den externen Beleuchtungsverhältnissen ermöglichen.
  • In manchen Ausführungsbeispielen kann die Vorrichtung ferner eine Bestimmungseinrichtung umfassen, die zur Bestimmung der Lage der zumindest zwei Teilsegmente der Patientenlagerungsvorrichtung basierend auf den Bilddaten ausgebildet ist. Die Bestimmungseinrichtung kann beispielsweise den Einsatz von ein oder mehreren Prozessoren, Grafikprozessoren, Recheneinheiten, Mikrocontrollern etc. erlauben. In einigen weiteren Ausführungsbeispielen kann die Bestimmungseinrichtung ausgebildet sein, um die Bilddaten oder vorverarbeitete Bilddaten von einem Originalbereich in einen Transformationsbereich zu transformieren. Eine Bestimmung der Lage der Teilsegmente in dem Transformationsbereich kann robuster gegenüber Störobjekten in den Bilddaten sein, als in dem Originalbereich. Je nach Art der Störobjekte kann so ein Transformationsbereich gewählt werden, der eine schnellere oder zuverlässigere Lagebestimmung der Teilsegmente erlaubt.
  • Die Bestimmungseinrichtung kann ausgebildet sein, um in dem Transformationsbereich die zumindest zwei Teilsegmente hinsichtlich Position, Größe und Lage zu quantifizieren. Eine Bestimmung nach Position, Größe und Lage kann zu einer schnelleren, genaueren und/oder aufwandsgünstigeren Lagebestimmung der Teilsegmente beitragen.
  • In einigen weiteren Ausführungsbeispielen kann die Bestimmungseinrichtung ausgebildet sein, um eine Information über eine Zuverlässigkeit einer Lagebestimmung für zumindest ein Teilsegment zu bestimmen. Manche Ausführungsbeispiele können damit eine Zuverlässigkeitseinschätzung erlauben und ggf. unzuverlässige Lageschätzungen oder -bestimmungen verwerfen bzw. einen niedrigeren Einfluss auf eine Gesamtschätzung einräumen. In manchen Ausführungsbeispielen kann die Information über die Lage in Abhängigkeit einer Bedingung ausgegeben werden. Insofern kann eine Möglichkeit zur Kommunikation oder Interaktion bestehen. Die Bedingung kann beispielsweise derart gewählt sein, dass die Ausgabe periodisch, auf Anfrage, ereignisbasiert oder zufällig erfolgt. Insofern sind viele Überwachungs-, Dokumentations-, und/oder Warnimplementierungen in Ausführungsbeispielen denkbar. Die bedingte Ausgabe ist vorteilhaft, da hierdurch möglicherweise eine Datenreduktion erfolgt, da nicht ständig Daten zur Indizierung der ausgegebenen Information ausgegeben werden müssen, sondern überflüssige Datenvolumina vermieden werden können, da nur bei Eintritt der Bedingung eine Ausgabe der Information erfolgt.
  • Es ist in weiteren Ausführungsbeispielen auch möglich, dass die Schnittstelle ferner zur Ausgabe einer Positionsinformation und/oder einer Größeninformation über die zumindest zwei Teilsegmente ausgebildet ist und so weitere Informationen zur Weiterverarbeitung oder Darstellung bereitgestellt werden können.
  • In manchen Ausführungsbeispielen kann die Erfassungseinrichtung mehrere Bildsensoren zur Erfassung von zumindest dreidimensionalen Bilddaten umfassen. Die Bestimmungseinrichtung kann ausgebildet sein, um die Daten der mehreren Bildsensoren zu Bilddaten eines zumindest dreidimensionalen Teilbildes der Patientenlagerungsvorrichtung zusammenzufassen und um die Bestimmung der Lage der zumindest zwei Teilsegmente basierend auf dem Teilbild durchzuführen. Einige Ausführungsbeispiele können so die Verwendung mehrerer Sensoren oder Kameras erlauben und ein detailliertes dreidimensionales (Teil-)Bild erstellen, beispielsweise durch Aufnahmen aus verschiedenen Perspektiven und Kombination der Einzelbilddaten. In einigen weiteren Ausführungsbeispielen kann die Bestimmungseinrichtung ausgebildet sein, um aus zumindest dreidimensionalen Teilbilddaten der Patientenlagerungsvorrichtung zweidimensionale Histogrammdaten zu bestimmen und die Lage der zumindest zwei Teilsegmente der Patientenlagerungsvorrichtung basierend auf den Histogrammdaten zu bestimmen. Ausführungsbeispiele können so eine effektive Bild- und/oder Datenverarbeitung bereitstellen, um die Teilsegmentlagen zu bestimmen.
  • Die Bestimmungseinrichtung kann in manchen Ausführungsbeispielen ausgebildet sein, um aus den zumindest dreidimensionalen Teilbilddaten der Patientenlagerungsvorrichtung Bildpunkte zu bestimmen, die Bildinformation über die Patientenlagerungsvorrichtung aufweisen, die Bildpunkte in Abhängigkeit eines Abstandes zu einer Mittelebene entlang einer Längsachse der Patientenlagerungsvorrichtung zu gewichten, und die Histogrammdaten basierend auf den gewichteten Bildpunkten zu bestimmen. Einige Ausführungsbeispiele können so eine zuverlässigere Teilsegment-Lagebestimmung erzielen, da Bildpunkte, die zur Mitte der Patientenlagerungsvorrichtung und damit wahrscheinlich auch zu Störobjekten zugeordnet werden, eine geringere Gewichtung erhalten.
  • Ausführungsbeispiele schaffen ferner ein Verfahren zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung, mit einem optischen Erfassen von Bilddaten der Patientenlagerungsvorrichtung und einem Bestimmen der Lage der zumindest zwei Teilsegmente der Patientenlagerungsvorrichtung basierend auf den optisch erfassten Bilddaten. Das Verfahren umfasst ferner ein Ausgeben einer Information über die Lage der zumindest zwei Teilsegmente.
  • Ein weiteres Ausführungsbeispiel ist ein Computerprogramm zur Durchführung zumindest eines der oben beschriebenen Verfahren, wenn das Computerprogramm auf einem Computer, einem Prozessor oder einer programmierbaren Hardwarekomponente abläuft. Ein weiteres Ausführungsbeispiel ist auch ein digitales Speichermedium, das maschinen- oder computerlesbar ist, und das elektronisch lesbare Steuersignale aufweist, die mit einer programmierbaren Hardwarekomponente so zusammenwirken können, dass eines der oben beschriebenen Verfahren ausgeführt wird.
  • Weitere vorteilhafte Ausgestaltungen werden nachfolgend anhand der in den Zeichnungen dargestellten Ausführungsbeispiele, auf welche Ausführungsbeispiele generell jedoch nicht insgesamt beschränkt sind, näher beschrieben. Es zeigen:
  • 1 ein Ausführungsbeispiel einer Vorrichtung zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung;
  • 2 ein Krankenbett als Patientenlagerungsvorrichtung mit vier Segmenten in einem Ausführungsbeispiel;
  • 3 verschiedene Lagen von Teilsegmenten eines Krankenbettes als Patientenlagerungsvorrichtung in einem Ausführungsbeispiel;
  • 4 ein Übersichtsdiagramm zur Bestimmung von dreidimensionalen Bilddaten in einigen Ausführungsbeispielen;
  • 5 ein Ausführungsbeispiel in einem Krankenzimmer;
  • 6 ein Ablaufdiagramm zur Bestimmung der Lage der Teilsegmente in einem Ausführungsbeispiel;
  • 7 erfasste Bilddaten in einem Ausführungsbeispiel;
  • 8 ein Ablaufdiagramm einer Transformation in einem Ausführungsbeispiel;
  • 9 eine Illustration einer Gewichtung von Bildpunkten in einem Ausführungsbeispiel;
  • 10 eine Illustration zweier Histogramme in einem Ausführungsbeispiel;
  • 11 ein Ablaufdiagramm zur Verdeutlichung einer Anpassung eines Models an Matratzensegmente in einem Ausführungsbeispiel;
  • 12 eine Illustration zur Verdeutlichung einer Anpassung eines Models an Matratzensegmente in einem Ausführungsbeispiel;
  • 13 eine Darstellung von Ergebnisdaten in einem Ausführungsbeispiel;
  • 14 ein Blockschaltbild eines Ausführungsbeispiels eines Ablaufdiagramms eines Verfahrens zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung;
  • 15 ein Blockschaltbild eines Ablaufdiagramms eines Ausführungsbeispiels eines Verfahrens zur Bestimmung einer Seitenebene; und
  • 16 eine Illustration eines Krankenbettes mit Teilsegmenten und Bettachse.
  • Verschiedene Ausführungsbeispiele werden nun ausführlicher unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in denen einige Ausführungsbeispiele dargestellt sind.
  • Bei der nachfolgenden Beschreibung der beigefügten Figuren, die lediglich einige exemplarische Ausführungsbeispiele zeigen, können gleiche Bezugszeichen gleiche oder vergleichbare Komponenten bezeichnen. Ferner können zusammenfassende Bezugszeichen für Komponenten und Objekte verwendet werden, die mehrfach in einem Ausführungsbeispiel oder in einer Zeichnung auftreten, jedoch hinsichtlich eines oder mehrerer Merkmale gemeinsam beschrieben werden. Komponenten oder Objekte, die mit gleichen oder zusammenfassenden Bezugszeichen beschrieben werden, können hinsichtlich einzelner, mehrerer oder aller Merkmale, beispielsweise ihrer Dimensionierungen, gleich, jedoch gegebenenfalls auch unterschiedlich ausgeführt sein, sofern sich aus der Beschreibung nicht etwas anderes explizit oder implizit ergibt. Optionale Komponenten sind in den Figuren mit gestrichelten Linien oder Pfeilen dargestellt.
  • Obwohl Ausführungsbeispiele auf verschiedene Weise modifiziert und abgeändert werden können, sind Ausführungsbeispiele in den Figuren als Beispiele dargestellt und werden hierin ausführlich beschrieben. Es sei jedoch klargestellt, dass nicht beabsichtigt ist, Ausführungsbeispiele auf die jeweils offenbarten Formen zu beschränken, sondern dass Ausführungsbeispiele vielmehr sämtliche funktionale und/oder strukturelle Modifikationen, Äquivalente und Alternativen, die im Bereich der Erfindung liegen, abdecken sollen. Gleiche Bezugszeichen bezeichnen in der gesamten Figurenbeschreibung gleiche oder ähnliche Elemente.
  • Man beachte, dass ein Element, das als mit einem anderen Element „verbunden” oder „verkoppelt” bezeichnet wird, mit dem anderen Element direkt verbunden oder verkoppelt sein kann oder dass dazwischenliegende Elemente vorhanden sein können. Wenn ein Element dagegen als „direkt verbunden” oder „direkt verkoppelt” mit einem anderen Element bezeichnet wird, sind keine dazwischenliegenden Elemente vorhanden. Andere Begriffe, die verwendet werden, um die Beziehung zwischen Elementen zu beschreiben, sollten auf ähnliche Weise interpretiert werden (z. B., „zwischen” gegenüber „direkt dazwischen”, „angrenzend” gegenüber „direkt angrenzend” usw.).
  • Die Terminologie, die hierin verwendet wird, dient nur der Beschreibung bestimmter Ausführungsbeispiele und soll die Ausführungsbeispiele nicht beschränken. Wie hierin verwendet, sollen die Singularformen „einer,” „eine”, „eines” und „der, die, das” auch die Pluralformen beinhalten, solange der Kontext nicht eindeutig etwas anderes angibt. Ferner sei klargestellt, dass die Ausdrücke wie z. B. „beinhaltet”, „beinhaltend”, „aufweist”, „umfasst”, „umfassend” und/oder „aufweisend”, wie hierin verwendet, das Vorhandensein von genannten Merkmalen, ganzen Zahlen, Schritten, Arbeitsabläufen, Elementen und/oder Komponenten angeben, aber das Vorhandensein oder die Hinzufügung von einem bzw. einer oder mehreren Merkmalen, ganzen Zahlen, Schritten, Arbeitsabläufen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.
  • Solange nichts anderes definiert ist, haben sämtliche hierin verwendeten Begriffe (einschließlich von technischen und wissenschaftlichen Begriffen) die gleiche Bedeutung, die ihnen ein Durchschnittsfachmann auf dem Gebiet, zu dem die Ausführungsbeispiele gehören, beimisst. Ferner sei klargestellt, dass Ausdrücke, z. B. diejenigen, die in allgemein verwendeten Wörterbüchern definiert sind, so zu interpretieren sind, als hätten sie die Bedeutung, die mit ihrer Bedeutung im Kontext der einschlägigen Technik konsistent ist, und nicht in einem idealisierten oder übermäßig formalen Sinn zu interpretieren sind, solange dies hierin nicht ausdrücklich definiert ist.
  • 1 zeigt ein Ausführungsbeispiel einer Vorrichtung 10 zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung 20 und zur Bestimmung einer Lage von zumindest zwei Teilsegmenten 20a, 20b der Patientenlagerungsvorrichtung 20 basierend auf den Bilddaten. In Ausführungsbeispielen kann die Patientenlagerungsvorrichtung 20 auch noch weitere Segmente aufweisen. Hier und im Folgenden sei unter einer Patientenlagerungsvorrichtung 20 beispielsweise ein verstellbares Krankenbett, ein Operationstisch, eine Liege, eine Bare, ein Schleusen-Tisch, ein Krankenstuhl, ein Rollstuhl, usw. verstanden, also eine Vorrichtung, die sich zur Lagerung, zum Betten, zum Unterstützen, evtl. zum Transportieren usw. von Personen, Kranken oder Pflegebedürftigen eignet. Im Folgenden werden einige Ausführungsbeispiele am Beispiel eines Krankenbettes betrachtet. Dieses Krankenbett ist als Stellvertreter für beliebige Patientenlagerungsvorrichtungen gedacht und zu verstehen.
  • 2 zeigt ein Krankenbett 20 mit vier Segmenten 20a, 20b, 20c, 20d in einem Ausführungsbeispiel. Die Segmente können dabei für unterschiedliche Funktionen vorgesehen sein, beispielsweise Fuß-, Bein-, Rumpf-, Rücken-, Kopfunterstützung, usw., sowie in Bereiche unterteilt sein, z. B. Sitz- und Liegebereich. Die Teilsegmente 20a, 20b, 20c, 20d in der 2 sind zumindest teilweise Segmenten eines Liege- und/oder Sitzbereiches der Patientenlagerungsvorrichtung 20 zugeordnet. In weiteren Ausführungsbeispielen kann anstatt des Krankenbettes 20, auch eine beliebige andere Patientenlagerungsvorrichtung mit entsprechenden Segmenten betrachtet werden. Die Teilsegmente 20a, 20b, 20c, 20d können konfigurierbar oder verstellbar sein und daher verschiedene Lagen zueinander oder auch relativ zum Bettgestell 20e einnehmen, vgl. auch 1. In dem gezeigten Ausführungsbeispiel ist die Matratze des Bettes 20 in die vier Segmente 20a, 20b, 20c, 20d unterteilt, die konfigurierbar sind. Ein Patient kann so beispielsweise mit dem Kopf nach rechts auf dem Bett 20 liegen, so dass das Teilsegment 20a den unteren Beinbereich des Patienten stützt, das Teilsegment 20b den oberen Beinbereich, usw. Ein Pfeil 20f markiert den Anfang des Segmentes 20a in der 2. Hier und im Folgenden seien unter der Lage eines Segmentes 20a, 20b, 20c, 20d dessen Orientierung, Richtung, relative Ausrichtung zu zumindest einem anderen Teilsegment, z. B. Schnittwinkel der Längs- oder Querachsen, relative Ausrichtung gegenüber einem Referenzobjekt, z. B. Untergrund, Achse der Patientenlagerungsvorrichtung, Information, die dem Pflegepersonal Aufschluss darüber gibt, ob eine Einstellung der Patientenlagerungsvorrichtung bei gegebenem Zustand eines darauf befindlichen Patienten geändert werden soll, usw. verstanden. Die Bestimmung einer Information über die Lage wird also mit dem Ziel durchgeführt, eine Aussage über die Einstellung oder Konfiguration der Patientenlagerungsvorrichtung 20 zu machen, um dann nachfolgend diese beispielsweise dokumentieren zu können und/oder auch einschätzen zu können, ob eine Änderung der Einstellung erfolgen sollte. Insofern kann die Lage der zumindest zwei Teilsegmente 20a, 20b sich auf jegliche ein-, zwei- oder dreidimensionale Information beziehen, die einen Rückschluss auf die Einstellung oder Konfiguration der zumindest zwei Teilesegmente 20a, 20b zulässt, z. B. in Form von Winkeln, Geraden, Ebenen, usw.
  • 3 zeigt verschiedene Lagen von Teilsegmenten 20a, 20b, 20c, 20d des Krankenbettes 20 in Ausführungsbeispielen, wobei in der 3 darüber hinaus verschiedene Perspektiven auf das Krankenbett 20 dargestellt sind. Die Konfigurationen sind Beispielkonfigurationen eines verstellbaren Bettes 20 auf einer Intensivstation mit Störobjekten in den Bilddaten.
  • In der 3 ist oben links eine Konfiguration aus einer seitlichen Perspektive dargestellt, bei der zwischen benachbarten Segmenten jeweils ein Winkel eingestellt ist. Oben in der Mitte ist eine flache Konfiguration dargestellt, wobei hier in dem Bild mittig auch ein Patient zu sehen ist. Oben rechts ist ein Patient sitzend auf einem flach konfigurierten Bett zu sehen und unten links ein Patient liegend auf dem ansonsten eher flach konfigurierten Bett, wobei beide Darstellungen aus einer nahezu frontalen Perspektive gezeigt sind. Die beiden Darstellungen unten in der Mitte und rechts zeigen aus frontalen Perspektiven das Bett mit dem Patienten mit weiteren Teilsegmenteinstellungen. Wie aus den Darstellungen der 3 erkennbar ist, können die Teilsegmentkonfigurationen sehr unterschiedlich sein, und Patienten oder Objekte wie Decken, Kissen, etc. können zum Teil die Segmente in den Bilddaten verdecken.
  • In dem in der 1 gezeigten Ausführungsbeispiel umfasst die Vorrichtung 10 ferner eine Schnittstelle 16 zur Ausgabe einer Information über die Lage der zumindest zwei Teilsegmente 20a, 20b. Die Schnittstelle 16 kann mit einer weiter untern erläuterten Bestimmungseinrichtung 14 gekoppelt sein. Über die Schnittstelle 16 kann beispielsweise Information über die Konfiguration/Lage der Segmente 20a, 20b (z. B. Winkel, Schnittwinkel, davon abgeleitete Information usw.) und/oder In formation über die Zuverlässigkeit dieser Information an andere Komponenten kommuniziert werden, z. B. zur nachfolgenden weiteren Verarbeitung der Bilddaten, beispielsweise an ein Display oder an einen Monitor, eine Alarmierungseinrichtung oder ein Dokumentationssystem.
  • Die Schnittstelle 16 kann beispielsweise einem oder mehreren Eingängen und/oder einem oder mehreren Ausgängen zum Empfangen und/oder Übertragen von Informationen entsprechen, etwa in digitalen Bitwerten, analogen Signalen, Magnetfeldern, basierend auf einem Code, innerhalb eines Moduls, zwischen Modulen, oder zwischen Modulen verschiedener Entitäten. Die Schnittstelle 16 kann aber auch einer Eingabeschnittstelle 16 entsprechen, wie etwa einem Bedienfeld, einem Schalter oder Drehschalter, einem Knopf, einem berührungsempfindlichen Bildschirm (auch englisch „Touchscreen”) usw. Die Schnittstelle 16 erlaubt somit das Aufnehmen, ggf. auch Empfang oder Eingabe, einer Information, beispielsweise darüber, ob eine Bestimmung der Teilsegmentlagen durchgeführt werden soll.
  • In einem weiteren Ausführungsbespiel umfasst die Vorrichtung 10 eine Erfassungseinrichtung 12 zur Erfassung der optischen Bilddaten der Patientenlagerungsvorrichtung 20, wie dies in der 1 optional dargestellt ist (optionale Komponenten sind in der 1 mit gestrichelten Linien dargestellt). Die Erfassungseinrichtung 12 kann ein oder mehrere Sensoren aufweisen. Die Erfassungseinrichtung 12 kann dabei ein oder mehreren beliebigen optischen Erfassungseinheiten, Erfassungsgeräten, Erfassungsmodulen, usw. entsprechen. Denkbar sind hier Kameras, Bildsensoren, Infrarotsensoren, Sensoren zur Erfassung ein-, zwei-, drei- oder mehr-dimensionaler Daten, Sensorelemente verschiedener Art usw. Die ein oder mehreren Sensoren können in weiteren Ausführungsbeispielen zumindest einen Sensor umfassen, der zumindest dreidimensionale Daten liefert. Die dreidimensionalen Daten erfassen demnach Information über Bildpunkte im Raum und können zusätzlich, quasi als weitere Dimensionen, weitere Information umfassen, beispielsweise Farbinformation (z. B. Rot, Grün, Blau (RGB) Farbraum), Infrarotintensität, Transparenzinformation (z. B. Alpha-Werte), usw.
  • Es gibt verschiedene Arten von Sensoren, die zwar kein zweidimensionales Bild einer Szene erzeugen, aber eine dreidimensionale Punktemenge erzeugen, etwa Bildpunkte mit Koordinaten oder verschiedener Tiefeninformation, die Information über Oberflächenpunkte eines Objektes umfassen. Beispielsweise kann hier Information über einen Abstand der Bildpunkte zu dem Sensor oder Sensorsystem selbst vorhanden sein.
  • Die 4 zeigt ein Übersichtsdiagramm zur Bestimmung von dreidimensionalen Bilddaten in einigen Ausführungsbeispielen, wobei auch über die 4 hinausgehende Bestimmungsvarianten in Ausführungsbeispielen zum Einsatz kommen können. Es sei darauf hingewiesen, dass die dreidimensionalen Bilddaten auf die hier Bezug genommen wird, oftmals nur einem dreidimensionalen Teilbild entsprechen, da ein Sensor nur Bildpunkte aus einer bestimmten Perspektive bestimmt und somit ein unvollständiges dreidimensionales Bild entstehen kann. Wie im weiteren Verlauf noch erläutert wird, können auch mehrere solche Teilbilder zusammengefasst werden, um ein Bild mit verbesserter Qualität oder mehr Bildpunkten zu erhalten, das auch wiederum nur einem Teilbild entsprechen kann.
  • Die 4 zeigt zunächst in 40a die Bestimmung oder Berechnung von Tiefeninformation in Bilddaten. Dabei lassen sich direkte Verfahren im Zweig 40b und indirekte Verfahren im Zweig 40c differenzieren, wobei die ersteren den Abstand eines Punktes zum System über das System direkt bestimmen und die letzteren zusätzliche Einrichtungen zur Abstandsbestimmung benötigen. Direkte Verfahren sind beispielsweise Laufzeitmessungen (auch engl. „time of flight”) 40d und (De-)Fokussierungsverfahren 40e. Indirekte Verfahren umfassen beispielsweise Triangulation 40f (beispielsweise über strukturiertes Licht 40h, Bewegung 40i oder Stereo-Kameras 40j) und Auswertung von Oberflächencharakteristika 40g.
  • Weitere Details zu den verschiedenen Möglichkeiten finden sich beispielsweise in Hartman F., 2011, s. o. Solche Sensoren sind in der Vergangenheit kostengünstiger geworden und wurden weiterentwickelt sowie leistungsstärker. Dreidimensionale Information kann einen Computer in die Lage versetzen, entsprechende Analysen der erfassten Objekte durchzuführen und entsprechende Daten bereitzustellen.
  • Ausführungsbeispiele können als Ergebnis einen Datensatz liefern, welcher Teillagen von wenigstens 2 Teilsegmenten 20a, 20b, 20c, 20d einer Patientenlagerungsvorrichtung 20 als Teilebenen im dreidimensionalen Raum indizieren. In manchen Ausführungsbeispielen können die Teilebenen als zweidimensionale Teilebenen im dreidimensionalen Raum oder als eindimensionale Teilgeraden im zweidimensionalen Raum indiziert werden. Es kann bei der Teilgeradendarstellung als höheres Wissen angenommen werden, dass die Ebenen sich in dritter Dimension senkrecht zu den zweidimensionalen Koordinaten erstrecken.
  • Im dreidimensionalen Fall kann beispielsweise eine Menge von dreidimensionalen Ebenen, die mindestens zwei Segmente 20a, 20b, 20c, 20d beschreiben, angegeben werden. Eine Ebene kann als Ebenengleichung (z. B. Hessesche Normalform) dargestellt sein, je Ebene kann ein Satz mit Parametern für eine Ebenengleichung bestimmt werden, z. B. bei kartesischem Koordinatensystem mit x, y, z ist z gegeben durch z = a + bx + cy. Eine Ebene kann auch durch einen Datensatz (a1, b1, c1) für einen Punkt z1 spezifiziert werden, welcher einen Punkt auf der Ebene definiert, sowie einen zu der Ebene orthogonal verlaufenden Normalenvektor, der durch drei Parameterwerte (z. B. x1, y1, z1) definiert werden kann. Eine Ebene kann auch als Polygon mit drei quasi koplanaren Punkten im 3D Raum angegeben werden, jeder Punkt kann durch ein 3-Tupel (x, y, z) beschrieben werden, da die drei Punkte auf der gemeinsamen Ebene liegen (sollen). Alternativ kann auch eine abgeschlossene Fläche (abgeschlossene oder begrenzte Ebene) im dreidimensionalen Raum durch vier quasi koplanare Punkte definiert werden. Es können also drei oder mehr Punkte im dreidimensionalen Raum eine zweidimensionale Ebene indizieren. Darüber hinaus können Liniensegmente oder Geraden-Repräsentationen angegeben werden. Zusätzlich oder alternativ können auch vier Geraden im dreidimensionalen Raum durch jeweilige Parametersätze (z. B. (a, b, c,) für die Hessesche Normalform) beschrieben werden, um eine abgeschlossene Fläche (abgeschlossene oder begrenzte Ebene) zu beschreiben.
  • Im zweidimensionalen Fall kann eine Menge von Geraden, die mindestens zwei Segmente 20a, 20b, 20c, 20d beschreiben, angegeben werden. Zusätzlich oder alternativ können diese als Strecken (oder abgeschlossene oder begrenzte Geraden, Halbstrecken, Linien, usw.) durch mindestens zwei Punkte, z. B. durch zwei 2-Tupel (xi, yi) beschrieben werden. Generell kann eine Gerade als Geradengleichung durch 2-Tupel (a, b) für y = ax + b beschrieben werden und eine Strecke als (abgeschlossene oder begrenzte Gerade) durch 2-Tupel (a, b) für y = ax + b sowie zusätzlich einen Punkt (yi, xi) und die Streckenlänge (Li). Eine Gerade kann auch durch einen Aufpunkt (yi, xi) und einen Winkelwert, der die Winkellage der Geraden indiziert, spezifiziert werden, z. B. eine Strecke durch einen Aufpunkt (yi, xi) und einen Winkelwert, der die Winkellage der Geraden indiziert, sowie die Länge der Strecke unter der Annahme, dass der Aufpunkt z. B. Randpunkt der Strecke ist.
  • Im zweidimensionalen oder dreidimensionalen Fall kann eine Information, welche sich von den oben erwähnten Informationen ableiten lässt, wie z. B. ein Winkel der Teilebenen zueinander (Dihedralwinkel der beschreibenden Ebenen, Schnittwinkel der Geraden, dargestellt als weiß hinterlegte Winkelwerte in 13 links) verwendet werden. Aus solchen relativen Winkeln zwischen den Teilebenen lässt sich bereits eine kritische Lage eines Patienten ableiten (z. B. überschrittener Winkelwert zwischen zwei Ebenen). Eine weitere solche Information wäre der jeweilige Winkel der Teilebenen in der 2D Ebene (dargestellt als schwarz hinterlegte Winkelwerte in 13 links). Aus solchen Winkeln lassen sich relative Winkel zwischen den Teilebenen ermitteln und dann lässt sich auch hier eine kritische Lage eines Patienten ableiten (z. B. überschrittener Winkelwert zwischen zwei Ebenen). Vorzugsweise wird je Winkel einer Teilebene eine Längeninformation eines Teilsegmentes/der Teilebene mit übermittelt. Diese Längeninformation kann auch als höheres Wissens beigefügt werden, da z. B. die Teillängen von Teilsegmenten bekannt sein können (z. B. der „Bettyp” ist bekannt).
  • Modellanpassung in einer Menge von Datenpunkten kann ein weiteres Verfahren auf dem Gebiet der rechnergestützten Erkennung sein. Wenn relativ einfach beschreibbare mathematische Modelle verwendet werden, z. B. Geraden oder Ebenen, ist der RANSAC-Algorithmus (von engl. Random Sample Consensus, Fischler, 1981) ein bekanntes Verfahren. RANSAC passt ein bekanntes Modell, das durch einen Parametersatz beschrieben wird, relativ stabil an einen störungsbehafteten Datensatz an, insofern, als dass eine Information darüber, ob ein Datenpunkt innerhalb oder außerhalb des Modells liegt, bestimmt werden kann. Bei komplexeren Strukturen, die nicht einfach beschreibbar sind, wie z. B. vollständige dreidimensionale Modelle, ist ein weiteres Verfahren das ICP (von engl. „Iterative Closest Point", Besl, 1992). Prinzipiell, passt ICP eine Punktemenge einer anderen Punktemenge (Referenz- oder Zielpunktemenge) durch iterative Abstandsminimierung von Punkt zu Punkt oder von Punkt zu Ebene an. Das Ergebnis ist dann eine Transformationsmatrix, die die Eingangspunktemenge auf die Zielpunktemenge abbildet. Des Weiteren sind auch Kombinationen von RANSAC und ICP untereinander sowie mit anderen Algorithmen denkbar. Dieses Verfahren erlaubt jedoch keine konfigurierbaren Teilsegmente 20a, 20b, 20c, 20d. Im vorliegenden Fall der konfigurierbaren Teilsegmente gestaltet sich eine mathematische Modellierung eher schwierig und daher auch eine Aussage drüber, ob ein Punkt innerhalb oder außerhalb des Modells liegt. Ein Ausführungsbeispiel nutzt ein auf eine Patientenlagerungsvorrichtung 20 zugeschnittenes Verfahren, welches sich die Vorrichtungscharakteristiken zu Nutze macht.
  • Manche Ausführungsbeispiele können eine Lage der Teilsegmente 20a, 20b, 20c, 20d bestimmen, auch wenn sich Störobjekte in den Bilddaten befinden, beispielsweise eine Person die auf dem Bett liegt, Kissen, Decken, usw. Einige Ausführungsbeispiele verzichten dabei auf eine Kommunikation oder einen Kommunikationskanal zwischen der Patientenlagerungsvorrichtung 20 und der Vorrichtung 10. In einem weiteren Ausführungsbeispiel erfassen die ein oder mehreren Sensoren als Bilddaten eine Menge von Bildpunkten, wobei die Menge der Bildpunkte im Wesentlichen unabhängig von einer Beleuchtungsintensität der Patientenlagerungsvorrichtung 20 ist und wobei die Beleuchtungsintensität auf einen Einfluss externer Lichtquellen zurückgeht. In einigen weiteren Ausführungsbeispielen können Vorrichtung oder Sensoren ein oder mehrere eigene Beleuchtungsmittel im sichtbaren oder unsichtbaren (z. B. Infrarot) Bereich umfassen, die zur Beleuchtung der Patientenlagerungsvorrichtung 20 ausgebildet sind. Dadurch kann eine gewisse Unabhängigkeit von externen Lichtquellen geschaffen werden. Als extern sei hier eine Lichtquelle oder auch ein Fenster usw. verstanden, die/das die Beleuchtungsintensität der Patientenlagerungsvorrichtung 20 beeinflusst und außerhalb der Vorrichtung oder der Sensoren als diesbezüglich unabhängige Lichtquelle fungiert.
  • Ausführungsbeispiele können so eine Dokumentation der verschiedenen Lagen, das Auslösen von Alarmen oder Warnungen, oder auch eine Darstellung der Segmentlagen aus/in der Ferne erlauben, dies kann in manchen Ausführungsbeispielen bei beliebigen Belichtungsverhältnissen, tagsüber oder nachts, sowie unter variierenden Lichtverhältnissen geschehen. Zumindest einige Ausführungsbeispiele können daher eine Art automatisiertes Erkennen der Lage der Teilsegmente 20a, 20b, 20c, 20d erlauben oder ermöglichen.
  • Wie die 1 weiter zeigt, kann in einem weiteren Ausführungsbeispiel die Vorrichtung 10, eine Bestimmungseinrichtung 14 umfassen, die zur Bestimmung der Lage der zumindest zwei Teilsegmente 20a, 20b der Patientenlagerungsvorrichtung 20 basierend auf den Bilddaten ausgebildet ist. Die Bestimmungseinrichtung 14 ist mit der Schnittstelle 16 gekoppelt. In Ausführungsbeispielen kann die Bestimmungseinrichtung 14 einem beliebigen Controller oder Prozessor oder einer programmierbaren Hardwarekomponente entsprechen. Beispielsweise kann die Bestimmungseinrichtung 14 auch als Software realisiert sein, die für eine entsprechende Hardwarekomponente programmiert ist. Insofern kann die Bestimmungseinrichtung 14 als programmierbare Hardware mit entsprechend angepasster Software implementiert sein. Dabei können beliebige Prozessoren, wie Digitale SignalProzessoren (DSPs) zum Einsatz kommen. Ausführungsbeispiele sind dabei nicht auf einen bestimmten Typ von Prozessor eingeschränkt. Es sind beliebige Prozessoren oder auch mehrere Prozessoren zur Implementierung der Bestimmungseinrichtung 14 denkbar. Die 1 illustriert ferner, dass in einem Ausführungsbeispiel die Bestimmungseinrichtung 14 mit der Erfassungseinrichtung 12 gekoppelt ist. In diesem Ausführungsbeispiel erfassen beispielsweise die ein oder mehreren Sensoren der Erfassungseinrichtung 12 zumindest dreidimensionale (Teil-)Bilddaten und stellen diese der Bestimmungseinrichtung 14 bereit, die in den Bilddaten die Patientenlagerungsvorrichtung 20 und potentielle Objekte darauf segmentiert.
  • Die Bestimmungseinrichtung 14 ist in diesem Ausführungsbeispiel ausgebildet, um die Bilddaten oder auch vorverarbeitete Bilddaten (z. B. das weiter unten beschriebene Histogramm) von einem Originalbereich in einen Transformationsbereich zu transformieren, wobei eine Bestimmung der Lage der Teilsegmente 20a, 20b, 20c, 20d in dem Transformationsbereich robuster gegenüber Störobjekten in den Bilddaten ist, als in dem Originalbereich. Im Transformationsbereich liegt eine Menge von transformierten Bildpunkten vor, die eine Bestimmung der Teilsegmente in den dreidimensionalen Bilddaten durch eine Quantifizierung der dreidimensionalen Position, Größe und Lage der einzelnen Segmente 20a, 20b, 20c, 20d erlaubt. Die Bestimmungseinrichtung 14 ist ausgebildet, um in dem Transformationsbereich die zumindest zwei Teilsegmente 20a, 20b, 20c, 20d hinsichtlich Position (z. B. absolute Position in einem Koordinatensystem oder relative Position gegenüber einem Referenzpunkt oder Objekt, relative Position der Segmente untereinander, usw.), Größe und Lage zu quantifizieren. Die Bestimmungseinrichtung 14 ist ferner ausgebildet, um eine Information über eine Zuverlässigkeit einer Lagebestimmung für zumindest ein Teilsegment 20a, 20b, 20c, 20d zu bestimmen. Die Zuverlässigkeit der bestimmten Lagen kann dann anschließend beurteilt werden.
  • In manchen Ausführungsbeispielen kann also optional und/oder zusätzlich ein Konfidenzmaß oder Konfidenzmaße bestimmt werden, die die Qualität oder die Zuverlässigkeit der bestimmten Segmente 20a, 20b, 20c, 20d quantifizieren und/oder mit ausgegeben. Diese Information kann zum Verwerfen der Daten genutzt werden, z. B. eine Dokumentation eines „schlechten Datensatzes” erfolgt nicht, oder der Datensatz wird nicht an weitere Systeme weitergeleitet oder er wird nicht dargestellt. Hierdurch können sich auch bei Alarmierungssystemen Fehlalarme vermeiden lassen. Es kann dann z. B. zu, einem späteren Zeitpunkt noch einmal ein Datensatz erfasst und generiert werden.
  • Beispielsweise kann die Vorrichtung 10 in manchen Ausführungsbeispielen ausgebildet sein, um die Information über die Lage in Abhängigkeit einer Bedingung auszugeben, wobei die Bedingung vielerlei Ausprägungen haben kann. Z. B. kann die Bedingung derart gewählt werden, dass die Ausgabe periodisch, auf Anfrage, ereignisbasiert oder zufällig erfolgt. Dies kann intern von der Bestimmungseinrichtung 14 gleistet werden oder auch extern, beispielsweise durch Eingabe oder auch einen Trigger über die Schnittstelle 16. Die Schnittstelle 16 kann ferner zur Ausgabe einer Positionsinformation und/oder einer Größeninformation über die zumindest zwei Teilsegmente 20a, 20b, 20c, 20d ausgebildet sein.
  • Dabei kann in manchen Ausführungsbeispielen lediglich die Ausgabe in Abhängigkeit der Bedingung erfolgen, die Bestimmung jedoch kontinuierlich, zyklisch, periodisch, usw. unabhängig von der Bedingung weiter durchgeführt werden. In anderen Ausführungsbeispielen kann auch die eigentliche Bestimmung mit von der Bedingung abhängen und entsprechend kontinuierlich zyklisch, periodisch, ereignisbasiert, triggerbasiert, anfragebasiert usw. durchgeführt werden.
  • In einigen Ausführungsbeispielen kann die Ausgabe periodisch erfolgen, wobei die Generierung des Datensatzes auch periodisch erfolgen kann (z. B. automatische Dokumentation oder für Alarmierung oder Anzeige, Display). In manchen Ausführungsbeispielen kann dafür zumindest ein konfigurierbares Zeitintervall vorgesehen sein. In einigen Ausführungsbeispielen kann die Ausgabe anfragebasiert sein, z. B. basierend auf Anfragen von außen. Eine Dokumentationseinheit oder ein Display könnte über die Datenabfrage entscheiden und eine reduzierte Datenrate in der Übertragung kann resultieren, da nur zu gewissen Zeitpunkten die Konfiguration des Bettes erfasst/abgefragt wird. In manchen Ausführungsbeispielen wird nur ein aktueller, zuletzt abgelegter Datensatz abgefragt. Eine Generierung/Bestimmung kann beispielsweise periodisch erfolgen oder aufgrund einer Anfrage oder eines Ereignisses. In weiteren Ausführungsbeispielen kann die Ausgabe ereignisbasiert erfolgen. Beispielsweise kann eine automatische Erkennung, dass eine signifikante Änderung der Bettkonfiguration vorliegen könnte, erfolgen und darauf basierend eine Bestimmung/Ausgabe ausgelöst werden. Weitere Beispiele für solche Ereignisse sind eine Änderung in der Bettkonfiguration, signifikante Änderung wenigstens eines Teil-Datensatzes zwischen zwei Zeitpunkten bemessen an einem oder mehreren Schwellenwerten für die jeweiligen Parameter, eine Änderung in der eingehenden Punktwolke (z. B. durch mittleres Distanzmaß zumindest einer Teilmenge der Punkte für aufeinander folgende Zeitpunkte), usw. In einigen weiteren Ausführungsbeispielen kann die Ausgabe durch einen internen (zufallsbasierten) Trigger ausgelöst werden, z. B. kann ein pseudo-periodischer Generator zur Erzeugung des Triggers verwendet werden.
  • 5 zeigt ein Ausführungsbeispiel in einem Krankenzimmer. Die Vorrichtung 10 umfasst hier eine Erfassungseinrichtung 12 mit zwei Teilsystemen 12a und 12b zur Erfassung zumindest dreidimensionaler Teilbilddaten aus unterschiedlichen Perspektiven der Szene in dem Krankenzimmer. Die 5 zeigt darüber hinaus ein konfigurierbares Krankenbett 20 (stellvertretend für eine allgemeine Patientenlagerungsvorrichtung 20) und eine Tür. Die beiden Teilsysteme 12a und 12b der Erfassungseinrichtung 12 sind über eine Kommunikationsverbindung, beispielsweise über Ethernet und Internet-Protokoll (IP) und/oder in einem Netzwerk, mit der Bestimmungseinrichtung 14 gekoppelt, die hier als Prozessoreinheit 14 implementiert ist. Die 5 zeigt ferner ein kartesisches Koordinatensystem 18, das den nachfolgenden Betrachtungen zugrunde gelegt wird.
  • Generell kann die Vorrichtung 10 1 ... n Sensoren umfassen, die jeweils eine Punktemenge bestimmen, die zu einer einzigen dreidimensionalen (Teil-)Bildpunktmenge ergänzt oder zusammengeführt werden können. Wie das Ausführungsbeispiel in der 5 zeigt, kann die Erfassungseinrichtung 12 mehrere Bildsensoren zur Erfassung von zumindest dreidimensionalen Teilbilddaten umfassen. Die Bestimmungseinrichtung 14 ist dann ausgebildet, um die Daten der mehreren Bildsensoren zu Bilddaten eines zumindest dreidimensionalen Teilbildes der Patientenlagerungsvorrichtung (hier Krankenbett) 20 zusammenzufassen und um die Bestimmung der Lage der zumindest zwei Teilsegmente 20a, 20b, 20c, 20d basierend auf dem (zusammengefassten) Teilbild durchzuführen. Die zusammengefassten Bilddaten beinhalten beispielsweise Information über die dreidimensionale Oberfläche der Patientenlagerungsvorrichtung 20 aus den Blickwinkeln der Sensoren. Durch die Zusammenführung der Daten mehrerer Bildsensoren kann ein dreidimensionales (Teil-)Bild des abzubildenden Krankenbettes 20 mit einem höheren Detailgrad erzeugt werden, als mit einem Einzelbild.
  • Die Bestimmungseinrichtung 14, die in dem Ausführungsbeispiel der 5 als Prozessoreinheit ausgebildet ist, ist über ein Netzwerk mit den 1 ... n Sensoren verbunden. Die eigentliche Bestimmung kann dann basierend auf den zusammengeführten Daten durchgeführt werden. Das Netzwerk, das eine Kommunikationsverbindung bereitstellen kann, kann auch dem Weiterleiten von Information über eine bestimmte Bettkonfiguration dienen, beispielsweise zum Zwecke der Dokumentation, Überwachung oder der Darstellung (z. B. auf einem Monitor oder Display).
  • Im Folgenden soll der Ablauf des in der 6 gezeigten Verfahrens detaillierter erläutert werden. Das Verfahren stützt sich im vorliegenden Ausführungsbeispiel auf dreidimensionale Punkte, also etwa Koordinaten eines Punktes im Raum, zusätzliche Information über Farben und/oder Helligkeit ist nicht zwingend erforderlich, sodass eine gewisse Unabhängigkeit von den Lichtverhältnissen erzielt werden kann. Sollte zusätzliche Information verfügbar sein, so kann diese in Ausführungsbeispielen zur weiteren Verfeinerung des Ergebnisses herangezogen werden. Zunächst zeigt 6 ein Ablaufdiagramm zur Bestimmung der Lage der Teilsegmente in einem Ausführungsbeispiel in einem Überblick. Der Ablauf beginnt im Schritt 60 (Start) an abwärts in der 6. In diesem Ausführungsbeispiel ist die Bestimmungseinrichtung 14 ausgebildet, um aus zumindest dreidimensionalen Teilbilddaten der Patientenlagerungsvorrichtung (hier Krankenbett) 20 zweidimensionale Histogrammdaten zu bestimmen und die Lage der zumindest zwei Teilsegmente 20a, 20b, 20c, 20d der Patientenlagerungsvorrichtung 20 basierend auf den Histogrammdaten zu bestimmen. Derartige dreidimensionale Teilbilddaten entsprechen beispielsweise einer Punktemenge bzw. Punktewolke wie in 13 rechts dargestellt. Die Bestimmung der zweidimensionalen Histogrammdaten ist in der 6 als Schritt 61 aufgeführt. Einige der hier erläuterten Verarbeitungsschritte werden nachfolgend im Detail erklärt. Prinzipiell können die jeweiligen Schritte an verschiedene Gegebenheiten und Systeme entsprechend angepasst werden. Der Schritt 61 zur Bestimmung der zweidimensionalen Histogrammdaten wird später unter Bezugnahme auf die 8 näher erläutert. Derartige zweidimensionale Histogrammdaten sind beispielsweise in 10 rechts dargestellt. Solche zweidimensionalen Histogrammdaten entsprechen einer Projektion der dreidimensionalen Teilbilddaten auf eine Seitenebene SE, welche in 13 rechts angedeutet ist. Die zweidimensionalen Histogrammdaten enthalten hier eine Seitenansicht der Matratze bzw. deren Segmente 20a, 20b, 20c, 20d, wobei der Matratze zugeordnete Bildpunkte hervorgehoben werden.
  • Im Abwärtspfad der 6 werden die Teilsegmente selbst bestimmt und im rechts angeordneten Aufwärtspfad werden die Informationen weiter zum Ergebnis ausgewertet. Als Eingangspunktemenge erwartet das Verfahren eine Menge von dreidimensionalen Punkten, die hier ein Krankenbett 20 und optionale Störobjekte auf dem Bett 20 repräsentieren. In Ausführungsbeispielen sind verschiedene Quellen zur Erfassung der Punktemengen denkbar. Im vorliegenden Ausführungsbeispiel wird von 2,5 bis 3 Dimensionen ausgegangen, wobei 2,5 Dimensionen das Vorliegen von Daten eines zumindest dreidimensionalen Teilbildes andeuten. Das Krankenbett/Patientenlagerungsvorrichtung 20 selbst kann ein beliebiges konfigurierbares Krankenbett sein. Zur Bestimmung der Konfiguration des Bettes werden eine Segmentierung und eine Klassifizierung vorgenommen. Je besser das Abbild des Bettes 20 sich in den Bilddaten wiederspiegelt umso genauer wird ein Ergebnis der Auswertung sein.
  • Es wird nun das weitere Verfahren zur Bestimmung der Lage der Teilsegmente erläutert. Die folgenden Schritte beziehen sich daher auf die Histogrammdaten anstatt der eigentlichen dreidimensionalen Bildpunkte. Ausführungsbeispiele unterscheiden dadurch beispielsweise von Modellanpassungsverfahren, die direkt auf den dreidimensionalen Bildpunkten basieren, z. B. ICP (Besl, 1992).
  • Zunächst werden die Anfänge der Segmente in den Daten bestimmt, wobei zunächst der Anfang des ersten Segmentes bestimmt wird, vgl. Schritt 62 in 6. Mit diesem Startpunkt können die weiteren Anfänge der anderen Segmente iterativ bestimmt werden, wobei wenigstens eine Iteration in der 6 durchgeführt wird, vgl. Schritte 63 und 64 in 6. Nach jeder Iteration wird überprüft, ob und um wie viel sich die neu bestimmten Segmente von den zuvor bestimmten Segmenten unterscheiden, vgl. Schritt 65. Wenn keine wesentlichen Unterschiede vorliegen, wird die Iteration abgebrochen und das Verfahren wird mit der Bestimmung zusätzlicher Information im Schritt 66 fortgesetzt. Wenn Unterschiede vorliegen wird ein Iterationszähler im Schritt 67 erhöht und die Histogrammdaten werden aktualisiert, insofern als dass Bildpunkte, die eine Abweichung von den zuvor bestimmten Segmenten aufweisen, durch neu berechnete Histogrammdaten ersetzt werden (z. B. wird die Intensität der alten Bildpunkte auf null gesetzt und neu berechnete Bildpunkte werden eingefügt), vgl. Schritt 68 in 6.
  • Objekte, die auf dem Krankenbett 20 platziert werden, können hervorrufen, dass Segmente 20a, 20b, 20c, 20d zu hoch oder mit falscher Orientierung bestimmt werden. Seitenschienen oder Halterahmen an den Seiten des Bettes 20 können beispielsweise hochgeklappt sein und ähnliche Effekte hervorrufen. In den Histogrammdaten sind unterhalb der Matratze selten Bildpunkte mit hoher Intensität anzutreffen, die eine zu tiefe Bestimmung der Geraden oder Strecken veranlassen würden. Das Verfahren läuft daher von oben nach unten ab, um die Oberfläche der Matratze zu finden. Sobald die bestimmten Strecken und/oder Geraden sich nicht mehr ändern, wird dann in den Schritten, die in der 6 rechts von unten nach oben zu sehen sind, die zusätzliche Information über die Lage oder Orientierung berechnet. In Schritt 66 werden die Winkel zwischen den einzelnen Segmenten 20a, 20b, 20c, 20d berechnet und anschließend im Schritt 69 die Winkel relativ zum Untergrund, die bei der Quantifizierung der Bettkonfiguration ebenfalls eine wichtige Rolle spielen. Insoweit sind dann die Winkel basierend auf den Histogrammdaten bestimmt. Um die Winkel auch in den dreidimensionalen Bilddaten zu bestimmen, werden im folgenden Schritt 70 die Geraden und/oder Strecken aus dem zweidimensionalen Raum in Polygone im dreidimensionalen Raum überführt.
  • Im nächsten Schritt 71 wird die Zuverlässigkeit des Ergebnisses (automatisch) bestimmt, was nachfolgenden Komponenten oder Systemen die Beurteilung der Daten erleichtert, insbesondere wenn weitere Objektbestimmungen durchgeführt werden, z. B. Lage einer Person auf dem Bett, Personen, die den Bildausschnitt betreten und/oder verlassen, usw.
  • Im Folgenden wird ein Ausführungsbeispiel an einer Aufnahme eines typischen Krankenbetts 20 auf einer Intensivstation erklärt. Die Teilsegmente 20a, 20b, 20c, 20d sind in diesem untereinander stark geneigt und das Krankenbett 20 verfügt zusätzlich über Seitenschienen. Auf dem Bett 20 liegen eine Person und eine Decke, die in den Bilddaten als Störobjekte auftauchen. 7 illustriert derart erfasste Bilddaten in dem Ausführungsbeispiel. Die Daten werden mit einer Kamera erfasst, die strukturiertes Licht zur Erfassung der dreidimensionalen Bildpunkte nutzt. Die resultierende Menge von Bildpunkten liegt dann in Form einer N×3 Matrix vor, wobei eine Zeile einem Bildpunkt im dreidimensionalen Raum entspricht.
  • Zusätzlich zu vielen Konfigurationsmöglichkeiten von Krankenbetten 20 auf Intensivstationen kommen unterschiedliche Seitenschienen zur Befestigung von verschiedenen Objekten und/oder Geraten sowie diverse Ablageflächen zum Einsatz. Hinzu kommen dann Decken, Kissen und Patienten. Diese Gegebenheiten erschweren die Bestimmung der Lage direkt basierend auf der Menge von dreidimensionalen Bildpunkten, bzw. die Bestimmung welche der Bildpunkte der Matratze zuzuordnen sind, um so die Konfiguration der Teilsegmente 20a, 20b, 20c, 20d herauszufinden. Daher werden die dreidimensionalen Bildpunkte, die dem Bett 20 und darauf befindlichen Objekten zugeordnet werden können, in einen Transformationsbereich überführt, der die relevanten Punkte hervorhebt. Drei Eigenschaften der Bildpunkte können dabei ausgenutzt werden:
    • 1. Punkte, die zum gleichen Teilsegment gehören, befinden sich nahezu in einer Ebene, die orthogonal zu einer Seitenebene des Bettausschnitts ist;
    • 2. Störobjekte befinden sich häufig in der Mitte des Bettes 20, z. B. ein Kissen auf dem Bett. Diese Annahme mag nicht für alle Objekte richtig sein, (Seitenschienen, Person die auf der Seite des Bettes sitzt, usw.), aber diese Objekte sind dann eher dünn bzw. stören in der Bildaufnahme nur eine Seite des Bettes 20. Das vorliegende Ausführungsbeispiel konzentriert sich daher auf die Auswertung der Bilddaten an den Seiten des Bettes 20; und
    • 3. Relevante Punkte liegen über einer gewissen Höhe über dem Untergrund, da das Bett auch eine effiziente Arbeitsweise für Pflegepersonal gewährleisten soll.
  • Das Verfahren ordnet daher die dreidimensionalen Bilddaten in ein gewichtetes zweidimensionales Histogramm ein, in dem die Punkte eingruppiert (in Klassen bzw. Intervalle des Histogramms) werden, wobei eine Gruppe einem gedachten Rechteck entspricht, das in eine Ebene eingebracht wird, deren Normalenvektor mit der Links-Rechts-Achse des Krankenbettes 20 zusammenfällt.
  • 8 zeigt ein Ablaufdiagramm einer Bestimmung zweidimensionaler Histogrammdaten aus dreidimensionalen Teilbilddaten, wie zuvor in Bezug auf 6 in Schritt 61 erwähnt, in einem Ausführungsbeispiel. Das Verfahren beginnt im Schritt 80. In Schritt 80a wird dann eine Seitenebene SE, gezeigt in 13 rechts, bestimmt, auf welche die dreidimensionalen Teilbilddaten später in Schritt 83 zur Bestimmung der zweidimensionalen Histogrammdaten projiziert werden können. Diese Bestimmung der Seitenebene SE wird später unter Bezug auf die 15 erläutert.
  • Es werden dann in Schritt 81 zunächst Punkte aus den Bilddaten entfernt, die zu nahe am Untergrund oder Boden liegen. Dieser Schritt korrespondiert zu der obigen 3. Eigenschaft und es wird ein Abstand d der Bildpunkte über dem Untergrund berechnet, wobei Bildpunkte mit d < k verworfen werden und k eine geeignete Schwelle darstellt, z. B. 30 cm, 40 cm, 50 cm, 60 cm, usw.
  • Danach erfolgt dann eine Berechnung der Gewichtung für die Bildpunkte in Schritt 82. Dieser Schritt geht auf die obige zweite Eigenschaft zurück und berücksichtigt, dass eine Auflösung der Kamera vom Abstand der Objekte von der Kamera abhängt. Zunächst werden die Bildpunkte gemäß ihrem Abstand von der Mittelebene entlang der Längsachse des Bettes 20 gewichtet. 9 zeigt eine Illustration einer Gewichtung von Bildpunkten in einem Ausführungsbeispiel. 9 zeigt das Krankenbett 20 in einer frontalen Ansicht innerhalb eines dem Bett 20 zugeordneten rechteckigen Ausschnitts. Die Parabel 90 illustriert die Gewichtung, Punkten in der Mitte werden geringere Gewichte als Punkten am Rand des Bettes 20 für die Bildung des Histogramms zugeordnet. Den Punkten werden dann also in Abhängigkeit ihrer x-Koordinate (x = 0 genau in der Mitte) die Gewichte entsprechend der gezeigten Parabel zugeordnet. Die Bestimmungseinrichtung 14, vgl. 1 und 5, ist in diesem Ausführungsbeispiel ausgebildet, um aus den zumindest dreidimensionalen Teilbilddaten der Patientenlagerungsvorrichtung 20 Bildpunkte zu bestimmen, die Bildinformation über die Patientenlagerungsvorrichtung 20 aufweisen, die Bildpunkte in Abhängigkeit eines Abstandes zu einer Längsebene der Patientenlagerungsvorrichtung 20 zu gewichten, und die Histogrammdaten basierend auf den gewichteten Bildpunkten zu bestimmen.
  • Die Gewichtung (weight1) für die einzelnen Bildpunkte kann auch mit folgender Gleichung ausgedrückt werden: weight1(x) = x2·(2h/w2) + h/50, wobei x der in der 9 gezeigten x-Koordinate eines Punktes, für den die Gewichtung berechnet werden soll, entspricht, h der Höhe über dem Untergrund und w der Breite des Bettausschnitts entspricht. Da die Bildpunkte bzw. deren Gewichtungen akkumuliert werden sollen, vgl. 84 in 8, kann zusätzlich noch der Abstand eines Punktes zu der Kamera berücksichtigt werden, um die abstandabhängige Auflösung zu berücksichtigen. Dies kann durch eine zweite Gewichtung (weight2) erfolgen: weight2(y) = max (1, y·log(0,5·y)), wobei y dem Abstand eines Punktes zur Kamera entspricht. Das erste Gewicht (weight1) kann dann auf einen Wertebereich von 0 ... 0,5 skaliert werden und das zweite Gewicht (weight2) auf einen Wertebereich von 0 ... 1. Deren Summe bildet dann das finale Gewicht eines betrachteten Bildpunktes.
  • Anschließend findet eine Projektion der Punkte auf die zuvor in Schritt 80a bestimmte Seitenebene des Bettausschnittes in Schritt 83 8 statt. Vorzugsweise kann im Rahmen dieser Projektion sichergestellt werden, dass sich jene Histogrammdaten, welche das Fußteil des Bettes repräsentieren, im linken Bereich des Histogramms und nicht im rechten Bereich des Histogramms befinden. Hierzu muss bekannt sein bzw. bestimmt werden, wo in den dreidimensionalen Teilbilddaten sich das Fußteil befindet. Dies kann auf verschiedene Weise gelöst werden. Eine erste Möglichkeit bestünde darin, eine manuelle Konfiguration des Systems vorzusehen, bei der beispielsweise festgelegt wird, dass sich das Fußteil des Krankenbettes immer näher an einem bestimmten Bildsensor befindet als das Kopfteil. Eine weitere Möglichkeit bestünde darin, charakteristische Marker, die beispielsweise im nahen Infrarotbereich gut sichtbar sind, als Markierungen des Fußteils zu verwenden, so dass die Position des Fußteils anhand einer Detektion der Marker bestimmt werden kann. Eine wiederum weitere Möglichkeit bestünde darin, mittels eines automatischen Verfahrens die Kopfposition eines sich im Bett befindenden Patienten zu bestimmen und dann auf die Unterscheidung von Kopf- und Fußteil schließen zu können. Für die Bestimmung der Kopfposition ließe sich ein bekanntes Verfahren der Gesichtserkennung verwenden, wie zum Beispiel der sogenannte Viola-Jones Algorithmus,
    Viola, Paul and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001. Volume: 1, pp. 511–518.
  • Abgesehen von eventuellen Einschränkungen durch eine mögliche manuelle Konfiguration und der Bedingung, dass das Krankenbett 20 gut sichtbar sein sollte, kann das Krankenbett 20 beliebig im Raum und zu den Kameras orientiert sein.
  • Die so in Schritt 83 projizierten bzw. erzeugten Bildpunkte werden dann eingruppiert und die jeweiligen Gewichtung in jeder Gruppe aufsummiert, vgl. Schritt 84. Dazu werden Rechteckförmige Ausschnitte der Seitenebene herangezogen und für die darin liegenden Bildpunkte die Gewichtungen aufsummiert. Dies berücksichtigt die obige erste Eigenschaft der Bildpunkte. Bildpunkte die der Matratze zugeordnet werden können, verlaufen in einer Strecke durch das Histogramm. Die Anzahl der Punkte (Summe der Gewichte) in jeder Gruppe des zweidimensionalen Histogramms wird dann in Schritt 86 als Gruppenintensität und Histogrammbildpunkt interpretiert, bevor das Verfahren in Schritt 87 endet.
  • Ein Gauß-Filter kann zur Glättung des Histogramms in Schritt 85 eingesetzt werden, wodurch die Geraden besser erkennbar werden. Die 10 zeigt auf der linken Seite ein Histogramm das auf den Bilddaten der 7 basiert und mit dem oben beschriebenen Verfahren erhalten wurde. Auf der rechten Seite der 10 ist das geglättete Histogramm abgebildet. In beiden Abbildungen der 10 sind die vier Teilsegmente 20a, 20b, 20c und 20d zu erkennen.
  • Es wird nun im Weiteren unter Bezug auf die in 15 gezeigten Schritte 151 bis 159 erläutert, wie im Schritt 80a aus der 8 die zuvor genannten Seitenebene SE, dargestellt in 13 rechts, bestimmt werden kann. Die Seitenebene SE wird so bestimmt, dass sie im Wesentlichen orthogonal zum Untergrund UG und seitlich entlang des Krankenbettes verläuft. Die Seitenebene SE kann als höheres Wissen vorgegeben werden, z. B. in Form eines auf der Seitenebene orthogonal stehenden Normalenvektors NV1.
  • Alternativ kann die Seitenebene SE automatisiert bestimmt werden. Hierzu wird zunächst der Untergrund UG bestimmt. Der Untergrund UG selbst als Ebenenrepräsentation kann entweder automatisch mittels des RANSAC-Algorithmus, wie zuvor genannt, bestimmt werden. Alternativ kann die Information über den Untergrund UG als höheres Wissen bereitgestellt werden, z. B. in Form eines Aufpunktes AP, dargestellt als Kreuz in 13 rechts, der Ebene, welche den Untergrund repräsentiert, sowie eines Normalenvektors NV2, welcher orthogonal zu dieser Ebene steht. Die somit bereitstehende Information über den Untergrund UG kann nun im Rahmen eines automatischen Verfahrens verwendet werden, welches einen orientierten Quader, auch als Oriented Bounding Box (OBB) bezeichnet, berechnet, der die Menge von dreidimensionalen Punkten, die hier das Krankenbett repräsentieren, umschließt. Das Verfahren stützt sich dabei auf die Arbeit von Gottschalk,
    • Gottschalk, Stefan. Collision queries using oriented bounding boxes. Diss. The University of North Carolina at Chapel Hill, 2000,
    in welcher beschrieben wird, wie eine OBB an eine Punktemenge angepasst werden kann. Alternative Beschreibungen derartiger Verfahren zur Bestimmung einer OBB sind auch zu finden in den Dokumenten
    • O'ROURKE, J. 1985. Finding minimal enclosing boxes. International Journal of Computer & Information Sciences 14, 183–199, oder
    • LAHANAS, M., KEMMERER, T., MILICKOVIC, N., KAROUZAKIS, K., BALTAS, D., AND ZAMBOGLOU, N. 2000. Optimized bounding boxes for three-dimensional treatment planning in brachytherapy. Medical Physics 27, 10, 2333–2342.
  • Vorzugsweise kann hier sichergestellt werden, dass die OBB nicht beliebig im Raum orientiert ist, sondern immer im Wesentlichen orthogonal zum Untergrund steht. Zunächst werden die oben genannten dreidimensionalen Teilbilddaten bzw. Punkte auf jene Ebene projiziert, die den Untergrund UG beschreibt, vgl. Schritt 152 in 15. Da sich nun alle Punkte in einer gemeinsamen Ebene befinden, können sie auch in Form von zweidimensionalen Koordinaten indiziert werden, vgl. Schritt 153. Für diese zweidimensionalen Punkte wird anschließend in Schritt 154 eine konvexe Hülle mittels des Verfahrens nach Barber bestimmt,
  • Alternative Beschreibungen derartiger Verfahren zur Bestimmung einer konvexen Hülle sind auch zu finden in den Dokumenten
    • Kirkpatrick, David G.; Seidel, Raimund (1986). "The ultimate planar convex hull algorithm". SIAM Journal on Computing 15(1): 287–299, oder
    • Graham, R. L. (1972). An Efficient Algorithm for Determining the Convex Hull of a Finite Planar Set. Information Processing Letters 1, 132–133.
  • Um die nachfolgenden Schritte robuster gegenüber Eigenheiten der eingehenden Repräsentation des Krankenbettes 20 zu machen, wird in Schritt 155 eine Menge von auf der Hüllkurve im Wesentlichen äquidistant zu einander befindlichen Punkten bzw. entlang der Hüllkurve im Wesentlichen gleichverteilten Punkten ermittelt. Anschließend werden durch eine Hauptkomponentenanalyse in Schritt 156 jene beiden Achsen errechnet, entlang denen die Punkte aus Schritt 155 die größte Varianz aufweisen. Diese Hauptkomponentenanalyse kann gemäß dem Verfahren nach Jolliffe,
    • Jolliffe, I. T. Principal Component Analysis. 2nd ed., Springer, 2002,
    erfolgen. Alternative Beschreibungen derartiger Verfahren zur Hauptkomponentenanalyse sind auch zu finden in den Dokumenten
  • Schritt 157 überführt die beiden Hauptachsen unter dem Wissen der zuvor verwendeten Ebene, die den Untergrund UG repräsentiert, zurück in eine dreidimensionale Repräsentation von. Teilbilddaten. Zusammen mit dem Normalenvektor der Untergrundebene bilden diese beiden Hauptachsen nun solche drei Achsen, die die gewünschte OBB aufspannen. Die tatsächliche Ausdehnung bzw. Begrenzung der jeweiligen Ebenen der OBB entlang der die OBB jeweils aufspannenden Achsen kann nun mittels der dreidimensionalen Bildpunkte bzw. der dreidimensionalen Teilbilddaten ermittelt werden. Es entspricht die gesuchte Seitenebene SE einer der Ebenen SE, SE1, welche die OBB definieren und orthogonal zum Untergrund UG stehen. Es ist hierbei für den späteren Zweck der Projektion unerheblich, ob als Seitenebene die Ebene SE oder SE1 ausgewählt wird. Die Ebenen SE bzw. SE1 erfüllen ferner die Bedingung, dass ihre Ausdehnung parallel zum Untergrund größer ist als die der Ebenen SE2 oder SE3. Dieses ist normalerweise zutreffend, da die Ausdehnung eines Krankenbettes vom Fußteil zum Kopfteil hin größer ist als parallel zum Fußteil bzw. Kopfteil.
  • Zurückkommend zur 6 kann nun in Schritt 62 der Beginn des ersten Teilsegmentes gefunden werden. Im vorliegenden Ausführungsbeispiel kann beispielsweise unter Kenntnis der Konfigurierbarkeit der Intensivstationsbetten die Begrenzung einer Fußstütze ausgenutzt werden, die das Bett im unteren Bereich begrenzt. Das vorliegende Verfahren zielt auf den Übergang zwischen der Fußstütze und dem ersten Matratzensegment 20a ab. Die Fußstütze kann als vertikale oder von links nach rechts abfallende Strecke in dem Histogramm erscheinen, und das danach erste Segment 20a wird horizontal oder von links nach rechts ansteigend erscheinen. Um diese beiden Strecken zu extrahieren, können die folgenden Schritte ausgeführt werden:
    • 1. Nur Bildpunkte in den ersten 35% des Bildes (gesehen von rechts nach links) werden betrachtet und die anderen Bildpunkte werden außer Acht gelassen (bzw. zu null gesetzt);
    • 2. Von den verbleibenden Bildpunkten werden nur diejenigen betrachtet, deren Intensität wenigstens 35% der Intensität des Medians der höchsten 15 vorkommenden Intensitäten ausmacht;
    • 3. Ein Bildskelett, vgl. auch Kong & Rosenfeld, 1996 kann dann berechnet werden;
    • 4. Eine Hough Transformation kann auf das Bildskelett angewendet werden, um eine Vorauswahl an Geraden- bzw. Streckenkandidaten zu finden;
    • 5. Für jeden Geraden- bzw. Streckenkandidaten kann dann ein Maß für eine Unterstützung oder Deckung mit den Bildpunkten ermittelt werden, beispielsweise die Anzahl der weißen Bildpunkte die nahe genug an einer im vorherigen Schritt ermittelten Gerade/Strecke liegen, dieses Maß kann auch als Zuverlässigkeitsmaß dienen, nach dem eine Gerade/Strecke ausgewählt wird;
    • 6. Die Geraden/Strecken können ferner in drei Kategorien eingeteilt werden, „orthogonal”, „abfallend” und „andere”. Wenn genügend orthogonale Geraden/Strecken vorliegen, können die Geraden/Strecken, die als „abfallend” eingestuft wurden, verworfen werden und lediglich die am weitesten links und nahe dazu liegenden orthogonalen Geraden/Strecken werden weiter betrachtet;
    • 7. Zwei mittlere Geraden können nun für die Gruppen „andere” und für die Gruppe „orthogonal”, oder für die Gruppe „abfallend” bestimmt werden basierend auf der Zuverlässigkeitsinformation aus Schritt 5 und/oder basierend auf der Anzahl von orthogonalen Geraden/Strecken; und
    • 8. Der Schnittpunkt der beiden Geraden aus dem vorhergehenden Schritt kann dann als Startpunkt dienen.
  • Sollte die Hough Transformation nicht genügend Geraden/Strecken in einer Kategorie hervorbringen führt das Verfahren ggf. nicht zu einem Ergebnis. In diesem Fall kann die Hough Transformation auch mit geänderten Parametern wiederholt werden. Wenn alle Versuche scheitern sollten, kann eine Notfalllösung beispielsweise dadurch gefunden werden, dass die Startposition auf 15% der maximalen x-Koordinate gesetzt wird.
  • Nachdem das Histogramm erstellt und der Startpunkt für die Matratze gefunden ist, ist das Ziel Gerade und/oder Strecken zu extrahieren, eine Gerade und/oder Strecke pro Teilsegment 20a, 20b, 20c, 20d. Der Erstellungsprozess für das Histogramm hat zum Ziel, Bildpunkte der Matratze gegenüber Bildpunkten anderer Objekte (beispielsweise auf dem Bett angeordnet) hervorzuheben, wobei diese anderen Objekte immer noch stören könnten. In manchen Ausführungsbeispielen wird daher eine Mehrzahl von Geraden oder Geradenkombinationen herangezogen, zusätzlich oder alternativ auch Strecken gesucht, unbrauchbare Information verworfen und aus dem Rest ein Mittelwert gebildet. Ein solches Ausführungsbeispiel wird mm anhand des Ablaufdiagramms der 11 illustriert, das mit Schritt 109 beginnt.
  • Das Histogramm wird zunächst in ein Schwarz/Weiß-Bild umgewandelt, vgl. Schritt 110 in 11, beispielsweise durch einen Schwellenwertvergleich mit der Intention Bildpunkte, die zu den erwünschten Geraden oder Strecken gehören zu behalten und andere zu verwerfen. Eine global definierte Schwelle lässt sich nur schwer finden, da die gewünschten Bildpunkte nicht immer die höchsten Intensitätswerte haben. Nachdem aber bekannt ist, dass sich die Matratze von links nach rechts in dem Bild erstreckt (entlang der x-Achse), reichen hohe Intensitätswerte in einem gewissen Bereich der x-Achse aus. Die Bilddaten können demnach entlang der x-Achse durchlaufen werden, wobei jeweils ein flacher Bereich berücksichtigt wird für den dann mit einer variablen Schwelle verglichen werden kann. Danach können isolierte Punkte, also punktförmige Intensitäten ohne weitere Verbindungen zu anderen Bildpunkten, entfernt werden.
  • Nachdem die Bilddaten durch die Schwellenwerte bearbeitet wurden, kann anschließend ein Bildskelett bestimmt werden, vgl. Schritt 111 in 11. In dem Bildskelet können dann Geraden oder Strecken gefunden werden, beispielsweise mit Hilfe der Hough Transformation, vgl. Schritt 112. Wie bereits oben beschrieben, zielen zumindest manche Ausführungsbeispiele nicht darauf ab nur so viele Geraden/Strecken wie Matratzensegmente zu finden, sondern es können weniger restriktive Parameter verwendet werden, um eine Mehrzahl von Geraden/Strecken zu finden, die dann gefiltert und gemittelt werden können. Anschließend können nun gemäß Schritt 113 Geraden/Strecken entfernt werden, welche orthogonal zu einer generellen Bettachse verlaufen. Typischerweise kann es keine solchen Teilsegmente geben, die einen Winkel von 90° zur Bettachse aufweisen. Diese Annahme ist für Intensivstationsbetten 20 im Wesentlichen korrekt. Eine derartige Bettachse BA ist in 13 links eingezeichnet. Eine der 13 links zugrunde liegende Bettkonfiguration ist zusammen mit der Bettachse BA in 16 dargestellt. Als Bettachse BA wird die Hauptkomponente der konvexen Hülle der zweidimensionalen Histogrammbildpunkte mittels Hauptkomponentenanalyse nach dem Verfahren von Jolliffe bestimmt.
  • Durch Wegfall dieser Geraden/Strecken kann der Einfluss von Objekten, die sich auf dem Bett befinden, abgeschwächt werden. Danach können die Teilsegmente 20a, 20b, 20c, 20d identifiziert werden. Nachdem vorliegend vier Segmente gefunden werden sollen, werden vier rechteckförmige Rahmen entlang der x-Achse angeordnet, wobei jeder Rahmen eine gewisse Ausdehnung entlang der x-Achse hat und die ganze y-Achse umfasst. Von jedem Rahmen wird angenommen, dass dieser ein Teilsegment umfasst. Nachdem die genauen Start- und Endpunkte nicht bekannt sind, können verschiedene Kombination und Variationen existieren, aus denen dann zu einem späteren Zeitpunkt ausgewählt wird, vgl. Schritt 114 in 11.
  • Für jeden Rahmen in jeder Kombination können dann die folgenden Schritte ausgeführt werden, vgl. Schritte 115, 116, 117, 118, 119 die für eine entsprechende Iteration über alle Kombinationen und deren Segmente sorgen:
    • 1. Geraden oder Strecken die zumindest teilweise in einen Rahmen fallen werden identifiziert, vgl. Schritt 120;
    • 2. Außerhalb des Rahmen liegende Bildpunkte der Geraden/Strecken werden abgeschnitten und die Länge der resultierenden Strecken berechnet/bestimmt, vgl. Schritt 120. Die Strecken werden dann bis an die Rahmengrenzen verlängert und es wird festgestellt, wie viele Bildpunkte die Strecke unterstützen, d. h. nahe genug an der Strecke liegen (ein Bildpunkt unterstützt eine Strecke, wenn er nahe genug an der Strecke liegt). Die Länge und Unterstützung einer Strecke kann dann als Zuverlässigkeitsmaß für die Strecke herangezogen werden, vgl. Schritt 122 nach einer Bestimmung vom Ausreißern im Schritt 121;
    • 3. Das Verfahren kann ggf. auch verlängerte Strecken als Ausreißer wieder verwerfen. Durch Vergleichen der Start- und End-y-Koordinaten einer Strecke mit dem Durchschnitt aller Strecken in einem Rahmen kann eine Abweichung einer Strecke vom Durchschnitt bestimmt werden. Wenn die Abweichung vom Durchschnitt oder Mittelwert einer Strecke zu hoch ist, so wird diese verworfen, vgl. Schritt 121; und
    • 4. Schließlich kann unter Berücksichtigung der Zuverlässigkeitsmaße eine durchschnittliche oder mittlere Strecke pro Rahmen bestimmt oder berechnet werden, vgl. Schritt 123.
  • Diese Schritte werden für jeden Rahmen der aktuellen Kombination durchgeführt, fehlende Segmente werden dann im Schritt 124 behandelt. Im Schritt 125 wird sichergestellt, dass das dritte Segment im Wesentlichen parallel zur Bettachse BA aus 13 links oder zum Untergrund UG aus 13 rechts verläuft, bevor die Iteration mit der nächsten Kombination im Schritt 116 fortfährt.
  • Nachdem alle Kombinationen behandelt wurden wird die beste Kombination in Schritt 126 ausgewählt oder bestimmt. Dies kann beispielsweise basierend auf zwei Parametern erfolgen:
    • 1. Der mittlere Abstand d der bestimmten Eckpunkte (Start- und Endpunkte) die verbunden werden, und
    • 2. Die mittlere Unterstützung s pro Kombination.
  • Beide Parameter werden dann auf einen Wertebereich von 0 ... 1 skaliert und es wird diejenige Kombination ausgewählt, die d + 1/s minimiert. Als letzter Schritt 127 werden dann die Segmente der besten Kombination verbunden (wieder unter Berücksichtigung der jeweiligen Zuverlässigkeit oder Unterstützung), bevor das Verfahren im Schritt 128 endet.
  • Das Verfahren zur Bestimmung der Lage der Teilsegmente wird wiederholt durchgeführt, wie oben beschrieben. 12 zeigt eine Illustration zur Verdeutlichung einer Anpassung eines Models an die Matratzensegmente 20a, 20b, 20c, 20d in dem Ausführungsbeispiel. 12 zeigt die Zwischenergebnisse für die Beispielkonfiguration aus 7. Das Verfahren führt hierbei zwei Iterationen aus und für jede Iteration ist in der 12 das Histogramm dargestellt nach der Schwellenwertbetrachtung. Die Darstellung in der 12 ist dabei leicht verdreht im Vergleich zu der vorherigen Betrachtung dargestellt. Die 12 zeigt auf der linken Seite das Ergebnis der ersten Iteration und auf der rechten Seite das Ergebnis der zweiten Iteration. Es lässt sich erkennen, dass nach der zweiten Iteration das Ergebnishistogramm besser zu einzelnen Strecken konvergiert als nach der ersten Iteration. Darüber hinaus können insbesondere links in der 12 störenden Pixel über der eigentlichen Matratze erkannt werden, die auf Störobjekte zurückgehen. Der Vergleich der beiden Darstellungen der 12 zeigt, wie der Einfluss der Störobjekte über die Iteration hinweg reduziert wird.
  • Das Verfahren wird dann durch transferieren der gefundenen Geraden und/oder Strecken in ein Ergebnisbild fortgesetzt, vgl. Schritt 70 in 6. 13 zeigt eine Darstellung von Ergebnisdaten in einem Ausführungsbeispiel, links das Histogramm und rechts die Abbildung in den dreidimensionalen Bereich. Die 13 zeigt links darüber hinaus anhand des Histogrammes die ermittelten relativen Winkel der Segmente 20a, 20b, 20c, 20d untereinander (auf weißem Hintergrund) und die Winkel zum Untergrund (mit schwarzem Hintergrund). Die Segmente 20a, 20b, 20c, 20d sind als schwarze Strecken dargestellt. Auf der rechten Seite der Darstellung ist die Abbildung der Segmente 20a, 20b, 20c, 20d auf Polygone in der dreidimensionalen Ansicht in der dreidimensionalen Punktemenge dargestellt. Die vier Segmente 20a, 20b, 20c, 20d in der Reihenfolge vom Fuß- bis zum Kopfteil haben die bestimmten Winkel (38°, 6°, 0°, 90°) relativ zum Untergrund. Die Winkel zwischen den Segmenten 20a, 20b, 20c, 20d betragen (148°, 174°, 90°).
  • Schließlich bestimmt das hier vorgestellte Verfahren auch noch ein Zuverlässigkeitsmaß für das ermittelte Ergebnis, vgl. 71 in 6. Das Verfahren schätzt die Zuverlässigkeit der bestimmten Konfiguration der Pateientenlagerungsvorrichtung 20 ein. Generell, wird eine höhere Zuverlässigkeit bestimmt, wenn die Matratze in dem Histogramm klar erkennbar ist und nicht durch Störobjekte verdeckt wird, die das Ergebnis negativ beeinflussen können. Nachdem die Schwellenwertentscheidung der Einpassung darauf abzielt, Pixel oder Bildpunkte, die der Matratze zugeordnet werden können zu behalten und andere zu verwerfen, kann nun überprüft werden, wie gut die bestimmten Ergebnissegmente mit den nicht verworfenen Bildpunkten übereinstimmen. Wenn die Übereinstimmung relativ gut ist, ist es ein Zeichen dafür, dass die Matratze gut in den Daten erkennbar war. Falls nicht, ist dies ein Zeichen dafür, dass wahrscheinlich Störobjekte auf der Matratze oder im Bild zwischen Sensor und Matratze waren. Auch in diesem Fall kann die Matratze noch genügend Bildpunkte hervorrufen, die ein gutes Ergebnis erzielen.
  • Das iterative Verfahren zielt unter anderem darauf ab, Störobjekte oder Bildpunkte, die auf die Störobjekte zurückgehen, zu verwerfen. Um zu beurteilen wie gut das Verwerfen oder Aussortieren dieser Bildpunkte funktioniert hat, kann auch das Zusammenpassen der Segmente 20a, 20b, 20c, 20d mit dem Ergebnisbild (z. B. dasjenige in welchem die Bildpunkte über den Zwischensegmenten verworfen wurden, vgl. 12) herangezogen werden.
  • Beispielsweise kann ein Zuverlässigkeitsmaß automatisiert folgendermaßen berechnet werden:
    • 1. Berechnung der Unterstützung für die Strecken für jedes Segment 20a, 20b, 20c, 20d im originalen Histogramm (support1);
    • 2. Wiederholen des ersten Schritts mit dem modifizierten Histogramm nach allen Iterationen, die beim Einpassungsprozess durchgeführt werden (support2); und
    • 3. Bestimmen einer potentiellen „maximalen” Unterstützung für jedes Teilsegment 20a, 20b, 20c, 20d, (maxSupport).
  • Das Zuverlässigkeitsmaß kann dann z. B. als
    Figure DE102015013031A1_0002
    berechnet werden, wobei N der Anzahl der Segmente entspricht. Wenn die Qualität oder Zuverlässigkeit hoch ist, ist die Wahrscheinlichkeit eines gut zur Realität passenden Ergebnisses entsprechend hoch. Ein niedriger Qualitäts- oder Zuverlässigkeitswert bedeutet nicht zwangsläufig eine schlechte Übereinstimmung, aber die Wahrscheinlichkeit einer schlechten Übereinstimmung steigt mit fallendem Qualitäts- oder Zuverlässigkeitswert. Im vorliegenden Ausführungsbeispiel ist support1 = (16, 16, 3, 15), support2 = (20, 17, 9, 24) und maxSupport = (21, 18, 16, 43). Das resultierende Zuverlässigkeits- oder Qualitätsmaß ist daher 0,5· 1 / 4·( 36 / 21 + 33 / 18 + 12 / 16 + 39 / 43) = 0,6506.
  • Ausführungsbeispiele können verschiedene Anwendungen haben, beispielsweise im Pflege- und Gesundheitswesen sowie bei der computergestützten optischen Erkennung. Z. B. wird von Kranken- und Pflegepersonal insbesondere auf Intensivstation eine Dokumentation der Patientenpositionen, -lagen oder -haltungen erwartet, die zumeist manuell ausgeführt wird. Diese Positionen, Lagen oder Haltungen sollen unter entsprechenden Umständen regelmäßig verändert werden, um Druckgeschwüren (Dekubitus) oder einem Wundliegen des Patienten vorzubeugen und eine vollständige sowie regelmäßige Dokumentation kann hier von Bedeutung sein, gerade auch um einen etwaigen Nachweis von Gegenmaßnahmen im Falle von trotzdem auftretenden Druckgeschwüren erbringen zu können. Die stetige Aktualisierung der Dokumentation kann für das Personal mühevoll und lästig sein, zumal die Effizienz der sonstigen Pflege- und Betreuungstätigkeiten darunter leiden kann. Ausführungsbeispiele können hier eine automatisierte Erfassung und eine automatisierte Dokumentation ermöglichen und so den Arbeitsablauf des Personals, die Regelmäßigkeit der Dokumentation und/oder auch die Qualität der Datenerfassung positiv beeinflussen oder erleichtern. Ausführungsbeispiele können die Konfiguration der Patientenlagerungsvorrichtung 20 bestimmen oder schätzen und so beispielsweise in Krankenhäusern oder Pflegeeinrichtungen zum Einsatz kommen.
  • In ähnlicher Weise wie bei der Dokumentation können Ausführungsbeispiele ein Warnsystem ermöglichen, beispielsweise um Personal zu alarmieren, wenn sich die Konfiguration der Patientenlagerungsvorrichtung 20 über eine gewisse Zeit nicht verändert hat. Ausführungsbeispiele können z. B. ein generelles kontaktloses Warnsystem bereitstellen, das zur Vermeidung von Druckgeschwüren beiträgt und für das kein spezielles, mit Sensoren ausgestattetes Krankenbett erforderlich ist.
  • Manche Ausführungsbeispiele können die Information über die Konfiguration der Patientenlagerungsvorrichtung an eine Darstellungseinheit, z. B. einen Monitor, ein Display usw. weiterleiten. Dies kann insbesondere in hygienekritischen Umfeldern oder in Isolationsszenarien die Möglichkeit bieten, die Konfiguration des Bettes von außerhalb zu überwachen. Selbst eine manuelle Dokumentation kann dann von außerhalb durch das Personal in der Patientenakte ermöglicht werden, ohne dass der kritische Bereich betreten und die Patientenlagerungsvorrichtung 20 durch das Personal angeschaut wird.
  • Eine automatische Segmentierung einer dreidimensionalen Szene in separate Objekte kann eine schwierige Aufgabe sein, insbesondere wenn nur eine niedrige Zahl an Informationskanälen zur Verfügung steht. Die Erlangung von zusätzlicher Information über ein bereits gefundenes Objekt (z. B. ein Bett) kann hilfreich für Systeme sein, um die Gegenwart oder Position/Lokation von weiteren Objekten zu berücksichtigen (z. B. eine Person, die auf dem Bett sitzt). Ausführungsbeispiele können die Position der Patientenlagerungsvorrichtung 20 zusammen mit den dreidimensionalen Positionen der Segmente 20a, 20b, 20c, 20d bestimmen und nachfolgende Auswertungen können diese Information bei der Analyse weiterer Bildpunkte, die sich z. B. über den Segmenten 20a, 20b, 20c, 20d befinden, berücksichtigen.
  • Ausführungsbeispiele können so eine Möglichkeit zur Aufrüstung von Patientenlagerungsvorrichtungen 20 bieten, die keine Sensorik oder eine eigene Erfassungsmöglichkeit für die Segmentlagen selbst haben. Dieser Ausbau kann auch weitgehend kostengünstig erfolgen, da auch mehrere Patientenlagerungsvorrichtungen 20 durch eine Vorrichtung 10 überwacht werden können. Ausführungsbeispiele können darüber hinaus gegenüber kabelgebundenen Systemen aufwandsgünstiger bei der Reinigung und Pflege des Systems sein, da Ausführungsbeispiele nicht in unmittelbarer Nähe der Patientenlagerungsvorrichtung 20 angebracht sein müssen.
  • 14 illustriert ein Blockschaltbild eines Ablaufdiagramms eines Verfahrens zur Bestimmung einer Lage von zumindest zwei Teilsegmenten 20a, 20b, 20c, 20d einer Patientenlagerungsvorrichtung 20. Das Verfahren umfasst ein optisches Erfassen 52 von Bilddaten der Patientenlagerungsvorrichtung 20, und ein Bestimmen 54 der Lage der zumindest zwei Teilsegmente 20a, 20b, 20c, 20d der Patientenlagerungsvorrichtung 20 basierend auf den optisch erfassten Bilddaten. Das Verfahren umfasst ferner ein Ausgeben 56 einer Information über die Lage der zumindest zwei Teilsegmente 20a; 20b; 20c; 20d.
  • Ein weiteres Ausführungsbeispiel ist ein Programm oder Computerprogramm mit einem Programmcode zur Durchführung eines der oben beschriebenen Verfahren, wenn der Programmcode auf einem Computer, einem Prozessor oder einer programmierbaren Hardwarekomponente ausgeführt wird.
  • Die in der vorstehenden Beschreibung, den Ansprüchen und den Zeichnungen offenbarten Merkmale können sowohl einzeln als auch in beliebiger Kombination für die Verwirklichung von Ausführungsbeispielen in ihren verschiedenen Ausgestaltungen von Bedeutung sein und – soweit sich nicht aus der Beschreibung etwas anderes ergibt – beliebig miteinander kombiniert werden.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-Ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einer programmierbaren Hardwarekomponente derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird.
  • Eine programmierbare Hardwarekomponente kann durch einen Prozessor, einen Computerprozessor (CPU = Central Processing Unit), einen Grafikprozessor (GPU = Graphics Processing Unit), einen Computer, ein Computersystem, einen anwendungsspezifischen integrierten Schaltkreis (ASIC = Application-Specific Integrated Circuit), einen integrierten Schaltkreis (IC = Integrated Circuit), ein Ein-Chip-System (SOC = System on Chip), ein programmierbares Logikelement oder ein feldprogrammierbares Gatterarray mit einem Mikro-prozessor (FPGA = Field Programmable Gate Array) gebildet sein.
  • Das digitale Speichermedium kann daher maschinen- oder computerlesbar sein. Manche Ausführungsbeispiele umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem oder einer programmierbare Hardwarekomponente derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird. Ein Ausführungsbeispiel ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Programm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Programm, Firmware, Computerprogramm oder Computerprogrammprodukt mit einem Programmcode oder als Daten implementiert sein, wobei der Programmcode oder die Daten dahin gehend wirksam ist bzw. sind, eines der Verfahren durchzuführen, wenn das Programm auf einem Prozessor oder einer programmierbaren Hardwarekomponente abläuft. Der Programmcode oder die Daten kann bzw. können beispielsweise auch auf einem maschinenlesbaren Träger oder Datenträger gespeichert sein. Der Programmcode oder die Daten können unter anderem als Quellcode, Maschinencode oder Bytecode sowie als anderer Zwischencode vorliegen.
  • Ein weiteres Ausführungsbeispiel ist ferner ein Datenstrom, eine Signalfolge oder eine Sequenz von Signalen, der bzw. die das Programm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom, die Signalfolge oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, um über eine Datenkommunikationsverbindung, beispielsweise über das Internet oder ein anderes Netzwerk, transferiert zu werden. Ausführungsbeispiele sind so auch Daten repräsentierende Signalfolgen, die für eine Übersendung über ein Netzwerk oder eine Datenkommunikationsverbindung geeignet sind, wobei die Daten das Programm darstellen.
  • Ein Programm gemäß einem Ausführungsbeispiel kann eines der Verfahren während seiner Durchführung beispielsweise dadurch umsetzen, dass dieses Speicherstellen ausliest oder in diese ein Datum oder mehrere Daten hinein schreibt, wodurch gegebenenfalls Schaltvorgänge oder andere Vorgänge in Transistorstrukturen, in Verstärkerstrukturen oder in anderen elektrischen, optischen, magnetischen oder nach einem anderen Funktionsprinzip arbeitenden Bauteile hervorgerufen werden. Entsprechend können durch ein Auslesen einer Speicherstelle Daten, Werte, Sensorwerte oder andere Informationen von einem Programm erfasst, bestimmt oder gemessen werden. Ein Programm kann daher durch ein Auslesen von einer oder mehreren Speicherstellen Größen, Werte, Messgrößen und andere Informationen erfassen, bestimmen oder messen, sowie durch ein Schreiben in eine oder mehrere Speicherstellen eine Aktion bewirken, veranlassen oder durchführen sowie andere Geräte, Maschinen und Komponenten ansteuern.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Besl, P. J. (1992), ”Method for registration of 3-D shapes”, In Robotics-DL tentative (pp. 586–606) [0004]
    • Fischler, M. A. (1981), ”Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography”, Communications of the ACM, pp. 381–395 [0004]
    • Hartman, F. (2011), ”Robotersteuerung durch Gesten”, Masterarbeit Universität zu Lübeck [0004]
    • Kong, T., & Rosenfeld, A. (1996), ”Topological Algorithms for Digital Image Processing”, Elsevier Science, Inc. [0004]
    • Shapiro, L., & Stockman, G. (2001), ”Computer Vision”, Prentice-Hall [0004]
    • Hartman F., 2011 [0051]
    • Random Sample Consensus, Fischler, 1981 [0056]
    • „Iterative Closest Point”, Besl, 1992 [0056]
    • ICP (Besl, 1992) [0070]
    • Viola, Paul and Michael J. Jones, ”Rapid Object Detection using a Boosted Cascade of Simple Features”, Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001. Volume: 1, pp. 511–518 [0081]
    • Gottschalk, Stefan. Collision queries using oriented bounding boxes. Diss. The University of North Carolina at Chapel Hill, 2000 [0086]
    • O'ROURKE, J. 1985. Finding minimal enclosing boxes. International Journal of Computer & Information Sciences 14, 183–199 [0086]
    • LAHANAS, M., KEMMERER, T., MILICKOVIC, N., KAROUZAKIS, K., BALTAS, D., AND ZAMBOGLOU, N. 2000. Optimized bounding boxes for three-dimensional treatment planning in brachytherapy. Medical Physics 27, 10, 2333–2342 [0086]
    • Barber, C. B., D. P. Dobkin, and H. T. Huhdanpaa, ”The Quickhull Algorithm for Convex Hulls,” ACM Transactions on Mathematical Software, Vol. 22, No. 4, Dec. 1996, p. 469–483 [0087]
    • Kirkpatrick, David G.; Seidel, Raimund (1986). ”The ultimate planar convex hull algorithm”. SIAM Journal on Computing 15(1): 287–299 [0088]
    • Graham, R. L. (1972). An Efficient Algorithm for Determining the Convex Hull of a Finite Planar Set. Information Processing Letters 1, 132–133 [0088]
    • Jolliffe, I. T. Principal Component Analysis. 2nd ed., Springer, 2002 [0089]
    • Halko, Nathan, et al. ”An algorithm for the principal component analysis of large data sets.” SIAM Journal on Scientific computing 33.5 (2011): 2580–2594 [0089]
    • Roweis, Sam. ”EM algorithms for PCA and SPCA.” Advances in neural information processing systems (1998): 626–632 [0089]
    • Kong & Rosenfeld, 1996 [0091]

Claims (16)

  1. Vorrichtung (10) zur Erfassung von optischen Bilddaten einer Patientenlagerungsvorrichtung (20) und zur Bestimmung einer Lage von zumindest zwei Teilsegmenten (20a; 20b; 20c; 20d) der Patientenlagerungsvorrichtung (20) basierend auf den Bilddaten, wobei die Vorrichtung (10) ferner eine Schnittstelle (16) zur Ausgabe einer Information über die Lage der zumindest zwei Teilsegmente (20a; 20b; 20c; 20d) aufweist.
  2. Vorrichtung (10) nach Anspruch 1, die eine Erfassungseinrichtung (12) zur Erfassung der optischen Bilddaten der Patientenlagerungsvorrichtung (20) umfasst, wobei die Erfassungseinrichtung (12) ein oder mehrere Sensoren aufweist.
  3. Vorrichtung (10) nach Anspruch 2, wobei die ein oder mehreren Sensoren zumindest einen Sensor umfassen, der zumindest dreidimensionale Daten liefert.
  4. Vorrichtung (10) gemäß einem der Ansprüche 2 oder 3, wobei die ein oder mehreren Sensoren ausgebildet sind, um als Bilddaten eine Menge von Bildpunkten zu erfassen, wobei die Menge der Bildpunkte im Wesentlichen unabhängig von einer Beleuchtungsintensität der Patientenlagerungsvorrichtung (20) ist und wobei die Beleuchtungsintensität auf einen Einfluss externer Lichtquellen zurückgeht.
  5. Vorrichtung (10) gemäß einem der vorangehenden Ansprüche, die ferner eine Bestimmungseinrichtung (14) umfasst, die zur Bestimmung der Lage der zumindest zwei Teilsegmente (20a; 20b; 20c; 20d) der Patientenlagerungsvorrichtung (20) basierend auf den Bilddaten ausgebildet ist.
  6. Vorrichtung (10) gemäß Anspruch 5, wobei die Bestimmungseinrichtung (14) ausgebildet ist, um die Bilddaten oder vorverarbeitete Bilddaten von einem Originalbereich in einen Transformationsbereich zu transformieren, wobei eine Bestimmung der Lage der Teilsegmente (20a; 20b; 20c; 20d) in dem Transformationsbereich robuster gegenüber Störobjekten in den Bilddaten ist, als in dem Originalbereich.
  7. Vorrichtung (10) gemäß Anspruch 6, wobei die Bestimmungseinrichtung (14) ausgebildet ist, um in dem Transformationsbereich die zumindest zwei Teilsegmente (20a; 20b; 20c; 20d) hinsichtlich Position, Größe und Lage zu quantifizieren.
  8. Vorrichtung (10) gemäß einem der Ansprüche 5 bis 7, wobei die Bestimmungseinrichtung (14) ausgebildet ist, um eine Information über eine Zuverlässigkeit einer Lagebestimmung für zumindest ein Teilsegment (20a; 20b; 20c; 20d) zu bestimmen.
  9. Vorrichtung (10) gemäß einem der vorangehenden Ansprüche, die ausgebildet ist, um die Information über die Lage in Abhängigkeit einer Bedingung auszugeben.
  10. Vorrichtung (10) gemäß Anspruch 9, wobei die Bedingung derart gewählt ist, dass die Ausgabe periodisch, auf Anfrage, ereignisbasiert oder zufällig erfolgt.
  11. Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei die Schnittstelle (16) ferner zur Ausgabe einer Positionsinformation und/oder einer Größeninformation über die zumindest zwei Teilsegmente (20a; 20b, 20c, 20d) ausgebildet ist.
  12. Vorrichtung (10) gemäß einem der Ansprüche 5 bis 11, wobei die Erfassungseinrichtung (12) mehrere Bildsensoren zur Erfassung von zumindest dreidimensionalen Teilbilddaten umfasst, und wobei die Bestimmungseinrichtung (14) ausgebildet ist, um die Daten der mehreren Bildsensoren zu Bilddaten eines zumindest dreidimensionalen Teilbildes der Patientenlagerungsvorrichtung (20) zusammenzufassen und um die Bestimmung der Lage der zumindest zwei Teilsegmente (20a; 20b; 20c; 20d) basierend auf dem Teilbild durchzuführen.
  13. Vorrichtung (10) gemäß einem der Ansprüche 5 bis 12, wobei die Bestimmungseinrichtung (14) ausgebildet ist, um aus zumindest dreidimensionalen Teilbilddaten der Patientenlagerungsvorrichtung (20) zweidimensionale Histogrammdaten zu bestimmen und die Lage der zumindest zwei Teilsegmente (20a; 20b; 20c; 20d) der Patientenlagerungsvorrichtung (20) basierend auf den Histogrammdaten zu bestimmen.
  14. Vorrichtung (10) gemäß Anspruch 13, wobei die Bestimmungseinrichtung (14) ausgebildet ist, um aus den zumindest dreidimensionalen Teilbilddaten der Patientenlagerungsvorrichtung (20) Bildpunkte zu bestimmen, die Bildinformation über die Patientenlagerungsvorrichtung (20) aufweisen, die Bildpunkte in Abhängigkeit eines Abstandes zu einer Mittelebene entlang einer Längsachse der Patientenlagerungsvorrichtung (20) zu gewichten, und die His togrammdaten basierend auf den gewichteten Bildpunkten zu bestimmen.
  15. Verfahren zur Bestimmung einer Lage von zumindest zwei Teilsegmenten (20a; 20b; 20c; 20d) einer Patientenlagerungsvorrichtung (20), mit Optischem Erfassen (52) von Bilddaten der Patientenlagerungsvorrichtung (20); Bestimmen (54) der Lage der zumindest zwei Teilsegmente (20a; 20b; 20c; 20d) der Patientenlagerungsvorrichtung (20) basierend auf den optisch erfassten Bilddaten; und Ausgeben (56) einer, Information über die Lage der zumindest zwei Teilsegmente (20a; 20b; 20c; 20d).
  16. Programm mit einem Programmcode zur Durchführung des Verfahrens gemäß Anspruch 15, wenn der Programmcode auf einem Computer, einem Prozessor oder einer programmierbaren Hardwarekomponente ausgeführt wird.
DE102015013031.5A 2015-10-09 2015-10-09 Vorrichtung, Verfahren und Computerprogramm zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung Active DE102015013031B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102015013031.5A DE102015013031B4 (de) 2015-10-09 2015-10-09 Vorrichtung, Verfahren und Computerprogramm zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung
US15/288,256 US10134128B2 (en) 2015-10-09 2016-10-07 Device, method and computer program for detecting optical image data of a patient positioning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015013031.5A DE102015013031B4 (de) 2015-10-09 2015-10-09 Vorrichtung, Verfahren und Computerprogramm zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung

Publications (2)

Publication Number Publication Date
DE102015013031A1 true DE102015013031A1 (de) 2017-04-13
DE102015013031B4 DE102015013031B4 (de) 2018-12-27

Family

ID=58405305

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015013031.5A Active DE102015013031B4 (de) 2015-10-09 2015-10-09 Vorrichtung, Verfahren und Computerprogramm zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung

Country Status (2)

Country Link
US (1) US10134128B2 (de)
DE (1) DE102015013031B4 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016015121A1 (de) 2016-12-20 2018-06-21 Drägerwerk AG & Co. KGaA Vorrichtung, Verfahren und Computerprogramm zur Erfassung von optischen Bilddaten und zur Bestimmung einer Lage einer Seitenbegrenzung einer Patientenlagerungsvorrichtung
DE102016015119A1 (de) 2016-12-20 2018-06-21 Drägerwerk AG & Co. KGaA Vorrichtung, Verfahren und Computerprogramm zur Konfiguration eines medizinischen Gerätes, medizinisches Gerät, Verfahren und Computerprogramm für ein medizinisches Gerät
WO2019011769A1 (de) 2017-07-11 2019-01-17 Drägerwerk AG & Co. KGaA Verfahren, vorrichtung und computerprogramm zur erfassung von optischen bilddaten einer patientenumgebung und zur erkennung einer patientenüberprüfung
WO2019096783A1 (de) 2017-11-17 2019-05-23 Drägerwerk AG & Co. KGaA Verfahren, computerprogramm und vorrichtung zur einordnung von aktivitäten eines patienten
DE102018115990A1 (de) * 2018-07-02 2020-01-02 Stiegelmeyer Gmbh & Co. Kg Verfahren zur Positionskontrolle von Funktionsteilen eines Kranken- oder Pflegebettes und/oder einer darin befindlichen Person

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180068578A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
US10475206B1 (en) * 2017-01-04 2019-11-12 Ocuvera Medical environment event parsing system
CN111432773B (zh) * 2017-12-18 2021-12-28 卡普索影像公司 利用胶囊相机进行胃部检查的装置
CA3094518A1 (en) * 2018-03-22 2019-09-26 Bussert Medical, Inc. Therapeutic seat cushion equipped for pressure monitoring and inflation system for same
GB201900581D0 (en) * 2019-01-16 2019-03-06 Os Contracts Ltd Bed exit monitoring
DE102020001561A1 (de) 2020-03-10 2021-09-16 Drägerwerk AG & Co. KGaA Medizingeräteanordnung mit einem Prüfmodul
US11668799B2 (en) * 2020-03-20 2023-06-06 Aptiv Technologies Limited Histogram based L-shape detection of target objects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3436444A1 (de) * 1984-10-04 1986-04-10 Peter Dr. 7915 Elchingen Blank Verfahren und einrichtung zur reproduzierbaren dreidimensionalen positionierung eines patienten, insbesondere zur bestrahlung
US6049281A (en) * 1998-09-29 2000-04-11 Osterweil; Josef Method and apparatus for monitoring movements of an individual
DE102004021972A1 (de) * 2004-05-04 2005-12-01 Siemens Ag Patientenliege und Verfahren zur reproduzierbaren Positionierung und Lagerung eines Patienten
US20090119843A1 (en) * 2007-11-12 2009-05-14 Valence Broadband, Inc. Monitoring patient support exiting and initiating response
DE102014100548A1 (de) * 2014-01-20 2015-07-23 Logicdata Electronic & Software Entwicklungs Gmbh Ergonomiesystem für ein verstellbares Bettensystem

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3426444A1 (de) 1983-12-23 1985-07-04 Josef 8900 Augsburg Kuhn Vorrichtung zur aufbereitung von furnierhoelzern
JP5132138B2 (ja) * 2006-11-28 2013-01-30 キヤノン株式会社 位置姿勢計測方法、位置姿勢計測装置
US9817017B2 (en) 2011-10-17 2017-11-14 Atlas5D, Inc. Method and apparatus for monitoring individuals while protecting their privacy
US20150293600A1 (en) * 2014-04-11 2015-10-15 Visual Exploration LLC Depth-based analysis of physical workspaces

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3436444A1 (de) * 1984-10-04 1986-04-10 Peter Dr. 7915 Elchingen Blank Verfahren und einrichtung zur reproduzierbaren dreidimensionalen positionierung eines patienten, insbesondere zur bestrahlung
US6049281A (en) * 1998-09-29 2000-04-11 Osterweil; Josef Method and apparatus for monitoring movements of an individual
DE102004021972A1 (de) * 2004-05-04 2005-12-01 Siemens Ag Patientenliege und Verfahren zur reproduzierbaren Positionierung und Lagerung eines Patienten
US20090119843A1 (en) * 2007-11-12 2009-05-14 Valence Broadband, Inc. Monitoring patient support exiting and initiating response
DE102014100548A1 (de) * 2014-01-20 2015-07-23 Logicdata Electronic & Software Entwicklungs Gmbh Ergonomiesystem für ein verstellbares Bettensystem

Non-Patent Citations (25)

* Cited by examiner, † Cited by third party
Title
„Iterative Closest Point", Besl, 1992
Barber, C. B., D. P. Dobkin, and H. T. Huhdanpaa, "The Quickhull Algorithm for Convex Hulls," ACM Transactions on Mathematical Software, Vol. 22, No. 4, Dec. 1996, p. 469–483
Besl, P. J. (1992), "Method for registration of 3-D shapes", In Robotics-DL tentative (pp. 586–606)
Besl, P.J. (1992), Method for registration of 3D-shapes. In: Robotics-DL tentative, pP. 586-606 *
Fischler, M. A. (1981), "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography", Communications of the ACM, pp. 381–395
Fischler, M.A. (1981), Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM, pp. 381-395 *
Gottschalk, Stefan. Collision queries using oriented bounding boxes. Diss. The University of North Carolina at Chapel Hill, 2000
Graham, R. L. (1972). An Efficient Algorithm for Determining the Convex Hull of a Finite Planar Set. Information Processing Letters 1, 132–133
Halko, Nathan, et al. "An algorithm for the principal component analysis of large data sets." SIAM Journal on Scientific computing 33.5 (2011): 2580–2594
Hartman F., 2011
Hartman, F. (2011), "Robotersteuerung durch Gesten", Masterarbeit Universität zu Lübeck
Hartmann, F. (2011) Robotersteuerung durch gesten., Masterarbeit Universität Lübeck *
ICP (Besl, 1992)
Jolliffe, I. T. Principal Component Analysis. 2nd ed., Springer, 2002
Kirkpatrick, David G.; Seidel, Raimund (1986). "The ultimate planar convex hull algorithm". SIAM Journal on Computing 15(1): 287–299
Kong & Rosenfeld, 1996
Kong, T. & Rosenfeld, A. (1996), Topological Algorithms for Digital Image Processing. Elsevier Science, Inc. *
Kong, T., & Rosenfeld, A. (1996), "Topological Algorithms for Digital Image Processing", Elsevier Science, Inc.
LAHANAS, M., KEMMERER, T., MILICKOVIC, N., KAROUZAKIS, K., BALTAS, D., AND ZAMBOGLOU, N. 2000. Optimized bounding boxes for three-dimensional treatment planning in brachytherapy. Medical Physics 27, 10, 2333–2342
O'ROURKE, J. 1985. Finding minimal enclosing boxes. International Journal of Computer & Information Sciences 14, 183–199
Random Sample Consensus, Fischler, 1981
Roweis, Sam. "EM algorithms for PCA and SPCA." Advances in neural information processing systems (1998): 626–632
Shapiero, L. & Stockmann, G. (2001) Computer Vision. Prentice-Hall *
Shapiro, L., & Stockman, G. (2001), "Computer Vision", Prentice-Hall
Viola, Paul and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001. Volume: 1, pp. 511–518

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016015121A1 (de) 2016-12-20 2018-06-21 Drägerwerk AG & Co. KGaA Vorrichtung, Verfahren und Computerprogramm zur Erfassung von optischen Bilddaten und zur Bestimmung einer Lage einer Seitenbegrenzung einer Patientenlagerungsvorrichtung
DE102016015119A1 (de) 2016-12-20 2018-06-21 Drägerwerk AG & Co. KGaA Vorrichtung, Verfahren und Computerprogramm zur Konfiguration eines medizinischen Gerätes, medizinisches Gerät, Verfahren und Computerprogramm für ein medizinisches Gerät
WO2018114454A1 (de) 2016-12-20 2018-06-28 Drägerwerk AG & Co. KGaA Vorrichtung, verfahren und computerprogramm zur erfassung von optischen bilddaten und zur bestimmung einer lage einer seitenbegrenzung einer patientenlagerungsvorrichtung
WO2019011769A1 (de) 2017-07-11 2019-01-17 Drägerwerk AG & Co. KGaA Verfahren, vorrichtung und computerprogramm zur erfassung von optischen bilddaten einer patientenumgebung und zur erkennung einer patientenüberprüfung
DE102017006529A1 (de) 2017-07-11 2019-01-17 Drägerwerk AG & Co. KGaA Verfahren, Vorrichtung und Computerprogramm zur Erfassung von optischen Bilddaten einer Patientenumgebung und zur Erkennung einer Patientenüberprüfung
US11666247B2 (en) 2017-07-11 2023-06-06 Drägerwerk AG & Co. KGaA Method, device and computer program for capturing optical image data of patient surroundings and for identifying a patient check-up
WO2019096783A1 (de) 2017-11-17 2019-05-23 Drägerwerk AG & Co. KGaA Verfahren, computerprogramm und vorrichtung zur einordnung von aktivitäten eines patienten
DE102017010649A1 (de) 2017-11-17 2019-05-23 Drägerwerk AG & Co. KGaA Verfahren, Computerprogramm und Vorrichtung zur Einordnung von Aktivitäten eines Patienten
DE102018115990A1 (de) * 2018-07-02 2020-01-02 Stiegelmeyer Gmbh & Co. Kg Verfahren zur Positionskontrolle von Funktionsteilen eines Kranken- oder Pflegebettes und/oder einer darin befindlichen Person

Also Published As

Publication number Publication date
US20170103524A1 (en) 2017-04-13
DE102015013031B4 (de) 2018-12-27
US10134128B2 (en) 2018-11-20

Similar Documents

Publication Publication Date Title
DE102015013031B4 (de) Vorrichtung, Verfahren und Computerprogramm zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung
DE112019002547B4 (de) System und verfahren zum bestimmen eines standortes zur platzierung eines pakets
DE112017000642T5 (de) Systeme und Verfahren für eine mögliche Kollision zwischen einem Objekt und Detektieren eines Patienten
EP3103059A1 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE112018001819B4 (de) Messen eines menschenstroms durch türdurchgänge unter verwendung von leicht installierbaren ir-arraysensoren
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE212010000184U1 (de) System zum Scannen eines menschlichen Körpers
DE102007038058A1 (de) Verfahren zur Verarbeitung radiologischer Bilder zur Detektion von Opazitäten
DE112010001224T5 (de) Auf Bewegungskompensation basierende CT-Vorrichtung und CT-Verfahren
DE102012108058A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Orientierung einer Testperson
EP3245943A1 (de) Verfahren zur berührungslosen ermittlung und aufbereitung von schlafbewegungsdaten
DE102017006529A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erfassung von optischen Bilddaten einer Patientenumgebung und zur Erkennung einer Patientenüberprüfung
EP3559953B1 (de) Vorrichtung, verfahren und computerprogramm zur erfassung von optischen bilddaten und zur bestimmung einer lage einer seitenbegrenzung einer patientenlagerungsvorrichtung
DE102016015119A1 (de) Vorrichtung, Verfahren und Computerprogramm zur Konfiguration eines medizinischen Gerätes, medizinisches Gerät, Verfahren und Computerprogramm für ein medizinisches Gerät
DE112021003775T5 (de) Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
DE102008060034B4 (de) Lagervorrichtung mit Dokumentationsmöglichkeit der Entnahme von Gegenständen sowie entsprechendes Einlagerungs- und Entnahmeverfahren
EP3631758B1 (de) Steuereinrichtung für eine kameravorrichtung, kameraanordnung und verfahren zur stereoskopischen aufnahme eines überwachungsbereichs
DE112017005263T5 (de) Echtzeit-aktivitätsüberwachung unter verwendung von thermo-tags
WO2016012556A1 (de) Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung
WO2003025843A2 (de) Modellbasierte objektklassifikation und zielerkennung
DE102017222675A1 (de) Personenerkennung mittels einer Kamera
EP3566651A1 (de) Verfahren und vorrichtung zur ermittlung von ergebniswerten auf basis einer skelettalen medizintechnischen bildaufnahme
DE102015003537B4 (de) Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras
EP3635735B1 (de) Verfahren, computerprogramm und vorrichtung zur einordnung von aktivitäten eines patienten
DE102019006326A1 (de) System und Verfahren zur Überwachung einer Lagesicherheit

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final