DE102016103543A1 - Vorrichtung und verfahren zur optischen erfassung eines gewichtes einer person - Google Patents

Vorrichtung und verfahren zur optischen erfassung eines gewichtes einer person Download PDF

Info

Publication number
DE102016103543A1
DE102016103543A1 DE102016103543.2A DE102016103543A DE102016103543A1 DE 102016103543 A1 DE102016103543 A1 DE 102016103543A1 DE 102016103543 A DE102016103543 A DE 102016103543A DE 102016103543 A1 DE102016103543 A1 DE 102016103543A1
Authority
DE
Germany
Prior art keywords
person
image
processor
weight
pixel matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016103543.2A
Other languages
English (en)
Inventor
Christian Pfitzner
Stefan May
Christian Merkl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Georg Simon Ohm Hochschule fuer Angewandte Wissenschaften Fachhochschule Nurnberg
Original Assignee
Georg Simon Ohm Hochschule fuer Angewandte Wissenschaften Fachhochschule Nurnberg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Georg Simon Ohm Hochschule fuer Angewandte Wissenschaften Fachhochschule Nurnberg filed Critical Georg Simon Ohm Hochschule fuer Angewandte Wissenschaften Fachhochschule Nurnberg
Priority to DE102016103543.2A priority Critical patent/DE102016103543A1/de
Publication of DE102016103543A1 publication Critical patent/DE102016103543A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G17/00Apparatus for or methods of weighing material of special form or property
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G19/00Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups
    • G01G19/44Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups for weighing persons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G9/00Methods of, or apparatus for, the determination of weight, not provided for in groups G01G1/00 - G01G7/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Dentistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung (100) zur optischen Erfassung eines Gewichtes einer Person (201), mit einer Bildkamera (101), welche ausgebildet ist, eine Bildaufnahme der Person aufzunehmen, wobei die Bildaufnahme Tiefeninformationen umfasst, und einem Prozessor (103), welcher ausgebildet ist, die Bildaufnahme in eine 3D Pixelmatrix (300e) zu überführen, wobei der Prozessor (103) ausgebildet ist, Eigenwerte der 3D Pixelmatrix (300e) zu bestimmen, und wobei der Prozessor (103) ferner ausgebildet ist, das Gewicht der Person (201) auf der Basis der Eigenwerte zu bestimmen.

Description

  • Die vorliegende Erfindung betrifft das Gebiet der berührungslosen Gewichtsschätzung von Personen mittels bildgebender Systeme.
  • Zur gewichtsabhängigen Dosierung von Notfallmedikamenten ist häufig ein Schätzen des Gewichts von Patienten notwendig. Das Schätzen des Gewichts soll dabei möglichst im Rahmen der Notfallbehandlung erfolgen, ohne dass der Patient umgelagert wird, oder die Ärzte in der Behandlung eingeschränkt werden. Für die Notfallmedikation ist dabei meist nicht eine Erfassung des exakten Körpergewichts nötig. Eine möglichst nahe Schätzung ist häufig ausreichend.
  • Beispielsweise wird im Fall von Schlaganfallpatienten, bei denen ein Blutgerinnsel vorliegt, häufig ein Gewebe-Plasminogen-Aktivator (Tissue plasminogen activator, TPA) zur Lösung des Gerinnsels verwendet. Wichtig ist eine schnelle Verabreichung des Medikaments (Door-to-Needle Time), um die Heilungschancen zu vergrößern. Die Dosierung erfolgt mit 0,9 mg je Kilogramm Körpergewicht. Die Maximaldosis ist bei 90 mg erreicht. Bei Abweichungen von mehr als 10 Prozent zur idealen Dosierung kann der Heilungsprozess beeinträchtigt werden. Bei einer Unterdosierung löst sich das Gerinnsel zeitverzögert oder nicht, während eine Überdosierung eine Gehirnblutung zur Folge haben kann (siehe hierzu: L. Breuer, T. Nowe, H. B. Huttner, C. Blinzler, R. Kollmar, P. D. Schellinger, S. Schwab, and M. Körmann. Weight approximation in stroke before thrombolysis: "The waist-study: a prospective observational quot dose-finding study", Stroke, 41(12), 2010). Daher ist eine möglichst genaue, aber auch schnelle, Bestimmung des Körpergewichts wichtig.
  • Die einfachste Möglichkeit das Körpergewicht einer Person zu ermitteln, ist das Wiegen auf einer elektronischen oder mechanischen Standwaage. Die Genauigkeit ist hierbei hoch, jedoch muss sich ein potentieller Patient auf die Waage stellen. Bedingt durch Verletzungen oder krankheits-bedingte Symptome, wie Schwindel oder Bewusstlosigkeit, kann dies jedoch nur eingeschränkt möglich sein. Die Druckschrift US 4 013 135 offenbart zum Beispiel eine Stuhlwaage mit deren Hilfe das Gewicht eines Patienten im Sitzen ermittelt werden kann.
  • Bettenwaagen umgehen das Problem der Umlagerung. Bedingung ist, dass ein Patientenlagerungssystem mit einer Bettenwaage ausgerüstet ist. Zur sicheren Gewichtsbestimmung sollte das Taragewicht des Patientenlagerungssystems bekannt sein. Es existieren Systeme, die fest in das Bett integriert sind, sowie mobile Systeme, die kurzfristig an unterschiedlichen Betten angebracht werden können.
  • Darüber hinaus können Drucksensoren direkt unter der Auflage des Patientenlagerungssystems platziert werden. Die Druckschriften US 7 714 238 und EP 2 068 133 A1 offenbaren zum Beispiel Drucksensoren, die das Gewicht einer Person elektronisch oder über Flüssigkeitsstände ermitteln. Der Vorteil gegenüber Bettenwaagen ist, dass ein falsches Taragewicht durch einen Bedienfehler weniger stark auf das Messergebnis eingeht.
  • Auch über anthropometrische Merkmale kann das Körpergewicht abgeschätzt werden. Beispielhafte anthropometrische Merkmale sind das Alter einer Person, oder Abmessungen am Körper, wie Körpergröße oder der Umfang an Bauch und Hüfte. Für das Ablesen von Längen oder Umfängen des Körpers eines Patienten können verschiedene Hilfsmittel verwendet werden. Im einfachsten Fall genügt ein Maßband. Die Druckschrift WO 2012 051214 A1 offenbart beispielsweise eine Vorrichtung, mittels derer sich das Gewicht direkt auf der Basis von anthropometrischen Merkmalen abschätzen lässt.
  • Ferner existieren zahlreiche Gleichungen, die anthropometrische Merkmale von Personen mit empirisch ermittelten Werten verrechnen, um so näherungsweise das Patientengewicht zu erhalten (siehe beispielsweise: J Sendroy and H A Collison. Determination of human body volume from height and weight. J Appl Physiol, 21(1): 167–72, 1966).
  • Anthropometrische Merkmale können auch von Kamerasystemen automatisch erfasst und extrahiert werden. Diese Kamerasysteme können beispielsweise mehreren Stereokameras oder eine Tiefenkamera umfassen. Solche Kamerasysteme haben den Vorteil, dass sie das Patentengewicht berührungslos erfassen können und nicht an einem Patientenlagerungssystem angeordnet sein müssen.
  • Die reine Schätzung des Patientengewichts über eine Tiefenkamera führt jedoch meist zu keinem hinreichend genauen und robusten Ergebnis. Da der Patient nur frontal vom Sensor erfasst wird, entstehen häufig starke Abweichungen durch unterschiedliche Haltung, oder auch durch ein Ein- und Ausatmen des Patienten.
  • Es ist daher die Aufgabe der vorliegenden Erfindung, ein effizientes Konzept zur optischen Erfassung des Gewichtes einer Person zu schaffen.
  • Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungsformen sind Gegenstand der abhängigen Patentansprüche, der Beschreibung sowie der Zeichnungen.
  • Gemäß einem ersten Aspekt betrifft die Erfindung eine Vorrichtung zur optischen Erfassung eines Gewichtes einer Person, mit einer Bildkamera, welche ausgebildet ist, eine Bildaufnahme der Person aufzunehmen, wobei die Bildaufnahme Tiefeninformationen umfasst, und einem Prozessor, welcher ausgebildet ist, die Bildaufnahme in eine 3D Pixelmatrix zu überführen, wobei der Prozessor ausgebildet ist, Eigenwerte der 3D Pixelmatrix zu bestimmen, und wobei der Prozessor ferner ausgebildet ist, das Gewicht der Person auf der Basis der Eigenwerte zu bestimmen. Dadurch wird der Vorteil erreicht, dass das Gewicht der Person berührungslos mit hoher Genauigkeit bestimmt werden kann.
  • Die Bildkamera kann eine Vielzahl von Bildsensoren zur Bildaufnahme in unterschiedlichen Wellenlängenbereichen umfassen. Zumindest ein Bildsensor der Bildkamera kann dabei als Infrarot- oder Nahinfrarot-Bildsensor ausgebildet sein. Der Infrarot- oder Nahinfrarot-Bildsensor kann ausgebildet sein, eine Bildaufnahme der Person aufzunehmen, bei der jeder Bildpixel der Bildaufnahme eine Tiefeninformation umfasst. Die Bildkamera kann eine 3D-Kamera oder. eine Tiefenkamera, beispielsweise eine TOF-Kamera, eine Stereo-Kamera oder eine Structured-Light-Kamera bzw. einen Structured-Light-Sensor, umfassen. Die Bildkamera kann ferner eine Farbkamera und/oder eine Thermokamera umfassen.
  • Die Person kann zur Bildaufnahme auf einem ebenen Patientenlagerungssystem, beispielsweise einer Liege oder einem Krankenbett, liegen. Das Patientenlagerungssystem muss nicht notwendigerweise waagerecht positioniert sein und kann in der Höhe verstellbar sein. Die Auflagefläche des Patientenlagerungssystems kann komfortbedingt gepolstert sein. Die Person liegt beispielsweise in Rückenlage auf dem Patientenlagerungssystem, die Arme auf oder neben dem Oberkörper, die Beine nicht angewinkelt. Die Person kann ferner vor der Bildkamera stehen. Hinter der stehenden Person kann ein einfarbiger Hintergrund, beispielsweise eine Trennwand, angeordnet sein.
  • Die Bildaufnahme und anschließende Auswertung können auch automatisch ausgelöst werden. Die Vorrichtung kann hierzu autonom entscheiden, wann alle Körperteile korrekt auf dem Patientenlagerungssystem, beispielsweise innerhalb einer Markierung, liegen. Eine Bildaufnahme ist auch dann möglich, wenn sich weitere Personen nahe an der zu erfassenden Person aufhalten, solange bis die zu erfassende Person voll im Blickfeld zu sehen ist und nicht durch die weiteren Personen verdeckt wird.
  • Der Prozessor kann ein Mikroprozessor sein. Ferner kann der Prozessor in ein an das Bildaufnahmesystem angeschlossenes Datenverarbeitungsgerät, beispielsweise einen Desktop-Computer oder einen Laptop, integriert sein. Der Prozessor kann ein künstliches neuronales Netzwerk umfassen. Der Prozessor kann ferner durch ein Computernetzwerk implementiert sein, oder durch ein Computernetzwerk gebildet werden, welches mit der Bildkamera über ein privates oder ein öffentliches Kommunikationsnetzwerk, insbesondere das Internet, verbunden ist. Die Bildkamera kann ausgebildet sein, die Bildaufnahme an den Prozessor weiterzuleiten.
  • Die 3D Pixelmatrix kann eine Vielzahl an Bildpixel in einem kartesischen Koordinatensystem mit den Bildkoordinaten xi = (x, y, z)T umfassen. Die 3D Pixelmatrix kann ferner Farbinformationen und/oder Temperaturwerte an den Bildkoordinaten umfassen. Die Bildpixel der 3D Pixelmatrix können eine Punktwolke bilden, wobei ein Abschnitt der Punktwolke dem Patienten zugeordnet ist.
  • Die Eigenwerte λ1, λ2, λ3, mit λ1 > λ2 > λ3, können in der 3D Pixelmatrix gemäß einem Verfahren, wie in M Artac, M Jogan, and A Leonardis. „Incremental PCA for on-line visual learning and recognition", In Pattern Recognition, 2002. Proceedings. 16th International Conference on, vol. 3, p. 781–784, 2002 beschrieben, ermittelt werden. Hierbei kann der erste Eigenwert λ1 mit einer Höhe der Person, der zweite Eigenwert λ2 mit einer Breite der Person und der dritte Eigenwert λ3 mit einer Tiefe der Person aus Sicht der Bildkamera korrelieren.
  • Gemäß einer Ausführungsform ist der Prozessor ausgebildet, geometrische Merkmale der Person auf der Basis der 3D Pixelmatrix und/oder der Eigenwerte der 3D Pixelmatrix zu ermitteln, wobei der Prozessor ferner ausgebildet ist, das Gewicht der Person auf der Basis der geometrischen Merkmale zu bestimmen. Dadurch wird der Vorteil erreicht, dass eine genaue und effiziente Bestimmung des Gewichtes der Person erfolgen kann.
  • Der Prozessor kann ausgebildet sein, zunächst das Volumen v und/oder die Oberfläche s der Person in der 3D Pixelmatrix zu erfassen, insbesondere in kartesischen Koordinaten zu erfassen. Der Prozessor kann ferner ausgebildet sein, eine Anzahl der Bildpixel n, die auf den Patienten fallen, und eine Gesamtzahl der Bildpixel N zu erfassen. Auf der Basis der 3D Pixelmatrix und/oder der Eigenwerte λ1, λ2, λ3 kann der Prozessor die folgenden weiteren geometrischen Merkmale fi = (f1 .. f10)T erfassen: ein Verhältnis der Person zur Umgebung, eine Sphärizität, eine Linearität, eine Schiefheit, eine Standardabweichung bezogen auf Zentroiden, eine Kompaktheit.
  • Gemäß einer Ausführungsform umfasst der Prozessor ein künstliches neuronales Netzwerk, wobei der Prozessor ausgebildet ist, das Gewicht der Person mittels einer Entscheidungsoperation des künstlichen neuronalen Netzwerks auf der Basis der geometrischen Merkmale zu bestimmen. Dadurch wird der Vorteil erreicht, dass eine effiziente und genaue Bestimmung des Gewichtes der Person erfolgen kann.
  • Das künstliche neuronale Netzwerk kann als mehrschichtiges Feedforward-Netz ausgebildet sein, und kann drei Schichten umfassen: Eine Eingangsschicht kann die berechneten geometrischen Merkmale empfangen, und eine versteckte Schicht weiterleiten. Die versteckte Schicht kann Neuronen umfassen, welche jeweils eine Verstärkung, sowie einen Bias-Wert besitzen. Eine Ausgangsschicht kann ein erfasstes Gewicht der Person ausgeben. Die Ausgangsschicht kann ein einzelnes Neuron umfassen.
  • Gemäß einer Ausführungsform ist der Prozessor ausgebildet, das Gewicht der Person mittels einer voreingestellten oder einer eingelernten Logik auf der Basis der geometrischen Merkmale zu bestimmen. Dadurch wird der Vorteil erreicht, dass eine effiziente und genaue Bestimmung des Gewichtes der Person erfolgen kann.
  • Das Einlernen bzw. Trainieren des Prozessors, insbesondere des künstlichen neuronalen Netzwerks, kann nach dem Prinzip des überwachten Lernens erfolgen: Dabei werden zunächst am Eingang des künstlichen neuronalen Netzwerks die erfassten geometrischen Merkmale angelegt. Der Zustand am Ausgang wird mit dem realen Gewicht verglichen. Die Gewichtung und der Bias-Wert werden so lange angepasst, bis die Differenz zwischen Ausgang des künstlichen neuronalen Netzwerks und realem Gewicht minimal wird.
  • Gemäß einer Ausführungsform ist der Prozessor ausgebildet, die geometrischen Merkmale mit Referenzmerkmalen, insbesondere in einer Look-up-Table gespeicherten Referenzmerkmalen, zu vergleichen, wobei der Prozessor ausgebildet ist, das Gewicht der Person auf der Basis des Vergleichs der geometrischen Merkmale mit den Referenzmerkmalen zu bestimmen. Dadurch wird der Vorteil erreicht, dass eine effiziente und genaue Bestimmung des Gewichtes der Person erfolgen kann.
  • Die Vorrichtung kann einen Speicher umfassen, in welchem die Look-up-Table mit den Referenzmerkmalen und/oder Referenzeigenwerten gespeichert sind. Der Speicher kann in dem gleichen Datenverarbeitungssystem wie der Prozessor integriert sein. Der Speicher kann ferner ein Netzwerkspeicher und/oder ein Cloud-Speicher sein. Der Speicher kann Teil des Prozessors sein.
  • Gemäß einer Ausführungsform ist der Prozessor ausgebildet, die geometrischen Merkmale den Referenzmerkmalen auf der Basis einer Metrik zuzuordnen, und ist der Prozessor ausgebildet, das Gewicht der Person auf der Basis der Zuordnung der geometrischen zu den Referenzmerkmalen zu bestimmen. Dadurch wird der Vorteil erreicht, dass eine effiziente und genaue Bestimmung des Gewichtes der Person erfolgen kann.
  • Gemäß einer Ausführungsform ist die Bildkamera ausgebildet, eine erste Teilbildaufnahme in einem ersten Wellenlängenbereich aufzunehmen, und ist die Bildkamera ausgebildet, eine zweite Teilbildaufnahme in einem zweiten Wellenlängenbereich aufzunehmen, wobei der Prozessor ausgebildet ist, die erste Teilbildaufnahme und die zweite Teilbildaufnahme zu der Bildaufnahme zu kombinieren und/oder in die 3D Pixelmatrix zu überführen. Dadurch wird der Vorteil erreicht, dass die Bildaufnahme unterschiedliche Wellenlängenbereiche umfassen kann.
  • Die erste Teilbildaufnahme und die zweite Teilbildaufnahme können vor oder bei der Überführung in die 3D Pixelmatrix kombiniert bzw. fusioniert werden. Die Deckungsgleichheit der Teilbildaufnahmen kann nach dem Prinzip der geometrischen Kamerakalibrierung über ein vorgegebenes Muster nach Z. Zhang. „A flexible new technique for camera calibration", IEEE Trans. Pattern Anal. Mach. Intell., 22(11): 1330–1334, 2000 vor der Inbetriebnahme der Vorrichtung realisiert werden.
  • Der Prozessor kann ausgebildet sein auf der Basis der berechneten Werte der Kalibrierung eine dreidimensionale Punktwolke der 3D Pixelmatrix zu erzeugen. Ist eine Teilbildaufnahme beispielsweise im RGB-Wellenlängenbereich aufgenommen und umfasst eine weitere Teilbildaufnahme Temperaturwerte so kann die dreidimensionale Punktwolke kartesische Koordinaten x = (x y z)T, Farbinformationen c = (cr cg cb)T (rot, grün, blau) und Temperaturwerte t umfassen.
  • Gemäß einer Ausführungsform umfasst die Bildkamera einen ersten Bildsensor zum Aufnehmen der ersten Teilbildaufnahme in dem ersten Wellenlängenbereich, und einen zweiten Bildsensor zum Aufnehmen der zweiten Teilbildaufnahme in dem zweiten Wellenlängenbereich.
  • Die Bildkamera kann drei unterschiedliche Bildsensoren umfassen: einen Tiefensensor, einen Farbsensor und einen Thermosensor, die jeweils in Richtung der Flächennormalen des Patientenlagerungssystems ausgerichtet sind, und den Patienten frontal erfassen. Der Tiefensensor kann als Tiefenkamera oder TOF-Kamera ausgebildet sein, und kann eine Teilbildaufnahme aufnehmen, in der jedem Bildpixel eine Tiefeninformation zugeordnet ist. Der Thermosensor kann eine Thermokamera umfassen. Der Farbsensor kann eine Farbkamera, beispielsweise mit einem gewöhnlichen CCD-Sensor oder CMOS-Sensor, umfassen.
  • Gemäß einer Ausführungsform umfassen der erste Wellenlängenbereich und/oder der zweite Wellenlängenbereich jeweils einen der folgenden Wellenlängenbereiche: Infrarot-Wellenlängenbereich, Nahinfrarot-Wellenlängenbereich, Weißlicht-Wellenlängenbereich, RGB-Wellenlängenbereich, UV-Wellenlängenbereich.
  • Der Tiefensensor bzw. die Tiefenkamera kann eine Teilbildaufnahme im Nahinfrarot-Wellenlängenbereich aufnehmen. Der Thermosensor kann eine Teilbildaufnahme im mittleren Infrarotbereich aufnehmen. Der Farbsensor kann eine Teilbildaufnahme im Weißlicht und/oder RGB-Wellenlängenbereich aufnehmen. Die drei Teilbildaufnahmen in den unterschiedlichen Wellenlängenbereichen können anschließend zu der Bildaufnahme kombiniert werden, welche somit ein Farbbild der Person im RGB-Farbbereich mit Tiefeninformationen und Temperaturwerten an jedem Bildpixel umfasst. Ferner können die drei Teilbildaufnahmen direkt in die 3D Pixelmatrix überführt werden.
  • Gemäß einer Ausführungsform ist der Prozessor ausgebildet, einen Bildhintergrund in der Bildaufnahme und/oder der 3D Pixelmatrix zu erfassen, wobei der Prozessor ausgebildet ist, den Bildhintergrund aus der Bildaufnahme und/oder der 3D Pixelmatrix zu entfernen. Dadurch wird der Vorteil erreicht, dass die Person in der Bildaufnahme und/oder der 3D Pixelmatrix effizient von dem Hintergrund segmentiert werden kann. Der Bildhintergrund kann einem Hintergrund der Person aus Sicht der Bildkamera, insbesondere einem Boden und/oder dem Patientenlagerungssystem, entsprechen.
  • Gemäß einer Ausführungsform ist der Prozessor ausgebildet, den Bildhintergrund auf der Basis eines Farbabgleichs, einer Kantenerkennung oder einer Ebenenerkennung in der Bildaufnahme und/oder der 3D Pixelmatrix zu erfassen. Dadurch wird der Vorteil erreicht, dass eine effiziente Erfassung des Bildhintergrunds erfolgen kann.
  • Beispielsweise wird ein Teil der Punktwolke der 3D Pixelmatrix gefiltert, welcher weder durch den Patienten noch das Lagerungssystem bestimmt ist, so dass nur das Patientenlagerungssystem mitsamt der Person übrig bleiben. Um die Person vom Patientenlagerungssystem zu segmentieren, können beispielsweise Daten des Thermosensors verwendet werden: Bildelemente oberhalb der Umgebungstemperatur werden in einem ersten Schritt zur Person gezählt; unterhalb dieses Schwellwertes dagegen zur Umgebung.
  • Gemäß einer Ausführungsform umfasst die Vorrichtung eine Beleuchtungseinrichtung, wobei die Beleuchtungseinrichtung ausgebildet ist, die Person mit Beleuchtungslicht zu befeuchten, wobei die Bildkamera ausgebildet ist, an der Person reflektiertes oder gestreutes Beleuchtungslicht zu erfassen. Dadurch wird der Vorteil erreicht, dass eine besonders effiziente Bildaufnahme erfolgen kann.
  • Die Beleuchtungseinrichtung kann eine Lichtquelle für den Infrarot- oder Nahinfrarot-Wellenlängenbereich umfassen. Das Beleuchtungslicht kann zur Bestimmung der Tiefeninformation in der Bildaufnahme mittels einer Time-of-Flight Messung herangezogen werden.
  • Gemäß einer Ausführungsform ist der Prozessor ausgebildet, die 3D Pixelmatrix in eine Anzahl an Submatrizen zu segmentieren, wobei der Prozessor ausgebildet ist, weitere Eigenwerte einer jeden Submatrix zu bestimmen, wobei der Prozessor ferner ausgebildet ist, für jede Submatrix eine Gewichtsangabe auf der Basis der weiteren Eigenwerte der Submatrix zu bestimmen, und wobei der Prozessor ausgebildet ist, das Gewicht der Person auf der Basis der Gewichtsangaben der Submatrizen zu ermitteln. Dadurch wird der Vorteil erreicht, dass eine besonders genaue Ermittlung des Gewichtes der Person erfolgen kann. Dabei kann jede Submatrix einem Abschnitt des Körpers der Person, beispielsweise einem Kopf, einem Torso oder einer Extremität der Person, zugeordnet sein.
  • Gemäß einer Ausführungsform ist jeder Submatrix ein Körperteil der Person zugeordnet, wobei der Prozessor ausgebildet ist, auf der Basis der weiteren Eigenwerte jeder Submatrix zumindest ein geometrisches Merkmal des Körperteils, welches der entsprechenden Submatrix zugeordnet ist, zu ermitteln, wobei der Prozessor ausgebildet ist, die geometrischen Merkmale der Körperteile zu vergleichen, und wobei der Prozessor ausgebildet ist, auf der Basis des Vergleichs der geometrischen Merkmale der Körperteile eine Körperform der Person oder Körperproportionen der Person zu bestimmen. Dadurch wird der Vorteil erreicht, dass eine effiziente Erfassung der Körperform oder der Körperproportionen der Person durch die Vorrichtung erfolgen kann.
  • Die Körperteile der Person können einen Oberkörper, einen Kopf, einen Bauch und Extremitäten der Person umfassen. Der Prozessor kann die Körperproportionen bzw. die Körperfarm bei der Bestimmung des Gewichtes der Person berücksichtigen, um eine genauere Gewichtsbestimmung durchzuführen. Ferner können die Körperform bzw. die Körperproportionen zusammen mit der Gewichtsschätzung in dem Speicher der Vorrichtung gespeichert werden. Dies ermöglicht ein trainieren des Prozessors unter Berücksichtigung der Körperformen bzw. Körperproportionen der Personen deren Gewicht mit der Vorrichtung bestimmt wurde.
  • Gemäß einem zweiten Aspekt betrifft die Erfindung ein Verfahren zur optischen Erfassung eines Gewichtes einer Person, mit Aufnehmen einer Bildaufnahme der Person, wobei die Bildaufnahme Tiefeninformationen umfasst, Überführen der Bildaufnahme in eine 3D Pixelmatrix, Bestimmen von Eigenwerten der 3D Pixelmatrix, und Bestimmen des Gewichtes der Person auf der Basis der Eigenwerte der 3D Pixelmatrix. Dadurch wird der Vorteil erreicht, dass das Gewicht der Person berührungslos mit hoher Genauigkeit erfasst werden kann.
  • Gemäß einer Ausführungsform umfasst das Bestimmen des Gewichtes der Person auf der Basis der Eigenwerte der 3D Pixelmatrix die folgenden weiteren Verfahrensschritte: Ermitteln von geometrischen Merkmalen der Person auf der Basis der 3D Pixelmatrix und/oder der Eigenwerte der 3D Pixelmatrix, und Bestimmen des Gewichtes der Person auf der Basis der ermittelten geometrischen Merkmale. Dadurch wird der Vorteil erreicht, dass das Gewicht der Person mit hoher Genauigkeit erfasst werden kann.
  • Die Erfindung kann in Hardware und/oder Software realisiert werden.
  • Weitere Ausführungsbeispiele werden Bezug nehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung einer Vorrichtung zur optischen Erfassung eines Gewichtes einer Person gemäß einer Ausführungsform;
  • 2 eine schematische Darstellung einer Vorrichtung zur optischen Erfassung einer Person gemäß einer Ausführungsform;
  • 3 eine schrittweise Entfernung eines Bildhintergrundes in einer 3D Pixelmatrix gemäß einer Ausführungsform;
  • 4 eine schematische Darstellung von Bildverarbeitungsoperationen zur Bildaufbereitung gemäß einer Ausführungsform;
  • 5 eine schematische Darstellung einer Person und zugehöriger Eigenwerte gemäß einer Ausführungsform.
  • 6a eine schematische Darstellung einer Vorrichtung zur optischen Erfassung einer Person gemäß einer Ausführungsform;
  • 6b eine schematische Darstellung einer Prozessorinstanz gemäß einer Ausführungsform;
  • 7 eine schematische Darstellung eines künstlichen neuronalen Netzwerks gemäß einer Ausführungsform;
  • 8 eine schematische Darstellung eines Neurons einer Eingangsschicht bzw. einer versteckten Schicht des künstlichen neuronalen Netzwerks aus 7 und eines Neurons einer Ausgangsschicht des künstlichen neuronalen Netzwerks aus 7 gemäß einer Ausführungsform;
  • 9 ein Liniendiagramm zweier Funktionen zum Bestimmen eines Gewichtes durch ein künstliches neuronales Netzwerk gemäß einer Ausführungsform;
  • 10a ein Ablaufdiagramm eines Verfahrens zur Erfassung eines Gewichtes einer Person; und
  • 10b ein Ablaufdiagramm eines Verfahrensschritts zum Bestimmen eines Gewichtes einer Person auf der Basis von Eigenwerten einer 3D Pixelmatrix.
  • 1 zeigt eine schematische Darstellung einer Vorrichtung 100 zur optischen Erfassung eines Gewichtes einer Person.
  • Die Vorrichtung 100 umfasst eine Bildkamera 101, welche ausgebildet ist, eine Bildaufnahme der Person aufzunehmen, wobei die Bildaufnahme Tiefeninformationen umfasst, und einen Prozessor 103, welcher ausgebildet ist, die Bildaufnahme in eine 3D Pixelmatrix zu überführen, wobei der Prozessor 103 ausgebildet ist, Eigenwerte der 3D Pixelmatrix zu bestimmen, und wobei der Prozessor 103 ferner ausgebildet ist, das Gewicht der Person 201 auf der Basis der Eigenwerte zu bestimmen.
  • Die Bildkamera 101 kann eine Vielzahl von Bildsensoren zur Bildaufnahme in unterschiedlichen Wellenlängenbereichen umfassen. Zumindest ein Bildsensor der Bildkamera 101 kann dabei als Infrarot- oder Nahinfrarot-Bildsensor ausgebildet sein. Der Infrarot- oder Nahinfrarot-Bildsensor kann ausgebildet sein, eine Bildaufnahme der Person aufzunehmen, bei der jeder Bildpixel der Bildaufnahme eine Tiefeninformation umfasst. Die Bildkamera 101 kann eine 3D-Kamera bzw. eine Tiefenkamera oder eine TOF-Kamera umfassen. Die Bildkamera kann ferner eine Farbkamera und/oder eine Thermokamera umfassen.
  • Die Person kann zur Bildaufnahme auf einem ebenen Patientenlagerungssystem, beispielsweise einer Liege oder einem Krankenbett, liegen. Das Patientenlagerungssystem muss nicht notwendigerweise waagerecht positioniert sein und kann in der Höhe verstellbar sein. Die Auflagefläche des Patientenlagerungssystems kann komfortbedingt gepolstert sein. Die Person liegt beispielsweise in Rückenlage auf dem Patientenlagerungssystem, die Arme auf oder neben dem Oberkörper, die Beine nicht angewinkelt. Die Person kann ferner vor der Bildkamera 101 stehen. Hinter der stehenden Person kann ein einfarbiger Hintergrund, beispielsweise eine Trennwand, angeordnet sein.
  • Die Bildaufnahme und anschließende Auswertung können auch automatisch ausgelöst werden. Die Vorrichtung 100 kann hierzu autonom entscheiden, wann alle Körperteile korrekt auf dem Patientenlagerungssystem, beispielsweise innerhalb einer Markierung, liegen. Eine Bildaufnahme ist auch dann möglich, wenn sich weitere Personen nahe an der zu erfassenden Person aufhalten, solange bis die zu erfassende Person voll im Blickfeld zu sehen ist und nicht durch die weiteren Personen verdeckt wird.
  • Der Prozessor 103 kann ein Mikroprozessor sein. Ferner kann der Prozessor 103 in ein an das Bildaufnahmesystem angeschlossenes Datenverarbeitungsgerät, beispielsweise einen Desktop-Computer oder einen Laptop, integriert sein. Der Prozessor kann ein künstliches neuronales Netzwerk umfassen. Der Prozessor 103 kann ferner durch ein Computernetzwerk implementiert sein oder durch ein Computernetzwerk gebildet werden, welches mit der Bildkamera 101 über ein privates oder ein öffentliches Kommunikationsnetzwerk, insbesondere das Internet, verbunden ist. Die Bildkamera 101 kann ausgebildet sein, die Bildaufnahme an den Prozessor 103 weiterzuleiten.
  • Die 3D Pixelmatrix kann eine Vielzahl an Bildpixel in einem kartesischen Koordinatensystem mit den Bildkoordinaten xi = (x, y, z)T umfassen. Die 3D Pixelmatrix kann ferner Farbinformationen und/oder Temperaturwerte an den Bildkoordinaten umfassen. Die Bildpixel der 3D Pixelmatrix können eine Punktwolke bilden, wobei ein Abschnitt der Punktwolke dem Patienten zugeordnet ist.
  • 2 zeigt eine schematische Darstellung der Vorrichtung 100 zur optischen Erfassung eines Gewichtes einer Person 201 gemäß einer weiteren Ausführungsform. Die Vorrichtung 100 in 2 ist über der Person 201 angeordnet, welche auf einem Patientenlagerungssystem 203 liegt.
  • Die Person 201 kann ein Patient sein, dessen Behandlung in einer Notaufnahme eines Krankenhauses in einem Trauma-Raum erfolgt. Die Person 201 befindet sich dabei zum Beispiel auf dem Patientenlagerungssystem 203, welches üblicherweise auf Rollen gelagert, frei im Raum verfahrbar ist und zudem in der Höhe verstellt werden kann. Die Person 201 liegt beispielsweise in Rückenlage auf dem Patientenlagerungssystem 203, die Arme auf oder neben dem Oberkörper, die Beine nicht angewinkelt.
  • Die Vorrichtung 100 zur Gewichtsschätzung kann fest installiert und in dem Behandlungsraum integriert sein. Die Bildkamera 101 kann über der Person 201, beispielsweise in etwa 2,3 Metern Höhe, angebracht sein, so dass das Patientenlagerungssystem 203 komplett im Blickfeld der Bildkamera 101 zu sehen ist. Die Daten der Bildkamera 101 können beispielsweise per USB-Kabel an einen Computer weitergeleitet werden, der sich im gleichen Raum befindet. Der Computer kann den Prozessor 103 umfassen.
  • Die Bildkamera 101 in 2 umfasst drei Bildsensoren 205a–c. Die Bildsensoren 205a–c können zur jeweiligen Aufnahme einer Teilbildaufnahme der Person 201 ausgebildet sein. Die Bildsensoren 205a-c können die Teilbildaufnahmen dabei in jeweils unterschiedlichen Wellenlängenbereichen aufnehmen.
  • Beispielsweise umfasst der erste Bildsensor 205a einen Tiefensensor, insbesondere eine Tiefenkamera, eine 3D-Kamera, eine Stereo-Kamera, eine Structured-Light-Kamera bzw. einen Structured-Light-Sensor oder einen TOF-Bildsensor, welcher ausgebildet ist eine Teilbildaufnahme der Person 201 mit Tiefeninformationen, insbesondere in einem Infrarot- oder Nahinfrarot-Wellenlängenbereich aufzunehmen. Der zweite Bildsensor 205b kann ein Thermosensor sein, welcher eine weite Teilbildaufnahme der Person 201 im mittleren Infrarotbereich aufnimmt. Die Teilbildaufnahme des Thermosensors kann Temperaturwerte an jedem Bildpixel der Teilbildaufnahme umfassen. Der dritte Bildsensor 205c kann ein Farbsensor, insbesondere ein RGB-Farbsensor sein, und kann eine Bildaufnahme in einem sichtbaren Wellenlängenbereich aufnehmen. Der dritte Bildsensor 205c kann als gewöhnlicher CCD-Sensor bzw. Diodenarray für den sichtbaren Bereich mit einem RGB-Filter ausgebildet sein.
  • Die Bildkamera 101 und/oder der Prozessor 103 können ausgebildet sein, die Teilbildaufnahmen der Bildsensoren 205a–c zu einer gemeinsamen Bildaufnahme zu kombinieren bzw. zu fusionieren. Der Prozessor 103 kann ferner ausgebildet sein, die Teilbildaufnahmen in die 3D Pixelmatrix zu überführen.
  • Die Deckungsgleichheit der Teilbildaufnahmen bei der Fusionierung kann nach dem Prinzip der geometrischen Kamerakalibrierung über ein vorgegebenes Muster nach Z. Zhang. „A flexible new technique for camera calibration", IEEE Trans. Pattern Anal. Mach. Intell., 22(11): 1330–1334, 2000 vor der Inbetriebnahme der Vorrichtung realisiert werden.
  • Der Prozessor 103 kann ausgebildet sein auf der Basis der berechneten Werte der Kalibrierung eine dreidimensionale Punktwolke der 3D Pixelmatrix zu erzeugen. Ist die erste Teilbildaufnahme beispielsweise im RGB-Wellenlängenbereich und umfasst die zweite Teilbildaufnahme Temperaturwerte, insbesondere im Infrarot-Wellenlängenbereich, so kann die dreidimensionale Punktwolke kartesische Koordinaten x = (x y z)T, Farbinformationen c = (cr cg cb)T (rot, grün, blau) und Temperaturwerte t umfassen.
  • Die Vorrichtung 100 kann eine Beleuchtungseinrichtung umfassen, welche ausgebildet ist, die Person 201 mit Beleuchtungslicht zu beleuchten. Die Bildkamera 101 bzw. zumindest einer der Bildsensoren 205a–c der Bildkamera 101 können ausgebildet sein, an der Person 201 reflektiertes oder gestreutes Beleuchtungslicht zu erfassen.
  • Die Beleuchtungseinrichtung kann eine Lichtquelle für den Infrarot- oder Nahinfrarot Wellenlängenbereich umfassen. Zur Bestimmung der Tiefeninformation in der Bildaufnahme kann eine Time-of-Flight Messung des Lichtes der Beleuchtungseinrichtung durchgeführt werden.
  • Die Vorrichtung 100 in 2 umfasst ferner eine Anzeige 207. Die Anzeige 207 kann ein Display, beispielsweise ein Display eines an die Bildkamera angeschlossenen Monitors, umfassen.
  • Die Anzeige 207 kann zur Ausgabe des erfassten Gewichtes der Person 201, beispielsweise zahlenmäßig oder in einer grafischen Benutzeroberfläche, ausgebildet sein. Zusätzlich kann auf der Benutzeroberfläche eine 3D-Visualisierung in Form einer Punktwolke inklusive Farbdaten und/oder Thermodaten angezeigt werden.
  • Ferner kann behandelndes Personal über ein Live-Bild auf der Anzeige 207 die Position des Patientenlagerungssystems 203 und der darauf liegenden Person 201 überprüfen. Das medizinische Personal kann die Messung starten. Um zu garantieren, dass die Person 201 im Blickfeld der Bildsensoren 205a–c ist, kann auf dem Boden unterhalb der Bildkamera 101 eine rechteckige Markierung angebracht werden.
  • 3 zeigt eine schrittweise Entfernung eines Bildhintergrundes in der 3D Pixelmatrix gemäß einer Ausführungsform. Insbesondere zeigt 3 sieben 3D Pixelmatrizen 300a–g, in denen der Hintergrund schrittweise von der Person segmentiert und anschließend entfernt wird. Die 3D Pixelmatrix 300e entspricht dabei beispielsweise der 3D Pixelmatrix wie sie direkt nach dem Überführen der Bildaufnahme oder der Teilbildaufnahmen vorliegt.
  • Der Prozessor 103 in 1 bzw. 2 kann ausgebildet sein, den Bildhintergrund in der Bildaufnahme und/oder der 3D Pixelmatrix 300e zu erfassen. Der Bildhintergrund kann einem Hintergrund der Person 201, insbesondere dem Patientenlagerungssystem 203, entsprechen. Der Prozessor 103 kann ferner ausgebildet sein, den Bildhintergrund aus der Bildaufnahme und/oder der 3D Pixelmatrix 300e zu entfernen.
  • Der Prozessor 103 kann den Bildhintergrund auf der Basis eines Farbabgleichs, einer Kantenerkennung oder einer Ebenenerkennung in der Bildaufnahme und/oder der 3D Pixelmatrix zu erfassen.
  • Zur Hintergrunderkennung in der 3D Pixelmatrix 300e wird beispielsweise zunächst ein Teil der Punktwolke der 3D Pixelmatrix 300e gefiltert, welcher weder durch den Patienten noch das Lagerungssystem bestimmt ist. Die 3D Pixelmatrix 300a zeigt beispielsweise einen Beriech, welcher weder der Person 201 noch dem Lagerungssystem zugeordnet ist. Somit bleibt nur das Patientenlagerungssystem 203 mitsamt der Person 201 übrig. Um die Person 201 vom Patientenlagerungssystem 203 zu segmentieren, können beispielsweise Daten des Thermosensors verwendet werden. Die 3D Pixelmatrix 300f zeigt beispielsweise eine Pixelmatrix mit Thermodaten. Bildelemente oberhalb der Umgebungstemperatur können zur Person 2011, und unterhalb dieses Schwellwertes zur Umgebung gezählt werden. Somit kann eine 3D Pixelmatrix 300g erzeugt werden, welche nur Bildpunkte umfasst, welche der Person 201 zugeordnet werden können.
  • Die schrittweise Segmentierung der Person 201 in der Bildaufnahme bzw. der 3D Pixelmatrix 300e kann in der Anzeige 207 aus 2 angezeigt werden.
  • 4 zeigt eine schematische Darstellung von Bildverarbeitungsoperationen zur Bildaufbereitung gemäß einer Ausführungsform.
  • Die Bildverarbeitungsoperationen können auf die Bildaufnahme und/oder die 3D Pixelmatrix 300a–g angewendet werden, beispielsweise um Löcher in den Bildern zu füllen, die durch einen vorangegangenen Temperaturfilter bei der Segmentierung entstanden sind.
  • 4 zeigt eine binäre Bildmaske 401, welche einen Abschnitt des zu prüfenden Gesamtbildes darstellt. Die Bildverarbeitung in der binären Bildmaske 401 kann über Dilatation 403 und/oder Erosion 405 mittels eines strukturierenden Elements 407 erfolgen.
  • Bei der Dilatation 403 wird an jedem Bildpunkt eines Bildes (schwarze Abschnitte) in der binären Bildmaske das strukturierende Element 407 eingefügt werden. Das strukturierende Element 407 wirkt dabei ähnlich einem Maximum-Filter.
  • Bei der Erosion 405 hingegen wird überprüft, ob das strukturierende Element 407 in ein Bild (schwarze Abschnitte) in der binären Bildmaske passt. ist dies der Fall, so gehören die entsprechenden Bildpixel des Bildes zu einer erodierten Menge. Das strukturierende Element 407 wirkt dabei ähnlich einem Minimum-Filter.
  • 5 zeigt eine schematische Darstellung der Person 201 und der zugehörigen Eigenwerte (λ1, λ2, λ3) gemäß einer Ausführungsform.
  • Die Darstellung der Person 201 in 5 entspricht beispielsweise einer 3D Pixelmatrix 300g, in der die Person 201 bereits vom Bildhintergrund segmentiert wurde.
  • 5 verdeutlich ferner die geometrische Bedeutung der Eigenwerte λ1, λ2, λ3, für welche insbesondere gilt: λ1 > λ2 > λ3. Der erste Eigenwert λ1 kann mit einer Höhe der Person, der zweite Eigenwert λ2 mit einer Breite der Person und der dritte Eigenwert λ3 mit einer Tiefe der Person 201 aus Sicht der Bildkamera korrelieren.
  • 6a zeigt eine weitere schematische Darstellung der Vorrichtung 100 zur optischen Erfassung der Person gemäß einer Ausführungsform.
  • Der Prozessor 103 in 6a umfasst eine Prozessorinstanz 603 zur Ermittlung der geometrischen Merkmale. Die Prozessorinstanz 603 ist zum Empfangen der Bildaufnahme mit der Bildkamera 101 bzw. mit den Bildsensoren 205a–c der Bildkamera 101 verbunden.
  • Der Prozessor 103 bzw. die Prozessorinstanz 603 kann ausgebildet sein, die Bildaufnahme der Person 201 zunächst in die 3D Pixelmatrix 300e zu überführen und anschließend die Eigenwerte der 3D Pixelmatrix zu erfassen.
  • Ferner kann der Prozessor 103 bzw. die Prozessorinstanz 603 ausgebildet sein, die geometrischen Merkmale der Person 201 auf der Basis der 3D Pixelmatrix und/oder der Eigenwerte der 3D Pixelmatrix zu bestimmen. Der Prozessor 103 kann ausgebildet sein, anschließend das Gewicht der Person 201 auf der Basis der ermittelten geometrischen Merkmale zu bestimmen.
  • Zur Berechnung der geometrischen Merkmale der Person 201 können zwei Elemente der 3D Pixelmatrix herangezogen werden: Eine Punktwolke, welche alle zu der Person 201 gehörigen Punkte enthält, sowie eine Punktwolke, welche die Oberfläche des Patientenlagerungssystems 203 enthält. Letztere kann für die Volumenberechnung verwendet werden.
  • Der Prozessor 103 bzw. die Prozessorinstanz 603 können zunächst eine Vielzahl an von den Eigenwerten unabhängigen geometrischen Merkmalen in der 3D Pixelmatrix ermitteln. Diese geometrischen Merkmale können unter anderem die folgenden Merkmale umfassen:
    Figure DE102016103543A1_0002
  • Der Prozessor 103 bzw. die Prozessorinstanz 603 können ferner ausgebildet sein, auf der Basis der obigen geometrischen Merkmale und/oder der erfassten Eigenwerte λ1, λ2, λ3 die folgenden weiteren geometrischen Merkmale fi = (f1 .. f10)T zu ermitteln:
    Figure DE102016103543A1_0003
  • Der Prozessor 103 kann ausgebildet sein, die geometrischen Merkmale mit Referenzmerkmalen zu vergleichen, um das Gewicht der Person 201 auf der Basis des Vergleichs der geometrischen Merkmale mit den Referenzmerkmalen zu bestimmen.
  • Die Vorrichtung 100 kann hierzu einen Speicher 605 umfassen, in welchem die Referenzmerkmale gespeichert sind. Die Referenzmerkmale können in dem Speicher 605 in einer Look-up-Table gespeichert sein. Der Speicher 605 kann in dem gleichen Datenverarbeitungssystem wie der Prozessor 103 integriert sein, oder kann, wie in 6a dargestellt, eine weitere Instanz des Prozessors 103 sein oder bilden. Der Speicher 605 kann ferner als Netzwerkspeicher und/oder als Cloud-Speicher ausgebildet sein. Der Prozessor 103 kann ferner ausgebildet sein, die geometrischen Merkmale den Referenzmerkmalen auf der Basis einer Metrik zuzuordnen.
  • Gemäß einer Ausführungsform ist der Prozessor 103 ausgebildet, die 3D Pixelmatrix in eine Anzahl an Submatrizen zu segmentieren und weitere Eigenwerte einer jeden Submatrix der Anzahl an Submatrizen zu bestimmen. Der Prozessor kann ferner für jede Submatrix eine Gewichtsangabe auf der Basis der weiteren Eigenwerte der Submatrix bestimmen, und anschließend das Gewicht der Person auf der Basis der einzelnen Gewichtsangaben der Submatrizen erfassen. Dabei kann jede Submatrix einem Abschnitt des Körpers der Person 201, beispielsweise einem Kopf, einem Torso oder einer Extremität der Person, zugeordnet sein.
  • Die Anzeige 207 kann einen Anzeigebereich 609 zur graphischen Visualisierung der 3D Pixelmatrix bzw. der Punktwolke umfassen. Ferner kann die Anzeige 207 einen weiteren Anzeigebereich 611 zur zahlenmäßigen Visualisierung des erfassten Gewichtes der Person 201, beispielsweise in Kilogramm, umfassen.
  • Der Prozessor 103 kann ferner ein künstliches neuronales Netzwerk 601 umfassen. Der Prozessor 103 kann ausgebildet sein, die in der Prozessorinstanz 603 ermittelten geometrischen Merkmale dem künstlichen neuronalen Netzwerk 601 zuzuführen.
  • Das künstliche neuronale Netzwerk 601 kann ausgebildet sein, eine Entscheidungsoperation auf der Basis der geometrischen Merkmale durchzuführen, um das Gewicht der Person 201 möglichst genau zu bestimmen.
  • 6b zeigt eine schematische Darstellung der Prozessorinstanz 603 gemäß einer Ausführungsform.
  • Die Prozessorinstanz 603 kann eine Vielzahl an Subinstanzen 607a–c umfassen. Dabei kann eine erste Subinstanz 607a zur Fusionierung bzw. Kombination der Teilbildaufnahmen der Bildsensoren 205a–c zu der Bildaufnahme und/oder zur Überführung der Bildaufnahme in die 3D Pixelmatrix ausgebildet sein. Eine zweite Subinstanz 607b kann zur Erfassung eines Bildhintergrunds in der Bildaufnahme und/oder der 3D Pixelmatrix und zur Entfernung des Bildhintergrunds bzw. zur Segmentierung der Person 201 von dem Bildhintergrund ausgebildet sein. Eine dritte Subinstanz 607c kann zur Berechnung der geometrischen Merkmale auf der Basis der 3D Pixelmatrix und/oder der Eigenwerte der 3D Pixelmatrix ausgebildet sein.
  • Die erste Subinstanz 607a kann zur Fusionierung bzw. Kombination der Teilbildaufnahmen auf eine Kamerakalibrierung zurückgreifen, welche in einem Speicher 605b gespeichert sein kann. Der Speicher 605b kann eine Datenbank mit einer Kalibrierdatei umfassen. Der Speicher 605b in der 6b und der Speicher 605 in der 6a können gleich sein.
  • Die dritte Subinstanz 607c kann die geometrischen Merkmale an das künstliche neuronale Netzwerk 601 zur Ermittlung des Gewichtes der Person 201 weiterleiten.
  • 7 zeigt eine schematische Darstellung des künstlichen neuronalen Netzwerks 601 gemäß einer Ausführungsform.
  • Das künstliche neuronale Netzwerk 601 kann als mehrschichtiges Feedforward-Netz ausgebildet sein, und kann eine Eingangsschicht 701, eine versteckte Schicht 703 (Hidden Layer), und eine Ausgangsschicht 707 umfassen.
  • Die Eingangsschicht 701 und die versteckte Schicht 703 können jeweils eine Vielzahl an Neuronen 705 aufweisen. In der schematischen Darstellung in 7 weisen die Eingangsschicht 701 und die versteckte Schicht 703 jeweils zehn Neuronen 705 auf. Die Ausgangsschicht 707 kann nur ein Neuron umfassen.
  • Die Eingangsschicht 701 kann die berechneten geometrischen Merkmale (d1, d2, ..., d10) empfangen und an die versteckte Schicht weiterleiten 703. Die Ausgangsschicht 707 kann das geschätzte Gewicht, beispielsweise in Kilogramm, ausgeben. Die Neuronen 705 der Eingangsschicht 701 und der versteckten Schicht 703 können gleich sein bzw. gleich ausgebildet sein.
  • 8 zeigt eine schematische Darstellung eines Neurons 805 der Eingangsschicht 701 bzw. der versteckten Schicht 703 des künstlichen neuronalen Netzwerks 601 aus 7, und eines Neurons 807 der Ausgangsschicht 707 des künstlichen neuronalen Netzwerks 601 aus 7 gemäß einer Ausführungsform.
  • Die Neuronen 805, 807 umfassen jeweils einen Eingang 809a–b und einen Ausgang 811a–b. Das Neuron 805 der Eingangsschicht 701 bzw. der versteckten Schicht 703 kann eine Verstärkung 801 bzw. eine Verstärkungsfunktion umfassen, welche auf das geometrische Merkmal angewendet. Das Neuron 805 kann ferner eine Bias-Verschiebung 803 bzw. eine Bias-Verschiebungsfunktion umfassen, welche auf das verstärkte geometrische Merkmal angewendet wird. Der Ausgang 811a des Neurons 805 der Eingangsschicht 701 bzw. der versteckten Schicht 703 kann über eine Sigmoid-Funktion 813 gewichtet werden.
  • Das Neuron 807 der Ausgangsschicht 703 kann ebenso eine Verstärkung 801 und eine Bias-Verschiebung 803 umfassen, jedoch wird der Ausgang 811b des Neurons 807 beispielsweise über eine Linear-Funktion 815 abgebildet.
  • Mathematisch kann jedes Neuron 705, 805, 807 in dem künstlichen neuronalen Netzwerk 601 wie folgt beschrieben werden:
    Figure DE102016103543A1_0004
  • Hierbei ist yn der Wert am Ausgang eines Neurons 805, 807, N die Anzahl der Eingänge eines Neurons 805, 807 sind, und G eine angenommene Übertragungsfunktion (auch Aktivierungsfunktion genannt).
  • Die Werte für die Verstärkung 801, und Bias-Verschiebung 803 können durch ein Training des künstlichen neuronalen Netzwerks 601 optimiert werden. Dabei können Werte in kleinen Schritten zufällig verändert und der Fehler zwischen einer Schätzung des Körpergewichts und einem tatsächlichen Körpergewicht am Ausgang beobachtet werden. Kommen neue Messungen hinzu, bei denen das Patientengewicht bekannt ist, können diese Daten ebenso zum Training des künstlichen neuronalen Netzwerks 601 genutzt werden.
  • 9 zeigt ein Liniendiagramm 900 der zwei Funktionen, insbesondere der Sigmoid-Funktion 813 und der Linear-Funktion 815, welche von dem künstlichen neuronalen Netzwerk 601 in den Neuronen der Eingangsschicht 701 bzw. versteckten Schicht 703 und der Ausgangssicht 707 verwendet werden, gemäß einer Ausführungsform.
  • Das Training des künstlichen neuronalen Netzwerks 601 kann nach dem Prinzip des überwachten Lernens erfolgen: Am Eingang des künstlichen neuronalen Netzwerks 601 werden zunächst die geometrischen Merkmale angelegt. Der Zustand am Ausgang 705 wird mit dem tatsächlichen Körpergewicht verglichen. Die Verstärkung 801 und der Bias-Wert bzw. die Bias-Verschiebung 803 werden so lange angepasst, bis die Differenz zwischen dem Ausgang 705 des künstlichen neuronalen Netzwerks 601 und dem tatsächlichen Gewicht minimal wird.
  • Das künstliche neuronale Netzwerks 601 kann vorab mit Testpersonen vor Ort trainiert werden. Die Daten können in dem Speicher 605 der Vorrichtung 100 gespeichert und über die Anzeige 207 abgerufen werden. Der Speicher 605 kann eine SQL-Datenbank umfassen. Das tatsächliche Gewicht von Patienten kann dem Speicher 605 der Vorrichtung 100 auch nachträglich, d. h. nach Schätzung des Patientengewichts durch die Vorrichtung 100, hinzugefügt werden um das künstliche neuronale Netzwerk 601 weiter zu optimieren, bzw. um Referenzwerte für zukünftige Messungen zu schaffen.
  • 10a zeigt ein Ablaufdiagramm eines Verfahrens 1000 zur Erfassung des Gewichtes der Person 201 gemäß einer Ausführungsform.
  • Das Verfahren 1000 umfasst ein Aufnehmen 1001 einer Bildaufnahme der Person 201, wobei die Bildaufnahme Tiefeninformationen umfasst, ein Überführen 1003 der Bildaufnahme in eine 3D Pixelmatrix, ein Bestimmen 1005 von Eigenwerten der 3D Pixelmatrix, und ein Bestimmen 1007 des Gewichtes der Person 201 auf der Basis der Eigenwerte der 3D Pixelmatrix.
  • 10b zeigt ein Ablaufdiagramm des Verfahrensschritts zum Bestimmen des Gewichtes der Person 201 auf der Basis der Eigenwerte der 3D Pixelmatrix.
  • Der Verfahrensschritt umfasst ein Ermitteln 1009 von geometrischen Merkmalen der Person auf der Basis der 3D Pixelmatrix und/oder der Eigenwerte der 3D Pixelmatrix, und ein Bestimmen 1011 des Gewichtes der Person 201 auf der Basis der bestimmten geometrischen Merkmale.
  • Gegenüber dem Stand der Technik können sich durch die Vorrichtung 100 und das Verfahren 10001 zur optischen Erfassung des Gewichtes der Person 201 die folgenden weiteren Vorteile ergeben: Die Schätzung eines Patientengewichts kann berührungslos erfolgen und der Patient muss sich nicht bewegen. Ärzte werden während der Gewichtsschätzung praktisch nicht in ihrem Handeln eingeschränkt, da die Bildaufnahme bereits nach einem Bruchteil einer Sekunde abgeschlossen sein kann und automatisch ausgelöst werden kann.
  • Im Vergleich zu alternativen Vorrichtungen wie Bettenwaagen oder Drucksensoren zur Erfassung des Gewichts muss zum Beispiel nur der Behandlungsraum mit der Vorrichtung 100 ausgestattet werden, nicht jedoch die individuellen Patientenlagerungssysteme 203. Hierdurch können sich erhebliche Kostenersparnisse ergeben, wenn eine hohe Anzahl an Patientenlagerungssystemen 203 vorhanden ist, die deutlich die Anzahl der Notfallräume übersteigt.
  • Da die Schätzung des Gewichts nicht nur auf dem Volumen der Person 201, sondern auf weiteren Parametern, insbesondere Eigenwerten und weiteren geometrischen Merkmalen, basiert, ist die Gewichtsschätzung deutlich genauer und robuster. Die Verarbeitung in dem künstlichen neuronalen Netzwerk 601 kann dafür sorgen, dass Fehler in der Gewichtsschätzung reduziert werden. Des Weiteren kann über das hier angewendete künstliche neuronale Netzwerk 601 ein feineres Modell bestimmt werden, als beispielsweise über eine rein lineare Regression. Ferner wird keine Altersangabe benötigt, und die Vorrichtung 100 liefert ohne weitere Information eine Schätzung zum Gewicht der Person 201.
  • Aufgrund der Berücksichtigung mehrerer geometrischer Merkmale kann die Vorrichtung 100 auch bei unterschiedlicher Bekleidung der Person 201, oder unterschiedlicher Bildhintergründe, beispielsweise eine gepolsterte Auflagefläche, eine genaue und robuste Gewichtsschätzung durchführen.
  • Die Vorrichtung 100 bzw. das künstliche neuronale Netzwerk 601 kann auch dazu trainiert werden nicht nur Personen, sondern beispielsweise auch Nutzvieh, zu wiegen.
  • Denkbar ist auch die Gewichtsbestimmung einer Person 201 in einem, insbesondere fahrenden, Krankenwagen, wo eine genaue Wägung durch die zur konstanten Erdbeschleunigung hinzukommenden wechselnden Beschleunigungen durch die Fahrt auf unebenem Grund erschwert ist.
  • Ferner kann die Anwendungsmöglichkeit auf einen mobilen Einsatz erweitert werden, zum Beispiel auf ein Mobiltelefon mit integriertem 3D-Sensor.
  • Die Vorrichtung 100 kann in ein medizinisches Produkt integriert werden, welches das Patientengewicht für Notfallmedikationen hinreichend genau schätzt und dem hier beschriebenen Szenario entspricht. Mit dem hier vorgestellten Algorithmus kann zum Beispiel eine hinreichende Genauigkeit für 90 Prozent der Patienten gewährleistet werden. Die Schätzgenauigkeit kann mit weiteren Trainingsdaten zu.
  • Im Zuge der Erweiterung von Sensoren für mobile Anwendungen, könnte ein Programm auf einem Mobilgerät das Gewicht einer fotografierten Person auf der Basis des Verfahrens 1000 schätzen. Bei einer völlig autarken Arbeitsweise würde das medizinische Personal von einer Routineaufgabe entlastet werden.
  • Ferner kann die hier vorgestellte Vorrichtung 100 zur Gewichtsschätzung einer Person 201 auch außerhalb des medizinischen Bereichs angewendet werden. Beispielsweise kann die Vorrichtung 100 an einem Flughafen eingesetzt werden, um eine Gewichtsschätzung der Flugpassagiere, beispielsweise während eines Sicherheitschecks, durchzuführen. Dabei kann die Vorrichtung 100 zur Gewichtsschätzung in einen Körperscanner integriert werden, um die Gewichtsschätzung im Rahmen einer 3D-Rekonstruktion eines Körpers einer Person durchzuführen.
  • Bezugszeichenliste
  • 100
    Vorrichtung
    101
    Bildkamera
    103
    Prozessor
    201
    Person
    203
    Patientenlagerungssystem
    205a
    Bildsensor
    205b
    Bildsensor
    205c
    Bildsensor
    207
    Anzeige
    300a–g
    3D Pixelmatrizen
    401
    Bildmaske
    403
    Dilatation
    405
    Erosion
    407
    strukturierendes Element
    601
    künstliches neuronales Netzwerk
    603
    Prozessorinstanz
    605
    Speicher
    605b
    Speicher
    607a
    Subinstanz
    607b
    Subinstanz
    607c
    Subinstanz
    609
    Anzeigebereich
    611
    Anzeigebereich
    701
    Eingangsschicht
    703
    Ausgangsschicht
    705
    Neuron
    707
    Ausgang
    801
    Verstärkung
    803
    Bias-Verschiebung
    805
    Neuron
    807
    Neuron
    809a
    Eingang eines Neurons
    809b
    Eingang eines Neurons
    811a
    Ausgang eines Neurons
    811b
    Ausgang eines Neurons
    813
    Sigmoid-Funktion
    815
    Linear-Funktion
    900
    Liniendiagram zweier Funktionen des künstlichen neuronalen Netzwerks
    1000
    Verfahren zur optischen Erfassung eines Gewichtes einer Person
    1001
    Aufnehmen einer Bildaufnahme
    1003
    Überführen der Bildaufnahme in eine 3D Pixelmatrix
    1005
    Bestimmen von Eigenwerten
    1007
    Bestimmen des Gewichtes der Person
    1009
    Ermitteln von geometrischen Merkmalen
    1010
    Bestimmen des Gewichtes der Person
    1100
    Punktdiagramm mit erfassten Gewichtsdaten von Testpersonen und den tatsächlichen Gewichtsdaten der Testpersonen
    1101
    erfasste Gewichtsdaten
    1103
    tatsächliche Gewichtsdaten
    1105
    Balkendiagramm der relativen Fehler der Gewichtsschätzungen
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 4013135 [0004]
    • US 7714238 [0006]
    • EP 2068133 A1 [0006]
    • WO 2012051214 A1 [0007]
  • Zitierte Nicht-Patentliteratur
    • L. Breuer, T. Nowe, H. B. Huttner, C. Blinzler, R. Kollmar, P. D. Schellinger, S. Schwab, and M. Körmann. Weight approximation in stroke before thrombolysis: ”The waist-study: a prospective observational quot dose-finding study”, Stroke, 41(12), 2010 [0003]
    • J Sendroy and H A Collison. Determination of human body volume from height and weight. J Appl Physiol, 21(1): 167–72, 1966 [0008]
    • M Artac, M Jogan, and A Leonardis. „Incremental PCA for on-line visual learning and recognition”, In Pattern Recognition, 2002. Proceedings. 16th International Conference on, vol. 3, p. 781–784, 2002 [0019]
    • Z. Zhang. „A flexible new technique for camera calibration”, IEEE Trans. Pattern Anal. Mach. Intell., 22(11): 1330–1334, 2000 [0030]
    • Z. Zhang. „A flexible new technique for camera calibration”, IEEE Trans. Pattern Anal. Mach. Intell., 22(11): 1330–1334, 2000 [0073]

Claims (16)

  1. Vorrichtung (100) zur optischen Erfassung eines Gewichtes einer Person (201), mit: einer Bildkamera (101), welche ausgebildet ist, eine Bildaufnahme der Person aufzunehmen, wobei die Bildaufnahme Tiefeninformationen umfasst; und einem Prozessor (103), welcher ausgebildet ist, die Bildaufnahme in eine 3D Pixelmatrix (300e) zu überführen, wobei der Prozessor (103) ausgebildet ist, Eigenwerte der 3D Pixelmatrix (300e) zu bestimmen, und wobei der Prozessor (103) ferner ausgebildet ist, das Gewicht der Person (201) auf der Basis der Eigenwerte zu bestimmen.
  2. Vorrichtung (100) nach Anspruch 1, wobei der Prozessor (103) ausgebildet ist, geometrische Merkmale der Person auf der Basis der 3D Pixelmatrix (300e) und/oder der Eigenwerte der 3D Pixelmatrix (300e) zu ermitteln, wobei der Prozessor (103) ferner ausgebildet ist, das Gewicht der Person (201) auf der Basis der geometrischen Merkmale zu bestimmen.
  3. Vorrichtung (100) nach Anspruch 2, wobei der Prozessor (103) ein künstliches neuronales Netzwerk (601) umfasst, wobei der Prozessor (103) ausgebildet ist, das Gewicht der Person (201) mittels einer Entscheidungsoperation des künstlichen neuronalen Netzwerks (601) auf der Basis der geometrischen Merkmale zu bestimmen,
  4. Vorrichtung (100) nach Anspruch 2 oder 3, wobei der Prozessor (103) ausgebildet ist, das Gewicht der Person (201) mittels einer voreingestellten oder einer eingelernten Logik auf der Basis der geometrischen Merkmale zu bestimmen.
  5. Vorrichtung (100) nach einem der Ansprüche 2 bis 4, wobei der Prozessor (103) ausgebildet ist, die geometrischen Merkmale mit Referenzmerkmalen, insbesondere in einer Look-up-Table gespeicherten Referenzmerkmalen, zu vergleichen, wobei der Prozessor (103) ausgebildet ist, das Gewicht der Person (201) auf der Basis des Vergleichs der geometrischen Merkmale mit den Referenzmerkmalen zu bestimmen.
  6. Vorrichtung (100) nach Anspruch 5, wobei der Prozessor (103) ausgebildet ist, die geometrischen Merkmale den Referenzmerkmalen auf der Basis einer Metrik zuzuordnen, wobei der Prozessor (103) ausgebildet ist, das Gewicht der Person (201) auf der Basis der Zuordnung der geometrischen Merkmale zu den Referenzmerkmalen zu bestimmen.
  7. Vorrichtung (100) nach einem der vorstehenden Ansprüche, wobei die Bildkamera (101) ausgebildet ist, eine erste Teilbildaufnahme in einem ersten Wellenlängenbereich aufzunehmen, und wobei die Bildkamera (101) ausgebildet ist, eine zweite Teilbildaufnahme in einem zweiten Wellenlängenbereich aufzunehmen, wobei der Prozessor (103) ausgebildet ist, die erste Teilbildaufnahme und die zweite Teilbildaufnahme zu der Bildaufnahme zu kombinieren und/oder in die 3D Pixelmatrix (300e) zu überführen.
  8. Vorrichtung (100) nach Anspruch 7, wobei die Bildkamera (101) einen ersten Bildsensor (205a) zum Aufnehmen der ersten Teilbildaufnahme in dem ersten Wellenlängenbereich umfasst, und wobei die Bildkamera (101) einen zweiten Bildsensor (205b, 205c) zum Aufnehmen der zweiten Teilbildaufnahme in dem zweiten Wellenlängenbereich umfasst.
  9. Vorrichtung (100) nach Anspruch 7 oder 8, wobei der erste Wellenlängenbereich und/oder der zweite Wellenlängenbereich jeweils einen der folgenden Wellenlängenbereiche umfassen: Infrarot-Wellenlängenbereich, Nahinfrarot-Wellenlängenbereich, Weißlicht-Wellenlängenbereich, RGB-Wellenlängenbereich, UV-Wellenlängenbereich.
  10. Vorrichtung (100) nach einem der vorstehenden Ansprüche, wobei der Prozessor (103) ausgebildet ist, einen Bildhintergrund in der Bildaufnahme und/oder der 3D Pixelmatrix (300e) zu erfassen, und wobei der Prozessor (103) ausgebildet ist, den Bildhintergrund aus der Bildaufnahme und/oder der 3D Pixelmatrix (300e) zu entfernen.
  11. Vorrichtung (100) nach Anspruch 10, wobei der Prozessor (103) ausgebildet ist, den Bildhintergrund auf der Basis eines Farbabgleichs, einer Kantenerkennung oder einer Ebenenerkennung in der Bildaufnahme und/oder der 3D Pixelmatrix (300e) zu erfassen.
  12. Vorrichtung (100) nach einem der vorstehenden Ansprüche, wobei die Vorrichtung eine Beleuchtungseinrichtung umfasst, wobei die Beleuchtungseinrichtung ausgebildet ist, die Person (201) mit Beleuchtungslicht zu beleuchten, wobei die Bildkamera (101) ausgebildet ist, an der Person (201) reflektiertes oder gestreutes Beleuchtungslicht zu erfassen.
  13. Vorrichtung (100) nach einem der vorstehenden Ansprüche, wobei Prozessor (103) ausgebildet ist, die 3D Pixelmatrix (300e) in eine Anzahl an Submatrizen zu segmentieren, wobei der Prozessor (103) ausgebildet ist, weitere Eigenwerte einer jeden Submatrix zu bestimmen, wobei der Prozessor (103) ferner ausgebildet ist, für jede Submatrix eine Gewichtsangabe auf der Basis der weiteren Eigenwerte der Submatrix zu bestimmen, und wobei der Prozessor (103) ausgebildet ist, das Gewicht der Person auf der Basis der Gewichtsangaben der Submatrizen zu ermitteln.
  14. Vorrichtung (100) nach Anspruch 13, wobei jeder Submatrix ein Körperteil der Person (201) zugeordnet ist, wobei der Prozessor (103) ausgebildet ist, auf der Basis der weiteren Eigenwerte jeder Submatrix zumindest ein geometrisches Merkmal des Körperteils, welches der entsprechenden Submatrix zugeordnet ist, zu ermitteln, wobei der Prozessor (103) ausgebildet ist, die geometrischen Merkmale der Körperteile zu vergleichen, und wobei der Prozessor (103) ausgebildet ist, auf der Basis des Vergleichs der geometrischen Merkmale der Körperteile eine Körperform der Person (201) oder Körperproportionen der Person (201) zu bestimmen.
  15. Verfahren (1000) zur optischen Erfassung eines Gewichtes einer Person, mit: Aufnehmen (1001) einer Bildaufnahme der Person (201), wobei die Bildaufnahme Tiefeninformationen umfasst; Überführen (1003) der Bildaufnahme in eine 3D Pixelmatrix (300e); Bestimmen (1005) von Eigenwerten der 3D Pixelmatrix (300e); und Bestimmen (1007) des Gewichtes der Person (201) auf der Basis der Eigenwerte der 3D Pixelmatrix (300e).
  16. Verfahren (1000) nach Anspruch 15, wobei das Bestimmen (1107) des Gewichtes der Person (201) auf der Basis der Eigenwerte der 3D Pixelmatrix (300e) die folgenden weiteren Verfahrensschritte umfasst: Ermitteln (1009) von geometrischen Merkmalen der Person auf der Basis der 3D Pixelmatrix (300e) und/oder der Eigenwerte der 3D Pixelmatrix (300e); und Bestimmen (1010) des Gewichtes der Person (201) auf der Basis der ermittelten geometrischen Merkmale.
DE102016103543.2A 2016-02-29 2016-02-29 Vorrichtung und verfahren zur optischen erfassung eines gewichtes einer person Ceased DE102016103543A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016103543.2A DE102016103543A1 (de) 2016-02-29 2016-02-29 Vorrichtung und verfahren zur optischen erfassung eines gewichtes einer person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016103543.2A DE102016103543A1 (de) 2016-02-29 2016-02-29 Vorrichtung und verfahren zur optischen erfassung eines gewichtes einer person

Publications (1)

Publication Number Publication Date
DE102016103543A1 true DE102016103543A1 (de) 2017-08-31

Family

ID=59580476

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016103543.2A Ceased DE102016103543A1 (de) 2016-02-29 2016-02-29 Vorrichtung und verfahren zur optischen erfassung eines gewichtes einer person

Country Status (1)

Country Link
DE (1) DE102016103543A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4013135A (en) 1975-12-29 1977-03-22 Kechely Raymond O Apparatus for supporting and weighing patients in a sitting position
EP2068133A1 (de) 2007-12-08 2009-06-10 Suzanne Wang Vorrichtung und Verfahren zur Messung des Körpergewichts
US7714238B2 (en) 2003-12-12 2010-05-11 Hill-Rom Services, Inc. Mattress seat force sensing method
WO2012051214A1 (en) 2010-10-11 2012-04-19 The Children's Mercy Hospital Pediatric weight estimate device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4013135A (en) 1975-12-29 1977-03-22 Kechely Raymond O Apparatus for supporting and weighing patients in a sitting position
US7714238B2 (en) 2003-12-12 2010-05-11 Hill-Rom Services, Inc. Mattress seat force sensing method
EP2068133A1 (de) 2007-12-08 2009-06-10 Suzanne Wang Vorrichtung und Verfahren zur Messung des Körpergewichts
WO2012051214A1 (en) 2010-10-11 2012-04-19 The Children's Mercy Hospital Pediatric weight estimate device and method

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
J Sendroy and H A Collison. Determination of human body volume from height and weight. J Appl Physiol, 21(1): 167–72, 1966
L. Breuer, T. Nowe, H. B. Huttner, C. Blinzler, R. Kollmar, P. D. Schellinger, S. Schwab, and M. Körmann. Weight approximation in stroke before thrombolysis: "The waist-study: a prospective observational quot dose-finding study", Stroke, 41(12), 2010
Linder, Timm, Sven Wehner, and Kai O. Arras. "Real-time full-body human gender recognition in (RGB)-D data." 2015 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2015 *
M Artac, M Jogan, and A Leonardis. „Incremental PCA for on-line visual learning and recognition", In Pattern Recognition, 2002. Proceedings. 16th International Conference on, vol. 3, p. 781–784, 2002
Pfitzner, Christian, et al. "Libra3d: Body weight estimation for emergency patients in clinical environments with a 3d structured light sensor." 2015 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2015 *
Z. Zhang. „A flexible new technique for camera calibration", IEEE Trans. Pattern Anal. Mach. Intell., 22(11): 1330–1334, 2000

Similar Documents

Publication Publication Date Title
DE102015013031B4 (de) Vorrichtung, Verfahren und Computerprogramm zur Bestimmung einer Lage von zumindest zwei Teilsegmenten einer Patientenlagerungsvorrichtung
Andrews et al. Distinct representations for facial identity and changeable aspects of faces in the human temporal lobe
US20210133473A1 (en) Learning apparatus and learning method
DE112017002805T5 (de) Ausrüstungssteuerungseinrichtung und Ausrüstungssteuerungsverfahren
DE102009040017A1 (de) System und Verfahren zur Detektion einer Temperatur auf einer Oberfläche eines Körpers
US8989461B2 (en) Method of deformable motion correction and image registration in X-ray stent imaging
DE112014000611T5 (de) Verfahren und Vorrichtung zum Erzeugen eines abgeleiteten Bildes unter Verwendung von Bildern verschiedener Typen
EP3699929A1 (de) Patientengewichtsschätzung aus oberflächendaten unter verwendung eines patientenmodells
DE112017007303B4 (de) Gesichtserkennungsvorrichtung
EP3694397A1 (de) Verfahren zum automatischen erfassen einer grundposition einer auf einer matratze liegenden person und verfahren zum erzeugen einer grafikdarstellung
JP2008157640A (ja) 脳画像データに関する時系列データの解析方法、プログラムおよび記録媒体
DE112011100032T5 (de) Methodologie und Vorrichtung für objektive, nichtinvasive und in-vivo-Einschätung und-Bewertung der Schuppigkeit von Schuppenflechtewunden unter Verwendung digitalerBildgebung
DE102014216237A1 (de) System und verfahren zurdurchführung einer medizinischen ferndiagnostik
EP3559953B1 (de) Vorrichtung, verfahren und computerprogramm zur erfassung von optischen bilddaten und zur bestimmung einer lage einer seitenbegrenzung einer patientenlagerungsvorrichtung
JP2022546344A (ja) 脳卒中特徴取得のための画像処理
CN115004222A (zh) Oct数据的神经网络处理以生成对地图状萎缩生长率的预测
DE112021005277T5 (de) Objektschlüsselpunkterfassung
EP3566651A1 (de) Verfahren und vorrichtung zur ermittlung von ergebniswerten auf basis einer skelettalen medizintechnischen bildaufnahme
Gour et al. Blood vessel segmentation using hybrid median filtering and morphological transformation
Bondfale et al. Convolutional neural network for categorization of lung tissue patterns in interstitial lung diseases
DE102016103543A1 (de) Vorrichtung und verfahren zur optischen erfassung eines gewichtes einer person
EP3226206A1 (de) Klassifizierung mittels aufnahmen
WO2017220667A1 (de) Verfahren und vorrichtung zur veränderung der affektiven visuellen information im gesichtsfeld eines benutzers
WO2016012556A1 (de) Bilderzeugungsapparat und -verfahren mit kombination von funktionaler bildgebung und ultraschallbildgebung
EP3635735B1 (de) Verfahren, computerprogramm und vorrichtung zur einordnung von aktivitäten eines patienten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R163 Identified publications notified
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R073 Re-establishment requested
R003 Refusal decision now final
R011 All appeals rejected, refused or otherwise settled