DE102021120737A1 - Diagnoseverfahren und -vorrichtung - Google Patents

Diagnoseverfahren und -vorrichtung Download PDF

Info

Publication number
DE102021120737A1
DE102021120737A1 DE102021120737.1A DE102021120737A DE102021120737A1 DE 102021120737 A1 DE102021120737 A1 DE 102021120737A1 DE 102021120737 A DE102021120737 A DE 102021120737A DE 102021120737 A1 DE102021120737 A1 DE 102021120737A1
Authority
DE
Germany
Prior art keywords
image data
reference structure
change
state
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021120737.1A
Other languages
English (en)
Inventor
Thorsten HAGEMANN
Peter Sabadasz
Rene Jennrich-Friederich
Fabian Höger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102021120737.1A priority Critical patent/DE102021120737A1/de
Priority to PCT/EP2022/071760 priority patent/WO2023016877A1/de
Publication of DE102021120737A1 publication Critical patent/DE102021120737A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Computerimplementiertes Verfahren (200) und System (100) zum Bestimmen und/oder Überwachen eines Zustands (Z) eines, insbesondere menschlichen, Körpers (K) unter Berücksichtigung einer Referenzstruktur (R).

Description

  • Die Erfindung betrifft ein computerimplementiertes Verfahren und ein System zum Bestimmen und/oder Überwachen eines Zustands eines, insbesondere menschlichen, Körpers.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung bereitzustellen, mittels der ein Zustand eines, insbesondere menschlichen, Körpers bestimmt und/oder überwacht werden kann.
  • Eine Ausführungsform betrifft ein computerimplementiertes Verfahren zum Bestimmen und/oder Überwachen eines Zustands eines, insbesondere menschlichen, Körpers. Das Verfahren umfasst die folgenden Schritte:
    • Bereitstellen von Bilddaten des Körpers und/oder Teilen des Körpers,
    • Ableiten einer Änderung aus den Bilddaten, insbesondere wenigstens einer Position des Körpers und/oder Teilen des Körpers, und/oder eines Volumens, des Körpers und/oder Teilen des Körpers, wobei das Ableiten der Änderung umfasst: Erzeugen wenigstens einer ersten Referenzstruktur umfassend wenigstens zwei, vorzugsweise mehrere, Referenzpunkte und wenigstens eine die wenigstens zwei Referenzpunkte verbindende Referenzachse mittels Bilderkennung in erfassten ersten Bilddaten und Erzeugen wenigstens einer zweiten Referenzstruktur mittels Bilderkennung in erfassten zweiten Bilddaten,
    • und Ableiten der Änderung basierend auf wenigstens einer Differenz zwischen der ersten und der zweiten Referenzstruktur;
    • und wobei das Verfahren weiter umfasst: Bestimmen eines Zustands des Körpers in Abhängigkeit der Änderung.
  • Die Bilddaten werden beispielsweise mittels einer Bilderfassungseinrichtung erfasst. Bei den Bilddaten handelt es sich beispielsweise um Einzelbilddaten oder um Video-Daten, umfassend mehrere Einzelbilddaten. Erste Bilddaten sind zu einem ersten Zeitpunkt aufgenommene Daten und zweite Bilddaten sind zu einem zweiten Zeitpunkt aufgenommene Bilddaten. Die Bilddaten können vorteilhafterweise 2D-Bilddaten und/oder Distanz-Bilddaten und/oder 3D-Bilddaten umfassen. Die Aufnahme von Distanz- oder 3D-Bilddaten erfolgt beispielsweise über ein Stereosystem, das heißt, die Umgebung wird mit zwei Kameras aufgenommen, Stereofotogrammmetrie, und über Korrelationsfunktionen die Distanz zu Objekten berechnet; oder über ein Triangulationssystem, das heißt, eine Lichtquelle bildet ein bestimmtes Muster auf das Objekt ab und eine Kamera nimmt dieses Muster aus einem anderen Blickwinkel auf und berechnet aus der Verzerrung die Distanz; oder über eine TOF-Kameras, engl. time of flight, welche über Laufzeitmessung von Licht auf die Distanz rückschließt. Durch die Kombination von 2D-Bilddaten und Tiefenbilddaten können Bewegungen exakter vorhergesagt werden im Vergleich zu einer Erkennung die nur auf 2D-Bilddaten basiert.
  • Unter Verwendung von Methoden zur Bilderkennung wird in ersten Bilddaten die erste Referenzstruktur erzeugt. In den zweiten Bilddaten wird die zweite Referenzstruktur unter Verwendung von Methoden zur Bilderkennung erzeugt. Die erste und zweite Referenzstruktur repräsentieren den in den Bilddaten erkannten Körper oder Teile des Körpers.
  • Weiter wird eine Differenz zwischen der ersten und der zweiten Referenzstruktur ermittelt. Basierend darauf wird eine Änderung, insbesondere wenigstens einer Position des Körpers und/oder Teilen des Körpers, und/oder eines Volumens, des Körpers und/oder Teilen des Körpers, abgeleitet.
  • Vorteilhafterweise werden beim Ableiten der Änderung zusätzlich zu der Differenz zwischen der ersten und der zweiten Referenzstruktur auch eine Differenz auf Bildebene zwischen den ersten Bilddaten und den zweiten Bilddaten unter Verwendung von Methoden zu Bilderkennung berücksichtigt.
  • Die Methoden zur Bilderkennung umfassen beispielsweise KI-basierte Methoden, Machine-Learning Algorithmen.
  • Durch die Berücksichtigung sowohl von Differenzen in der Referenzstruktur also auch auf Bildebene können Änderungen, insbesondere von Position und/oder Volumen, genauer ermittelt werden, im Vergleich zu dem Fall, in dem nur die Bildebene berücksichtigt wird. Beispielsweise können Fehlerkennungen, die beispielsweise durch Kameraperspektive oder Sichtbarrieren bedingt sind, erkannt und vermieden werden. Weiter können anhand der Berechnungen auf Bildebene die Berechnungen in der Referenzstruktur bestätigt und/oder korrigiert werden. Dementsprechend ist es auch denkbar, anhand der Berechnungen in der Referenzstruktur die Berechnungen auf Bildebene zu bestätigen und/oder zu korrigieren.
  • Durch die Kombination können in den Bilddaten zum Beispiel Gegenstände erkannt werden. Zum Beispiel wird beim Putzen der Oberfläche ein roter Lappen verwendet.
    Ebenfalls können Berechnungen der Referenzstruktur bestätigt werden. Person sitzt auf einem Stuhl.
  • Unter Berücksichtigung der Änderung wird schließlich ein Zustand des Körpers bestimmt.
  • Wenn beispielsweise keine oder nur eine sehr geringe Änderung der Position des Körpers und/oder Teilen des Körpers, insbesondere über eine längere Zeitdauer, erfolgt ist, kann eine erhöhte Druckbelastung entsprechender Stellen des Körpers vorliegen. Liegt diese Druckbelastung über längere Zeit vor, kann es zur lokalen Schädigung der Haut und des darunterliegenden Gewebes, einem sogenannten Dekubitus, kommen.
  • Wenn beispielsweise eine Änderung des Volumens des Körpers und/oder Teilen des Körpers vorliegt, kann es im Falle einer Volumenvergrößerung, also einer Schwellung, insbesondere bei längerem Vorliegen der Schwellung, zu einem Kompartmentsyndrom kommen.
  • Basierend auf den ermittelten Differenzen der Referenzstrukturen, und den daraus abgeleiteten Änderungen, kann der Zustand des Körpers in Echtzeit oder annähernd in Echtzeit bestimmt und überwacht werden. Dies ermöglicht eine frühzeitige Symptomerkennung und erlaubt frühzeitig prophylaktische und/oder therapeutische Maßnahmen zu ergreifen.
  • Das Bestimmen des Zustands des Körpers erfolgt beispielsweise unter Verwendung von, insbesondere KI-basierten, Klassifizierungsmethoden. Dabei werden insbesondere die in den Referenzstrukturen und/oder die in den Bilddaten ermittelten Änderungen klassifiziert.
  • In Abhängigkeit des bestimmten Zustands des Körpers kann beispielsweise eine Ausgabe, insbesondere ein Signal, zur Ausgabe über eine Ausgabeeinrichtung, insbesondere eine Schnittstelle, insbesondere eine Kommunikationsschnittstelle, über die Signale, insbesondere an Peripheriegeräte, beispielsweise eine visuelle und/oder akustische Anzeigeeinrichtung, ausgegeben werden können, bereitgestellt werden.
  • Beispielsweise erfolgt das Bereitstellen der Ausgabe in Abhängigkeit von Schwellwerten. Die Schwellwerte umfassen beispielsweise Zeitdauern, insbesondere eine Zeitdauer über die keine Änderung einer Position des Körpers oder von Abschnitten des Körpers erfolgt ist, oder Volumengrenzwerte, oder Geschwindigkeitsgrenzwerte. Es kann sich auch als vorteilhaft erweisen, zusätzlich Temperaturwerte und/oder Audiodaten zu berücksichtigen.
  • Alternativ oder zusätzlich kann eine Ausgabe auch zum Ansteuern einer Aktoreinrichtung, insbesondere zum Ergreifen von Gegenmaßnahmen, verwendet werden. Eine beispielhafte Aktoreinrichtung ist eine Einrichtung zum Steuern, insbesondere Öffnen und Schließen, eines Blutflusses, insbesondere in Gliedmaßen, beispielsweise eine steuerbare Kompressionseinrichtung. Eine weitere beispielhafte Aktoreinrichtung ist eine Einrichtung zum Steuern einer Medikation, beispielsweise eine steuerbare Infusionspumpe. Eine weitere beispielhafte Aktoreinrichtung ist eine Einrichtung zum Steuern einer Mobilisation und/oder Bewegungen eines Patienten, beispielsweise ein Dreh-/Schwenk-Bett zur kinetischen Lagerungstherapie.
  • Gemäß einer Ausführungsform ist vorgesehen, dass eine Referenzstruktur derart erzeugt wird, dass ein Referenzpunkt der Referenzstruktur einem Gelenk des Körpers in den erfassten Bilddaten zugeordnet wird und/oder dass eine Referenzachse entlang eines Abschnitts des Körpers verläuft. Die Referenzachsen verlaufen beispielsweise entlang von Gliedmaßen, und/oder entlang des Rumpfes und/oder Kopfes und/oder des Halses.
  • Gemäß einer Ausführungsform ist vorgesehen, dass wenigstens eine Differenz zwischen der ersten und zweiten Referenzstruktur basierend auf einem Winkel zwischen zwei Referenzachsen und/oder einem Abstand zwischen zwei Referenzpunkten bestimmt wird. Ein Abstand zwischen zwei über eine Referenzachse verbundenen Referenzpunkten entspricht beispielsweise einer Länge der Referenzachse. Ein Abstand zwischen zwei unverbundenen Referenzpunkten ist die Distanz zwischen diesen unverbundenen Referenzpunkten.
  • Vorteilhafterweise wird beim Erzeugen der Referenzstruktur die Referenzstruktur auf nicht sichtbare, insbesondere durch eine Sichtbarriere verdeckte, Abschnitte des Körpers approximiert. Insbesondere bei liegenden Patienten ist oft ein Teil des Körpers durch eine Decke verdeckt. Basierend auf der Erfassung auf Bildebene kann daher für den verdeckten Bereich nicht oder nur ungenau eine Position der verdeckten Teile des Körpers abgeleitet werden. Das Approximieren der Referenzstruktur auf nicht sichtbare Abschnitte des Körpers erfolgt beispielsweise durch Berechnung und/oder unter Verwendung von Machine-Learning Algorithmen. Alternativ oder zusätzlich können 3D-Bildaten oder Distanzbilddaten herangezogen werden.
  • In Weiterbildung dieses Erfindungsgedankens ist es vorteilhaft, wenn beim Erzeugen einer Referenzstruktur und/oder beim Ableiten der Änderung und/oder beim Bestimmen des Zustands des Körpers ein Bewegungsmuster und/oder ein Lagemuster berücksichtigt wird. Das Bewegungsmuster und/oder Lagemuster kann beim Erzeugen der Referenzstruktur verwendet werden, um die Referenzstruktur auf nicht sichtbare, insbesondere durch die Sichtbarriere verdeckte, Abschnitte des Körpers approximiert werden.
  • Beim Bestimmen des Zustands des Körpers kann unter Berücksichtigung von Bewegungsmuster und/oder Lagemuster die Zustandsbestimmung verbessert werden.
  • Bewegungsmuster und Lagemuster berücksichtigen beispielsweise Schrittlängen und Gangmuster, insbesondere um Veränderungen im Gang eines Patienten zu erfassen, ein Nichtbewegen oder ein Bewegen, beispielsweise stärker werdende Unruhe, insbesondere bei liegenden und/oder schlafenden Patienten, Sturzbewegungen, eine Geschwindigkeit von Bewegungen und/oder Unterbrechungen in Bewegungen.
  • Weiter kenn es sich als vorteilhaft erweisen, wenn beim Ableiten der Änderung eine oder mehrere der folgenden Größen im Zusammenhang mit den erfassten Bilddaten berücksichtigt wird:
    • - ein Umfang des Körpers, insbesondere Abschnitten des Körpers,
    • - Zeitpunkt und/oder Zeitdauer,
    • - Farben,
    • - erkannte Bewegungen, insbesondere eine Geschwindigkeit der erkannten Bewegungen,
    • - Audiodaten,
    • - Temperaturwerte.
  • Ein Zeitpunkt ist beispielsweise der Zeitpunkt, zu dem Bilddaten aufgenommen wurden. Eine Zeitdauer liegt beispielsweise zwischen ersten und zweiten Bilddaten.
  • Bestimmte Bewegungen oder das Ausbleiben bestimmter Bewegungen können erkannt werden und somit beim Bestimmen des Zustands berücksichtigt werden. Beispielsweise können so Atemprobleme und/oder ein Sturz erkannt werden.
  • In Weiterbildung der Erfindung erweist es sich als vorteilhaft, wenn das Verfahren weiter umfasst: Bereitstellen von Bilddaten einer Peripherie des Körpers und Erkennen von Änderungen in der Peripherie des Körpers. Basierend auf den Änderungen in der Peripherie kann ein Zustand der Peripherie bestimmt werden. Beispielsweise kann eine Verschmutzung und/oder eine Reinigung erkannt werden. Die Erweiterung des Verfahrens auf die Peripherie kann beispielsweise für folgende Zwecke angewendet werden: Dokumentation von medizinischen und/oder hygienischen Abläufen und Zuständen, insbesondere Wechseln von Bettbezug, Bettflaschen, Nutzung von Geräten, beispielsweise Desinfektionsspender, Erkennen eines Füllstands von Infusionen, oder sonstigen Behältern, Erkennen von medizinischen Notfällen, beispielweise Erbrechen des Patienten, Gewalt- und/oder Diebstahlerkennung, Abwesenheit und Anwesenheit von Personen, insbesondere Anzahl und Dauer, Einhaltung von Abständen.
  • Weitere Ausführungsformen betreffen ein System zum Bestimmen und/oder Überwachen eines Zustands eines menschlichen Körpers, das System umfassend wenigstens eine Bilderfassungseinrichtung zum Erfassen von Bilddaten des Körpers und/oder Teilen des Körpers, und eine Recheneinrichtung, die zum Ausführen von Schritten des Verfahrens gemäß den beschriebenen Ausführungsformen ausgebildet ist.
  • Die Bilderfassungseinrichtung ist beispielsweise eine Foto- und/oder Videokamera. Beispielsweise handelt es sich bei der Kamera um eine TOF-Kameras, engl. time of flight, welche über Laufzeitmessung von Licht auf eine Distanz zum einem erfassen Objekt rückschließt. Alternativ können auch zwei oder mehr Kameras vorgesehen sein.
  • Vorteilhafterweise umfasst das System eine Ausgabeeinrichtung zum Ausgeben wenigstens einer Ausgabe in Abhängigkeit des Zustands des Körpers.
  • Bei der Ausgabeeinrichtung handelt es sich beispielsweise um eine Schnittstelle, insbesondere eine Kommunikationsschnittstelle, über die Signale, insbesondere an Peripheriegeräte, beispielsweise eine visuelle und/oder akustische Anzeigeeinrichtung, ausgegeben werden können. Visuelle und/oder akustische Anzeigeeinrichtung sind oder umfassen beispielsweise ein Display und/oder ein Lichtrufsystem und/oder ein Tonrufsystem.
  • Alternativ oder zusätzlich kann auch ein Ansteuern einer Aktoreinrichtung, insbesondere zum Ergreifen von Gegenmaßnahmen, erfolgen.
  • Vorteilhafterweise umfasst das System weiter wenigstens eine Speichereinrichtung und/oder eine Temperaturerfassungseinrichtung und/oder eine Audioerfassungseinrichtung. Die Speichereinrichtung umfasst beispielsweise wenigstens einen Arbeitsspeicher, in dem erfasste Bilddaten und gegebenenfalls weitere erfasste Daten, wie Audiodaten und/oder Temperaturdaten, zumindest vorübergehend gespeichert werden.
  • Alternativ oder zusätzlich kann die Speichereinrichtung einen nichtflüchtigen Speicher zum Speicher der erfassten Daten, insbesondere in anonymisierter Form, umfassen. Beispielsweise ist es denkbar, dass nur die ermittelten Änderungen der Referenzstruktur gespeichert werden, und nicht die Bilddaten selbst gespeichert werden.
  • Alternativ oder zusätzlich kann das System Daten für eine externe Speichereinrichtung, beispielsweise Datenbank, beispielsweise ein Krankenhausinformationssystem, KIS, bereitstellen.
  • Weitere Vorteile ergeben sich aus der Beschreibung und den beigefügten Zeichnungen. Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Dabei bezeichnen gleiche Bezugszeichen in verschiedenen Figuren jeweils gleiche oder zumindest ihrer Funktion nach vergleichbare Elemente. Bei der Beschreibung einzelner Figuren wird gegebenenfalls auch auf Elemente aus anderen Figuren Bezug genommen. Es zeigen jeweils in schematischer Form:
    • 1 eine schematische Ansicht eines Systems zum Bestimmen und/oder Überwachen eines Zustands eines, insbesondere menschlichen, Körpers in einer beispielhaften Anwendungssituation;
    • 2 Schritte eines Verfahrens zum Bestimmen und/oder Überwachen eines Zustands eines, insbesondere menschlichen, Körpers;
    • 3 eine schematische Ansicht eines Aspekts des Systems aus 1 und des Verfahrens aus 2;
    • 4 das System aus 1 als Blockdiagramm;
    • 5 eine schematische Ansicht eines weiteren Aspekts des Systems aus 1 und 4 sowie des Verfahrens aus 2.
  • 1 zeigt eine schematische Ansicht eines Systems zum Bestimmen und/oder Überwachen eines Zustands eines, insbesondere menschlichen, Körpers in einer beispielhaften Anwendungssituation. Das System ist mit dem Bezugszeichen 100 gekennzeichnet.
  • Das System 100 überwacht und/oder bestimmt gemäß der beispielhaft dargestellten Anwendungssituation den Zustand eines Patienten P.
  • Das System 100 umfasst eine Bilderfassungseinrichtung 110, insbesondere eine Kamera, zum Erfassen von Bilddaten B des Körpers K des Patienten P.
  • Die erfassten Bilddaten werden von einer Recheneinrichtung 120 verarbeitet. Basierend auf den erfassten Bilddaten kann ein Zustand Z des Patienten P bestimmt werden.
  • In Abhängigkeit des bestimmten Zustand Z des Körpers K kann beispielsweise eine Ausgabe A, insbesondere ein Signal, zur Ausgabe über eine Ausgabeeinrichtung, insbesondere eine Schnittstelle, insbesondere eine Kommunikationsschnittstelle, über die Signale, insbesondere an Peripheriegeräte, beispielsweise eine visuelle und/oder akustische Anzeigeeinrichtung, ausgegeben werden können, bereitgestellt werden.
  • Das Bestimmen des Zustands Z wird im Folgenden unter Bezugnahme auf 2 bis 4 erläutert.
  • 2 zeigt schematisch Schritte eines computerimplementierten Verfahren 200 zum Bestimmen und/oder Überwachen des Zustands Z des Patienten P.
  • Das Verfahren umfasst
    einen Schritt 210 zum Bereitstellen von Bilddaten B.
  • Die Bilddaten B werden von der Bilderfassungseinrichtung 110 des Systems 100 erfasst.
  • Das Verfahren umfasst weiter einen Schritt 220 zum Ableiten einer Änderung aus den Bilddaten, insbesondere wenigstens einer Position des Körpers und/oder Teilen des Körpers, und/oder eines Volumens, des Körpers und/oder Teilen des Körpers.
  • Der Schritt 220 zum Ableiten der Änderung umfasst:
    • Erzeugen 220a wenigstens einer ersten Referenzstruktur umfassend wenigstens zwei, vorzugsweise mehrere, Referenzpunkte und wenigstens eine die wenigstens zwei Referenzpunkte verbindende Referenzachse mittels Bilderkennung in erfassten ersten Bilddaten und
    • Erzeugen 220b wenigstens einer zweiten Referenzstruktur mittels Bilderkennung in erfassten zweiten Bilddaten, und
  • Ableiten 220c der Änderung basierend auf wenigstens einer Differenz zwischen der ersten und der zweiten Referenzstruktur.
  • Das Erzeugen der Referenzstrukturen erfolgt beispielsweise unter Verwendung von Methoden zur Bilderkennung. Die erste und zweite Referenzstruktur repräsentieren den in den Bilddaten erkannten Körper oder Teile des Körpers.
  • Die Referenzstruktur wird beispielsweise derart erzeugt, dass ein Referenzpunkt P der Referenzstruktur einem Gelenk des Körpers K in den erfassten Bilddaten B zugeordnet wird und dass eine Referenzachse RA entlang eines Abschnitts des Körpers K verläuft. Die Referenzachsen RA verlaufen beispielsweise entlang von Gliedmaßen, und/oder entlang des Rumpfes und/oder Kopfes und/oder des Halses.
  • Eine beispielhafte Referenzstruktur R ist in 3 dargestellt.
  • Eine vorteilhafte Gliederung der Referenzstruktur umfasst beispielsweise 32 Referenzpunkte verteilt auf einen Körper, wobei der Körper in sechs Abschnitte unterteilt wird:
    • Kopf, umfassend sechs Referenzpunkte,
    • Rumpf, umfassend sechs Referenzpunkte,
    • Arm links, umfassend sechs Referenzpunkte,
    • Arm rechts, umfassend sechs Referenzpunkte,
    • Bein links, umfassend vier Referenzpunkte,
    • Bein rechts, umfassend vier Referenzpunkte.
  • Alternativ kann die Referenzstruktur auch mehr Abschnitte und/oder mehr Referenzpunkte. Insbesondere ist es denkbar, dass weiter Referenzpunkte für Fuß und/oder Hand vorgesehen werden.
  • Das Ableiten 220c der Änderung basierend auf wenigstens einer Differenz zwischen der ersten und der zweiten Referenzstruktur sieht beispielsweise vor, dass wenigstens eine Differenz zwischen der ersten und zweiten Referenzstruktur basierend auf einem jeweiligen Winkel zwischen zwei Referenzachsen der jeweiligen Referenzstruktur und/oder einem jeweiligen Abstand zwischen zwei Referenzpunkten der jeweiligen Referenzstruktur bestimmt wird. Ein Abstand zwischen zwei über eine Referenzachse verbundenen Referenzpunkten entspricht beispielsweise einer Länge der Referenzachse. Ein Abstand zwischen zwei unverbundenen Referenzpunkten ist die Distanz zwischen diesen unverbundenen Referenzpunkten.
  • Beim Erzeugen der Referenzstruktur kann die Referenzstruktur auf nicht sichtbare, insbesondere durch eine Sichtbarriere verdeckte, Abschnitte des Körpers approximiert werden. Insbesondere bei liegenden Patienten ist oft ein Teil des Körpers durch eine Decke verdeckt. Basierend auf der Erfassung auf Bildebene kann daher für den verdeckten Bereich nicht oder nur ungenau eine Position der verdeckten Teile des Körpers abgeleitet werden.
  • Schließlich umfasst das Verfahren weiter
    einen Schritt 230 zum Bestimmen des Zustands Z des Körpers in Abhängigkeit der Änderung.
  • Wenn beispielsweise keine oder nur eine sehr geringe Änderung der Position des Körpers und/oder Teilen des Körpers, insbesondere über eine längere Zeitdauer, erfolgt ist, kann eine erhöhte Druckbelastung entsprechender Stellen des Körpers vorliegen. Liegt diese Druckbelastung über längere Zeit vor, kann es zur lokalen Schädigung der Haut und des darunterliegenden Gewebes, einem sogenannten Dekubitus, kommen.
  • Wenn beispielsweise eine Änderung des Volumens des Körpers und/oder Teilen des Körpers vorliegt, kann es im Falle einer Volumenvergrößerung, also einer Schwellung, insbesondere bei längerem Vorliegen der Schwellung, zu einem Kompartmentsyndrom kommen.
  • Basierend auf den ermittelten Differenzen der Referenzstrukturen, und den daraus abgeleiteten Änderungen, kann der Zustand Z des Körpers K in Echtzeit oder annähernd in Echtzeit bestimmt 230 und überwacht werden. Dies ermöglicht eine frühzeitige Symptomerkennung und erlaubt frühzeitig prophylaktische und/oder therapeutische Maßnahmen zu ergreifen.
  • Weiter ist vorgesehen, dass in einem Schritt 240 in Abhängigkeit des bestimmten Zustand Z des Körpers K eine Ausgabe A, insbesondere ein Signal, zur Ausgabe über eine Ausgabeeinrichtung, insbesondere eine Schnittstelle, insbesondere eine Kommunikationsschnittstelle, über die Signale, insbesondere an Peripheriegeräte, beispielsweise eine visuelle und/oder akustische Anzeigeeinrichtung, ausgegeben werden können, bereitgestellt wird.
  • Beispielsweise erfolgt das Bereitstellen 240 der Ausgabe in Abhängigkeit von Schwellwerten. Die Schwellwerte umfassen beispielsweise Zeitdauern, insbesondere eine Zeitdauer über die keine Änderung einer Position des Körpers oder von Abschnitten des Körpers erfolgt ist, oder Volumengrenzwerte, oder Geschwindigkeitsgrenzwerte.
  • Alternativ oder zusätzlich kann eine Ausgabe auch zum Ansteuern einer Aktoreinrichtung, insbesondere zum Ergreifen von Gegenmaßnahmen, verwendet werden.
  • Weiter kann mit der Bilderfassungseinrichtung 110 auch einer Peripherie des Körpers K erfasst und die Bilddaten der Peripherie bereitgestellt werden. Vorteilhafterweise ist die Recheneinrichtung 120 dazu ausgebildet, unter Verwendung von Methoden der Bilderkennung Änderungen in der Peripherie des Körpers erkennen. Basierend auf den Änderungen in der Peripherie kann ein Zustand der Peripherie bestimmt werden. Beispielsweise kann eine Verschmutzung und/oder eine Reinigung erkannt werden.
  • Weiter Aspekte des Systems 100 werden unter Bezugnahme auf 4 erläutert.
  • Gemäß der dargestellten Ausführungsform umfasst das System 100 eine Temperaturerfassungseinrichtung 130 zum Erfassen von Temperaturdaten T und eine Audioerfassungseinrichtung 140 zum Erfassen von Audiodaten AD. Diese Daten können vorteilhafterweise bei der Bestimmung des Zustands Z des Patienten P mitberücksichtigt werden. Beispielsweise können so Informationen über eine Körpertemperatur und/oder Sprachinformationen des Patienten P berücksichtigt werden.
  • Das System umfasst weiter wenigstens eine Speichereinrichtung 150a, 150b. Die Speichereinrichtung ist oder umfasst beispielsweise wenigstens einen Arbeitsspeicher 150a, in dem erfasste Bilddaten und gegebenenfalls weitere erfasste Daten, wie Audiodaten und/oder Temperaturdaten, zumindest vorübergehend gespeichert werden.
  • Alternativ oder zusätzlich kann die Speichereinrichtung als ein nichtflüchtiger Speicher 150b zum Speicher der erfassten Daten, insbesondere in anonymisierter Form, ausgebildet sein oder umfassen.
  • Vorteilhafterweise umfasst das System wenigstens eine Ausgabeeinrichtung 160a, 160b, 160c zum Ausgeben wenigstens einer Ausgabe A, D1, D2.
  • Bei der Ausgabeeinrichtung 160a handelt es sich beispielsweise um eine Schnittstelle, insbesondere eine Kommunikationsschnittstelle, über die Signale, insbesondere an Peripheriegeräte 170, beispielsweise eine visuelle und/oder akustische Anzeigeeinrichtung, ausgegeben werden können. Visuelle und/oder akustische Anzeigeeinrichtung sind oder umfassen beispielsweise ein Display und/oder ein Lichtrufsystem und/oder ein Tonrufsystem.
  • Eine beispielhafte Anzeige eines Displays ist in 5 dargestellt. Das System hat beispielsweise erkannt, dass bei dem Patient P keine oder nur eine sehr geringe Änderung der Position des Rumpfes, eines Arms und des Kopfes erfolgt ist, insbesondere über eine längere Zeitdauer, erfolgt ist. Dadurch kann eine erhöhte Druckbelastung an diesen Stellen des Körpers vorliegen. In der Displayanzeige werden die kritischen Stellen, beispielsweise farblich hervorgehoben, dargestellt. In 5 ist dies beispielhaft durch die unterschiedliche Schraffierung verschiedener Bereiche dargestellt.
  • Alternativ oder zusätzlich kann auch ein Ansteuern einer Aktoreinrichtung, insbesondere zum Ergreifen von Gegenmaßnahmen, erfolgen.
  • Alternativ oder zusätzlich kann das System Daten D1 über die Schnittstelle 160b für eine externe Speichereinrichtung 180, beispielsweise Datenbank, beispielsweise ein Krankenhausinformationssystem, KIS, bereitstellen.
  • Ein weiterer Aspekt betrifft die Anbindung von Drittgeräten an das System 100. Beispielsweise ist es denkbar, Drittgeräte, wie beispielsweise Pulsmessgeräte, Blutzuckermessgerät, etc. anzuschließen. Vorteilhafterweise können die von diesen Geräten erfassten Daten berücksichtigt und/oder weitergeleitet werden.
  • Das Verfahren und/oder System verwendet vorteilhafterweise KI-basierte, Klassifizierungsmethoden und/oder KI-basierte Bilderkennungsmethoden, insbesondere Machine-Learning Algorithmen.
  • Gemäß einer Ausführunform ist vorgesehen, dass das System 100 wenigstens ein Machine-Learning Modell, insbesondere zur Bilderkennung und/oder zum Klassifizieren von Änderungen zum Bestimmen eines Zustands des Körpers, umfasst.
  • Das Trainieren der Machine-Learning Algorithmen erfolgt beispielsweise in einem überwachten Lernverfahren, wobei die Algorithmen mit Trainingsdaten, insbesondere realen Trainingsdaten, trainiert werden. Die Trainingsdaten umfassen vorteilhafterweise Bilddaten, sowie Vital- und Bewegungsdaten. Durch das Trainieren anhand von erfassten und dokumentierten Fällen können die Bilderkennung und/oder die Klassifizierung zur Vorhersage und/oder Erkennung von Zuständen verbessert werden.

Claims (10)

  1. Computerimplementiertes Verfahren (200) zum Bestimmen und/oder Überwachen eines Zustands (Z) eines, insbesondere menschlichen, Körpers (K), das Verfahren (200) umfassend die folgenden Schritte: Bereitstellen (210) von Bilddaten (B) des Körpers (K) und/oder Teilen des Körpers, Ableiten (220) wenigstens einer Änderung aus den Bilddaten (B), insbesondere wenigstens einer Position des Körpers (K) und/oder Teilen des Körpers, und/oder eines Volumens, des Körpers und/oder Teilen des Körpers, wobei das Ableiten (220) der Änderungen umfasst: Erzeugen (220a) wenigstens einer ersten Referenzstruktur (R) umfassend wenigstens zwei, vorzugsweise mehrere, Referenzpunkte (P) und wenigstens eine die wenigstens zwei Referenzpunkte (P) verbindende Referenzachse (RA) mittels Bilderkennung in erfassten ersten Bilddaten (B) und Erzeugen wenigstens einer zweiten Referenzstruktur (R) mittels Bilderkennung in erfassten zweiten Bilddaten (B) , und Ableiten (220c) der Änderung basierend auf wenigstens einer Differenz zwischen der ersten und der zweiten Referenzstruktur (R); und wobei das Verfahren weiter umfasst: Bestimmen (230) eines Zustands (Z) des Körpers (K) unter Berücksichtigung der Änderung.
  2. Verfahren (200) nach Anspruch 1, wobei eine Referenzstruktur (R) derart erzeugt wird, dass ein Referenzpunkt (P) der Referenzstruktur (R) einem Gelenk des Körpers (K) in den erfassten Bilddaten (B) zugeordnet wird und/oder dass eine Referenzachse (RA) entlang eines Abschnitts des Körpers (K) verläuft.
  3. Verfahren (200) nach einem der Ansprüche 1 oder 2, wobei wenigstens eine Differenz zwischen der ersten und zweiten Referenzstruktur (R) basierend auf einem Winkel zwischen zwei Referenzachsen (RA) und/oder einem Abstand zwischen zwei Referenzpunkten (P) bestimmt wird.
  4. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei beim Erzeugen einer Referenzstruktur (R) und/oder beim Ableiten der Änderung und/oder beim Bestimmen des Zustands (Z) des Körpers (K) ein Bewegungsmuster und/oder ein Lagemuster berücksichtigt wird.
  5. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei beim Ableiten (220c) der Änderung eine oder mehrere der folgenden Größen im Zusammenhang mit den erfassten Bilddaten (B) berücksichtigt wird: - ein Umfang des Körpers, insbesondere Abschnitten des Körpers, - Zeitpunkt und/oder Zeitdauer - Farben - erkannte Bewegungen, insbesondere eine Geschwindigkeit der erkannten Bewegungen.
  6. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei das Verfahren weiter umfasst: Bereitstellen von Bilddaten (BB) einer Peripherie des Körpers (K) und Erkennen von Änderungen in der Peripherie des Körpers (K) .
  7. System (100) zum Ausführen eines Verfahrens nach einem der Ansprüche 1 bis 6, zum Bestimmen und/oder Überwachen eines Zustands (Z) eines menschlichen Körpers (K), das System (100) umfassend wenigstens eine Bilderfassungseinrichtung (110) zum Erfassen von Bilddaten (B) des Körpers (K) und/oder Teilen des Körpers, und eine Recheneinrichtung (120), die zum Ausführen von Schritten des Verfahrens nach wenigstens einem der Ansprüche 1 bis 6 ausgebildet ist.
  8. System nach Anspruch 7, wobei das System eine Ausgabeeinrichtung (160a, 160b, 160c, 170) zum Ausgeben wenigstens einer Ausgabe in Abhängigkeit des Zustands des Körpers umfasst.
  9. System nach Anspruch nach einem der Ansprüche 7 oder 8, wobei das System weiter wenigstens eine Speichereinrichtung (150a, 150bb) und/oder eine Temperaturerfassungseinrichtung (130) und/oder eine Audioerfassungseinrichtung (140) umfasst.
  10. System nach Anspruch nach einem der Ansprüche 7 bis 9, wobei das System wenigstens ein Machine-Learning Modell, insbesondere zur Bilderkennung und/oder zum Klassifizieren von Änderungen zum Bestimmen (230) eines Zustands (Z) des Körpers (K), umfasst.
DE102021120737.1A 2021-08-10 2021-08-10 Diagnoseverfahren und -vorrichtung Pending DE102021120737A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021120737.1A DE102021120737A1 (de) 2021-08-10 2021-08-10 Diagnoseverfahren und -vorrichtung
PCT/EP2022/071760 WO2023016877A1 (de) 2021-08-10 2022-08-02 Diagnoseverfahren und -vorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021120737.1A DE102021120737A1 (de) 2021-08-10 2021-08-10 Diagnoseverfahren und -vorrichtung

Publications (1)

Publication Number Publication Date
DE102021120737A1 true DE102021120737A1 (de) 2023-02-16

Family

ID=83149056

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021120737.1A Pending DE102021120737A1 (de) 2021-08-10 2021-08-10 Diagnoseverfahren und -vorrichtung

Country Status (2)

Country Link
DE (1) DE102021120737A1 (de)
WO (1) WO2023016877A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012216747A1 (de) 2012-09-19 2014-03-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von zumindest einer vorbestimmten Bewegung zumindest eines Teils eines Körpers eines Lebewesens
WO2017025573A1 (en) 2015-08-10 2017-02-16 Yoti Ltd Liveness detection
US20190274614A1 (en) 2018-03-12 2019-09-12 Physimax Technologies Ltd. Systems and methods for assessment of a musculoskeletal profile of a target individual
US20200050901A1 (en) 2017-02-09 2020-02-13 Laing O'rourke Australia Pty Ltd System for identifying a defined object

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020000351A5 (de) * 2019-01-07 2021-10-28 Metralabs Gmbh Neue Technologien Und Systeme Verfahren und System zur Erfassung des Bewegungsablaufs einer Person

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012216747A1 (de) 2012-09-19 2014-03-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von zumindest einer vorbestimmten Bewegung zumindest eines Teils eines Körpers eines Lebewesens
WO2017025573A1 (en) 2015-08-10 2017-02-16 Yoti Ltd Liveness detection
US20200050901A1 (en) 2017-02-09 2020-02-13 Laing O'rourke Australia Pty Ltd System for identifying a defined object
US20190274614A1 (en) 2018-03-12 2019-09-12 Physimax Technologies Ltd. Systems and methods for assessment of a musculoskeletal profile of a target individual

Also Published As

Publication number Publication date
WO2023016877A1 (de) 2023-02-16

Similar Documents

Publication Publication Date Title
DE102018202088A1 (de) Fahrzeug-Sitz-System mit Sitz-Nutzer-Vital-Zeichen-Überwachung
EP3412242A1 (de) Ausgabe von positionsinformationen eines medizintechnischen instruments
DE102017220500A1 (de) System und Verfahren zur Unterstützung einer medizinischen Maßnahme
DE102005029709B3 (de) Dialysegerät
DE112018003204T5 (de) Chirurgisches Bildgebungssystem und -verfahren
EP3567598A1 (de) Prüfung eines interventionellen superpositionsbildes
US20210059758A1 (en) System and Method for Identification, Labeling, and Tracking of a Medical Instrument
WO2019157190A1 (en) Methods and systems for patient monitoring
AT520485A1 (de) Verfahren zum automatischen Erfassen einer Grundposition einer auf einer Matratze liegenden Person und zum Erzeugen einer Grafikdarstellung dieser Person
DE102007003876B3 (de) Verfahren zur Kollisionsüberwachung und medizinische Einrichtung
EP3441977A1 (de) Verfahren und system zur unterstützung von medizinischem personal
EP3458304B1 (de) Sitzbelegungserkennung
WO2018114454A1 (de) Vorrichtung, verfahren und computerprogramm zur erfassung von optischen bilddaten und zur bestimmung einer lage einer seitenbegrenzung einer patientenlagerungsvorrichtung
DE102021120737A1 (de) Diagnoseverfahren und -vorrichtung
DE102016118673A1 (de) System zur Früherkennung von post-operativen Blutungen
DE102005007963A1 (de) Verfahren und Einrichtung zur Quantifizierung von vegetativen Stressniveaus
EP4158377A1 (de) Medizinisches set zum ueberwachen eines patienten mittels radarwellen
EP2750588B1 (de) Verfahren zur zustandserkennung eines fahrzeugführers durch erfassung einer plethysmographischen grösse
EP3628231A1 (de) Medizinische matratze und verfahren zur echtzeitüberwachung
EP3151740A1 (de) Vorrichtung zur nicht invasiven messung des blutflusses
DE102017211555A1 (de) Verfahren zur Überwachung mindestens eines Insassen eines Kraftfahrzeugs, wobei das Verfahren insbesondere zur Überwachung und Erkennung möglicher Gefahrensituationen für mindestens einen Insassen dient
DE1616005A1 (de) Fernueberwachungsanlage
WO2019233709A1 (de) Verfahren und gerät zur bestimmung mindestens eines physiologischen parameters
CN109480791A (zh) 一种小鼠脑缺血再灌注模型的优化及败果评价方法
DE102018113307A1 (de) System und Verfahren zur Detektion von Herzschlagereignissen in Echtzeit unter Verwendung eines Bewegungssensors mit niedriger Leistung

Legal Events

Date Code Title Description
R163 Identified publications notified
R082 Change of representative

Representative=s name: KELLER SCHNEIDER PATENTANWALTS GMBH, DE

R012 Request for examination validly filed