DE102016111327A1 - Verfahren und System zur Beurteilung von Wunden - Google Patents

Verfahren und System zur Beurteilung von Wunden Download PDF

Info

Publication number
DE102016111327A1
DE102016111327A1 DE102016111327.1A DE102016111327A DE102016111327A1 DE 102016111327 A1 DE102016111327 A1 DE 102016111327A1 DE 102016111327 A DE102016111327 A DE 102016111327A DE 102016111327 A1 DE102016111327 A1 DE 102016111327A1
Authority
DE
Germany
Prior art keywords
body portion
pixels
pixels representing
camera
body part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016111327.1A
Other languages
English (en)
Inventor
Bodo Schrödel
Hans Mußwessels
Jonathan Volker Herrmann
Leonhard Maximilian Rist
Merlin Arthur Nau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102016111327.1A priority Critical patent/DE102016111327A1/de
Publication of DE102016111327A1 publication Critical patent/DE102016111327A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Biophysics (AREA)
  • Geometry (AREA)
  • Dermatology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

Bereitgestellt wird ein Verfahren zur Beurteilung eines Körperabschnitts, insbesondere einer Wunde auf einem Körperteil unter Verwendung einer 3D-Kamera. Nach Aufnahme des Bildes wird der Wundbereich mittels Kombination eines Schwellenwertverfahrens und eines Bereichswachstumsverfahrens identifiziert und analysiert. Dabei verwendet das Schwellenwertverfahren 3D-Informationen, insbesondere Tiefeninformationen, und das Bereichswachstumsverfahren Farbinformationen. Weiter wird ein System zur Ausführung des Verfahrens beschrieben.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft ein Verfahren und System zur Vermessung und Dokumentation von Körperabschnitten, insbesondere Wunden, z. B. chronischen Wunden, unter Verwendung einer 3D-Kamera.
  • Stand der Technik
  • Bei der Beurteilung von Wunden kommen unterschiedlich vorgebildete Personengruppen, z. B. Experten, Ärzte, ambulante/stationäre Pflegedienste oder Laien, zu unterschiedlichen Ergebnissen, beispielsweise hängt die Erfassung von Parametern wie Länge, Breite, Oberfläche, Wundstadium stark von der Erfahrung des Untersuchers ab. Dies erschwert die Beurteilung der Wunde und damit des Heilungsprozesses über einen längeren Zeitraum. Um Ärzte und Pflegepersonal bei der Diagnose und Behandlung chronischer Wunden zu unterstützen ist eine möglichst neutrale, nicht subjektive, Erfassung und Dokumentation der relevanten Daten der Wunde, zum Beispiel der Abmessung, der Fläche und Farbanteile der Wunde, wünschenswert, d. h. durch technische (objektive) Hilfsmittel.
  • Dazu werden bei der Wunddokumentation und Wundbeurteilung häufig Bilder verwendet, die mit einer zum jeweiligen Zeitpunkt gerade zur Verfügung stehenden Kamera aufgenommen werden. In einer Reihe mehrerer, zu verschiedenen Zeitpunkten aufgenommener, Bilder kann also etwa die Aufnahmedistanz, die verwendete Kamera oder die Beleuchtung variieren, was dazu führt, dass die Bilder schwer vergleichbar sind, und damit die Entwicklung der Wunde, d. h. der Heilungsverlauf, nur schwer eingeschätzt werden kann. Aber auch nach Abheilung der Wunde muss der Körperabschnitt erneut beurteilt werden, um den Verlauf zu dokumentieren.
  • Es besteht also Bedarf daran, die erfassten Daten stärker zu standardisieren und die Vergleichbarkeit von zu unterschiedlichen Zeitpunkten erfassten Daten zu erhöhen.
  • Zusammenfassung der Erfindung
  • Erfindungsgemäß wird das Problem gelöst durch ein Verfahren zur Beurteilung eines Körperabschnitts, insbesondere einer Wunde, auf einem Körperteil unter Verwendung einer 3D-Kamera, umfassend: Aufnehmen eines aus Bildpunkten bestehenden Bildes des Körperteils mit der 3D-Kamera, wobei das Bild zu jedem Bildpunkt Farbinformationen und 3D-Informationen beinhaltet; Bestimmen der den Körperteil darstellenden Bildpunkte mittels eines Schwellenwertverfahrens zur Segmentierung des Bildes, basierend auf den 3D-Informationen der Bildpunkte des Bildes; Bestimmen der den Körperabschnitt (Wunde) darstellenden Bildpunkte als Teilmenge der den Körperteil darstellenden Bildpunkte mittels eines Bereichswachstumsverfahrens, basierend auf einem Homogenitätskriterium, das die Farbinformationen der den Körperteil darstellenden Bildpunkte verwendet.
  • Gemäß einem Aspekt der vorliegenden Erfindung kann das Verfahren weiter ein Glätten der Farbinformationen vor dem Schritt des Bestimmens der den Körperabschnitt (die Wunde) darstellenden Bildpunkte umfassen, bevorzugt durch Anwenden eines Bilateral-Filters.
  • Gemäß einem Aspekt kann das Verfahren ein Identifizieren unterschiedlicher Körperabschnittsbereiche mittels einer Farbclusteranalyse, angewandt auf die den Körperabschnitt darstellenden Bildpunkte umfassen.
  • Gemäß einem anderen Aspekt kann das Verfahren weiter ein Berechnen der Fläche des Körperabschnitts mittels der den Körperabschnitt darstellenden Bildpunkte und der zu diesen Bildpunkten gehörenden 3D-Informationen umfassen.
  • Gemäß einem weiteren Aspekt kann das Verfahren weiter eine Farbanalyse des Körperabschnitts mittels der den Körperabschnitt darstellenden Bildpunkte umfassen.
  • Gemäß einem Aspekt kann das Verfahren weiter ein Auswahlen eines Bildausschnitts vor dem Schritt des Bestimmens der den Körperteil darstellenden Bildpunkte umfassen.
  • Gemäß einem Aspekt kann das Verfahren weiter ein Anwenden eines Kantenfilters zum Identifizieren der den Körperabschnitts-Rand darstellenden Bildpunkte umfassen.
  • Gemäß einem Aspekt kann das Verfahren weiter das Durchführen einer Hauptkomponentenanalyse für die den Körperabschnitts-Rand darstellenden Bildpunkte umfassen.
  • Gemäß einem Aspekt kann das Verfahren weiter das Durchführen einer Hauptachsentransformation und Bestimmen der Abmessungen des Körperabschnitts in Richtung der Hauptachsen umfassen.
  • Gemäß einem Aspekt kann das Verfahren weiter ein Speichern der aufgenommenen Bilder und/oder der aus den aufgenommenen Bildern bestimmten Daten in einer Datenbank umfassen.
  • Erfindungsgemäß wird das Problem weiter gelöst durch ein System zur Beurteilung eines Körperabschnitts, insbesondere einer Wunde, auf einem Körperteil, umfassend: eine 3D-Kamera, die geeignet ist, aus Bildpunkten bestehende Bilder aufzunehmen, wobei das Bild zu jedem Bildpunkt Farbinformationen und 3D-Information beinhaltet; und einen Computer, der mit der 3D-Kamera verbunden ist und von der 3D-Kamera aufgenommene Bilder empfängt; wobei der Computer konfiguriert ist, zum Ausführen des oben beschriebenen Verfahrens.
  • Gemäß einem anderen Aspekt des Systems kann der Computer weiter zum Steuern der 3D-Kamera konfiguriert sein.
  • Gemäß einem weiteren Aspekt des Systems kann die 3D-Kamera mit dem Computer integriert sein.
  • Gemäß einem weiteren Aspekt des Systems kann der Computer ein mobiles Endgerät sein.
  • Gemäß einem weiteren Aspekt des Systems kann der Computer mit einer Datenbank verbunden sein.
  • Kurze Beschreibung der Zeichnung
  • Im Folgenden werden beispielhafte Ausführungsformen der Erfindung unter Bezug auf die Figuren genauer beschrieben, wobei
  • 1 ein Verfahren zur standardisierten, automatischen Analyse eines Bildes zeigt; und
  • 2 den prinzipiellen Aufbau und Einsatz des Systems zur Beurteilung eines Körperabschnitts skizziert.
  • Ausführliche Beschreibung der Erfindung
  • Der zu untersuchende Körperteil wird zunächst auf einer geeigneten Unterlage platziert, die vorzugsweise eben ist. Mit einer 3D-Kamera wird dann ein Bild des Körperteils aufgenommen, das aufgenommene Bild besteht aus einzelnen, in Zeilen und Spalten angeordneten, Bildpunkten, die auch als Pixel bezeichnet werden. Die 3D-Kamera erfasst für jeden Bildpunkt sowohl Farbinformationen, als auch (dreidimensionale) 3D-Informationen, also insbesondere den Abstand zur 3D-Kamera, d. h. Tiefeninformationen. Mit diesen Farb- und 3D-Informationen 2 lässt sich eine dreidimensionale Darstellung der aufgenommen Bildinhalte rekonstruieren.
  • 1 stellt das erfindungsgemäße Verfahren 1 zur standardisierten, automatischen Analyse des aufgenommenen Bildes dar, durch das eine objektive Beurteilung eines Körperabschnitts, insbesondere einer Wunde, erleichtert wird. Der Lesbarkeit wegen wird in der folgenden Beschreibung vor allem auf eine Wunde Bezug genommen. Jedoch ist das Verfahren auch bei Körperabschnitten mit gesundem Gewebe anwendbar, beispielsweise nach Abheilung einer Wunde, um den Heilerfolg zu dokumentieren.
  • Um den Körper vom Hintergrund zu unterscheiden, also den zu untersuchenden Körperteil, etwa einen Arm, von einer flachen Unterlage, wird eine Segmentierung des aufgenommenen Bildes durchgeführt, d. h. die einzelnen Bildpunkte des Bildes werden verschiedenen Segmenten zugeordnet, wobei die Bildpunkte eines Segments den Körperteil darstellen und die Bildpunkte eines weiteren Segments den Hintergrund darstellen. Hierzu wird ein Schwellenwertverfahren basierend auf der Tiefeninformation der einzelnen Bildpunkte verwendet. Die Bildpunkte werden den Segmenten zugeordnet, je nachdem ob ihre Tiefe ober- oder unterhalb eines bestimmten Wertes, des Schwellenwertes, liegt. Da der Körperteil einen anderen Abstand zur 3D-Kamera aufweist als die Unterlage werden sich die Tiefeninformationen der jeweiligen Bildpunkte also unterscheiden. Ein Histogramm der Tiefeninformation aller Bildpunkte wird entsprechend zwei Häufungspunkte aufweisen, und der Schwellenwert sollte so bestimmt werden, dass diese zwei Häufungspunkte getrennt werden. Wenn der Körperteil auf einer bevorzugt ebenen Unterlage platziert wird, sollte eine klare Trennung möglich sein, da die Bildpunkte die zur Unterlage gehören im Wesentlichen alle die gleiche Tiefeninformation aufweisen sollten.
  • Um einen geeigneten Schwellenwert zu finden, kann die Methode 3 von Otsu genutzt werden (N. Otsu, Transactions on Systems, Man, and Cybernetics, 1979, Vol. 9, No. 1, pp. 62–66). Dazu wird zunächst ein Histogramm der Tiefenwerte erstellt und für einen bestimmten Tiefenwert die Auftritts-Häufigkeiten unter- und oberhalb dieses Tiefenwerts berechnet:
    Figure DE102016111327A1_0002
  • Hier bezeichnet θ einen vorgegebenen Tiefenwert, Histogramm(i) die Anzahl der Beobachtung von Tiefenwerten im mit i bezeichneten Abschnitt des Histogramms der Tiefenwerte und L den größten auftretenden Tiefenwert. Weiter werden die „Schwerpunkte” μ1/2(θ) der zwei Klassen, unter-/oberhalb des Tiefenwerts θ, berechnet:
    Figure DE102016111327A1_0003
  • Der optimale Schwellenwert wird dann bestimmt, indem die Varianz σ2(θ) = P1(θ)P2(θ)(μ1(θ) – μ2(θ))2 maximiert wird. Der so erhaltene Schwellenwert ermöglicht, entsprechend den zwei Klassen, die Einteilung der Bildpunkte in Bildpunkte, die die Unterlage darstellen, und in Bildpunkte, die den Körperteil darstellen.
  • Um die Effizienz dieses Verfahrens zu erhöhen ist es bevorzugt möglich einen Bildausschnitt vor dem Bestimmen der das Körperteil darstellenden Bildpunkte auszuwählen. Dies sollte so geschehen, dass die Oberfläche des zu untersuchenden Körperteils von dem Hintergrund im Bildausschnitt klar beabstandet ist.
  • Nachdem der Körper vom Hintergrund unterschieden wurde, wird nun die Region der Wunde innerhalb des Körperteils bestimmt. Hierzu wird ein Bereichswachstumsverfahren 5 (Region Growing) angewendet, welches ausgehend von einem Saatpunkt einen im Hinblick auf die Farbwerte homogenen Bildbereich bestimmt. Dazu wird, zum Beispiel rekursiv, startend mit dem Saatpunkt für alle Nachbarbildpunkte überprüft, ob ein festgelegtes Homogenitätskriterium erfüllt ist, ob also die Farben innerhalb eines Farbbereichs liegen, der sich von der Farbe des Saatpunkts nicht zu sehr unterscheidet. Vorzugsweise wird als Saatpunkt ein Bildpunkt, der zu dem gesunden Gewebe gehört ausgewählt, da der Wundbereich im Allgemeinen inhomogen bezüglich seiner Farbe und nicht zusammenhängend sein wird. Die Hautbereiche mit gesundem Gewebe werden als Hintergrund deklariert 6. Die Bildpunkte, welche zur Wunde gehören, sind dann also gegeben durch die Bildpunkte, die den Körperteil darstellen, abzüglich der Bildpunkte, die durch das Bereichswachstumsverfahren 5 als gesundem Gewebe zugehörig erkannt wurden.
  • Da in dem aufgenommenen Bild eventuell kleinere Inhomogenitäten, z. B. Hautunregelmäßigkeiten, vorhanden sind, die nicht von der Wunde verursacht sind, wird vor dem Ausführen des Bereichswachstumsverfahrens 5 bevorzugt eine Glättung durchgerührt. Dazu ist zum Beispiel ein Bilateral-Filter 4 geeignet. Hierbei fließen Farben von Bildpunkten aus der Nachbarschaft eines Bildpunkts in Abhängigkeit vom räumlichen Abstand und in Abhängigkeit vom Farbabstand in die Berechnung des geglätteten Farbwerts des Bildpunkts mit ein. Die Gewichtung der einzelnen Bildpunkte erfolgt dabei jeweils durch eine Dichtefunktion, z. B. durch Gaußsche-Dichtefunktionen. Für die Abhängigkeit vom räumlichen Abstand gehen die Farbwerte benachbarter Bildpunkte mit der Dichtefunktion (Glockenkurve) gewichtet entsprechend ihrem räumlichen Abstand vom zu berechnenden Bildpunkt ein, wobei der Punkt an dem die Dichtefunktion den höchsten Wert aufweist mit dem zu bestimmenden Bildpunkt zusammenfällt, dieser also mit dem höchsten Gewicht eingeht. Analog werden die Farbwerte zusätzlich mit einer zweiten Dichtefunktion entsprechend dem Farbabstand gewichtet. Dieses Verfahren hat den Vorteil, dass eine gewisse Weichzeichnung/Glättung bei gleichzeitigem Erhalt von Objektkanten erreicht wird.
  • Nach Bestimmen der die Wunde darstellenden Bildpunkte kann bevorzugt auf diese Bildpunkte ein Verfahren zur Farbclusteranalyse 7 angewandt werden. Hierbei findet ein Clustern in unterschiedliche Farbbereiche statt, beispielsweise kann der bekannte 'k-Means-Algorithmus' im Farbraum Anwendung finden; damit können zum Beispiel verschieden gefärbte Bereiche innerhalb der Wunde identifiziert werden, welche Bereichen in verschiedenen Heil- oder auch Entzündungsstadien entsprechen.
  • Da auch 3D-Informationen 2 erfasst werden, d. h. Entfernung und (Winkel-)Orientierung des durch einen Bildpunkt dargestellten Bereichs, und damit ein Maßstab 8 gegeben ist, ist auch bekannt, welche Fläche jeder Bildpunkt überdeckt. Die Fläche der Wunde kann also berechnet werden 9 als Summe über die jeweilige Fläche aller Bildpunkte, die die Wunde, bzw. den Körperabschnitt, darstellen. Sind mehrere zu verschiedenen Zeitpunkten aufgenommene Bilder vorhanden, ermöglicht dies eine zuverlässige Einschätzung der Entwicklung der Wundfläche. Entsprechend lässt sich auch die Fläche unterschiedlicher Bereiche innerhalb der Wunde berechnen, falls diese mit der Clusteranalyse 7 bestimmt wurden.
  • Mittels einer Farbanalyse 10 kann weiter Auskunft über den Zustand der Wunde gegeben werden, da unterschiedliche Farben beispielsweise unterschiedlichen Heilphasen entsprechen, oder auch Entzündungen anzeigen können. Um eine solche Farbanalyse zu unterstützen kann bei der Aufnahme des Bildes eine Farbkarte mit Referenzfarben neben den Körperteil gelegt werden, dies erlaubt die falsche Wiedergabe von Farben zu kompensieren, dazu können z. B. die Bilddaten direkt bei der Aufnahme korrigiert werden, oder auch später bei der Weiterverarbeitung. Eine falsche Wiedergabe kann beispielsweise durch Beleuchtung mit nichtweißem Licht entstehen.
  • Eine solche Farbanalyse lässt sich auch auf einzelne Abschnitte der Wunde anwenden, etwa auf die Bereiche, die durch die Farbclusteranalyse 7 bestimmt wurden. Diese Analyse könnte zum Beispiel in Verbindung mit zu früheren Zeitpunkten aufgenommenen Bildern ergeben, dass die Wunde in großen Bereichen heilt, jedoch ein kleinerer Bereich vorhanden ist, der nicht heilt oder sich verschlechtert. Es ist dann möglich, bei der nächsten Aufnahme diesen Bereich vergrößert aufzunehmen, um eine genauere Analyse dieses Bereichs zu ermöglichen.
  • Weiter ist es möglich, die Kantenpunkte der Wundkontur zu bestimmen. Dazu wird ein geeigneter Kantenfilter 11, z. B. ein Sobel- oder Schar-Filter, verwendet. Ein solcher berechnet die erste Ableitung Bildpunkt-Helligkeitswerte bzw. -Farbwerte; ein hoher Gradient zeigt eine Kante im Bild an. Der Algorithmus bestimmt den Gradienten mittels der Faltung einer 3×3-Matrix von Bildpunkten mit einem Faltungskern. Die 3×3-Matrix von Bildpunkten enthält dabei als mittleren Eintrag den Bildpunkt, an dem der Gradient bestimmt werden soll, und umliegend als weitere Einträge die diesem Bildpunkt benachbart gelegenen Bildpunkte. Im Falle eines Sobel-Filters sind die Faltungskerne für die x- und y-Richtung durch die sogenannten Sobeloperatoren gegeben:
    Figure DE102016111327A1_0004
  • Der Gradient in eine Richtung in einem Bildpunkt wird durch eintragsweises Multiplizieren der 3×3-Matrix der Bildpunkte mit dem entsprechenden Kern Sx bzw. Sy und anschließendes Aufaddieren der Produkte erhalten, d. h. durch Faltung der Matrizen. Dadurch wird jeweils ein Bild, welches der Ableitung in der zugehörigen Richtung entspricht, erhalten. Die Summe der zwei Bilder resultiert in einem kantengefiltertem Bild, in dem sich die Punkte mit einem hohen Gradienten, also insbesondere die Kanten, klar vom Hintergrund abheben. Es ist weiter möglich ein Schwellenwertverfahren auf das so erhaltene kantengefilterte Bild anzuwenden, und zum Beispiel allen Bildpunkten mit einem Gradienten über einem bestimmten Wert einen Farbwert, z. B. weiß, zuzuweisen, während alle anderen Bildpunkte einen anderen Farbwert, z. B. schwarz, zugewiesen bekommen; die Wundränder zeichnen sich dann als weiße Linien vor einem schwarzen Hintergrund ab. Auf diese Weise ist es möglich diejenigen Bildpunkte zu identifizieren, die den Wundrand darstellen.
  • Um die Länge und Breite der Wunde automatisch zu bestimmen, wird eine Hauptkomponentenanalyse PCA (Principle Component Analysis) 12 mit den zwei Faktoren Länge und Breite durchgeführt. Ausgegangen wird vom kantengefilterten Bild auf dem idealerweise nur noch der Umriss der Wunde zu sehen ist, z. B. in Form weißer Punkte vor einem schwarzen Hintergrund. Dieser Datensatz von Punkten des Umrisses der Wunde mit jeweiligen x- und y-Koordinaten, im Folgenden auch als Punktewolke bezeichnet und z. B. den weißen Punkten entsprechend, wird mittels der aus der Statistik bekannten PCA 12 analysiert, um die vielen Variablen/Komponenten auf weniger Variablen zu reduzieren. Zunächst wird das Koordinatensystem so verschoben, dass der Mittelpunkt der Punktewolke mit dem Ursprung des Koordinatensystems zusammenfällt, dass also gilt:
    Figure DE102016111327A1_0005
    wobei x korr / i, y korr / i die korrigierten Koordinaten der in der Punktewolke, die den Wundrand darstellt, befindlichen Punkte sind und n die Anzahl der Punkte in der Punktewolke bezeichnet.
  • Um zu bestimmen, in welche Richtung die Punktewolke die größte Ausdehnung aufweist, bzw. in welche Richtung sie die geringste Ausdehnung aufweist, wird die zugehörige Kovarianzmatrix C, eine 2×2-Matrix, berechnet und ihre Eigenwerte λ1/2 und Eigenvektoren x1/2 berechnet, welche durch die Gleichung (C – λE)x = 0 bestimmt sind; hierbei ist E die Einheitsmatrix. Der Eigenvektor mit dem größten Eigenwert ist die Hauptkomponente (Principle Component) des Datensatzes; er zeigt in die Richtung, in der der Datensatz die größte Variation aufweist, also im Fall der Punktewolke in eine Längsrichtung, und da die Punktewolke den Punkten des Wundrandes entspricht in eine Längsrichtung der Wunde. Im Anschluss wird die Wunde entlang den durch die beiden Eigenvektoren bestimmten Geraden, den sogenannten Hauptachsen, ausgemessen. Dazu werden jeweils Pixel ermittelt, die auf den berechneten Geraden liegen. Über ihre Koordinaten lässt sich ihr Abstand bestimmen und somit jeweils die Länge und Breite berechnen.
  • Weiter können die aufgenommenen Bilder und/oder die daraus mit dem obigen Verfahren bestimmten Daten in einer Datenbank gespeichert werden. Dies erlaubt den Vergleich von zu verschiedenen Zeitpunkten aufgenommenen Bildern und/oder daraus bestimmter Daten und damit zum Beispiel eine Einschätzung des Heilverlaufs. Denkbar wäre hier ein automatisierter Vergleich verschiedener aufgenommener Bilder und/oder daraus bestimmter Daten, etwa der Wundfläche, und gegebenenfalls Ausgabe eines Hinweises bei einem unerwünschten Heilverlauf, etwa einem Vergrößern der Wundfläche.
  • In 2 ist der Ablauf einer Wundbeurteilung, bzw. der Beurteilung eines Körperabschnitts, unter Verwendung des erfindungsgemäßen Verfahrens und Systems skizziert, wobei die Pfeile den Ablauf des Verfahrens bzw. den Fluss der Daten symbolisieren sollen. Das System besteht aus einer 3D-Kamera 22, die mit einem Computer, hier als mobiles Endgerät 23 dargestellt, verbunden ist. Denkbar ist hier auch, dass die 3D-Kamera 22 in den Computer bzw. in das mobile Endgerät 23 integriert ist, beispielsweise in einen Laptop, in einen Tablet-Computer oder, mit fortschreitender Miniaturisierung, in ein Smartphone eingebaut ist; so kann das System mobil eingesetzt werden, zum Beispiel in der häuslichen Pflege durch einen Pflegedienst. Als Beispiel für eine 3D-Kamera, die in einen Laptop oder ein Tablet eingebaut werden kann, sei hier die Intel RealSense® F200 genannt. Der Computer ist mit einem Programm 24 zur Verarbeitung der gewonnenen Bilddaten ausgestattet, welches ihm erlaubt das obig im Zusammenhang mit 1 beschriebene Verfahren auszuführen. Der Computer ist also konfiguriert, um das erfindungsgemäße Verfahren zur Wundbeurteilung auszuführen.
  • Durch die 3D-Kamera 22 des Systems wird ein Körperteil 21 aufgenommen, auf dem sich der zu untersuchende Körperabschnitt, insbesondere die zu untersuchende Wunde, befindet. Dabei werden sowohl Farbinformation (RGB) als auch 3D-Informationen erfasst. Bevorzugt ist es möglich die 3D-Kamera durch den Computer zu steuern, dadurch kann z. B. ein geeigneter Bildbereich durch zoomen ausgewählt werden.
  • Die erfassten Bilddaten werden an den Computer weitergegeben und dort verarbeitet. Der Computer kann weiter mit einer Datenbank 25 verbunden sein, die es ermöglicht die ursprünglichen Bilddaten und die durch die Verarbeitung gewonnenen Daten zu speichern, so dass ein Vergleich von Bildern und Daten, die zu unterschiedlichen Zeitpunkten gewonnen wurden, möglich ist. Die Entwicklung der Wunde kann also überprüft und der Heilverlauf abgeschätzt werden. Die Datenbank 25 kann direkt in den Computer integriert sein, oder auch, etwa im Fall eines mobilen Endgeräts, separat, z. B. zentralisiert, aufgebaut sein. In letzterem Fall kann eine Verbindung beispielsweise über ein Mobilfunknetzwerk erfolgen, wobei die sensiblen Patientendaten verschlüsselt übertragen werden sollten.
  • Abschließend können die gewonnenen Daten zusammengefasst, z. B. in einem PDF-File 26, gespeichert und gegebenenfalls für schriftliche Unterlagen ausgedruckt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • N. Otsu, Transactions on Systems, Man, and Cybernetics, 1979, Vol. 9, No. 1, pp. 62–66 [0026]

Claims (15)

  1. Verfahren zur Beurteilung eines Körperabschnitts, insbesondere einer Wunde, auf einem Körperteil unter Verwendung einer 3D-Kamera, umfassend: Aufnehmen eines aus Bildpunkten bestehenden Bildes des Körperteils mit der 3D-Kamera, wobei das Bild zu jedem Bildpunkt Farbinformationen und 3D-Informationen beinhaltet; Bestimmen der den Körperteil darstellenden Bildpunkte mittels eines Schwellenwertverfahrens zur Segmentierung des Bildes, basierend auf den 3D-Informationen der Bildpunkte des Bildes; Bestimmen der den Körperabschnitt darstellenden Bildpunkte als Teilmenge der den Körperteil darstellenden Bildpunkte mittels eines Bereichswachstumsverfahrens, basierend auf einem Homogenitätskriterium, das die Farbinformationen der den Körperteil darstellenden Bildpunkte verwendet.
  2. Verfahren gemäß Anspruch 1, weiter umfassend ein Glätten der Farbinformationen vor dem Schritt des Bestimmens der den Körperabschnitt darstellenden Bildpunkte, bevorzugt durch Anwenden eines Bilateral-Filters.
  3. Verfahren gemäß einem der vorstehenden Ansprüche, weiter umfassend Identifizieren unterschiedlicher Bereiche des Körperabschnitts mittels einer Farbclusteranalyse, angewandt auf die den Körperabschnitt darstellenden Bildpunkte.
  4. Verfahren gemäß einem der vorstehenden Ansprüche, weiter umfassend Berechnen der Fläche des Körperabschnitts mittels der den Körperabschnitt darstellenden Bildpunkte und der zu diesen Bildpunkten gehörenden 3D-Informationen.
  5. Verfahren gemäß einem der vorstehenden Ansprüche, weiter umfassend eine Farbanalyse des Körperabschnitts mittels der den Körperabschnitt darstellenden Bildpunkte.
  6. Verfahren gemäß einem der vorstehenden Ansprüche, weiter umfassend Auswählen eines Bildausschnitts vor dem Schritt des Bestimmens der den Körperteil darstellenden Bildpunkte.
  7. Verfahren gemäß einem der vorstehenden Ansprüche, weiter umfassend Anwenden eines Kantenfilters zum Identifizieren der den Körperabschnitts-Rand darstellenden Bildpunkte.
  8. Verfahren gemäß Anspruch 7, weiter umfassend Durchführen einer Hauptkomponentenanalyse für die den Körperabschnitts-Rand darstellenden Bildpunkte.
  9. Verfahren gemäß Anspruch 8, weiter umfassend Durchführen einer Hauptachsentransformation und Bestimmen der Abmessungen des Körperabschnitts in Richtung der Hauptachsen.
  10. Verfahren gemäß einem der vorstehenden Ansprüche, weiter umfassend Speichern der aufgenommenen Bilder und/oder der aus den aufgenommenen Bildern bestimmten Daten in einer Datenbank.
  11. System zur Beurteilung eines Körperabschnitts, insbesondere einer Wunde, auf einem Körperteil, umfassend: eine 3D-Kamera, die geeignet ist, aus Bildpunkten bestehende Bilder aufzunehmen, wobei das Bild zu jedem Bildpunkt Farbinformationen und 3D-Information beinhaltet; und einen Computer, der mit der 3D-Kamera verbunden ist und von der 3D-Kamera aufgenommene Bilder empfängt; wobei der Computer konfiguriert ist, zum Ausführen des Verfahrens gemäß einem der Ansprüche 1–10.
  12. System gemäß Anspruch 11, wobei der Computer weiter konfiguriert ist zum Steuern der 3D-Kamera.
  13. System gemäß einem der Ansprüche 11–12, wobei die 3D-Kamera mit dem Computer integriert ist.
  14. System gemäß einem der Ansprüche 11–13, wobei der Computer ein mobiles Endgerät ist.
  15. System gemäß einem der Ansprüche 11–14, wobei der Computer mit einer Datenbank verbunden ist.
DE102016111327.1A 2016-06-21 2016-06-21 Verfahren und System zur Beurteilung von Wunden Withdrawn DE102016111327A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016111327.1A DE102016111327A1 (de) 2016-06-21 2016-06-21 Verfahren und System zur Beurteilung von Wunden

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016111327.1A DE102016111327A1 (de) 2016-06-21 2016-06-21 Verfahren und System zur Beurteilung von Wunden

Publications (1)

Publication Number Publication Date
DE102016111327A1 true DE102016111327A1 (de) 2017-12-21

Family

ID=60481550

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016111327.1A Withdrawn DE102016111327A1 (de) 2016-06-21 2016-06-21 Verfahren und System zur Beurteilung von Wunden

Country Status (1)

Country Link
DE (1) DE102016111327A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022243026A1 (de) * 2021-05-20 2022-11-24 cureVision GmbH Mobile dokumentationsvorrichtung fuer die erfassung von hautlaesionen

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150077517A1 (en) * 2013-09-17 2015-03-19 Occipital, Inc. Apparatus for real-time 3d capture
US20150150457A1 (en) * 2013-12-03 2015-06-04 Children's National Medical Center Method and system for wound assessment and management

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150077517A1 (en) * 2013-09-17 2015-03-19 Occipital, Inc. Apparatus for real-time 3d capture
US20150150457A1 (en) * 2013-12-03 2015-06-04 Children's National Medical Center Method and system for wound assessment and management

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HE, Lei [et al.]: Histology image analysis for carcinoma detection and grading. In: Computer methods and programs in biomedicine 107 (2012), S. 538-556 *
MAGLOGIANNIS, I. [et al.]: An integrated computer supported acquisition, handling, and characterization system for pigmented skin lesions in dermatological images. In: IEEE Transactions on Information Technology in Biomedicine, Vol. 9, Nr. 1, März 2005, S. 86-98 *
N. Otsu, Transactions on Systems, Man, and Cybernetics, 1979, Vol. 9, No. 1, pp. 62–66
OTSU, Nobuyuki: A threshold selection method from gray-level histograms. In: IEEE Transactions on systems, man, and cybernetics, Vol. 9, Nr. 1, Januar 1979, S. 62-66 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022243026A1 (de) * 2021-05-20 2022-11-24 cureVision GmbH Mobile dokumentationsvorrichtung fuer die erfassung von hautlaesionen

Similar Documents

Publication Publication Date Title
DE102008032006A1 (de) Verfahren zur Steurung der Bildaufnahme bei einer Bildaufnahmeeinrichtung, sowie eine Bildaufnahmeeinrichtung
EP3287914A1 (de) Ermittlung von ergebnisdaten auf basis von medizinischen messdaten aus verschiedenen messungen
DE102012208625B4 (de) Verfahren und System zur Verarbeitung von MRT-Daten des menschlichen Gehirns
DE102014224656A1 (de) Verfahren und Vorrichtung zum Segmentieren eines medizinischen Untersuchungsobjekts mit quantitativen MR-Bildgebungsmethoden
DE102013213534A1 (de) Elektroimpedanztomographie-Gerät und -Verfahren
DE102010024859B3 (de) Verfahren und Vorrichtung zur Segmentierung von biologischen Zellen in einer Aufnahme
EP1797533A1 (de) Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen
DE102007028226A1 (de) Auswertungsverfahren für eine zeitliche Sequenz von Röntgenbildern und hiermit korrespondierende Gegenstände
DE102015122116A1 (de) System und Verfahren zur Ermittlung von Clutter in einem aufgenommenen Bild
DE102018215770A1 (de) Bildbearbeitungsvorrichtung, Zell-Erkennungsvorrichtung, Zell-Erkennungsverfahren und Zell-Erkennungsprogramm
DE112011105116T5 (de) Verfahren und Vorrichtung zur bildinhaltsbasierten automatischen Helligkeitserkennung
DE112015005697T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102006012943B4 (de) Verfahren zur automatischen Auswertung eines Abbildungsdatensatzes eines Objektes und medizinisches Abbildungssystem
DE102017124600A1 (de) Semantische Segmentierung eines Objekts in einem Bild
DE102021203251B3 (de) Digitale Pathologie unter Verwendung eines künstlichen neuronalen Netzes
WO2012013186A2 (de) Verfahren und vorrichtung zur bestimmung der augentorsion
DE102005049017A1 (de) Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum
DE102015205524A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Objekts in einem Bild
DE102005022156A1 (de) Verfahren und Vorrichtung zum Einstufen von Pixeln in medizinischer Bildgebung
DE102020211843A1 (de) Verfahren und Vorrichtung zur Analyse von Histopathologiebilddaten
DE102016111327A1 (de) Verfahren und System zur Beurteilung von Wunden
DE102010028382A1 (de) Verfahren und Computersystem zur Bearbeitung tomographischer Bilddaten aus einer Röntgen-CT-Untersuchung eines Untersuchungsobjektes
DE112022001991T5 (de) Tumorzelen-isolinien
DE102014108357B4 (de) Ganzkörperbildaufnahme- und Bildverarbeitungssystem sowie Verfahren zu dessen Betrieb
DE102021202672A1 (de) Verfahren zum Bereitstellen einer trainierbaren Funktion zur Bestimmung von synthetischen Bilddaten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee